KI, Kant und metakognitive Faulheit

KI, Kant und metakognitive Faulheit
erstellt mit Midjourney

Das Schöne an KI ist doch, dass wir anstrengende geistige Tätigkeiten an diese auslagern können. Eben nicht nur das Suchen nach Informationen, sondern – zu mehr oder weniger großen Anteilen – das Kreativ Sein, das Analysieren, das Problemlösen, das Nachdenken, kurz das Wissensarbeiten. Einige aktuelle Studien zeigen nun, dass Personen, die KI in dieser Form als ‚Mitdenker‘ nutzen, dazu neigen, ihre Arbeit, die mit der signifikanten Hilfe von KI entstanden ist, seltener zu prüfen und zu hinterfragen. Die Autoren einer dieser Studien (Beware of metacognitive laziness: Effects of generative artificial intelligence on learning motivation, processes, and performance) nennen dies „metakognitive Faulheit“.

Als Erwachsene können wir entscheiden, welche geistigen Prozesse wir an eine KI auslagern und wo wir uns bewusst dieser Faulheit widersetzen. Dazu nutzen wir unseren kritischen Verstand. Doch wie steht es um Kinder und Jugendliche, deren Mut sich des eigenen Verstandes zu bedienen – das Kantsche ’sapere aude‘ – gar nicht erst entwickelt wird, weil sie die anstrengende Reibung, die ein entsprechender Lernprozess bedeutet, vermeiden können?

Und was macht diese Entwicklung mit unserer Gesellschaft?

Unsere liberalen Demokratien beruhen auf mündigen Bürgern und Bürgerinnen, wie sie die Philosophen der Aufklärung beschreiben. Also Menschen, die sich ihres Verstandes bedienen und die Meinungen kritisch hinterfragen, auch ihre eigene. Wer nicht selbst denkt, wird alles glauben.

Und das, was wir da denken lassen, wird immer homogener, denn schließlich beruht generative KI auf Statistik und Wahrscheinlichkeit. „In großem Maßstab wird das, was als statistisches Musterlernen beginnt, zu einer generativen Kraft, die zentrale Tendenzen bevorzugt (…)“, so der Informatiker Zhivar Sourati.

Das Risiko, vor dem unsere Gesellschaften stehen, ist nicht die imaginäre Super-KI, die irgendwann die Weltherrschaft an sich reißt. Es ist unser selbst gewählter Weg in eine vor-aufklärerische Unmündigkeit – aus schierer Bequemlichkeit. Warum nur muss ich seit einiger Zeit immer wieder an den Animationsfilm Wall-E denken?

Vielleicht etwas pathetisch, aber ich ende mit einem hochaktuellen 300 Jahre alten Zitat:
„Aufklärung ist der Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit. Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. Selbstverschuldet ist diese Unmündigkeit, wenn die Ursache derselben nicht am Mangel des Verstandes, sondern der Entschließung und des Mutes liegt, sich seiner ohne Leitung eines anderen zu bedienen. Sapere aude! Habe Mut, dich deines eigenen Verstandes zu bedienen! ist also der Wahlspruch der Aufklärung.“

Neuer Workshop zu Kompetenzprofilen im Wissensmanagement

Neuer Workshop zu Kompetenzprofilen im Wissensmanagement
Sollprofil WM Professional

Am 23. April von 17 bis 19 Uhr biete ich nochmals gemeinsam mit Angelika Mittelmann, Sabine Wax und Ute John einen offenen Online-Workshop zur Entwicklung von Kompetenzprofilen im Wissensmanagement an. Dabei nutzen wir den von Angelika und mir entwickelten und gemeinsam mit Ute und Sabine weiterentwickelten GfWM Kompetenzkatalog.

Im Workshop werden wir in kleinen Arbeitsgruppen konkret Profile für Personae, also fiktive Personen, mit Rollen im Wissensmanagement erarbeiten. Diese Personae könnt ihr selbst mitbringen oder auch eine von uns vorgeschlagene nutzen. Durch die konkrete Anwendung werdet ihr den Kompetenzkatalog und dessen praktische Anwendung intensiv kennenlernen. Und wir erhalten von euch wertvolle Rückmeldung zum Katalog, aber auch zu Berufsbildern und Anforderungen im weiten Feld des Wissensmanagement.

Der Workshop ist kostenfrei. Bei Interesse bitte einfach bei mir melden!

Als kleine Vorbereitung könnt ihr euch mithilfe von ein paar knappen Erklärvideos schon einmal in den Kompetenzkatalog ‚eindenken‘ – müsst ihr aber nicht.

Wir freuen uns auf eine intensive Beschäftigung und Auseinandersetzung mit ‚Kompetenzen für Wissensmanagement‘.

Die KI denkt

Die KI denkt
erstellt mit Midjourney

Kürzlich habe ich in der Frankfurter Sonntagszeitung Folgendes gelesen: „Die KI [Claude Code] (…) kann jetzt einen Workflow von vier Schritten eigenständig abarbeiten: lesen, also unstrukturierte Informationen aufnehmen; denken, also domänenspezifisches Wissen anwenden; schreiben, also strukturierte Ergebnisse produzieren; verifizieren, also das Ergebnis mit mit vorgegebenen Standards abgleichen. In der Wissensökonomie gibt es nicht viele Berufe, die sich nicht auf diese vier Bausteine herunterbrechen lassen.“

Natürlich hat mich die Aussage zum Denken der KI nun selbst ins Nachdenken gebracht. Findet hier tatsächlich ein Denkprozess und eine Anwendung von Wissen statt – was ja voraussetzt, dass eine KI über Wissen verfügt.

Laut Philosophischem Wörterbuch von Georgi Schischkoff werden unter ‚Denken‘ alle (psychologischen) Vorgänge zusammengefasst, die aus einer inneren Beschäftigung mit Vorstellungen, Erinnerungen und Begriffen eine Erkenntnis zu formen versuchen. Martin Heidegger beschreibt das Denken gar als einen Weg. Das zu-Denkende entzieht sich dem Menschen und zieht ihn mit. Weil sich das zu-Denkende dem Menschen entzieht und sich von ihm abwendet, nimmt es ihn in Anspruch. 

Das kann mit dem Denken der KI nicht gemeint sein. Was also passiert, wenn eine KI „denkt“?
Hier verarbeitet das Modell die Informationen aus dem „Lesen“-Schritt und führt mehrere interne Teilprozesse aus:

  • Problemstruktur erkennen (Welche Aufgabe ist gestellt? Welche Informationen sind relevant?)
  • Hypothesen bilden durch statistisches Abwägen von Mustern aus Trainingsdaten
  • Lösungsstrategie planen (sinnvolle Schritte planen vor dem Schreiben)
  • Kontext verknüpfen durch die Kombination mehrerer Informationsquellen wie vorherige Nachrichten, bekannte Muster usw.

Das Denken einer KI bedeutet also interne Berechnungsschritte, probabilistische Planung, logische Strukturierung der Antwort. Das hat nichts zu tun mit Verstehen, Bewusstsein und intentionaler Überlegung, was das menschliche Denken kennzeichnet. Auch wird im eigentlichen Sinne kein „domänenspezifisches Wissen angewandt“, sondern die KI nutzt korrelationsbasierte Muster aus domänenspezifischen Trainingsdaten. Wir reden also von statistischer Generalisierung, nicht von Wissensanwendung.

Trotzdem ähnelt der Vier-Schritte-Workflow, mit dem bei modernen KI-Agenten typische Schwächen von Sprachmodellen, wie z. B. das Halluzinieren, reduziert werden, dem menschlichen Arbeitsablauf beim Problemlösen (z. B. nach Newell & Simon). Dadurch wird die KI vom reinen Textgenerierer zum Problemlöser.

Doch unser menschliches Denken ist soviel mehr als analytisches Problemlösen. Es ist auch zweckfreies Philosophieren, Träumen, Spintisieren… Ich denke, wir sollten uns angewöhnen, die technische Funktionsweise einer KI nicht mit menschlichen Begriffen wie ‚Denken‘ oder ‚Wissen‘ zu beschreiben, sondern angemessene technische Begrifflichkeiten dafür finden. Denn eine zunehmende Vermenschlichung von KI birgt das Risiko der abnehmenden kritischen Distanz. Und eine Vermenschlichung führt dazu, dass einer Technik Eigenschaften zugeschrieben werden, z. B. moralisches Verhalten, die für eine realistische Einschätzung technologischer Folgen letztlich irrelevant sind. Und den Blick ablenken von den verantwortlichen Menschen hinter der KI.

The parable of the learning flock of sheep

In my lectures on knowledge management, I have always enjoyed using the story of the learning flock of sheep – based on David Hutchens‘ story Outlearning the Wolves – to develop the characteristics of a learning organisation together with my students. Now my daughter Pauline has made a video out of it – without any AI, which I think makes it all the more beautiful.
Enjoy (duration 5’34 min.).

A German version is also available.