KI, Kant und metakognitive Faulheit

KI, Kant und metakognitive Faulheit
erstellt mit Midjourney

Das Schöne an KI ist doch, dass wir anstrengende geistige Tätigkeiten an diese auslagern können. Eben nicht nur das Suchen nach Informationen, sondern – zu mehr oder weniger großen Anteilen – das Kreativ Sein, das Analysieren, das Problemlösen, das Nachdenken, kurz das Wissensarbeiten. Einige aktuelle Studien zeigen nun, dass Personen, die KI in dieser Form als ‚Mitdenker‘ nutzen, dazu neigen, ihre Arbeit, die mit der signifikanten Hilfe von KI entstanden ist, seltener zu prüfen und zu hinterfragen. Die Autoren einer dieser Studien (Beware of metacognitive laziness: Effects of generative artificial intelligence on learning motivation, processes, and performance) nennen dies „metakognitive Faulheit“.

Als Erwachsene können wir entscheiden, welche geistigen Prozesse wir an eine KI auslagern und wo wir uns bewusst dieser Faulheit widersetzen. Dazu nutzen wir unseren kritischen Verstand. Doch wie steht es um Kinder und Jugendliche, deren Mut sich des eigenen Verstandes zu bedienen – das Kantsche ’sapere aude‘ – gar nicht erst entwickelt wird, weil sie die anstrengende Reibung, die ein entsprechender Lernprozess bedeutet, vermeiden können?

Und was macht diese Entwicklung mit unserer Gesellschaft?

Unsere liberalen Demokratien beruhen auf mündigen Bürgern und Bürgerinnen, wie sie die Philosophen der Aufklärung beschreiben. Also Menschen, die sich ihres Verstandes bedienen und die Meinungen kritisch hinterfragen, auch ihre eigene. Wer nicht selbst denkt, wird alles glauben.

Und das, was wir da denken lassen, wird immer homogener, denn schließlich beruht generative KI auf Statistik und Wahrscheinlichkeit. „In großem Maßstab wird das, was als statistisches Musterlernen beginnt, zu einer generativen Kraft, die zentrale Tendenzen bevorzugt (…)“, so der Informatiker Zhivar Sourati.

Das Risiko, vor dem unsere Gesellschaften stehen, ist nicht die imaginäre Super-KI, die irgendwann die Weltherrschaft an sich reißt. Es ist unser selbst gewählter Weg in eine vor-aufklärerische Unmündigkeit – aus schierer Bequemlichkeit. Warum nur muss ich seit einiger Zeit immer wieder an den Animationsfilm Wall-E denken?

Vielleicht etwas pathetisch, aber ich ende mit einem hochaktuellen 300 Jahre alten Zitat:
„Aufklärung ist der Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit. Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. Selbstverschuldet ist diese Unmündigkeit, wenn die Ursache derselben nicht am Mangel des Verstandes, sondern der Entschließung und des Mutes liegt, sich seiner ohne Leitung eines anderen zu bedienen. Sapere aude! Habe Mut, dich deines eigenen Verstandes zu bedienen! ist also der Wahlspruch der Aufklärung.“

Die KI denkt

Die KI denkt
erstellt mit Midjourney

Kürzlich habe ich in der Frankfurter Sonntagszeitung Folgendes gelesen: „Die KI [Claude Code] (…) kann jetzt einen Workflow von vier Schritten eigenständig abarbeiten: lesen, also unstrukturierte Informationen aufnehmen; denken, also domänenspezifisches Wissen anwenden; schreiben, also strukturierte Ergebnisse produzieren; verifizieren, also das Ergebnis mit mit vorgegebenen Standards abgleichen. In der Wissensökonomie gibt es nicht viele Berufe, die sich nicht auf diese vier Bausteine herunterbrechen lassen.“

Natürlich hat mich die Aussage zum Denken der KI nun selbst ins Nachdenken gebracht. Findet hier tatsächlich ein Denkprozess und eine Anwendung von Wissen statt – was ja voraussetzt, dass eine KI über Wissen verfügt.

Laut Philosophischem Wörterbuch von Georgi Schischkoff werden unter ‚Denken‘ alle (psychologischen) Vorgänge zusammengefasst, die aus einer inneren Beschäftigung mit Vorstellungen, Erinnerungen und Begriffen eine Erkenntnis zu formen versuchen. Martin Heidegger beschreibt das Denken gar als einen Weg. Das zu-Denkende entzieht sich dem Menschen und zieht ihn mit. Weil sich das zu-Denkende dem Menschen entzieht und sich von ihm abwendet, nimmt es ihn in Anspruch. 

Das kann mit dem Denken der KI nicht gemeint sein. Was also passiert, wenn eine KI „denkt“?
Hier verarbeitet das Modell die Informationen aus dem „Lesen“-Schritt und führt mehrere interne Teilprozesse aus:

  • Problemstruktur erkennen (Welche Aufgabe ist gestellt? Welche Informationen sind relevant?)
  • Hypothesen bilden durch statistisches Abwägen von Mustern aus Trainingsdaten
  • Lösungsstrategie planen (sinnvolle Schritte planen vor dem Schreiben)
  • Kontext verknüpfen durch die Kombination mehrerer Informationsquellen wie vorherige Nachrichten, bekannte Muster usw.

Das Denken einer KI bedeutet also interne Berechnungsschritte, probabilistische Planung, logische Strukturierung der Antwort. Das hat nichts zu tun mit Verstehen, Bewusstsein und intentionaler Überlegung, was das menschliche Denken kennzeichnet. Auch wird im eigentlichen Sinne kein „domänenspezifisches Wissen angewandt“, sondern die KI nutzt korrelationsbasierte Muster aus domänenspezifischen Trainingsdaten. Wir reden also von statistischer Generalisierung, nicht von Wissensanwendung.

Trotzdem ähnelt der Vier-Schritte-Workflow, mit dem bei modernen KI-Agenten typische Schwächen von Sprachmodellen, wie z. B. das Halluzinieren, reduziert werden, dem menschlichen Arbeitsablauf beim Problemlösen (z. B. nach Newell & Simon). Dadurch wird die KI vom reinen Textgenerierer zum Problemlöser.

Doch unser menschliches Denken ist soviel mehr als analytisches Problemlösen. Es ist auch zweckfreies Philosophieren, Träumen, Spintisieren… Ich denke, wir sollten uns angewöhnen, die technische Funktionsweise einer KI nicht mit menschlichen Begriffen wie ‚Denken‘ oder ‚Wissen‘ zu beschreiben, sondern angemessene technische Begrifflichkeiten dafür finden. Denn eine zunehmende Vermenschlichung von KI birgt das Risiko der abnehmenden kritischen Distanz. Und eine Vermenschlichung führt dazu, dass einer Technik Eigenschaften zugeschrieben werden, z. B. moralisches Verhalten, die für eine realistische Einschätzung technologischer Folgen letztlich irrelevant sind. Und den Blick ablenken von den verantwortlichen Menschen hinter der KI.

WMOOC Live Session in der nächsten Woche

WMOOC Live Session in der nächsten Woche
WMOOC

Am 11.12. um 16 Uhr geht es in der WMOOC Live Session um ein ganz praxisnahes Thema, nämlich Firmenwikis und wie man diese richtig einsetzt. Vor allem geht es unserem Referenten Martin Harnisch um die Frage, warum alle alles lesen und bearbeiten können sollten, also um ein offenes Wiki-Konzept, das viele Organisationen immer noch scheuen.

In der Session werden die Grundlagen von Wikis erklärt und wie sie funktionieren. Ein Schwerpunkt liegt auf den allgemeinen Vorteilen offener Wikis, in denen alle Personen alles lesen und bearbeiten können. Danach geht es um typische Bedenken, die dabei häufig auftauchen, und darum, wie man darauf reagiert. Ergänzend werden Beispiele aus Enterprise-Wikis behandelt, die zeigen, wie solche Prinzipien in Organisationen umgesetzt werden können.

Tatsächlich nähert sich der WMOOC 2025 rasant seinem Ende: Nur noch zwei Live Sessions stehen aus, die ihr euch schon einmal vormerken könnt:

Am 15.12. um 16 Uhr wird uns Kai Hoffmann mit hinter die Kulissen des Wissensmanagements bei Schutz und Rettung der Stadt Zürich nehmen.
Und am 22.12. um 16 Uhr erläutert Johanna Boli wie es gelingen kann Wissensmanagement in ein bestehendes Qualitätsmanagement-System zu integrieren, und zwar mit Hilfe von KI.

Wie immer stehen die Live Sessions allen Interessierten offen, auch denen die (noch) nicht für den WMOOC registriert sind. Bei Interesse bitte einfach bei mir melden, dann schicke ich die Einwahldaten zu. Oder am besten gleich für den WMOOC Newsletter anmelden!

AI Agents: Vom Tool zum Teamplayer – Aufzeichnung der WMOOC Live Session

Die Aufzeichnung unserer sehr intensiven Wissensmanagement-MOOC Live Session mit Sabine Wax von inside workspace zu AI Agents ist nun online im Open Academy-Kanal verfügbar (Dauer 1’10 Std.)

Ich werde mir – obwohl ich live dabei war – die Aufzeichnung gleich auch noch einmal ansehen. Da war so viel drin, das habe ich noch nicht alles verdaut, liebe Sabine!

WMOOC 2025: Live Session zu Wissensmanagement und hybridem Arbeiten

WMOOC 2025: Live Session zu Wissensmanagement und hybridem Arbeiten
WMOOC

In der nächsten Woche werden wir wieder eine Live Session im Wissensmanagement MOOC haben. Über diese freue ich mich besonders, weil der Referent, Benedikt, die Ergebnisse seiner sehr gelungenen Seminararbeit vorstellen wird, die er in meiner Lehrveranstaltung zu Wissensmanagement an der DHBW im letzten Semester geschrieben hat:
Thema: Wissensmanagement in hybriden Arbeitswelten – Herausforderungen und Lösungen in der mechatronischen Antriebstechnik, Benedikt Scharf
Die hybride Arbeitswelt verändert nicht nur, wo wir arbeiten, sondern auch, wie Wissen entsteht und geteilt wird. Spontane Begegnungen – entscheidend für den Austausch von implizitem Wissen – nehmen ab, mit spürbaren Folgen für Innovation und Zusammenarbeit.
In dieser Live Session beleuchten wir die zentralen Herausforderungen des Wissensmanagements in hybriden Organisationen und zeigen anhand von Praxisbeispielen aus der mechatronischen Antriebstechnik, wie Unternehmen diesen Wandel erfolgreich gestalten können. Erfahrt, welche Strategien und Tools helfen, Wissenssilos zu vermeiden und den informellen Austausch neu zu denken.
Termin: Freitag 7.11.2025 13 Uhr

Wie immer stehen die Live Sessions auch allen offen, die nicht am WMOOC teilnehmen. Wegen der Einwahldaten bitte einfach bei mir melden.

DSGVO-konforme KI-Nutzung

DSGVO-konforme KI-Nutzung
erstellt mit Midjourney

Viele Organisationen der öffentlichen Verwaltung und vor allem kleinere Unternehmen, denen der Aufwand eine interne KI zu etablieren zu groß erscheint, scheuen sich KI einzusetzen. Einer der Gründe – und dies zu Recht: Bedenken hinsichtlich des Datenschutzes und der Informationssicherheit.

Ein Start-up aus dem hessischen Gießen bietet hier gegebenenfalls einen Ausweg: nele.ai Das Angebot: Die kostenpflichtige Plattform agiert als Vermittler: Die eingegebenen Daten werden nicht unmittelbar an den KI-Anbieter (die Plattform integriert mehrere KI-Modelle) gesendet. IP-Adresse und Standortdaten werden damit für die jeweilige KI nicht sichtbar. Die eingegeben Daten werden zudem nicht zu dessen Trainingszwecken herangezogen und können vor allem bei Bedarf anonymisiert werden.

Disclaimer: Ich habe diese Lösung selbst nicht ausprobiert, ich habe nur darüber gelesen: Unser Landratsamt hat laut einer Meldung in der Tageszeitung die Plattform eingeführt. Also ein unverbindlicher Tipp: Wer bisher die KI-Nutzung aus Datenschutzgründen scheut, kann auf jeden Fall einen Blick auf diesen Anbieter werfen.

Persönliche Gedanken zur Nutzung von KI

Wie vermutlich die meisten von euch, habe ich in den letzten Monaten mit Neugier und teilweise Begeisterung unterschiedliche KI-Werkzeuge nicht nur ausprobiert, sondern in mein tägliches Arbeiten integriert. Im Grunde erschreckend schnell, haben sich meine persönlichen Arbeitsweisen verändert und habe ich zur Effizienzsteigerung zunehmend Aufgaben an KI outgesourct. Zugegeben, ohne dies über die engere berufliche Perspektive hinaus konsequent, d.h. mit Auswirkung auf mein Verhalten, zu reflektieren.

Dieser Prozess wurde nun in Gang gesetzt, und zwar durch eine meiner Studentinnen und durch meine Tochter:

Die Studentin hat mich in einer Lehrveranstaltung daran erinnert, dass eine Anfrage an einen KI Chatbot extrem viel mehr Ressourcen verbraucht als eine entsprechende konventionelle Suche. Nicht, dass ich das nicht bereits gewusst hätte, aber wie viel bequemer war es doch, einfach meinen Ko-Piloten zu fragen, anstatt selbst die Suchmaschine zu nutzen. Ich habe kein eigenes Auto mehr, vermeide, so gut es eben geht, Verpackungsmüll, kaufe biologische Lebensmittel ein… Ich tue also viel für mein gutes Gewissen, aber das Wissen um diesen Raubbau habe ich geflissentlich verdrängt. Bisher… Google (vielmehr Ecosia) hat mich wieder, dort, wo die KI keinen signifikanten Mehrwert – außer den der eigenen Faulheit – bietet.

Meine Tochter wiederum hat mir den Spaß an meinen KI-generierten Studio Ghibli-Bildern von mir selbst verdorben: Wir sind beide große Fans der Animes von Hayao Miyazaki, einem der Gründer des Studios und vor allem dessen unverwechselbarer Ästhetik. Daher fand ich meine ghiblisierten Selbstporträts auch sehr cool. Nicht so meine Tochter. Diese fand es fast schon perfide, dass ausgerechnet eine Bildsprache zu einem Datenmuster einer KI wird, deren Schöpfer explizit seine Abscheu vor dieser seelenlosen Technik geäußert hat und dessen Ästhetik auf sorgsam handgezeichneten Animationen beruht. Da Miyazaki, wie alle anderen kreativen Köpfe, deren Werke von den Tech-Konzernen hinter der KI gestohlen und plagiiert werden (oder wie soll man es anders nennen?) sich selbst nicht wehren kann, habe zumindest ich – schweren Herzens – meine „Ghibli“-Bilder wieder gelöscht.

Durch diese beiden Erfahrungen ist mein Skeptizimus, im philosophischen Sinne des allzeit kritischen Hinterfragens, wieder erwacht und meine Nutzung von KI bewusster und seltener geworden. Auch weil – leider – die Nutzung von KI über die entsprechenden Anbieter-Plattformen nicht ’nicht politisch‘ sein kann:

  • Wann immer ich KI nutze, akzeptiere ich, dass die Gesamtheit des menschlichen Wissens, kultureller Überlieferungen und künstlerischen Schaffens als verwertbare Ressource betrachtet und kostenfrei verwertet wird. „Wo allerdings das gesamte kulturelle Archiv zur Quelle von Trainingsdaten wird, schwindet der Wert des einzelnen Werks.“ (Roland Meyer, Zürcher Hochschule der Künste). Dies ist exakt die Argumentation des Meta-Konzerns gegen Ansprüche auf finanzielle Kompensation. Wann immer ich KI nutze, entwerte auch ich die Arbeit kreativer Menschen.
  • „Aus Sicht meiner Forschung ist die aktuelle Entwicklung der generativen KI „nur“ die konsequente Fortsetzung von Prozessen, die wir seit Jahrzehnten beobachten – also die Entwertung journalistischer Inhalte, Desinformation, Monopolisierung, die Verlagerung der Wertschöpfung von den Inhalten hin zu den monopolitischen Plattformen, die weitgehende Enteignung der Urheber, der Verlust einer geteilten Wahrheit und so fort. Es ist nur die letzte Stufe einer in sich konsistenten Entwicklung, die durch unsere massive Fehlregulierung des digitalen Raums überhaupt erst möglich wurde und die nun die Grundpfeiler von Journalismus und Demokratie in Frage stellt.“ (der Medienwissenschaftler Martin Andree im Interview).
    Als Nutzer:innen dieser KI sind wir nolens volens Teil dieser Entwicklung und akzeptieren diese.
  • Der aktuell einflussreichste Weg der KI-Entwicklung folgt einer Logik der schrankenlosen Expansion: immer neue unbeschränkte Datenressourcen, immer neue – unsere Lebenswelt zerstörende – Rechenkapazitäten. Diese Logik hat eine Affinität zu autokratischen Staatsmodellen, stört demokratische Kontrolle, das verzögernde Klein-Klein von Checks and Balances doch nur. So ist es vielleicht kein Zufall, dass KI-generierte Memes zur bevorzugten visuellen Propagandasprache der globalen Rechten geworden ist. Die Nähe ist nicht nur eine ästhetische, sondern, wenn wir an die aktuell einflussreichsten Plattformen denken, leider auch eine ideologische. Manche Kritiker:innen wir der Journalist Gareth Watkins oder die Kulturwissenschaftlerin Alexandra Minna Stern benutzen gar den Begriff des ‚digitalen Faschismus‘. Auch wenn der Begriff Faschismus in der letzten Zeit inflationär verwendet wird, lassen sich Parallelen nicht von der Hand weisen: anti-demokratisch (Regulierung und Kontrolle hemmt die Entwicklung der KI), Säuberung nach innen (anti-woke-Initiativen der relevanten Tech-Plattformen), Expansion nach außen (s.o. entfesselter Datenextraktivismus, „KI ist die neue Front“, J.D. Vance bei seinem Besuch in Europa).
    Als Nutzer:innen dieser KI sind wir nolens volens auch Teil dieser Entwicklung und unterstützen diese, indem wir für den Erfolg der Plattformen und der dahinter stehenden Konzerne sorgen.

Nein, ich werde die Nutzung von KI nicht einstellen. Aber ich werde die Notwendigkeit jeder Nutzung kritischer als bisher hinterfragen und mehr Energie auf die Recherche nach und Evaluierung von Alternativen verwenden, z. B. Le Chat von Mistral AI, einem europäischen Anbieter. Und ich hoffe, dass die Europäische Union den Weg der Regulierung weitergeht. Denn De-Regulierung bedeutet nicht Freiheit, sondern die Durchsetzung des Rechts des Stärkeren.

Unfaire Algorithmen: Warum KI sexistisch ist

Unfaire Algorithmen: Warum KI sexistisch ist
generiert mit Midjourney

Ich möchte gerne den Podcast Mit Herz und KI des DUP Magazins empfehlen, z. B. die sehr hörenswerte Folge Patriarchat.exe läuft im Hintergrund – warum KI schockierend sexistisch ist:
Redakteurin Fanny Rosenberg spricht mit Eva Gengler, einer der führenden Stimmen für faire Algorithmen. Gemeinsam gehen sie der Frage nach, ob mit KI gerade eine Zukunft programmiert wird, die eigentlich längst Vergangenheit sein sollte. Doch warum kommen KI-Technologien überhaupt als digitaler Chauvinist daher? Wie können wir diese maschinelle Diskriminierung erkennen? Und wie können wir uns von diesen tiefsitzenden Vorurteilen von KI-Systemen lösen?

KI und Wissensmanagement – WMOOC Live Session online

Die letzte Live Session unseres letzten Wissensmanagement-MOOC ist nun auch online: Prof.in (FH) Mag.a (FH) Barbara Geyer, PhD von der Hochschule Burgenland nimmt uns mit und gibt Einblick, wie sie persönlich KI-Tools als Unterstützung ihrer Arbeit, auch der wissenschaftlichen Arbeit nutzt.

Vielleicht diejenige Live Session die mein eigenes Arbeiten am konkretesten und praktischsten beeinflusst hat. Vielen Dank, Barbara! Und euch viel Spaß (Dauer 49’44 Min)

Die KI, das implizite Wissen und die Expert:innen

Einige von euch erinnern sich vielleicht noch an die kleine Serie hier in meinem Blog vor fast einem Jahr, in der wir teilweise auch gemeinsam über Künstliche Intelligenz (KI) philosophiert haben (ist sie intelligent? ist sie kreativ? verfügt sie über Wissen?…).

Nun habe ich dazu heute Interessantes gelesen, und zwar von David Autor (Applying AI to Rebuild Middleclass Jobs. NBER Working Paper 32140). Autor geht explizit auf die Polanyischen Kategorien ‚explizites‘ und ‚implizites‘ Wissen ein, wenn er darlegt wie sich Digitalisierung und KI auf den Arbeitsmarkt ausgewirkt haben und aktuell auswirken. Er argumentiert, das explizite Wissen, also das laut Polanyi gut verbalisierbare Wissen, sei bereits in den vergangenen Jahrzehnten der Digitalisierung in Computercodes und Algorithmen übertragen worden, wodurch Berufe der Mittelschicht, in denen es vorrangig um dieses Wissen geht, unter Druck gerieten. Ebenso wie minder qualifizierte Berufe, weil nun mehr Menschen in diese Berufe drängten. Profitiert hätten hoch qualifizierte Wissensarbeitenden: Computer hätten es diesen Expert:innen ermöglicht sich auf die Interpretation und (komplexe, Anm. der Autorin) Verwendung von Informationen zu konzentrieren, wofür es auf das implizite Wissen ankomme, das Computer bisher nicht nachbilden konnten.

Nun könne, so Autor, aber die KI Regeln eigenständig entwickeln und damit implizites Wissen, das schwer weiterzugeben ist, selbst erlernen: „Künstliche Intelligenz kann auf der Grundlage von Training und Erfahrung improvisieren. So kann sie Expertenurteile fällen – eine Fähigkeit, die bisher nur Eliteexperten vorbehalten war. Obwohl sie erst in den Kinderschuhen steckt (…)“.

Autors Theorie eines Statusverlusts von Expert:innen wird durch Studien aus der Praxis bestätigt. So haben beispielsweise Kolleg:innen von Autor am MIT Akademiker:innen unterschiedliche Schreibaufgaben gestellt, die einmal mit, einmal ohne Hilfe einer KI bearbeitet werden sollten. Dabei hat sich gezeigt, dass sich zwar alle mittels der KI verbesserten, sowohl hinsichtlich der Effizienz als auch des Ergebnisses, die schwächeren Schreiber aber deutlich mehr als die bereits guten. D.h. der Abstand zwischen Mittelbau und Elite wird mit KI geringer.