In meinem letzten Post habe ich einer Künstlichen Intelligenz (KI) Wissen abgesprochen, weil sie keine Erfahrung im Sinne eines unmittelbaren lebensweltlichen Bezugs machen könne. Man kann den von der KI selbst im Kontext Wissen verwendeten Begriff der Erfahrung (s. Folge 1 dieser kleinen KI-Nachdenkerei) aber auch anders verstehen: Nämlich als Ergebnis eines Lernprozesses, in dem „Erwartungen an Ursache-Wirkungs-Zusammenhänge“ (übrigens Teil der Wissensdefinition von Probst) erfüllt werden oder eben nicht. Im Falle des Lernens der KI bedeutet dies, dass die KI ‚erfährt‘ (!), welche Antworten ihrerseits akzeptiert werden und welche nicht. Die Kumulierung einer solchen Erfahrung von Validität führt zu Überzeugung, führt zu etwas, das man auch als Wissen bezeichnen kann.
Erfahrung kann in diesem Kontext noch von einer anderen Seite betrachtet werden: Der Soziologe Oskar Negt definiert Erfahrung als Verarbeitung von Realität. Erfahrungen sind für Negt „Momente einer durch Begriffe und durch Sprache vermittelten schöpferischen Auseinandersetzung mit der Realität“. D.h. die KI hat einen mittelbaren lebensweltlichen Bezug durch die Nutzung versprachlichter menschlicher Erfahrung. Sie kann also zwar selbst keine Erfahrungen machen, aber die Erfahrungen anderer durchaus nutzen. Genügt dieser mittelbare Zugriff auf Erfahrung, um dann eben doch von einem nicht-personengebundenen Wissen zu sprechen?
Fragen wir doch nochmals die KI, in diesem Fall ChatGPT 3, selbst. Sie erinnern sich? Im letzten Post hatte ich gefragt, ob man bei einer KI von Wissen sprechen kann, was ChatGPT unbedingt bejaht hat. Nun lautet die Frage: Viele Definitionen sagen, Wissen sei an Personen gebunden. Stimmst du dem als KI zu?
Die Antwort – frei nach dem Motto, was interessiert mich mein Geschwätz von gestern:
Als KI-basiertes Sprachmodell habe ich kein eigenes Wissen im menschlichen Sinne, sondern ich bin in der Lage, auf eine enorme Menge von Informationen zuzugreifen und diese zu verarbeiten, um Fragen zu beantworten und Probleme zu lösen. Das von mir verarbeitete Wissen ist jedoch an Menschen gebunden, da es von ihnen erstellt und von ihnen in Sprache und Schrift festgehalten wurde. Das bedeutet, dass das Wissen, das ich verarbeite, von den Menschen geprägt ist, die es erstellt haben, und von den Menschen, die es nutzen, um ihre Entscheidungen zu treffen und ihr Verständnis der Welt zu erweitern.
Es gibt jedoch einige Einschränkungen bei der Fähigkeit von KI, Wissen vollständig zu verstehen, da Wissen oft durch kulturelle und soziale Kontexte geprägt wird, die KI möglicherweise nicht vollständig erfassen oder verstehen kann. Insgesamt würde ich jedoch sagen, dass Wissen eng mit den Erfahrungen und der Interpretation von Menschen verbunden ist und dass KI als Werkzeug genutzt werden kann, um menschliches Wissen zu erweitern und zu verbessern.
Das passt zu dem oben geschilderten Verständnis von mittelbarer, sprachlich vermittelter Erfahrung. In der neuen Aussage erscheint nun ein weiterer interessanter Begriff, der des Verständnisses. Murray Shanahan, Professor für Kognitive Robotik am Imperial College London, schreibt in einem Preprint über Large Language Models: Damit ein Akteur Wissen besitzen könne, müsse er in der Lage sein, selbst Aussagen auf ihre Belastbarkeit hin zu prüfen und damit über die Konzepte von Wahrheit und Falschheit zu verfügen. Für solch eine Prüfung brauche es aber einerseits einen Zugang zur realen Welt. Andererseits müsse der Akteur über all jenes Hintergrundwissen verfügen, das wir Menschen als kulturell geprägte Sprachgemeinschaft teilen und voraussetzen, wenn wir die Gültigkeit von Aussagen beurteilen. Die geteilte Lebensform, die wechselseitigem Verstehen und Vertrauen von Menschen zugrunde liegt, fehle. KI könne auch nicht wirklich argumentieren, sie erwecke nur den Anschein, denn anstelle einer internen Darstellung einer formalen Logik, beruhten ihre Aussagen lediglich auf einer statistisch plausiblen Aneinanderreihung von Wörtern.
Womit wir doch wieder beim unmittelbaren lebensweltlichen Bezug, dem Zugang zur realen Welt wären, und bei einem noch weitergehenden Konzept, dem der Wahrheit. Diese ist keine göttliche, sondern eine kulturell geprägte. Womit wir uns der Frage nach dem Trainingsraum der KI, nach dem Risiko der Reproduktion sozialer Biases usw. nähern. Aber das vertagen wir auf einen nächsten Post!
Zum Abschluss noch ein Gedanke von Lucie Flek, Professorin für Sprachtechnologie Uni Marburg: „Wir haben ein grundsätzliches Problem mit der Definition von Intelligenz. Wir sind uns nicht einig,ob dafür wichtig ist, dass die Maschine tatsächlich über Wissen verfügt wie wir Menschen, oder ob es ausreicht, dass sie sich so verhält, dass es für den Menschen intelligent aussieht.“
Übrigens: Intelligenz kommt vom Lateinischen intellegere: verstehen
Versteht eine KI, was wir fragen und was sie antwortet?
Fortsetzung folgt.
Liebe Gabi, danke für deinen Artikel. jetzt habe ich meine Gedanken gleich in LinkedIn geschrieben. Aber trotzdem hier ebenso:
Zur Frage von KI, Künstlicher Intelligenz und Wissensmanagement: Ich lese gerade über den Dt. Idealismus. In Abgrenzung zur Fokussierung auf die reine Kraft der Vernunft in der Aufklärung, betont man da, wie wichtig das emotionale Begreifen, Gefühle und immer wieder „Einbildungskraft“ ist, um die Welt und sich selbst zu verstehen. Es geht bei (ich werfe jetzt mal grob um mich) Goethe, Schiller, Schelling, Fichte, Schlegel … darum, ob man die Welt-wie-sie-scheint oder die „tatsächliche“ Welt-an-sich fassen kann (eine verkürzte Darstellung). Ganz intensiv wird das Ich entdeckt, als Erschaffer der Welt (Fichte). In diesem Verständnis würde ich für die Fragen der KI daher sagen: Die KI erschießt die Welt-wie-sie-scheint und das aus Texten. Ein Mensch tut das ebenso, konstruiert also auch und v.a. im Sozialen Austausch. Aber er nimmt eben zusätzlich auch die enorme Kraft der unmittelbaren Erfahrung, das eigene Erleben mit allen Emotionen auf. (Auch das ist sehr abhängig von Sichtweisen und Konstruktionen, Ideologien und mentalen Modellen.) Die Intensität ist aber eine andere. Die KI kann in 90 von 100 Texten eine Gemeinsamkeit finden und dadurch eine wahrscheinlich im Diskurs sozialgeteilte Wahrheit / Wissen extrahieren. Ein Mensch kann aber zu 99 Texten eine dazu konträre Erfahrung machen und beschließen, nur dieser zu glauben.
KI bleibt da sehr nützlich. Der Wert eigener Erfahrung steigt dadurch nur. Und wir alle kennen die Kraft, wenn jemand anderer überzeugend ihre /seine Erfahrungen vermittelt aus dem Story-Telling etc. Wissensmanagement bietet hier viel Instrumente.
Lieber Klemens,
vielen Dank für deine Gedanken. Das untermauert sehr gut den Aspekt der ’nur‘ mittelbaren, bereits verarbeiteten Erfahrung, auf die KI zugreift. Mit der Frage nach der tatsächlichen Welt begeben wir uns tief in die Philosophie und landen am Ende bei Hegel, und der Phänomenologie des Geistes gell? Und du hast Recht, dort finden sich auch bezogen auf unsere aktuelle Diskussion interessante Aspekte, z. B. ist für Hegel ja nicht das Resultat das tatsächlich Ganze, sondern das Resultat gemeinsam mit seinem Werden, also dem Gedankengang, der letztendlich zu einem Wissen einer Überzeugung geführt hat. Etwas dem wir im Story Telling nachspüren. Ein interessanter Gedanke, welche inhärente Verbindung dieses Werden bei einer KI zum Resultat hat, oder eben nicht (s. der Widerspruch in den beiden Antworten zur Frage nach der ‚Menschlichkeit des Wissens).
Und dieses Werden ist bei Hegel ja ein dialektisches:
1. These: Der Verstand setzt etwas als seiend.
2. Anti-These: Die Vernunft erkennt die Einseitigkeit dieser Bestimmung und verneint sie. Es entsteht ein Widerspruch.
3. Synthese: Die Vernunft erkennt eine mögliche Einheit im Widerspruch und führt alles zu einem positiven Resultat.
Auf welcher Stufe treffen wir eine KI? Ich tendiere zu Stufe 1. Aber vielleicht umfasst das statistische Rechnen auch schon Stufe 2? Sicherlich jedoch nicht die Synthese, denn diese ist mehr als Statistik, also kein rechnerisches Werten und sich für eine Seite Entscheiden, sondern ein über beides These und Antithese schöpferisch Hinausgehen.
Und noch ein interessanter Gedanke: Für Hegel bedeutsam ist ja auch, Teil einer größeren Gemeinschaft zu sein, die man als vernünftig anerkennt. Damit landen wir in gewisser Weise wieder beim Einfluss eines sprachlichen Kulturraums auf die KI (Stichwort Reproduktion von sozialen Biases). Allerdings betont Hegel, dass das Individuum in einer Gemeinschaft immer noch bei sich selbst ist, wohin gegen eine KI ein solches Selbst nicht hat, sondern (Mehrheits-)Substrate dieser Gemeinschaft erzeugt.
Da hast du ein ganz schönes Fass aufgemacht, Klemens! Danke!