Ist eine KI intelligent?

Ist eine KI intelligent?

Nun hat es mit der Fortsetzung meiner kleinen Serie zu KI – die vor allem meinem eigenen Verstehen dient – doch eine Weile gedauert: Ich hatte schlicht nicht ‚den Kopf‘ die vielen und vielfältigen Informationen zu diesem Thema gründlich zu durchdenken, eigene Einsichten zu gewinnen, geschweige denn dabei kreativ auch eigene Gedanken zu entwickeln. Zu viel anderes zu tun. Das würde natürlich ChatGPT nicht passieren, gell? Noch ein Vorteil einer Künstlichen Intelligenz: Sie ist immer einsatzbereit. Aber was heißt hier eigentlich Intelligenz? Der letzte Post endete mit der Frage nach der Intelligenz, also dem einsichtigen Verstehen, einer KI.

Laut KI-Forscher Gerard de Melo vom Hasso-Plattner-Institut, handelt es sich bei einer KI um eine simulierte Intelligenz: „(…) Chatbots haben kein Verständnis für den Inhalt, können Wahrheit und Unwahrheit nicht trennen. (…).“ Nicht ohne Grund setzen Open AI und andere nach wie vor menschliche Mitarbeitende zur Identifikation von fake und Hass ein. Und de Melo weiter: „Wir sind uns nicht mehr im Klaren, was Tatsachen sind oder auch Wahrheit, wenn man sich immer mehr auf Mehrheitsmeinungen verlässt, die massiv im Internet auftauchen und dann in solche Textgeneratoren Eingang finden (…) sich selbst verstärkend.“ Darin liegt eine große Gefahr, denn: „Wenn eine menschlich wirkende Maschine etwas sagt, ist das glaubwürdiger, als wenn eine Information nur irgendwo in einer Online-Suche steht.“ (Lucie Flek, Professorin für Sprachtechnologie Uni Marburg). So genannte Anthropomorphismen tragen zur Vertrauensbildung bei. Das weiß man schon seit der 1960er Jahren, als der Informatiker Joseph Weizenbau einen ersten einfachen Chat-Roboter getestet hat, mit einem unerwarteten Ergebnis: Die Probanden fingen an der Maschine menschliche Eigenschaften wie Gefühle oder Verständnis zuzuschreiben. Sie verhielten sich, als würden sie mit einem echten Menschen kommunizieren. Der darauf basierende ELIZA-Effekt beschreibt die Vermenschlichung von Robotern, Algorithmen und KI. Wir Menschen sehen zum Teil intrinsische Qualitäten und Fähigkeiten, oder gar Werte und Gefühle in der Software, die die Ausgabe steuert, obwohl diese ausschließlich auf der Auswertung von Datensätzen beruht. Das macht die Reproduktion sozialer Biases oder das so genannte Halluzinieren so bedenklich. Kleine Bemerkung am Rande: Ich frage mich schon, seit ich ChatGPT das erste Mal genutzt habe, warum nicht direkt beim Eingabefenster von ChatGPT darauf hingewiesen wird, dass die KI nur Informationen bis 2021 auswertet. Das ist doch ein für die Bewertung der Antwort nicht unerhebliches Kriterium. An dieser Stelle ein interessanter Gedanke eines Bekannten, kürzlich nebenbei im Gespräch geäußert: Brauchen wir zur Bezeichnung einer künstlichen Intelligenz ein eigenes, neues Personalpronomen, um den Ursprung bestimmter Entscheidungen und Informationen kenntlich zu machen? (Auf Genderfragen gehe ich an dieser Stelle nicht weiter ein, aber beobachten Sie einfach mal selbst, wann das männliche und wann das weibliche Pronomen bezogen auf unsere technischen Helfer zum Einsatz kommen!)

Doch kommen wir zurück zur Unfähigkeit Wahrheit von Unwahrheit zu trennen! Überfrachtet die Wahrheitsfrage den Intelligenz-Begriff nicht? Eine klassische Definition von Intelligenz korreliert sie schlicht mit der Verarbeitungsgeschwindigkeit von Information. Nach dieser Definition können wir einer KI sicherlich Intelligenz zusprechen. In neueren Intelligenzmodellen, zum Beispiel nach K.A. Heller, finden jedoch noch weitere Aspekte Beachtung, unter anderem Kreativität (Flexibilität, Originalität usw.) und soziale Kompetenz (Intentionsbildung usw.).

Bei letzterem sind bisherige KI-Modelle tatsächlich im Nachteil, denn noch sind sie unfähig soziale Situationen und Emotionen zu lesen. Doch wird auch dies sich sicherlich in absehbarer Zeit ändern. Schon ChatGPT4 ist eine so genannte multimodale KI, die neben Text auch Bild und Audio verarbeiten kann. Und die nächste Evolutionsstufe ist in Arbeit: Lernen aus Filmen, da Filme sehr viel Information über menschliches Verhalten transportieren. Bleibt zu hoffen, dass der Lernraum der KI sich hierbei nicht auf den Hollywood-Mainstream beschränkt, sonst habe ich Bedenken hinsichtlich des Abbilds ‚typischen‘ menschlichen Verhaltens, das sich herausbildet.

Schauen wir auf den Aspekt der Kreativität. Nick Caves Verärgerung über einen KI-generierten Songtext habe ich ja bereits berichtet. Neben echter Emotionalität ist auch Disruptivität eine Grundlage von (künstlerischer) Kreativität: „Das Kreative ist das Unwahrscheinliche“, (Christian J. Bauer, Autor). Wenn auch komplex, so betreibt KI letztlich Statistik und Stochastik und simuliert (schon wieder liegt der Begriff der Simulation nahe: simulierte Intelligenz, simulierte Menschlichkeit, nun simulierte Kreativität) Kunstfertigkeit, die auf Rückwärtsverkettung bestehender Zeichen beruht. Algorithmen lernen anhand historischer Daten, KI ist damit inhärent strukturkonservativ, weil sie durch die Anwendung von Regeln diese bestätigen. „Je mehr sich Alltagshandeln auf KI-Modelle stützt, desto stärker ist man den Mustern der Vergangenheit verhaftet, und desto schwieriger wird es, daraus auszubrechen. Am Ende sind wir in einer ewigen Feedback-Schleife gefangen, deren Wiederholungen sich nur durch die Variation des Immergleichen unterscheiden. Und wir erleben die Welt nur noch im Rückspiegel der Daten.“ (Adrian Lobe in Frankfurter Sonntagszeitung 19. März 2023).

Und doch ist KI ein Kreativitätstreiber. Wie? Die Antwort gibt es in der nächsten Folge 🙂

Fortsetzung folgt (hoffentlich bald).

Ist eine KI intelligent?


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

zehn + 3 =