Month: Mai 2023

Ist eine KI kreativ?

Im letzten Blog-Post ging es um die Frage, ob eine Künstliche Intelligenz (KI) tatsächlich intelligent ist oder Intelligenz nur simuliert. Dabei sollten wir es uns nicht zu einfach machen und aus einer gewissen anthropozentrischen Hybris heraus Intelligenz schlicht als eine genuin menschliche Eigenschaft deklarieren. Denn es kommt darauf an, wie man Intelligenz definiert. Aber halt, das stand ja alles schon im letzten Post.

Dieser endete mit der Aussage, KI sei aufgrund ihrer Funktionsweise (Statistik + Stochastik) strukturkonservativ und damit also nicht kreativ (für einige Intelligenz-Konzepte ist Kreativität ein Element von Intelligenz). Fragt man, mal wieder, Chat GPT selbst, ist die Antwort verhalten diplomatisch (in Auszügen):

Als KI-System bin ich in der Lage, bestimmte Formen der Kreativität auf der Grundlage der Daten und des Wissens zu zeigen, die mir zur Verfügung gestellt werden.

Kreativität zeigen ist etwas anderes als kreativ sein, nicht wahr? Man könnte auch wieder das Verb ’simulieren‘ verwenden, das schon in mehreren vorausgegangenen Posts aufgetaucht ist. So hat eine KI wie ChatGPT mittlerweile gelernt, dass Gedichte oder Songtexte dann als besonders kreativ wahrgenommen werden, wenn darin unerwartete Wörter auftauchen, die Wahrscheinlichkeit, auf der die Texte an sich basieren, also durchbrochen wird. Das hier angewandte Verfahren nennt sich temperature sampling:
Dabei wird die Wahrscheinlichkeiten der generierten Texte manipuliert, indem eine ‚Temperatur‘ angewandt wird, die die Entropie oder Unvorhersehbarkeit des generierten Textes steuert. Konkret bedeutet dies, dass bei höheren Temperaturen die Wahrscheinlichkeit der Auswahl von weniger wahrscheinlichen Wörtern erhöht wird, was zu einer größeren Diversität des generierten Textes führt. Bei niedrigeren Temperaturen hingegen werden nur die am wahrscheinlichsten vorausgesagten Wörter ausgewählt, was zu einer höheren Vorhersehbarkeit des Textes führt. Damit wird der Eindruck von Kreativität erzeugt.

Es bleibt aber beim bloßen Eindruck von Kreativität, denn noch immer basiert alles – auch die gewählte ‚Temperatur‘ – auf Mustern und Strukturen, die in Trainingsdaten vorhanden sind. KI trifft keine bewussten Entscheidungen, sie hat keine eigenen Ziele und Motivationen. Die von KI-Systemen erzeugten Werke können originell sein, aber sie sind nicht das Ergebnis von emotionaler Intuition, Selbstausdruck oder Erfahrung wie es bei menschlicher, vor allem tatsächlich künstlerischer Kreativität der Fall ist.

Dies stellt jedoch bereits hohe Ansprüche an Kreativität. Für die – nennen wir es mal – Alltagskreativität taugt die KI durchaus: einen neuen Slogan finden, eine gute Überschrift für einen Text, eine passende Visualisierung für ein Konzept, Multiple-Choice-Fragen für eine Klausur… Auch wir Menschen sind in unseren vermeintlich kreativen Phasen nicht immer disruptiv kreativ, sondern wandeln lediglich Bekanntes ab.

Aber vielleicht ist die Frage weniger, inwieweit uns eine KI in Sachen Kreativität ersetzen kann, sondern wie sie uns dabei helfen kann selbst kreativer zu werden. Diese These vertritt zum Beispiel Ethan Mollick, der Innovation an der Universität von Pennsylvania lehrt: Er plädiert dafür, ChatGPT als Sparingspartner beim Brainstorming zu nutzen, denn ChatGPT produziert viele Ideen. Und unter vielen ist eventuell auch eine gute oder eine, die uns selbst inspiriert. Und hier kommt Go ins Spiel: Am 15. März 2016 schlug zum ersten Mal eine KI den menschlichen Go-Weltmeister. Ein Forscherteam der Universitäten Hongkong, Yale und Princeton ließ fast sechs Millionen menschliche Go-Spielzüge aus der Zeit 1950 bis März 2016 analysieren, mit dem Ergebnis, dass die Züge sich nicht verbessert hatten. Vielmehr war über die Jahre eine große Routine eingekehrt, eine Wiederholung des Bewährten anstatt innovatives Spielen. Und dann kam der Computer und plötzlich wurde das menschliche Spiel wieder kreativer und dadurch qualitativ besser, so die Erkenntnis des Forscherteams, das noch Daten bis 2021 ausgewertet hat. Dabei haben die Menschen keineswegs die neuen Ideen der KI nachgeahmt. Sie haben (wieder) eigene entwickelt. Die KI hat sie herausgefordert: „Das Spiel des Computers war so anders, dass ich mich erst einmal daran gewöhnen musste. Ich habe festgestellt, dass ich noch mehr über Go lernen muss.“ (Sedol Lee, der vom Computer besiegte Go-Weltmeister).

Den Menschen ungewöhnliche Sichtweisen bieten und sie dadurch auf ganz neue Ideen zu bringen – das scheint eine unerwartete Stärke von KI zu sein.

Ist eine KI intelligent?

Nun hat es mit der Fortsetzung meiner kleinen Serie zu KI – die vor allem meinem eigenen Verstehen dient – doch eine Weile gedauert: Ich hatte schlicht nicht ‚den Kopf‘ die vielen und vielfältigen Informationen zu diesem Thema gründlich zu durchdenken, eigene Einsichten zu gewinnen, geschweige denn dabei kreativ auch eigene Gedanken zu entwickeln. Zu viel anderes zu tun. Das würde natürlich ChatGPT nicht passieren, gell? Noch ein Vorteil einer Künstlichen Intelligenz: Sie ist immer einsatzbereit. Aber was heißt hier eigentlich Intelligenz? Der letzte Post endete mit der Frage nach der Intelligenz, also dem einsichtigen Verstehen, einer KI.

Laut KI-Forscher Gerard de Melo vom Hasso-Plattner-Institut, handelt es sich bei einer KI um eine simulierte Intelligenz: „(…) Chatbots haben kein Verständnis für den Inhalt, können Wahrheit und Unwahrheit nicht trennen. (…).“ Nicht ohne Grund setzen Open AI und andere nach wie vor menschliche Mitarbeitende zur Identifikation von fake und Hass ein. Und de Melo weiter: „Wir sind uns nicht mehr im Klaren, was Tatsachen sind oder auch Wahrheit, wenn man sich immer mehr auf Mehrheitsmeinungen verlässt, die massiv im Internet auftauchen und dann in solche Textgeneratoren Eingang finden (…) sich selbst verstärkend.“ Darin liegt eine große Gefahr, denn: „Wenn eine menschlich wirkende Maschine etwas sagt, ist das glaubwürdiger, als wenn eine Information nur irgendwo in einer Online-Suche steht.“ (Lucie Flek, Professorin für Sprachtechnologie Uni Marburg). So genannte Anthropomorphismen tragen zur Vertrauensbildung bei. Das weiß man schon seit der 1960er Jahren, als der Informatiker Joseph Weizenbau einen ersten einfachen Chat-Roboter getestet hat, mit einem unerwarteten Ergebnis: Die Probanden fingen an der Maschine menschliche Eigenschaften wie Gefühle oder Verständnis zuzuschreiben. Sie verhielten sich, als würden sie mit einem echten Menschen kommunizieren. Der darauf basierende ELIZA-Effekt beschreibt die Vermenschlichung von Robotern, Algorithmen und KI. Wir Menschen sehen zum Teil intrinsische Qualitäten und Fähigkeiten, oder gar Werte und Gefühle in der Software, die die Ausgabe steuert, obwohl diese ausschließlich auf der Auswertung von Datensätzen beruht. Das macht die Reproduktion sozialer Biases oder das so genannte Halluzinieren so bedenklich. Kleine Bemerkung am Rande: Ich frage mich schon, seit ich ChatGPT das erste Mal genutzt habe, warum nicht direkt beim Eingabefenster von ChatGPT darauf hingewiesen wird, dass die KI nur Informationen bis 2021 auswertet. Das ist doch ein für die Bewertung der Antwort nicht unerhebliches Kriterium. An dieser Stelle ein interessanter Gedanke eines Bekannten, kürzlich nebenbei im Gespräch geäußert: Brauchen wir zur Bezeichnung einer künstlichen Intelligenz ein eigenes, neues Personalpronomen, um den Ursprung bestimmter Entscheidungen und Informationen kenntlich zu machen? (Auf Genderfragen gehe ich an dieser Stelle nicht weiter ein, aber beobachten Sie einfach mal selbst, wann das männliche und wann das weibliche Pronomen bezogen auf unsere technischen Helfer zum Einsatz kommen!)

Doch kommen wir zurück zur Unfähigkeit Wahrheit von Unwahrheit zu trennen! Überfrachtet die Wahrheitsfrage den Intelligenz-Begriff nicht? Eine klassische Definition von Intelligenz korreliert sie schlicht mit der Verarbeitungsgeschwindigkeit von Information. Nach dieser Definition können wir einer KI sicherlich Intelligenz zusprechen. In neueren Intelligenzmodellen, zum Beispiel nach K.A. Heller, finden jedoch noch weitere Aspekte Beachtung, unter anderem Kreativität (Flexibilität, Originalität usw.) und soziale Kompetenz (Intentionsbildung usw.).

Bei letzterem sind bisherige KI-Modelle tatsächlich im Nachteil, denn noch sind sie unfähig soziale Situationen und Emotionen zu lesen. Doch wird auch dies sich sicherlich in absehbarer Zeit ändern. Schon ChatGPT4 ist eine so genannte multimodale KI, die neben Text auch Bild und Audio verarbeiten kann. Und die nächste Evolutionsstufe ist in Arbeit: Lernen aus Filmen, da Filme sehr viel Information über menschliches Verhalten transportieren. Bleibt zu hoffen, dass der Lernraum der KI sich hierbei nicht auf den Hollywood-Mainstream beschränkt, sonst habe ich Bedenken hinsichtlich des Abbilds ‚typischen‘ menschlichen Verhaltens, das sich herausbildet.

Schauen wir auf den Aspekt der Kreativität. Nick Caves Verärgerung über einen KI-generierten Songtext habe ich ja bereits berichtet. Neben echter Emotionalität ist auch Disruptivität eine Grundlage von (künstlerischer) Kreativität: „Das Kreative ist das Unwahrscheinliche“, (Christian J. Bauer, Autor). Wenn auch komplex, so betreibt KI letztlich Statistik und Stochastik und simuliert (schon wieder liegt der Begriff der Simulation nahe: simulierte Intelligenz, simulierte Menschlichkeit, nun simulierte Kreativität) Kunstfertigkeit, die auf Rückwärtsverkettung bestehender Zeichen beruht. Algorithmen lernen anhand historischer Daten, KI ist damit inhärent strukturkonservativ, weil sie durch die Anwendung von Regeln diese bestätigen. „Je mehr sich Alltagshandeln auf KI-Modelle stützt, desto stärker ist man den Mustern der Vergangenheit verhaftet, und desto schwieriger wird es, daraus auszubrechen. Am Ende sind wir in einer ewigen Feedback-Schleife gefangen, deren Wiederholungen sich nur durch die Variation des Immergleichen unterscheiden. Und wir erleben die Welt nur noch im Rückspiegel der Daten.“ (Adrian Lobe in Frankfurter Sonntagszeitung 19. März 2023).

Und doch ist KI ein Kreativitätstreiber. Wie? Die Antwort gibt es in der nächsten Folge 🙂

Fortsetzung folgt (hoffentlich bald).