Allgemein

Ist eine KI intelligent?

Nun hat es mit der Fortsetzung meiner kleinen Serie zu KI – die vor allem meinem eigenen Verstehen dient – doch eine Weile gedauert: Ich hatte schlicht nicht ‚den Kopf‘ die vielen und vielfältigen Informationen zu diesem Thema gründlich zu durchdenken, eigene Einsichten zu gewinnen, geschweige denn dabei kreativ auch eigene Gedanken zu entwickeln. Zu viel anderes zu tun. Das würde natürlich ChatGPT nicht passieren, gell? Noch ein Vorteil einer Künstlichen Intelligenz: Sie ist immer einsatzbereit. Aber was heißt hier eigentlich Intelligenz? Der letzte Post endete mit der Frage nach der Intelligenz, also dem einsichtigen Verstehen, einer KI.

Laut KI-Forscher Gerard de Melo vom Hasso-Plattner-Institut, handelt es sich bei einer KI um eine simulierte Intelligenz: „(…) Chatbots haben kein Verständnis für den Inhalt, können Wahrheit und Unwahrheit nicht trennen. (…).“ Nicht ohne Grund setzen Open AI und andere nach wie vor menschliche Mitarbeitende zur Identifikation von fake und Hass ein. Und de Melo weiter: „Wir sind uns nicht mehr im Klaren, was Tatsachen sind oder auch Wahrheit, wenn man sich immer mehr auf Mehrheitsmeinungen verlässt, die massiv im Internet auftauchen und dann in solche Textgeneratoren Eingang finden (…) sich selbst verstärkend.“ Darin liegt eine große Gefahr, denn: „Wenn eine menschlich wirkende Maschine etwas sagt, ist das glaubwürdiger, als wenn eine Information nur irgendwo in einer Online-Suche steht.“ (Lucie Flek, Professorin für Sprachtechnologie Uni Marburg). So genannte Anthropomorphismen tragen zur Vertrauensbildung bei. Das weiß man schon seit der 1960er Jahren, als der Informatiker Joseph Weizenbau einen ersten einfachen Chat-Roboter getestet hat, mit einem unerwarteten Ergebnis: Die Probanden fingen an der Maschine menschliche Eigenschaften wie Gefühle oder Verständnis zuzuschreiben. Sie verhielten sich, als würden sie mit einem echten Menschen kommunizieren. Der darauf basierende ELIZA-Effekt beschreibt die Vermenschlichung von Robotern, Algorithmen und KI. Wir Menschen sehen zum Teil intrinsische Qualitäten und Fähigkeiten, oder gar Werte und Gefühle in der Software, die die Ausgabe steuert, obwohl diese ausschließlich auf der Auswertung von Datensätzen beruht. Das macht die Reproduktion sozialer Biases oder das so genannte Halluzinieren so bedenklich. Kleine Bemerkung am Rande: Ich frage mich schon, seit ich ChatGPT das erste Mal genutzt habe, warum nicht direkt beim Eingabefenster von ChatGPT darauf hingewiesen wird, dass die KI nur Informationen bis 2021 auswertet. Das ist doch ein für die Bewertung der Antwort nicht unerhebliches Kriterium. An dieser Stelle ein interessanter Gedanke eines Bekannten, kürzlich nebenbei im Gespräch geäußert: Brauchen wir zur Bezeichnung einer künstlichen Intelligenz ein eigenes, neues Personalpronomen, um den Ursprung bestimmter Entscheidungen und Informationen kenntlich zu machen? (Auf Genderfragen gehe ich an dieser Stelle nicht weiter ein, aber beobachten Sie einfach mal selbst, wann das männliche und wann das weibliche Pronomen bezogen auf unsere technischen Helfer zum Einsatz kommen!)

Doch kommen wir zurück zur Unfähigkeit Wahrheit von Unwahrheit zu trennen! Überfrachtet die Wahrheitsfrage den Intelligenz-Begriff nicht? Eine klassische Definition von Intelligenz korreliert sie schlicht mit der Verarbeitungsgeschwindigkeit von Information. Nach dieser Definition können wir einer KI sicherlich Intelligenz zusprechen. In neueren Intelligenzmodellen, zum Beispiel nach K.A. Heller, finden jedoch noch weitere Aspekte Beachtung, unter anderem Kreativität (Flexibilität, Originalität usw.) und soziale Kompetenz (Intentionsbildung usw.).

Bei letzterem sind bisherige KI-Modelle tatsächlich im Nachteil, denn noch sind sie unfähig soziale Situationen und Emotionen zu lesen. Doch wird auch dies sich sicherlich in absehbarer Zeit ändern. Schon ChatGPT4 ist eine so genannte multimodale KI, die neben Text auch Bild und Audio verarbeiten kann. Und die nächste Evolutionsstufe ist in Arbeit: Lernen aus Filmen, da Filme sehr viel Information über menschliches Verhalten transportieren. Bleibt zu hoffen, dass der Lernraum der KI sich hierbei nicht auf den Hollywood-Mainstream beschränkt, sonst habe ich Bedenken hinsichtlich des Abbilds ‚typischen‘ menschlichen Verhaltens, das sich herausbildet.

Schauen wir auf den Aspekt der Kreativität. Nick Caves Verärgerung über einen KI-generierten Songtext habe ich ja bereits berichtet. Neben echter Emotionalität ist auch Disruptivität eine Grundlage von (künstlerischer) Kreativität: „Das Kreative ist das Unwahrscheinliche“, (Christian J. Bauer, Autor). Wenn auch komplex, so betreibt KI letztlich Statistik und Stochastik und simuliert (schon wieder liegt der Begriff der Simulation nahe: simulierte Intelligenz, simulierte Menschlichkeit, nun simulierte Kreativität) Kunstfertigkeit, die auf Rückwärtsverkettung bestehender Zeichen beruht. Algorithmen lernen anhand historischer Daten, KI ist damit inhärent strukturkonservativ, weil sie durch die Anwendung von Regeln diese bestätigen. „Je mehr sich Alltagshandeln auf KI-Modelle stützt, desto stärker ist man den Mustern der Vergangenheit verhaftet, und desto schwieriger wird es, daraus auszubrechen. Am Ende sind wir in einer ewigen Feedback-Schleife gefangen, deren Wiederholungen sich nur durch die Variation des Immergleichen unterscheiden. Und wir erleben die Welt nur noch im Rückspiegel der Daten.“ (Adrian Lobe in Frankfurter Sonntagszeitung 19. März 2023).

Und doch ist KI ein Kreativitätstreiber. Wie? Die Antwort gibt es in der nächsten Folge 🙂

Fortsetzung folgt (hoffentlich bald).

KI mal heiter zum Wochenanfang

KI mal heiter zum Wochenanfang
Torte der Wahrheit aus DIE ZEIT 23. März 2023

Ich freue mich sehr, dass sowohl hier als auch in LinkedIn über die Kommentare eine echte Diskussion rund um dieses Thema entsteht (z.B. Gedanken zum Deutschen Idealismus). Ich werde weiter denken und schreiben. Zum Start in die Woche aber mal etwas weniger Schwergängiges als Hegel ;-), gesehen und schnappgeschossen heute in DIE ZEIT.

Müssen wir unsere Definition von ‚Wissen‘ überdenken? – Fortsetzung

In meinem letzten Post habe ich einer Künstlichen Intelligenz (KI) Wissen abgesprochen, weil sie keine Erfahrung im Sinne eines unmittelbaren lebensweltlichen Bezugs machen könne. Man kann den von der KI selbst im Kontext Wissen verwendeten Begriff der Erfahrung (s. Folge 1 dieser kleinen KI-Nachdenkerei) aber auch anders verstehen: Nämlich als Ergebnis eines Lernprozesses, in dem „Erwartungen an Ursache-Wirkungs-Zusammenhänge“ (übrigens Teil der Wissensdefinition von Probst) erfüllt werden oder eben nicht. Im Falle des Lernens der KI bedeutet dies, dass die KI ‚erfährt‘ (!), welche Antworten ihrerseits akzeptiert werden und welche nicht. Die Kumulierung einer solchen Erfahrung von Validität führt zu Überzeugung, führt zu etwas, das man auch als Wissen bezeichnen kann.

Erfahrung kann in diesem Kontext noch von einer anderen Seite betrachtet werden: Der Soziologe Oskar Negt definiert Erfahrung als Verarbeitung von Realität. Erfahrungen sind für Negt „Momente einer durch Begriffe und durch Sprache vermittelten schöpferischen Auseinandersetzung mit der Realität“. D.h. die KI hat einen mittelbaren lebensweltlichen Bezug durch die Nutzung versprachlichter menschlicher Erfahrung. Sie kann also zwar selbst keine Erfahrungen machen, aber die Erfahrungen anderer durchaus nutzen. Genügt dieser mittelbare Zugriff auf Erfahrung, um dann eben doch von einem nicht-personengebundenen Wissen zu sprechen?

Fragen wir doch nochmals die KI, in diesem Fall ChatGPT 3, selbst. Sie erinnern sich? Im letzten Post hatte ich gefragt, ob man bei einer KI von Wissen sprechen kann, was ChatGPT unbedingt bejaht hat. Nun lautet die Frage: Viele Definitionen sagen, Wissen sei an Personen gebunden. Stimmst du dem als KI zu?

Die Antwort – frei nach dem Motto, was interessiert mich mein Geschwätz von gestern:
Als KI-basiertes Sprachmodell habe ich kein eigenes Wissen im menschlichen Sinne, sondern ich bin in der Lage, auf eine enorme Menge von Informationen zuzugreifen und diese zu verarbeiten, um Fragen zu beantworten und Probleme zu lösen. Das von mir verarbeitete Wissen ist jedoch an Menschen gebunden, da es von ihnen erstellt und von ihnen in Sprache und Schrift festgehalten wurde. Das bedeutet, dass das Wissen, das ich verarbeite, von den Menschen geprägt ist, die es erstellt haben, und von den Menschen, die es nutzen, um ihre Entscheidungen zu treffen und ihr Verständnis der Welt zu erweitern.
Es gibt jedoch einige Einschränkungen bei der Fähigkeit von KI, Wissen vollständig zu verstehen, da Wissen oft durch kulturelle und soziale Kontexte geprägt wird, die KI möglicherweise nicht vollständig erfassen oder verstehen kann. Insgesamt würde ich jedoch sagen, dass Wissen eng mit den Erfahrungen und der Interpretation von Menschen verbunden ist und dass KI als Werkzeug genutzt werden kann, um menschliches Wissen zu erweitern und zu verbessern.

Das passt zu dem oben geschilderten Verständnis von mittelbarer, sprachlich vermittelter Erfahrung. In der neuen Aussage erscheint nun ein weiterer interessanter Begriff, der des Verständnisses. Murray Shanahan, Professor für Kognitive Robotik am Imperial College London, schreibt in einem Preprint über Large Language Models: Damit ein Akteur Wissen besitzen könne, müsse er in der Lage sein, selbst Aussagen auf ihre Belastbarkeit hin zu prüfen und damit über die Konzepte von Wahrheit und Falschheit zu verfügen. Für solch eine Prüfung brauche es aber einerseits einen Zugang zur realen Welt. Andererseits müsse der Akteur über all jenes Hintergrundwissen verfügen, das wir Menschen als kulturell geprägte Sprachgemeinschaft teilen und voraussetzen, wenn wir die Gültigkeit von Aussagen beurteilen. Die geteilte Lebensform, die wechselseitigem Verstehen und Vertrauen von Menschen zugrunde liegt, fehle. KI könne auch nicht wirklich argumentieren, sie erwecke nur den Anschein, denn anstelle einer internen Darstellung einer formalen Logik, beruhten ihre Aussagen lediglich auf einer statistisch plausiblen Aneinanderreihung von Wörtern.

Womit wir doch wieder beim unmittelbaren lebensweltlichen Bezug, dem Zugang zur realen Welt wären, und bei einem noch weitergehenden Konzept, dem der Wahrheit. Diese ist keine göttliche, sondern eine kulturell geprägte. Womit wir uns der Frage nach dem Trainingsraum der KI, nach dem Risiko der Reproduktion sozialer Biases usw. nähern. Aber das vertagen wir auf einen nächsten Post!

Zum Abschluss noch ein Gedanke von Lucie Flek, Professorin für Sprachtechnologie Uni Marburg: „Wir haben ein grundsätzliches Problem mit der Definition von Intelligenz. Wir sind uns nicht einig,ob dafür wichtig ist, dass die Maschine tatsächlich über Wissen verfügt wie wir Menschen, oder ob es ausreicht, dass sie sich so verhält, dass es für den Menschen intelligent aussieht.“

Übrigens: Intelligenz kommt vom Lateinischen intellegere: verstehen

Versteht eine KI, was wir fragen und was sie antwortet?

Fortsetzung folgt.

Müssen wir unsere Definition von ‚Wissen‘ überdenken?

Wie wahrscheinlich die meisten von Ihnen, habe ich in den letzten Wochen immer mal wieder ein Schwätzchen mit ChatGPT geführt, dem auf einer Künstlichen Intelligenz basierenden Chatbot der Firma OpenAI. Und da ich seit Jahren, wie wahrscheinlich ebenfalls die meisten von Ihnen, meinen Studierenden erzähle, ein Merkmal von Wissen sei, dass es an Personen gebunden ist (im Unterschied zu Daten und Informationen), habe ich den Chatbot gefragt:

Kann man bei einer KI von Wissen sprechen?

Die Antwort kam, wie immer prompt:
Ja, bei einer KI kann man von Wissen sprechen. Eine KI ist ein Programm, das auf einem Algorithmus basiert und darauf trainiert wird, aus Daten und Erfahrungen zu lernen, Muster zu erkennen und Entscheidungen zu treffen. Wenn eine KI erfolgreich trainiert wurde, kann sie ein umfangreiches Wissen über das zugrunde liegende Problem oder den Anwendungsbereich haben.
Allerdings ist es wichtig zu beachten, dass das Wissen, das eine KI besitzt, auf den Daten und Erfahrungen basiert, die ihr während des Trainings zur Verfügung gestellt wurden. Die Qualität und die Art der Daten und Erfahrungen, auf die die KI trainiert wurde, können das Wissen beeinflussen, das die KI besitzt. Daher müssen Entwickler und Trainer von KI-Systemen sicherstellen, dass die Daten und Erfahrungen, auf die die KI trainiert wird, von hoher Qualität und angemessen sind, um ein sinnvolles und aussagekräftiges Wissen zu gewinnen
.

Klingt schlüssig, oder? Stutzig gemacht hat mich hier jedoch der Begriff der ‚Erfahrung‘. In der Philosophie versteht man unter Erfahrung die durch die Sinne vermittelte Gewissheit der äußeren und inneren Dinge. Erfahrung hat in diesem Verständnis einen unmittelbaren lebensweltlichen Bezug. Wenn wir also sagen, dass Wissen aus einer Verknüpfung von Daten und Informationen mit Erfahrung hervorgeht und wir diesem Verständnis von Erfahrung folgen, bedeutet der Schritt hin zum Wissen einen Abgleich mit einer unmittelbar sinnlich erfahrenen äußeren Lebenswelt.

Dazu passt eine kleine Anekdote über den Musiker und Dichter Nick Cave:
Ein Fan hatte Nick Cave einen Songtext geschickt, den er durch ChatGPT hatte produzieren lassen. Die Aufgabe war, einen Songtext im Stil von Nick Cave zu schreiben. Herausgekommen sind Zeilen wie „I’ve got the blood of angels on my hands / I’ve got the fire of hell in my eyes“. Durchaus Nick Cave-ish. Nick Cave reagierte darauf wie folgt: Das Ergebnis sei eine groteske Verhöhnung dessen, was es heißt ein Mensch zu sein. Songs entstünden aus Leiden, sie basierten auf einem komplexen inneren Schöpfungskampf. Daten litten nicht.
Und sie machen (noch) keine unmittelbaren Erfahrungen.

Oder machen wir es uns damit zu einfach in der Wahrung des Anspruchs Wissen sei ausschließlich menschlich?

Fortsetzung folgt.

Wissensmanagement im 21. Jahrhundert

Ich möchte Sie gerne einladen zu einer gemeinsamen Netzwerkveranstaltung der Gesellschaft für Wissensmanagement e. V. und der Hanns-Seidel-Stiftung: Am 31. März wird es in München um das Wissensmanagement im 21. Jahrhundert gehen – eine durchaus umfassende Fragestellung, die aus verschiedenen Perspektiven beleuchtet werden soll. Dabei steht die Vernetzung der Teilnehmenden und der Austausch mit Expert:innen im Vordergrund, es wird abgesehen von knappen Inputs zur Einstimmung keine ‚klassischen‘ Vorträge geben. Ich bin gespannt, zumal ich einen solchen zehnminütigen Input zur Bedeutung von Wissen für die Zukunftsfähigkeit von Unternehmen geben sowie gemeinsam mit einem Kunden als Expertin an einer Themeninsel zur Einführung eines systematischen Wissensmanagements mitwirken darf.

Neugierig geworden? Ausführliche Informationen zur Veranstaltung sowie die Möglichkeit sich kostenfrei für eine Präsenzteilnahme oder virtuelle Teilnahme anzumelden finden Sie hier. Sehen wir uns in München?

WMOOC Live Session zum Digitalen Zwilling der Organisation online

Und es geht weiter mit der kleinen Serie an WMOOC ’22 Live Sessions. Im November haben wir uns mit einem sehr innovativen Thema beschäftigt. Dem so genannten ‚Digitalen Zwilling‘. Sie wissen nicht so recht, was darunter zu verstehen ist? Oder welchen Bezug dieses Thema zu Wissensmanagement hat? Lukas Klaßen hat es in seiner Live Session sehr anschaulich erzählt (Dauer 54’46 Min):

Der WMOOC ’22 geht übrigens in der nächsten Woche zu Ende. Aber nach dem WMOOC ist ja immer auch vor dem WMOOC. Am 3. Oktober 2023 starten wir in eine neue Runde. Wenn Sie Anregungen und Wünsche für interessante Live Sessions aus Theorie und Praxis haben, freuen wir uns. Bitte einfach melden!

WMOOC Live Session zum Pyramid Model online

Mein Wissensmanagement-MOOC Mit-Koordinator Dirk Liesch war über den Jahreswechsel ganz fleißig und hat die Aufzeichnungen der letzten Live Sessions aus dem WMOOC 2022 bearbeitet und online gestellt. Los geht es hier in meinem Blog in dieser Woche mit Annika Lawrence, die über das im Rahmen ihrer von mir betreuten Masterarbeit entwickelte Pyramid Model für Wissensmanagement berichtet. Sehr inspirierend (Dauer 43’55 Min). Viel Spaß!

WMOOC 2022 ist gestartet. Mit so vielen Live Sessions wie noch nie

Am Montag, dem 3. Oktober ist der WMOOC 2022 zum inzwischen 7. Mal gestartet. Und noch nie konnten wir bereits vom Start weg so viele, so interessante Live Sessions planen. Hier eine Übersicht aller bereits vereinbarten Termine. Merken Sie sich diese schon einmal im Kalender vor! Um die wöchentliche Info-Mail mit der Einladung zur jeweiligen Live Session nicht zu verpassen, registrieren Sie sich am besten einfach bei unserem WMOOC-Newsletter.

  • 20.10., 11 Uhr: Annika Lawrence stellt ihr eigenes integriertes Wissensmanagement-Modell vor, das sie im Rahmen ihrer Masterarbeit entwickelt hat
  • 3.11., 10 Uhr: Lukas Klaßen beschäftigt sich mit dem Zusammenhang von Wissensmanagement und digitalem Zwilling
  • 10.11., 15 Uhr: Stefan Zillich erläutert, was man unter einem body of knowledge versteht
  • 14.11., 14 Uhr: Jetzt geht es in die Praxis mit Sigrun Wetzel, die über die eigenen Erfahrungen im Unternehmen mit digitalem Onboarding berichtet
  • 22.11., 16 Uhr und 29.11., 11 Uhr: In einer Doppelsession tauchen wir mit Martina Koch, Roman Benteler und Jonas Kany tief in das ganz praktische Wissensmanagement bei einem kommunalen Stadtwerk ein
  • 8.12., 17 Uhr: Es wird international, Kamila Brodzinska berichtet in englischer Sprache über das Wissensmanagement bei den Krakauer Museen
  • 12.12., 10 Uhr: Susann Roth teilt (in deutscher Sprache) ihre Erfahrungen darüber, wie man die Kunden (Länder der Region) bei der Asian Development Bank dazu bekommt, bei Themen mitzumachen
  • 14.12., 15 Uhr: von Nikolas Stöcker erfahren wir mehr über das Wissensmanagement beim Bundesamt für Sicherheit in der Informationstechnik (BSI)

Und auch für den Januar haben wir schon eine Zusage, aber noch keinen Termin: Peter Pawlowsky teilt seine persönliche Sicht auf die Geschichte, aber auch in eine mögliche Zukunft von Wissensmanagement.

Außerdem konnten wir Sabine Wax, die aktuelle Präsidentin der GfWM, für eine Live Session zu persönlichem Wissensmanagement gewinnen. Termin muss noch festgelegt werden.

Last not least wird es vermutlich (die technischen Rahmenbedingungen müssen noch geklärt werden) am 13.10. um 15 Uhr eine Live Session von mir selbst direkt vom Knowledgecamp der GfWM in Berlin geben, und zwar zu „Wissensmanagement wird agil – und das bei einem Schweizer Finanzinstitut!

A propos, Knowledgecamp: Ich hoffe, wir sehen uns bei DER Wissensmanagement-Veranstaltung des Jahres! Eine Teilnahme lohnt sich aus meiner Erfahrung immer. Deshalb unterstützt VOLLMAR Wissen+Kommunikation auch in diesem Jahr das Knowledgecamp wieder als Sponsorin.