Author: Gabriele Vollmar

Knowledge sharing in a public museum

In the last months, Dirk and I (the two coordinators of the German Knowledge Management MOOC, WMOOC) had quite difficulties re-editing the recordings of the WMOOC live sessions due to numerous new projects. But now Dirk is thankfully investing holiday time in exactly this task (Thank you so much, Dirk!!) and finally the fascinating session on Knowledge sharing as a part of project knowledge management in one of Polish public museums with Kamila Brodzińska from Jagiellonian University in Kraków is online (duration 53’56 min). As you may have guessed from the language of this post the session was held in English. Enjoy!

BTW, this year’s WMOOC will again start on October 3rd, just as the accompanying qualification to become a Knowledge Management Professional. Further information on latter can be found here. So, register to become part of the WMOOC community!

Warum Wissensmanagement? Zahlen, Daten, Fakten

Für den heutigen Post gibt es zwei Gründe:

  1. Wissensmanager:innen sind immer auf der Suche nach griffigen und Controlling-kompatiblen Argumenten, warum Wissensmanagement für die eigene Organisation wichtig ist.
  2. Ich nutze diesen Blog auch als Instrument meines Persönlichen Wissensmanagement und hoffe, im gegebenen Fall die folgenden Informationen hier selbst wieder zu finden 😉
  3. Marco Dettloff, Student an der Dualen Hochschule Baden-Württemberg, hat für die Einleitung seiner Hausarbeit, die er bei mir als Prüfungsleistung schreiben musste und die ich gerade lese, dankenswerter Weise die folgenden Zahlen recherchiert. Danke, Marco!

Hier nun die nützlichen Argumente:

  • Prognos (2012): Der Anteil von produktionsnahen Tätigkeiten in Deutschland wird bis zum Jahr 2024 auf unter 20 Prozent sinken wird, während Tätigkeiten zur Schaffung und Verarbeitung von Informationen und Wissen bereits über 20 Prozent ausmachen werden.
  • International Data Corporation (2018): In US-amerikanischen Unternehmen werden im Durchschnitt 30 Prozent der Arbeitszeit für die Beschaffung und die Aufbereitung von für die ausgeübte Tätigkeit notwendigem Wissen benötigt.
  • IAB-Kurzbericht Nr. 14 (2014): Die durchschnittliche Beschäftigungsdauer beim selben Arbeitgeber der Jahrgänge 1978/1979 ist im Vergleich zu den Jahrgängen 1961/1962 bereits um rund 22 Prozent zurückgegangen.
  • Diese Entwicklung dürfte sich in den letzten Jahren eher noch verschärft haben. Dazu ein wenig eigene Recherche:
    – Bundesagentur für Arbeit (2022): Bei mehr als der Hälfte der Arbeitsplätze fand 2021 ein Personalwechsel statt. Branchenübergreifend ist im Durchschnitt 2021 ungefähr jede dritte Stelle neu besetzt worden.
    – Forsa (2022): 14 Prozent aller befragten 18-bis 29-Jährigen haben einen konkreten Wechselwunsch für das Jahr 2023. 37 % aller befragten Arbeitnehmer:innen sind 2022 offen für einen neuen Job oder haben sogar bereits konkrete Schritte in die Wege geleitet – das sind vier Prozentpunkte mehr als im Vorjahr. Unter den 30- bis 39-Jährigen ist fast jeder Zweite (48 %) bereit, zu einem neuen Arbeitgeber abzuwandern.
    – Prognos (2015): Bis 2020 haben wir in Deutschland eine Fachkräftelücke von 1,8 Millionen Personen, diese Lücke wird bis 2040 auf 3,9 Millionen anwachsen.
    – Wirtschaftswoche (2023): 75 Prozent der über 50-Jährigen und 57 Prozent der Befragten im Alter von 40 bis 49 Jahren bevorzugen eine langfristige Bindung an ihren aktuellen Arbeitgeber. So befinden sich etwa die Hälfte der Beschäftigten seit mindestens zehn Jahren bei ihrem aktuellen Arbeitgeber. Rund 50 Prozent der über 40-Jährigen können sich vorstellen, bis zur Rente in ihrem derzeitigen Beschäftigungsverhältnis zu bleiben.
  • Statistisches Bundesamt (2022): Bis 2036 knapp werden 13 Millionen Erwerbstätige in Deutschland das Renteneintrittsalter erreichen.

Entwurf einer KI Grundrechtecharta

In letzter Zeit ist viel zu lesen über die EU-Verordnung zu Künstlicher Intelligenz (KI), weniger zu einem Entwurf einer KI Grundrechtecharta (Blueprint for an AI Bill of Rights) der US-Regierung, genauer gesagt des Office of Science and Technology Policy (OSTP), der bereits im Oktober letztes Jahr veröffentlicht wurde.

Dieser wurde unter Beteiligung vieler, auch zivilgesellschaftlicher Akteure erarbeitet. Die fünf Grundrechte, welche die Charta vorschlägt, sind nicht überraschend (deshalb aber noch lange nicht falsch oder unnötig):

  • Schutz vor unsicheren oder ineffektiven Systemen
  • Schutz vor algorithmischer Diskriminierung
  • Selbstbestimmter Umgang mit Daten
  • Transparente Informationen zum Einsatz automatisierter Systeme
  • Menschliche Alternativen zur Korrektur von Entscheidungen

Bemerkenswert ist, dass das Dokument auch konkrete Hinweise zur Anwendung der vorgeschlagenen Maßnahmen sowie einen technischen Leitfaden zu deren Implementierung umfasst.

Noch sind die vorgeschlagenen Maßnahmen nicht verbindlich. Es laufen aber entsprechende politische Initiativen, um eine entsprechende Entscheidung der US-Regierung herbeizuführen.

Praxisnahe Informationen rund um Wissensmanagement

Praxisnahe Informationen rund um Wissensmanagement
Website Johannes

Es macht schon ein wenig stolz, wenn einer unserer Wissensmanagement MOOC Teilnehmer nun mit einer eigenen informativen Website an den Start geht. So geschehen mit Johannes Dorf, wiederholt und sehr engagiert beim WMOOC dabei, der auf Wissensmanagement praxisnah + verständlich sein in Theorie und Praxis erworbenes Wissen nun seinerseits als offen zugänglichen Inhalt weitergibt. Diese Initiative bewerbe ich hier gerne. Vielen Dank, Johannes.

Und auch in Zeiten von KI gilt: sapere aude

„(,,,) Solche Befürchtungen, das Subjekt könne sich in selbst erzeugten Scheinwelten verlieren, sind nicht unbedingt neu. Neu sind jedoch die Rasanz und Perfektion, mit der in den KI-Maschinen große Teile des Weltwissens zusammenschießen, vermengt und aufbereitet werden. Neu ist ebenso die Selbstverständlichkeit, mit der KI die Fiktionalisierung der Welt vorantreibt, um sie zugleich als unhinterfragbare Objektivität darzubieten. Anders als bei Wikipedia, wo möglichst alle Fakten belegt sein wollen, kommen die Textgeneratoren ohne Quellen aus. Sie wissen alles, auch das, was sie nicht wissen. Sie treten auf wie die Wahrheit selbst. Und erstaunlich viele Menschen sind bereit, dieser Wahrheit zu glauben, wie zahlreiche Studien zeigen. Der Name des Phänomens: Overtrust.

Auch das also motiviert die Warnrufe der KI-Forscher: Sie beobachten, wie leicht dem Menschen der Sinn fürs Wirkliche abhandenkommt. Und damit auch der Sinn für mögliche Risiken, die eine hochgezüchtete Technik mit sich bringt. Während die Maschine sich als Wahrheitshüter geriert, sogar als Subjekt der Geschichte, erfreut sich der moderne Mensch an den schönen Seiten der Unmündigkeit, lässt die Computer für sich schreiben, malen, denken – und den eigenen Geist verkümmern. So verrät er seine Freiheit, ohne es wirklich zu merken. Von Auslöschung zu sprechen ist ganz gewiss übertrieben. Nennen wir es Selbstentmächtigung.“

Hanno Rauterberg in DIE ZEIT N° 26

Ist eine KI kreativ?

Im letzten Blog-Post ging es um die Frage, ob eine Künstliche Intelligenz (KI) tatsächlich intelligent ist oder Intelligenz nur simuliert. Dabei sollten wir es uns nicht zu einfach machen und aus einer gewissen anthropozentrischen Hybris heraus Intelligenz schlicht als eine genuin menschliche Eigenschaft deklarieren. Denn es kommt darauf an, wie man Intelligenz definiert. Aber halt, das stand ja alles schon im letzten Post.

Dieser endete mit der Aussage, KI sei aufgrund ihrer Funktionsweise (Statistik + Stochastik) strukturkonservativ und damit also nicht kreativ (für einige Intelligenz-Konzepte ist Kreativität ein Element von Intelligenz). Fragt man, mal wieder, Chat GPT selbst, ist die Antwort verhalten diplomatisch (in Auszügen):

Als KI-System bin ich in der Lage, bestimmte Formen der Kreativität auf der Grundlage der Daten und des Wissens zu zeigen, die mir zur Verfügung gestellt werden.

Kreativität zeigen ist etwas anderes als kreativ sein, nicht wahr? Man könnte auch wieder das Verb ’simulieren‘ verwenden, das schon in mehreren vorausgegangenen Posts aufgetaucht ist. So hat eine KI wie ChatGPT mittlerweile gelernt, dass Gedichte oder Songtexte dann als besonders kreativ wahrgenommen werden, wenn darin unerwartete Wörter auftauchen, die Wahrscheinlichkeit, auf der die Texte an sich basieren, also durchbrochen wird. Das hier angewandte Verfahren nennt sich temperature sampling:
Dabei wird die Wahrscheinlichkeiten der generierten Texte manipuliert, indem eine ‚Temperatur‘ angewandt wird, die die Entropie oder Unvorhersehbarkeit des generierten Textes steuert. Konkret bedeutet dies, dass bei höheren Temperaturen die Wahrscheinlichkeit der Auswahl von weniger wahrscheinlichen Wörtern erhöht wird, was zu einer größeren Diversität des generierten Textes führt. Bei niedrigeren Temperaturen hingegen werden nur die am wahrscheinlichsten vorausgesagten Wörter ausgewählt, was zu einer höheren Vorhersehbarkeit des Textes führt. Damit wird der Eindruck von Kreativität erzeugt.

Es bleibt aber beim bloßen Eindruck von Kreativität, denn noch immer basiert alles – auch die gewählte ‚Temperatur‘ – auf Mustern und Strukturen, die in Trainingsdaten vorhanden sind. KI trifft keine bewussten Entscheidungen, sie hat keine eigenen Ziele und Motivationen. Die von KI-Systemen erzeugten Werke können originell sein, aber sie sind nicht das Ergebnis von emotionaler Intuition, Selbstausdruck oder Erfahrung wie es bei menschlicher, vor allem tatsächlich künstlerischer Kreativität der Fall ist.

Dies stellt jedoch bereits hohe Ansprüche an Kreativität. Für die – nennen wir es mal – Alltagskreativität taugt die KI durchaus: einen neuen Slogan finden, eine gute Überschrift für einen Text, eine passende Visualisierung für ein Konzept, Multiple-Choice-Fragen für eine Klausur… Auch wir Menschen sind in unseren vermeintlich kreativen Phasen nicht immer disruptiv kreativ, sondern wandeln lediglich Bekanntes ab.

Aber vielleicht ist die Frage weniger, inwieweit uns eine KI in Sachen Kreativität ersetzen kann, sondern wie sie uns dabei helfen kann selbst kreativer zu werden. Diese These vertritt zum Beispiel Ethan Mollick, der Innovation an der Universität von Pennsylvania lehrt: Er plädiert dafür, ChatGPT als Sparingspartner beim Brainstorming zu nutzen, denn ChatGPT produziert viele Ideen. Und unter vielen ist eventuell auch eine gute oder eine, die uns selbst inspiriert. Und hier kommt Go ins Spiel: Am 15. März 2016 schlug zum ersten Mal eine KI den menschlichen Go-Weltmeister. Ein Forscherteam der Universitäten Hongkong, Yale und Princeton ließ fast sechs Millionen menschliche Go-Spielzüge aus der Zeit 1950 bis März 2016 analysieren, mit dem Ergebnis, dass die Züge sich nicht verbessert hatten. Vielmehr war über die Jahre eine große Routine eingekehrt, eine Wiederholung des Bewährten anstatt innovatives Spielen. Und dann kam der Computer und plötzlich wurde das menschliche Spiel wieder kreativer und dadurch qualitativ besser, so die Erkenntnis des Forscherteams, das noch Daten bis 2021 ausgewertet hat. Dabei haben die Menschen keineswegs die neuen Ideen der KI nachgeahmt. Sie haben (wieder) eigene entwickelt. Die KI hat sie herausgefordert: „Das Spiel des Computers war so anders, dass ich mich erst einmal daran gewöhnen musste. Ich habe festgestellt, dass ich noch mehr über Go lernen muss.“ (Sedol Lee, der vom Computer besiegte Go-Weltmeister).

Den Menschen ungewöhnliche Sichtweisen bieten und sie dadurch auf ganz neue Ideen zu bringen – das scheint eine unerwartete Stärke von KI zu sein.

Ist eine KI intelligent?

Nun hat es mit der Fortsetzung meiner kleinen Serie zu KI – die vor allem meinem eigenen Verstehen dient – doch eine Weile gedauert: Ich hatte schlicht nicht ‚den Kopf‘ die vielen und vielfältigen Informationen zu diesem Thema gründlich zu durchdenken, eigene Einsichten zu gewinnen, geschweige denn dabei kreativ auch eigene Gedanken zu entwickeln. Zu viel anderes zu tun. Das würde natürlich ChatGPT nicht passieren, gell? Noch ein Vorteil einer Künstlichen Intelligenz: Sie ist immer einsatzbereit. Aber was heißt hier eigentlich Intelligenz? Der letzte Post endete mit der Frage nach der Intelligenz, also dem einsichtigen Verstehen, einer KI.

Laut KI-Forscher Gerard de Melo vom Hasso-Plattner-Institut, handelt es sich bei einer KI um eine simulierte Intelligenz: „(…) Chatbots haben kein Verständnis für den Inhalt, können Wahrheit und Unwahrheit nicht trennen. (…).“ Nicht ohne Grund setzen Open AI und andere nach wie vor menschliche Mitarbeitende zur Identifikation von fake und Hass ein. Und de Melo weiter: „Wir sind uns nicht mehr im Klaren, was Tatsachen sind oder auch Wahrheit, wenn man sich immer mehr auf Mehrheitsmeinungen verlässt, die massiv im Internet auftauchen und dann in solche Textgeneratoren Eingang finden (…) sich selbst verstärkend.“ Darin liegt eine große Gefahr, denn: „Wenn eine menschlich wirkende Maschine etwas sagt, ist das glaubwürdiger, als wenn eine Information nur irgendwo in einer Online-Suche steht.“ (Lucie Flek, Professorin für Sprachtechnologie Uni Marburg). So genannte Anthropomorphismen tragen zur Vertrauensbildung bei. Das weiß man schon seit der 1960er Jahren, als der Informatiker Joseph Weizenbau einen ersten einfachen Chat-Roboter getestet hat, mit einem unerwarteten Ergebnis: Die Probanden fingen an der Maschine menschliche Eigenschaften wie Gefühle oder Verständnis zuzuschreiben. Sie verhielten sich, als würden sie mit einem echten Menschen kommunizieren. Der darauf basierende ELIZA-Effekt beschreibt die Vermenschlichung von Robotern, Algorithmen und KI. Wir Menschen sehen zum Teil intrinsische Qualitäten und Fähigkeiten, oder gar Werte und Gefühle in der Software, die die Ausgabe steuert, obwohl diese ausschließlich auf der Auswertung von Datensätzen beruht. Das macht die Reproduktion sozialer Biases oder das so genannte Halluzinieren so bedenklich. Kleine Bemerkung am Rande: Ich frage mich schon, seit ich ChatGPT das erste Mal genutzt habe, warum nicht direkt beim Eingabefenster von ChatGPT darauf hingewiesen wird, dass die KI nur Informationen bis 2021 auswertet. Das ist doch ein für die Bewertung der Antwort nicht unerhebliches Kriterium. An dieser Stelle ein interessanter Gedanke eines Bekannten, kürzlich nebenbei im Gespräch geäußert: Brauchen wir zur Bezeichnung einer künstlichen Intelligenz ein eigenes, neues Personalpronomen, um den Ursprung bestimmter Entscheidungen und Informationen kenntlich zu machen? (Auf Genderfragen gehe ich an dieser Stelle nicht weiter ein, aber beobachten Sie einfach mal selbst, wann das männliche und wann das weibliche Pronomen bezogen auf unsere technischen Helfer zum Einsatz kommen!)

Doch kommen wir zurück zur Unfähigkeit Wahrheit von Unwahrheit zu trennen! Überfrachtet die Wahrheitsfrage den Intelligenz-Begriff nicht? Eine klassische Definition von Intelligenz korreliert sie schlicht mit der Verarbeitungsgeschwindigkeit von Information. Nach dieser Definition können wir einer KI sicherlich Intelligenz zusprechen. In neueren Intelligenzmodellen, zum Beispiel nach K.A. Heller, finden jedoch noch weitere Aspekte Beachtung, unter anderem Kreativität (Flexibilität, Originalität usw.) und soziale Kompetenz (Intentionsbildung usw.).

Bei letzterem sind bisherige KI-Modelle tatsächlich im Nachteil, denn noch sind sie unfähig soziale Situationen und Emotionen zu lesen. Doch wird auch dies sich sicherlich in absehbarer Zeit ändern. Schon ChatGPT4 ist eine so genannte multimodale KI, die neben Text auch Bild und Audio verarbeiten kann. Und die nächste Evolutionsstufe ist in Arbeit: Lernen aus Filmen, da Filme sehr viel Information über menschliches Verhalten transportieren. Bleibt zu hoffen, dass der Lernraum der KI sich hierbei nicht auf den Hollywood-Mainstream beschränkt, sonst habe ich Bedenken hinsichtlich des Abbilds ‚typischen‘ menschlichen Verhaltens, das sich herausbildet.

Schauen wir auf den Aspekt der Kreativität. Nick Caves Verärgerung über einen KI-generierten Songtext habe ich ja bereits berichtet. Neben echter Emotionalität ist auch Disruptivität eine Grundlage von (künstlerischer) Kreativität: „Das Kreative ist das Unwahrscheinliche“, (Christian J. Bauer, Autor). Wenn auch komplex, so betreibt KI letztlich Statistik und Stochastik und simuliert (schon wieder liegt der Begriff der Simulation nahe: simulierte Intelligenz, simulierte Menschlichkeit, nun simulierte Kreativität) Kunstfertigkeit, die auf Rückwärtsverkettung bestehender Zeichen beruht. Algorithmen lernen anhand historischer Daten, KI ist damit inhärent strukturkonservativ, weil sie durch die Anwendung von Regeln diese bestätigen. „Je mehr sich Alltagshandeln auf KI-Modelle stützt, desto stärker ist man den Mustern der Vergangenheit verhaftet, und desto schwieriger wird es, daraus auszubrechen. Am Ende sind wir in einer ewigen Feedback-Schleife gefangen, deren Wiederholungen sich nur durch die Variation des Immergleichen unterscheiden. Und wir erleben die Welt nur noch im Rückspiegel der Daten.“ (Adrian Lobe in Frankfurter Sonntagszeitung 19. März 2023).

Und doch ist KI ein Kreativitätstreiber. Wie? Die Antwort gibt es in der nächsten Folge 🙂

Fortsetzung folgt (hoffentlich bald).

KI mal heiter zum Wochenanfang

KI mal heiter zum Wochenanfang
Torte der Wahrheit aus DIE ZEIT 23. März 2023

Ich freue mich sehr, dass sowohl hier als auch in LinkedIn über die Kommentare eine echte Diskussion rund um dieses Thema entsteht (z.B. Gedanken zum Deutschen Idealismus). Ich werde weiter denken und schreiben. Zum Start in die Woche aber mal etwas weniger Schwergängiges als Hegel ;-), gesehen und schnappgeschossen heute in DIE ZEIT.

Müssen wir unsere Definition von ‚Wissen‘ überdenken? – Fortsetzung

In meinem letzten Post habe ich einer Künstlichen Intelligenz (KI) Wissen abgesprochen, weil sie keine Erfahrung im Sinne eines unmittelbaren lebensweltlichen Bezugs machen könne. Man kann den von der KI selbst im Kontext Wissen verwendeten Begriff der Erfahrung (s. Folge 1 dieser kleinen KI-Nachdenkerei) aber auch anders verstehen: Nämlich als Ergebnis eines Lernprozesses, in dem „Erwartungen an Ursache-Wirkungs-Zusammenhänge“ (übrigens Teil der Wissensdefinition von Probst) erfüllt werden oder eben nicht. Im Falle des Lernens der KI bedeutet dies, dass die KI ‚erfährt‘ (!), welche Antworten ihrerseits akzeptiert werden und welche nicht. Die Kumulierung einer solchen Erfahrung von Validität führt zu Überzeugung, führt zu etwas, das man auch als Wissen bezeichnen kann.

Erfahrung kann in diesem Kontext noch von einer anderen Seite betrachtet werden: Der Soziologe Oskar Negt definiert Erfahrung als Verarbeitung von Realität. Erfahrungen sind für Negt „Momente einer durch Begriffe und durch Sprache vermittelten schöpferischen Auseinandersetzung mit der Realität“. D.h. die KI hat einen mittelbaren lebensweltlichen Bezug durch die Nutzung versprachlichter menschlicher Erfahrung. Sie kann also zwar selbst keine Erfahrungen machen, aber die Erfahrungen anderer durchaus nutzen. Genügt dieser mittelbare Zugriff auf Erfahrung, um dann eben doch von einem nicht-personengebundenen Wissen zu sprechen?

Fragen wir doch nochmals die KI, in diesem Fall ChatGPT 3, selbst. Sie erinnern sich? Im letzten Post hatte ich gefragt, ob man bei einer KI von Wissen sprechen kann, was ChatGPT unbedingt bejaht hat. Nun lautet die Frage: Viele Definitionen sagen, Wissen sei an Personen gebunden. Stimmst du dem als KI zu?

Die Antwort – frei nach dem Motto, was interessiert mich mein Geschwätz von gestern:
Als KI-basiertes Sprachmodell habe ich kein eigenes Wissen im menschlichen Sinne, sondern ich bin in der Lage, auf eine enorme Menge von Informationen zuzugreifen und diese zu verarbeiten, um Fragen zu beantworten und Probleme zu lösen. Das von mir verarbeitete Wissen ist jedoch an Menschen gebunden, da es von ihnen erstellt und von ihnen in Sprache und Schrift festgehalten wurde. Das bedeutet, dass das Wissen, das ich verarbeite, von den Menschen geprägt ist, die es erstellt haben, und von den Menschen, die es nutzen, um ihre Entscheidungen zu treffen und ihr Verständnis der Welt zu erweitern.
Es gibt jedoch einige Einschränkungen bei der Fähigkeit von KI, Wissen vollständig zu verstehen, da Wissen oft durch kulturelle und soziale Kontexte geprägt wird, die KI möglicherweise nicht vollständig erfassen oder verstehen kann. Insgesamt würde ich jedoch sagen, dass Wissen eng mit den Erfahrungen und der Interpretation von Menschen verbunden ist und dass KI als Werkzeug genutzt werden kann, um menschliches Wissen zu erweitern und zu verbessern.

Das passt zu dem oben geschilderten Verständnis von mittelbarer, sprachlich vermittelter Erfahrung. In der neuen Aussage erscheint nun ein weiterer interessanter Begriff, der des Verständnisses. Murray Shanahan, Professor für Kognitive Robotik am Imperial College London, schreibt in einem Preprint über Large Language Models: Damit ein Akteur Wissen besitzen könne, müsse er in der Lage sein, selbst Aussagen auf ihre Belastbarkeit hin zu prüfen und damit über die Konzepte von Wahrheit und Falschheit zu verfügen. Für solch eine Prüfung brauche es aber einerseits einen Zugang zur realen Welt. Andererseits müsse der Akteur über all jenes Hintergrundwissen verfügen, das wir Menschen als kulturell geprägte Sprachgemeinschaft teilen und voraussetzen, wenn wir die Gültigkeit von Aussagen beurteilen. Die geteilte Lebensform, die wechselseitigem Verstehen und Vertrauen von Menschen zugrunde liegt, fehle. KI könne auch nicht wirklich argumentieren, sie erwecke nur den Anschein, denn anstelle einer internen Darstellung einer formalen Logik, beruhten ihre Aussagen lediglich auf einer statistisch plausiblen Aneinanderreihung von Wörtern.

Womit wir doch wieder beim unmittelbaren lebensweltlichen Bezug, dem Zugang zur realen Welt wären, und bei einem noch weitergehenden Konzept, dem der Wahrheit. Diese ist keine göttliche, sondern eine kulturell geprägte. Womit wir uns der Frage nach dem Trainingsraum der KI, nach dem Risiko der Reproduktion sozialer Biases usw. nähern. Aber das vertagen wir auf einen nächsten Post!

Zum Abschluss noch ein Gedanke von Lucie Flek, Professorin für Sprachtechnologie Uni Marburg: „Wir haben ein grundsätzliches Problem mit der Definition von Intelligenz. Wir sind uns nicht einig,ob dafür wichtig ist, dass die Maschine tatsächlich über Wissen verfügt wie wir Menschen, oder ob es ausreicht, dass sie sich so verhält, dass es für den Menschen intelligent aussieht.“

Übrigens: Intelligenz kommt vom Lateinischen intellegere: verstehen

Versteht eine KI, was wir fragen und was sie antwortet?

Fortsetzung folgt.