Digitalisierung

Persönliche Gedanken zur Nutzung von KI

Wie vermutlich die meisten von euch, habe ich in den letzten Monaten mit Neugier und teilweise Begeisterung unterschiedliche KI-Werkzeuge nicht nur ausprobiert, sondern in mein tägliches Arbeiten integriert. Im Grunde erschreckend schnell, haben sich meine persönlichen Arbeitsweisen verändert und habe ich zur Effizienzsteigerung zunehmend Aufgaben an KI outgesourct. Zugegeben, ohne dies über die engere berufliche Perspektive hinaus konsequent, d.h. mit Auswirkung auf mein Verhalten, zu reflektieren.

Dieser Prozess wurde nun in Gang gesetzt, und zwar durch eine meiner Studentinnen und durch meine Tochter:

Die Studentin hat mich in einer Lehrveranstaltung daran erinnert, dass eine Anfrage an einen KI Chatbot extrem viel mehr Ressourcen verbraucht als eine entsprechende konventionelle Suche. Nicht, dass ich das nicht bereits gewusst hätte, aber wie viel bequemer war es doch, einfach meinen Ko-Piloten zu fragen, anstatt selbst die Suchmaschine zu nutzen. Ich habe kein eigenes Auto mehr, vermeide, so gut es eben geht, Verpackungsmüll, kaufe biologische Lebensmittel ein… Ich tue also viel für mein gutes Gewissen, aber das Wissen um diesen Raubbau habe ich geflissentlich verdrängt. Bisher… Google (vielmehr Ecosia) hat mich wieder, dort, wo die KI keinen signifikanten Mehrwert – außer den der eigenen Faulheit – bietet.

Meine Tochter wiederum hat mir den Spaß an meinen KI-generierten Studio Ghibli-Bildern von mir selbst verdorben: Wir sind beide große Fans der Animes von Hayao Miyazaki, einem der Gründer des Studios und vor allem dessen unverwechselbarer Ästhetik. Daher fand ich meine ghiblisierten Selbstporträts auch sehr cool. Nicht so meine Tochter. Diese fand es fast schon perfide, dass ausgerechnet eine Bildsprache zu einem Datenmuster einer KI wird, deren Schöpfer explizit seine Abscheu vor dieser seelenlosen Technik geäußert hat und dessen Ästhetik auf sorgsam handgezeichneten Animationen beruht. Da Miyazaki, wie alle anderen kreativen Köpfe, deren Werke von den Tech-Konzernen hinter der KI gestohlen und plagiiert werden (oder wie soll man es anders nennen?) sich selbst nicht wehren kann, habe zumindest ich – schweren Herzens – meine „Ghibli“-Bilder wieder gelöscht.

Durch diese beiden Erfahrungen ist mein Skeptizimus, im philosophischen Sinne des allzeit kritischen Hinterfragens, wieder erwacht und meine Nutzung von KI bewusster und seltener geworden. Auch weil – leider – die Nutzung von KI über die entsprechenden Anbieter-Plattformen nicht ’nicht politisch‘ sein kann:

  • Wann immer ich KI nutze, akzeptiere ich, dass die Gesamtheit des menschlichen Wissens, kultureller Überlieferungen und künstlerischen Schaffens als verwertbare Ressource betrachtet und kostenfrei verwertet wird. „Wo allerdings das gesamte kulturelle Archiv zur Quelle von Trainingsdaten wird, schwindet der Wert des einzelnen Werks.“ (Roland Meyer, Zürcher Hochschule der Künste). Dies ist exakt die Argumentation des Meta-Konzerns gegen Ansprüche auf finanzielle Kompensation. Wann immer ich KI nutze, entwerte auch ich die Arbeit kreativer Menschen.
  • „Aus Sicht meiner Forschung ist die aktuelle Entwicklung der generativen KI „nur“ die konsequente Fortsetzung von Prozessen, die wir seit Jahrzehnten beobachten – also die Entwertung journalistischer Inhalte, Desinformation, Monopolisierung, die Verlagerung der Wertschöpfung von den Inhalten hin zu den monopolitischen Plattformen, die weitgehende Enteignung der Urheber, der Verlust einer geteilten Wahrheit und so fort. Es ist nur die letzte Stufe einer in sich konsistenten Entwicklung, die durch unsere massive Fehlregulierung des digitalen Raums überhaupt erst möglich wurde und die nun die Grundpfeiler von Journalismus und Demokratie in Frage stellt.“ (der Medienwissenschaftler Martin Andree im Interview).
    Als Nutzer:innen dieser KI sind wir nolens volens Teil dieser Entwicklung und akzeptieren diese.
  • Der aktuell einflussreichste Weg der KI-Entwicklung folgt einer Logik der schrankenlosen Expansion: immer neue unbeschränkte Datenressourcen, immer neue – unsere Lebenswelt zerstörende – Rechenkapazitäten. Diese Logik hat eine Affinität zu autokratischen Staatsmodellen, stört demokratische Kontrolle, das verzögernde Klein-Klein von Checks and Balances doch nur. So ist es vielleicht kein Zufall, dass KI-generierte Memes zur bevorzugten visuellen Propagandasprache der globalen Rechten geworden ist. Die Nähe ist nicht nur eine ästhetische, sondern, wenn wir an die aktuell einflussreichsten Plattformen denken, leider auch eine ideologische. Manche Kritiker:innen wir der Journalist Gareth Watkins oder die Kulturwissenschaftlerin Alexandra Minna Stern benutzen gar den Begriff des ‚digitalen Faschismus‘. Auch wenn der Begriff Faschismus in der letzten Zeit inflationär verwendet wird, lassen sich Parallelen nicht von der Hand weisen: anti-demokratisch (Regulierung und Kontrolle hemmt die Entwicklung der KI), Säuberung nach innen (anti-woke-Initiativen der relevanten Tech-Plattformen), Expansion nach außen (s.o. entfesselter Datenextraktivismus, „KI ist die neue Front“, J.D. Vance bei seinem Besuch in Europa).
    Als Nutzer:innen dieser KI sind wir nolens volens auch Teil dieser Entwicklung und unterstützen diese, indem wir für den Erfolg der Plattformen und der dahinter stehenden Konzerne sorgen.

Nein, ich werde die Nutzung von KI nicht einstellen. Aber ich werde die Notwendigkeit jeder Nutzung kritischer als bisher hinterfragen und mehr Energie auf die Recherche nach und Evaluierung von Alternativen verwenden, z. B. Le Chat von Mistral AI, einem europäischen Anbieter. Und ich hoffe, dass die Europäische Union den Weg der Regulierung weitergeht. Denn De-Regulierung bedeutet nicht Freiheit, sondern die Durchsetzung des Rechts des Stärkeren.

Unfaire Algorithmen: Warum KI sexistisch ist

Unfaire Algorithmen: Warum KI sexistisch ist
generiert mit Midjourney

Ich möchte gerne den Podcast Mit Herz und KI des DUP Magazins empfehlen, z. B. die sehr hörenswerte Folge Patriarchat.exe läuft im Hintergrund – warum KI schockierend sexistisch ist:
Redakteurin Fanny Rosenberg spricht mit Eva Gengler, einer der führenden Stimmen für faire Algorithmen. Gemeinsam gehen sie der Frage nach, ob mit KI gerade eine Zukunft programmiert wird, die eigentlich längst Vergangenheit sein sollte. Doch warum kommen KI-Technologien überhaupt als digitaler Chauvinist daher? Wie können wir diese maschinelle Diskriminierung erkennen? Und wie können wir uns von diesen tiefsitzenden Vorurteilen von KI-Systemen lösen?

KI und Wissensmanagement – WMOOC Live Session online

Die letzte Live Session unseres letzten Wissensmanagement-MOOC ist nun auch online: Prof.in (FH) Mag.a (FH) Barbara Geyer, PhD von der Hochschule Burgenland nimmt uns mit und gibt Einblick, wie sie persönlich KI-Tools als Unterstützung ihrer Arbeit, auch der wissenschaftlichen Arbeit nutzt.

Vielleicht diejenige Live Session die mein eigenes Arbeiten am konkretesten und praktischsten beeinflusst hat. Vielen Dank, Barbara! Und euch viel Spaß (Dauer 49’44 Min)

Die KI, das implizite Wissen und die Expert:innen

Einige von euch erinnern sich vielleicht noch an die kleine Serie hier in meinem Blog vor fast einem Jahr, in der wir teilweise auch gemeinsam über Künstliche Intelligenz (KI) philosophiert haben (ist sie intelligent? ist sie kreativ? verfügt sie über Wissen?…).

Nun habe ich dazu heute Interessantes gelesen, und zwar von David Autor (Applying AI to Rebuild Middleclass Jobs. NBER Working Paper 32140). Autor geht explizit auf die Polanyischen Kategorien ‚explizites‘ und ‚implizites‘ Wissen ein, wenn er darlegt wie sich Digitalisierung und KI auf den Arbeitsmarkt ausgewirkt haben und aktuell auswirken. Er argumentiert, das explizite Wissen, also das laut Polanyi gut verbalisierbare Wissen, sei bereits in den vergangenen Jahrzehnten der Digitalisierung in Computercodes und Algorithmen übertragen worden, wodurch Berufe der Mittelschicht, in denen es vorrangig um dieses Wissen geht, unter Druck gerieten. Ebenso wie minder qualifizierte Berufe, weil nun mehr Menschen in diese Berufe drängten. Profitiert hätten hoch qualifizierte Wissensarbeitenden: Computer hätten es diesen Expert:innen ermöglicht sich auf die Interpretation und (komplexe, Anm. der Autorin) Verwendung von Informationen zu konzentrieren, wofür es auf das implizite Wissen ankomme, das Computer bisher nicht nachbilden konnten.

Nun könne, so Autor, aber die KI Regeln eigenständig entwickeln und damit implizites Wissen, das schwer weiterzugeben ist, selbst erlernen: „Künstliche Intelligenz kann auf der Grundlage von Training und Erfahrung improvisieren. So kann sie Expertenurteile fällen – eine Fähigkeit, die bisher nur Eliteexperten vorbehalten war. Obwohl sie erst in den Kinderschuhen steckt (…)“.

Autors Theorie eines Statusverlusts von Expert:innen wird durch Studien aus der Praxis bestätigt. So haben beispielsweise Kolleg:innen von Autor am MIT Akademiker:innen unterschiedliche Schreibaufgaben gestellt, die einmal mit, einmal ohne Hilfe einer KI bearbeitet werden sollten. Dabei hat sich gezeigt, dass sich zwar alle mittels der KI verbesserten, sowohl hinsichtlich der Effizienz als auch des Ergebnisses, die schwächeren Schreiber aber deutlich mehr als die bereits guten. D.h. der Abstand zwischen Mittelbau und Elite wird mit KI geringer.

Gleich 2 anstehende Live Sessions im WMOOC

Gleich 2 anstehende Live Sessions im WMOOC
WMOOC

Während der Laufzeit des Wissensmanagement-MOOC, also bis Mitte Januar, möchte ich diesen Blog nutzen, um auf die jeweils anstehenden Live Sessions hinzuweisen. Diese sind auch für nicht im WMOOC registrierte Interessierte offen. Am besten bei mir direkt melden, ich schicke dann die Einwahldaten, oder für den Newsletter im Wissensmanagement-Kursbuch registrieren. Dann erhalten Sie immer rechtzeitig die Einladung zur jeweils nächsten Live Session, schon mit Einwahldaten.

In den nächsten 2 Wochen gibt es nun gleich 2 tolle Sessions:

Thema: Freie Bildung & freie Bildungsinhalte am Beispiel von Smart Object Learning (SOL) mit Dirk Liesch
Datum: Donnerstag 19. Oktober, 16:00 Uhr

Thema: Von KI bis AR: Digitale Ansätze für die Wissenssicherung der Zukunft mit Manuel Mukkenfuß, EnBW AG

Datum: Dienstag 24. Oktober, 17:00 Uhr

In der Regel werden die Live Sessions aufgezeichnet und die Aufzeichnungen auf dem Youtube-Kanal der Open Academy veröffentlicht. Die Live Session am 24.10. mit Manuel Mukkenfuß von EnBW wird auf Wunsch des Unternehmens jedoch nur auf der MOOC-Plattform veröffentlicht, wird also nur registrierten Lernenden im WMOOC zur Verfügung stehen. Also, live dabei sein!

Ist eine KI kreativ?

Im letzten Blog-Post ging es um die Frage, ob eine Künstliche Intelligenz (KI) tatsächlich intelligent ist oder Intelligenz nur simuliert. Dabei sollten wir es uns nicht zu einfach machen und aus einer gewissen anthropozentrischen Hybris heraus Intelligenz schlicht als eine genuin menschliche Eigenschaft deklarieren. Denn es kommt darauf an, wie man Intelligenz definiert. Aber halt, das stand ja alles schon im letzten Post.

Dieser endete mit der Aussage, KI sei aufgrund ihrer Funktionsweise (Statistik + Stochastik) strukturkonservativ und damit also nicht kreativ (für einige Intelligenz-Konzepte ist Kreativität ein Element von Intelligenz). Fragt man, mal wieder, Chat GPT selbst, ist die Antwort verhalten diplomatisch (in Auszügen):

Als KI-System bin ich in der Lage, bestimmte Formen der Kreativität auf der Grundlage der Daten und des Wissens zu zeigen, die mir zur Verfügung gestellt werden.

Kreativität zeigen ist etwas anderes als kreativ sein, nicht wahr? Man könnte auch wieder das Verb ’simulieren‘ verwenden, das schon in mehreren vorausgegangenen Posts aufgetaucht ist. So hat eine KI wie ChatGPT mittlerweile gelernt, dass Gedichte oder Songtexte dann als besonders kreativ wahrgenommen werden, wenn darin unerwartete Wörter auftauchen, die Wahrscheinlichkeit, auf der die Texte an sich basieren, also durchbrochen wird. Das hier angewandte Verfahren nennt sich temperature sampling:
Dabei wird die Wahrscheinlichkeiten der generierten Texte manipuliert, indem eine ‚Temperatur‘ angewandt wird, die die Entropie oder Unvorhersehbarkeit des generierten Textes steuert. Konkret bedeutet dies, dass bei höheren Temperaturen die Wahrscheinlichkeit der Auswahl von weniger wahrscheinlichen Wörtern erhöht wird, was zu einer größeren Diversität des generierten Textes führt. Bei niedrigeren Temperaturen hingegen werden nur die am wahrscheinlichsten vorausgesagten Wörter ausgewählt, was zu einer höheren Vorhersehbarkeit des Textes führt. Damit wird der Eindruck von Kreativität erzeugt.

Es bleibt aber beim bloßen Eindruck von Kreativität, denn noch immer basiert alles – auch die gewählte ‚Temperatur‘ – auf Mustern und Strukturen, die in Trainingsdaten vorhanden sind. KI trifft keine bewussten Entscheidungen, sie hat keine eigenen Ziele und Motivationen. Die von KI-Systemen erzeugten Werke können originell sein, aber sie sind nicht das Ergebnis von emotionaler Intuition, Selbstausdruck oder Erfahrung wie es bei menschlicher, vor allem tatsächlich künstlerischer Kreativität der Fall ist.

Dies stellt jedoch bereits hohe Ansprüche an Kreativität. Für die – nennen wir es mal – Alltagskreativität taugt die KI durchaus: einen neuen Slogan finden, eine gute Überschrift für einen Text, eine passende Visualisierung für ein Konzept, Multiple-Choice-Fragen für eine Klausur… Auch wir Menschen sind in unseren vermeintlich kreativen Phasen nicht immer disruptiv kreativ, sondern wandeln lediglich Bekanntes ab.

Aber vielleicht ist die Frage weniger, inwieweit uns eine KI in Sachen Kreativität ersetzen kann, sondern wie sie uns dabei helfen kann selbst kreativer zu werden. Diese These vertritt zum Beispiel Ethan Mollick, der Innovation an der Universität von Pennsylvania lehrt: Er plädiert dafür, ChatGPT als Sparingspartner beim Brainstorming zu nutzen, denn ChatGPT produziert viele Ideen. Und unter vielen ist eventuell auch eine gute oder eine, die uns selbst inspiriert. Und hier kommt Go ins Spiel: Am 15. März 2016 schlug zum ersten Mal eine KI den menschlichen Go-Weltmeister. Ein Forscherteam der Universitäten Hongkong, Yale und Princeton ließ fast sechs Millionen menschliche Go-Spielzüge aus der Zeit 1950 bis März 2016 analysieren, mit dem Ergebnis, dass die Züge sich nicht verbessert hatten. Vielmehr war über die Jahre eine große Routine eingekehrt, eine Wiederholung des Bewährten anstatt innovatives Spielen. Und dann kam der Computer und plötzlich wurde das menschliche Spiel wieder kreativer und dadurch qualitativ besser, so die Erkenntnis des Forscherteams, das noch Daten bis 2021 ausgewertet hat. Dabei haben die Menschen keineswegs die neuen Ideen der KI nachgeahmt. Sie haben (wieder) eigene entwickelt. Die KI hat sie herausgefordert: „Das Spiel des Computers war so anders, dass ich mich erst einmal daran gewöhnen musste. Ich habe festgestellt, dass ich noch mehr über Go lernen muss.“ (Sedol Lee, der vom Computer besiegte Go-Weltmeister).

Den Menschen ungewöhnliche Sichtweisen bieten und sie dadurch auf ganz neue Ideen zu bringen – das scheint eine unerwartete Stärke von KI zu sein.

Ist eine KI intelligent?

Nun hat es mit der Fortsetzung meiner kleinen Serie zu KI – die vor allem meinem eigenen Verstehen dient – doch eine Weile gedauert: Ich hatte schlicht nicht ‚den Kopf‘ die vielen und vielfältigen Informationen zu diesem Thema gründlich zu durchdenken, eigene Einsichten zu gewinnen, geschweige denn dabei kreativ auch eigene Gedanken zu entwickeln. Zu viel anderes zu tun. Das würde natürlich ChatGPT nicht passieren, gell? Noch ein Vorteil einer Künstlichen Intelligenz: Sie ist immer einsatzbereit. Aber was heißt hier eigentlich Intelligenz? Der letzte Post endete mit der Frage nach der Intelligenz, also dem einsichtigen Verstehen, einer KI.

Laut KI-Forscher Gerard de Melo vom Hasso-Plattner-Institut, handelt es sich bei einer KI um eine simulierte Intelligenz: „(…) Chatbots haben kein Verständnis für den Inhalt, können Wahrheit und Unwahrheit nicht trennen. (…).“ Nicht ohne Grund setzen Open AI und andere nach wie vor menschliche Mitarbeitende zur Identifikation von fake und Hass ein. Und de Melo weiter: „Wir sind uns nicht mehr im Klaren, was Tatsachen sind oder auch Wahrheit, wenn man sich immer mehr auf Mehrheitsmeinungen verlässt, die massiv im Internet auftauchen und dann in solche Textgeneratoren Eingang finden (…) sich selbst verstärkend.“ Darin liegt eine große Gefahr, denn: „Wenn eine menschlich wirkende Maschine etwas sagt, ist das glaubwürdiger, als wenn eine Information nur irgendwo in einer Online-Suche steht.“ (Lucie Flek, Professorin für Sprachtechnologie Uni Marburg). So genannte Anthropomorphismen tragen zur Vertrauensbildung bei. Das weiß man schon seit der 1960er Jahren, als der Informatiker Joseph Weizenbau einen ersten einfachen Chat-Roboter getestet hat, mit einem unerwarteten Ergebnis: Die Probanden fingen an der Maschine menschliche Eigenschaften wie Gefühle oder Verständnis zuzuschreiben. Sie verhielten sich, als würden sie mit einem echten Menschen kommunizieren. Der darauf basierende ELIZA-Effekt beschreibt die Vermenschlichung von Robotern, Algorithmen und KI. Wir Menschen sehen zum Teil intrinsische Qualitäten und Fähigkeiten, oder gar Werte und Gefühle in der Software, die die Ausgabe steuert, obwohl diese ausschließlich auf der Auswertung von Datensätzen beruht. Das macht die Reproduktion sozialer Biases oder das so genannte Halluzinieren so bedenklich. Kleine Bemerkung am Rande: Ich frage mich schon, seit ich ChatGPT das erste Mal genutzt habe, warum nicht direkt beim Eingabefenster von ChatGPT darauf hingewiesen wird, dass die KI nur Informationen bis 2021 auswertet. Das ist doch ein für die Bewertung der Antwort nicht unerhebliches Kriterium. An dieser Stelle ein interessanter Gedanke eines Bekannten, kürzlich nebenbei im Gespräch geäußert: Brauchen wir zur Bezeichnung einer künstlichen Intelligenz ein eigenes, neues Personalpronomen, um den Ursprung bestimmter Entscheidungen und Informationen kenntlich zu machen? (Auf Genderfragen gehe ich an dieser Stelle nicht weiter ein, aber beobachten Sie einfach mal selbst, wann das männliche und wann das weibliche Pronomen bezogen auf unsere technischen Helfer zum Einsatz kommen!)

Doch kommen wir zurück zur Unfähigkeit Wahrheit von Unwahrheit zu trennen! Überfrachtet die Wahrheitsfrage den Intelligenz-Begriff nicht? Eine klassische Definition von Intelligenz korreliert sie schlicht mit der Verarbeitungsgeschwindigkeit von Information. Nach dieser Definition können wir einer KI sicherlich Intelligenz zusprechen. In neueren Intelligenzmodellen, zum Beispiel nach K.A. Heller, finden jedoch noch weitere Aspekte Beachtung, unter anderem Kreativität (Flexibilität, Originalität usw.) und soziale Kompetenz (Intentionsbildung usw.).

Bei letzterem sind bisherige KI-Modelle tatsächlich im Nachteil, denn noch sind sie unfähig soziale Situationen und Emotionen zu lesen. Doch wird auch dies sich sicherlich in absehbarer Zeit ändern. Schon ChatGPT4 ist eine so genannte multimodale KI, die neben Text auch Bild und Audio verarbeiten kann. Und die nächste Evolutionsstufe ist in Arbeit: Lernen aus Filmen, da Filme sehr viel Information über menschliches Verhalten transportieren. Bleibt zu hoffen, dass der Lernraum der KI sich hierbei nicht auf den Hollywood-Mainstream beschränkt, sonst habe ich Bedenken hinsichtlich des Abbilds ‚typischen‘ menschlichen Verhaltens, das sich herausbildet.

Schauen wir auf den Aspekt der Kreativität. Nick Caves Verärgerung über einen KI-generierten Songtext habe ich ja bereits berichtet. Neben echter Emotionalität ist auch Disruptivität eine Grundlage von (künstlerischer) Kreativität: „Das Kreative ist das Unwahrscheinliche“, (Christian J. Bauer, Autor). Wenn auch komplex, so betreibt KI letztlich Statistik und Stochastik und simuliert (schon wieder liegt der Begriff der Simulation nahe: simulierte Intelligenz, simulierte Menschlichkeit, nun simulierte Kreativität) Kunstfertigkeit, die auf Rückwärtsverkettung bestehender Zeichen beruht. Algorithmen lernen anhand historischer Daten, KI ist damit inhärent strukturkonservativ, weil sie durch die Anwendung von Regeln diese bestätigen. „Je mehr sich Alltagshandeln auf KI-Modelle stützt, desto stärker ist man den Mustern der Vergangenheit verhaftet, und desto schwieriger wird es, daraus auszubrechen. Am Ende sind wir in einer ewigen Feedback-Schleife gefangen, deren Wiederholungen sich nur durch die Variation des Immergleichen unterscheiden. Und wir erleben die Welt nur noch im Rückspiegel der Daten.“ (Adrian Lobe in Frankfurter Sonntagszeitung 19. März 2023).

Und doch ist KI ein Kreativitätstreiber. Wie? Die Antwort gibt es in der nächsten Folge 🙂

Fortsetzung folgt (hoffentlich bald).

Müssen wir unsere Definition von ‚Wissen‘ überdenken?

Wie wahrscheinlich die meisten von Ihnen, habe ich in den letzten Wochen immer mal wieder ein Schwätzchen mit ChatGPT geführt, dem auf einer Künstlichen Intelligenz basierenden Chatbot der Firma OpenAI. Und da ich seit Jahren, wie wahrscheinlich ebenfalls die meisten von Ihnen, meinen Studierenden erzähle, ein Merkmal von Wissen sei, dass es an Personen gebunden ist (im Unterschied zu Daten und Informationen), habe ich den Chatbot gefragt:

Kann man bei einer KI von Wissen sprechen?

Die Antwort kam, wie immer prompt:
Ja, bei einer KI kann man von Wissen sprechen. Eine KI ist ein Programm, das auf einem Algorithmus basiert und darauf trainiert wird, aus Daten und Erfahrungen zu lernen, Muster zu erkennen und Entscheidungen zu treffen. Wenn eine KI erfolgreich trainiert wurde, kann sie ein umfangreiches Wissen über das zugrunde liegende Problem oder den Anwendungsbereich haben.
Allerdings ist es wichtig zu beachten, dass das Wissen, das eine KI besitzt, auf den Daten und Erfahrungen basiert, die ihr während des Trainings zur Verfügung gestellt wurden. Die Qualität und die Art der Daten und Erfahrungen, auf die die KI trainiert wurde, können das Wissen beeinflussen, das die KI besitzt. Daher müssen Entwickler und Trainer von KI-Systemen sicherstellen, dass die Daten und Erfahrungen, auf die die KI trainiert wird, von hoher Qualität und angemessen sind, um ein sinnvolles und aussagekräftiges Wissen zu gewinnen
.

Klingt schlüssig, oder? Stutzig gemacht hat mich hier jedoch der Begriff der ‚Erfahrung‘. In der Philosophie versteht man unter Erfahrung die durch die Sinne vermittelte Gewissheit der äußeren und inneren Dinge. Erfahrung hat in diesem Verständnis einen unmittelbaren lebensweltlichen Bezug. Wenn wir also sagen, dass Wissen aus einer Verknüpfung von Daten und Informationen mit Erfahrung hervorgeht und wir diesem Verständnis von Erfahrung folgen, bedeutet der Schritt hin zum Wissen einen Abgleich mit einer unmittelbar sinnlich erfahrenen äußeren Lebenswelt.

Dazu passt eine kleine Anekdote über den Musiker und Dichter Nick Cave:
Ein Fan hatte Nick Cave einen Songtext geschickt, den er durch ChatGPT hatte produzieren lassen. Die Aufgabe war, einen Songtext im Stil von Nick Cave zu schreiben. Herausgekommen sind Zeilen wie „I’ve got the blood of angels on my hands / I’ve got the fire of hell in my eyes“. Durchaus Nick Cave-ish. Nick Cave reagierte darauf wie folgt: Das Ergebnis sei eine groteske Verhöhnung dessen, was es heißt ein Mensch zu sein. Songs entstünden aus Leiden, sie basierten auf einem komplexen inneren Schöpfungskampf. Daten litten nicht.
Und sie machen (noch) keine unmittelbaren Erfahrungen.

Oder machen wir es uns damit zu einfach in der Wahrung des Anspruchs Wissen sei ausschließlich menschlich?

Fortsetzung folgt.

WMOOC Live Session zum Digitalen Zwilling der Organisation online

Und es geht weiter mit der kleinen Serie an WMOOC ’22 Live Sessions. Im November haben wir uns mit einem sehr innovativen Thema beschäftigt. Dem so genannten ‚Digitalen Zwilling‘. Sie wissen nicht so recht, was darunter zu verstehen ist? Oder welchen Bezug dieses Thema zu Wissensmanagement hat? Lukas Klaßen hat es in seiner Live Session sehr anschaulich erzählt (Dauer 54’46 Min):

Der WMOOC ’22 geht übrigens in der nächsten Woche zu Ende. Aber nach dem WMOOC ist ja immer auch vor dem WMOOC. Am 3. Oktober 2023 starten wir in eine neue Runde. Wenn Sie Anregungen und Wünsche für interessante Live Sessions aus Theorie und Praxis haben, freuen wir uns. Bitte einfach melden!

WMOOC Live Session zum Digitalem Zwilling

WMOOC Live Session zum Digitalem Zwilling
MOOC

In der nächsten Woche startet bereits das zweite Modul des diesjährigen Wissensmanagement-MOOC. Und wir freuen uns auf eine Live Session, in der wir uns mit einem innovativen technischen Thema beschäftigen: Digitaler Zwilling der Organisation: Bestehende Wissensressourcen einfach finden mit Lukas Klaßen von Knowledge in a Box.

Termin: 3. November, 10 Uhr

Wenn Sie gerne dabei sein möchten, schreiben Sie mir einfach! Oder registrieren Sie sich für den WMOOC-Newsletter! Dann erhalten Sie alle Session-Einladungen immer rechtzeitig inklusive der Einwahldaten.