Künstliche Intelligenz

What We Can Learn from Medical Technology Industry About Reliable AI

It is quite rare for my two main areas of consultancy – knowledge management and computerised system validation in the pharmaceutical sector – to overlap, but when it comes to AI…

Whilst many companies are still experimenting with prototypes, the medical sector has already established a strict framework for the safe use of these technologies: Good Machine Learning Practice (GMLP).
These ten principles, developed by leading regulatory bodies such as the FDA (US Food and Drug Administration) and the IMDRF (International Medical Device Regulators Forum), provide a blueprint for robust and trustworthy AI systems, not only in the regulated field of medical technology.

Here are the key GMLP principles:

  1. Interdisciplinary teams rather than siloed solutions
    An AI model is only as good as the understanding of its intended purpose. GMLP requires experts from various disciplines to collaborate throughout the entire lifecycle. Engineers, data specialists and the actual end-users must work together to define the clinical or business benefits the AI is intended to deliver, as well as the risks involved.
  2. Sound software engineering and security
    AI is software – and should be treated as such. This means consistently applying best practices in software engineering, cybersecurity and risk management. A methodical design process ensures that decisions are traceable and that the integrity and authenticity of the data are maintained.
  3. Data quality and representativeness
    A common mistake in AI projects is a ‘bias’ in the data. GMLP stipulates that datasets must reflect the actual target population. If, for example, only data from a specific user group is used, the model will fail in the real world. Careful data governance is key here.
  4. Strict separation of training and test data
    To objectively evaluate a model’s performance, the training and test datasets must be strictly independent of one another. This prevents ‘label leakage’ – a phenomenon whereby the model ‘guesses’ the outcome based on hidden clues in the training data, rather than learning genuine patterns. Only through independent testing can it be demonstrated that the AI also works with new, unknown data.
  5. Suitability of reference standards
    Use of the best available (clinical) methods for generating reference data
  6. Tailored model design
    The model design must be suited to the available data and the intended use in order to minimise risks such as overfitting
  7. Focus on human-AI interaction
    In practice, AI rarely operates entirely independently. GMLP therefore focuses on the interaction between humans and machines. It is essential to ensure that users can interpret the AI’s outputs correctly and that no dangerous over-reliance on the system develops. Transparency and clear information about the system’s limitations are essential for this.
  8. (Clinically) Relevant test conditions
    Testing is carried out under conditions that simulate real-world clinical use
  9. Clear user information
    Users are provided with transparent information about the system’s capabilities, limitations and updates/re-training.
  10. Control does not stop after roll-out
    An ML model is not a static product. GMLP requires continuous monitoring of performance in real-world use (‘post-market monitoring’). This allows performance declines caused by changing data patterns (dataset drift) to be detected at an early stage and risks associated with retraining the model to be managed.

At first glance, applying these principles may seem like a lot of work. However, it is just necessary if we should build trust in AI, isn’t it? And for me the main message is: „It is the controlled data quality, stupid“.

KI, Kant und metakognitive Faulheit

KI, Kant und metakognitive Faulheit
erstellt mit Midjourney

Das Schöne an KI ist doch, dass wir anstrengende geistige Tätigkeiten an diese auslagern können. Eben nicht nur das Suchen nach Informationen, sondern – zu mehr oder weniger großen Anteilen – das Kreativ Sein, das Analysieren, das Problemlösen, das Nachdenken, kurz das Wissensarbeiten. Einige aktuelle Studien zeigen nun, dass Personen, die KI in dieser Form als ‚Mitdenker‘ nutzen, dazu neigen, ihre Arbeit, die mit der signifikanten Hilfe von KI entstanden ist, seltener zu prüfen und zu hinterfragen. Die Autoren einer dieser Studien (Beware of metacognitive laziness: Effects of generative artificial intelligence on learning motivation, processes, and performance) nennen dies „metakognitive Faulheit“.

Als Erwachsene können wir entscheiden, welche geistigen Prozesse wir an eine KI auslagern und wo wir uns bewusst dieser Faulheit widersetzen. Dazu nutzen wir unseren kritischen Verstand. Doch wie steht es um Kinder und Jugendliche, deren Mut sich des eigenen Verstandes zu bedienen – das Kantsche ’sapere aude‘ – gar nicht erst entwickelt wird, weil sie die anstrengende Reibung, die ein entsprechender Lernprozess bedeutet, vermeiden können?

Und was macht diese Entwicklung mit unserer Gesellschaft?

Unsere liberalen Demokratien beruhen auf mündigen Bürgern und Bürgerinnen, wie sie die Philosophen der Aufklärung beschreiben. Also Menschen, die sich ihres Verstandes bedienen und die Meinungen kritisch hinterfragen, auch ihre eigene. Wer nicht selbst denkt, wird alles glauben.

Und das, was wir da denken lassen, wird immer homogener, denn schließlich beruht generative KI auf Statistik und Wahrscheinlichkeit. „In großem Maßstab wird das, was als statistisches Musterlernen beginnt, zu einer generativen Kraft, die zentrale Tendenzen bevorzugt (…)“, so der Informatiker Zhivar Sourati.

Das Risiko, vor dem unsere Gesellschaften stehen, ist nicht die imaginäre Super-KI, die irgendwann die Weltherrschaft an sich reißt. Es ist unser selbst gewählter Weg in eine vor-aufklärerische Unmündigkeit – aus schierer Bequemlichkeit. Warum nur muss ich seit einiger Zeit immer wieder an den Animationsfilm Wall-E denken?

Vielleicht etwas pathetisch, aber ich ende mit einem hochaktuellen 300 Jahre alten Zitat:
„Aufklärung ist der Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit. Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. Selbstverschuldet ist diese Unmündigkeit, wenn die Ursache derselben nicht am Mangel des Verstandes, sondern der Entschließung und des Mutes liegt, sich seiner ohne Leitung eines anderen zu bedienen. Sapere aude! Habe Mut, dich deines eigenen Verstandes zu bedienen! ist also der Wahlspruch der Aufklärung.“

Die KI denkt

Die KI denkt
erstellt mit Midjourney

Kürzlich habe ich in der Frankfurter Sonntagszeitung Folgendes gelesen: „Die KI [Claude Code] (…) kann jetzt einen Workflow von vier Schritten eigenständig abarbeiten: lesen, also unstrukturierte Informationen aufnehmen; denken, also domänenspezifisches Wissen anwenden; schreiben, also strukturierte Ergebnisse produzieren; verifizieren, also das Ergebnis mit mit vorgegebenen Standards abgleichen. In der Wissensökonomie gibt es nicht viele Berufe, die sich nicht auf diese vier Bausteine herunterbrechen lassen.“

Natürlich hat mich die Aussage zum Denken der KI nun selbst ins Nachdenken gebracht. Findet hier tatsächlich ein Denkprozess und eine Anwendung von Wissen statt – was ja voraussetzt, dass eine KI über Wissen verfügt.

Laut Philosophischem Wörterbuch von Georgi Schischkoff werden unter ‚Denken‘ alle (psychologischen) Vorgänge zusammengefasst, die aus einer inneren Beschäftigung mit Vorstellungen, Erinnerungen und Begriffen eine Erkenntnis zu formen versuchen. Martin Heidegger beschreibt das Denken gar als einen Weg. Das zu-Denkende entzieht sich dem Menschen und zieht ihn mit. Weil sich das zu-Denkende dem Menschen entzieht und sich von ihm abwendet, nimmt es ihn in Anspruch. 

Das kann mit dem Denken der KI nicht gemeint sein. Was also passiert, wenn eine KI „denkt“?
Hier verarbeitet das Modell die Informationen aus dem „Lesen“-Schritt und führt mehrere interne Teilprozesse aus:

  • Problemstruktur erkennen (Welche Aufgabe ist gestellt? Welche Informationen sind relevant?)
  • Hypothesen bilden durch statistisches Abwägen von Mustern aus Trainingsdaten
  • Lösungsstrategie planen (sinnvolle Schritte planen vor dem Schreiben)
  • Kontext verknüpfen durch die Kombination mehrerer Informationsquellen wie vorherige Nachrichten, bekannte Muster usw.

Das Denken einer KI bedeutet also interne Berechnungsschritte, probabilistische Planung, logische Strukturierung der Antwort. Das hat nichts zu tun mit Verstehen, Bewusstsein und intentionaler Überlegung, was das menschliche Denken kennzeichnet. Auch wird im eigentlichen Sinne kein „domänenspezifisches Wissen angewandt“, sondern die KI nutzt korrelationsbasierte Muster aus domänenspezifischen Trainingsdaten. Wir reden also von statistischer Generalisierung, nicht von Wissensanwendung.

Trotzdem ähnelt der Vier-Schritte-Workflow, mit dem bei modernen KI-Agenten typische Schwächen von Sprachmodellen, wie z. B. das Halluzinieren, reduziert werden, dem menschlichen Arbeitsablauf beim Problemlösen (z. B. nach Newell & Simon). Dadurch wird die KI vom reinen Textgenerierer zum Problemlöser.

Doch unser menschliches Denken ist soviel mehr als analytisches Problemlösen. Es ist auch zweckfreies Philosophieren, Träumen, Spintisieren… Ich denke, wir sollten uns angewöhnen, die technische Funktionsweise einer KI nicht mit menschlichen Begriffen wie ‚Denken‘ oder ‚Wissen‘ zu beschreiben, sondern angemessene technische Begrifflichkeiten dafür finden. Denn eine zunehmende Vermenschlichung von KI birgt das Risiko der abnehmenden kritischen Distanz. Und eine Vermenschlichung führt dazu, dass einer Technik Eigenschaften zugeschrieben werden, z. B. moralisches Verhalten, die für eine realistische Einschätzung technologischer Folgen letztlich irrelevant sind. Und den Blick ablenken von den verantwortlichen Menschen hinter der KI.

WMOOC Live Session in der nächsten Woche

WMOOC Live Session in der nächsten Woche
WMOOC

Am 11.12. um 16 Uhr geht es in der WMOOC Live Session um ein ganz praxisnahes Thema, nämlich Firmenwikis und wie man diese richtig einsetzt. Vor allem geht es unserem Referenten Martin Harnisch um die Frage, warum alle alles lesen und bearbeiten können sollten, also um ein offenes Wiki-Konzept, das viele Organisationen immer noch scheuen.

In der Session werden die Grundlagen von Wikis erklärt und wie sie funktionieren. Ein Schwerpunkt liegt auf den allgemeinen Vorteilen offener Wikis, in denen alle Personen alles lesen und bearbeiten können. Danach geht es um typische Bedenken, die dabei häufig auftauchen, und darum, wie man darauf reagiert. Ergänzend werden Beispiele aus Enterprise-Wikis behandelt, die zeigen, wie solche Prinzipien in Organisationen umgesetzt werden können.

Tatsächlich nähert sich der WMOOC 2025 rasant seinem Ende: Nur noch zwei Live Sessions stehen aus, die ihr euch schon einmal vormerken könnt:

Am 15.12. um 16 Uhr wird uns Kai Hoffmann mit hinter die Kulissen des Wissensmanagements bei Schutz und Rettung der Stadt Zürich nehmen.
Und am 22.12. um 16 Uhr erläutert Johanna Boli wie es gelingen kann Wissensmanagement in ein bestehendes Qualitätsmanagement-System zu integrieren, und zwar mit Hilfe von KI.

Wie immer stehen die Live Sessions allen Interessierten offen, auch denen die (noch) nicht für den WMOOC registriert sind. Bei Interesse bitte einfach bei mir melden, dann schicke ich die Einwahldaten zu. Oder am besten gleich für den WMOOC Newsletter anmelden!

AI Agents: Vom Tool zum Teamplayer – Aufzeichnung der WMOOC Live Session

Die Aufzeichnung unserer sehr intensiven Wissensmanagement-MOOC Live Session mit Sabine Wax von inside workspace zu AI Agents ist nun online im Open Academy-Kanal verfügbar (Dauer 1’10 Std.)

Ich werde mir – obwohl ich live dabei war – die Aufzeichnung gleich auch noch einmal ansehen. Da war so viel drin, das habe ich noch nicht alles verdaut, liebe Sabine!

WMOOC 2025: Live Session zu KI Agenten

WMOOC 2025: Live Session zu KI Agenten
WMOOC

Ich freue mich sehr auf unsere Live Session im WMOOC in der nächsten Woche: Sabine Wax, Gründerin von inside workspace, zeigt am Beispiel ihres eigenen Unternehmens, wie AI Agents als Teammitglieder in Organisationsstrukturen eingebunden werden können:

Künstliche Intelligenz übernimmt zunehmend Aufgaben im Informationsmanagement. Doch kann sie mehr sein als nur ein Werkzeug? Welche strukturellen Voraussetzungen braucht es, damit KI Informationen intelligent vernetzt, Entscheidungen unterstützt und aktiv in die Teamarbeit eingebunden werden kann? Dabei spielen themenbasiertes Rechtemanagement, Abnahmeworkflows und Transparenz eine zentrale Rolle, um den Anforderungen des KI-Acts gerecht zu werden. Doch die Einführung von KI ist nicht nur eine technologische Frage – sie erfordert einen Mindshift. „Think AI“ bedeutet, Informationen kontextbezogen und strukturiert bereitzustellen, Verantwortung klar zu definieren und Zusammenarbeit neu zu denken.
Termin: Mittwoch, 19. November, 16 Uhr

Wie immer ist die Teilnahme an der Live Session möglich, auch ohne für den WMOOC registriert zu sein. Bitte einfach bei mir melden! Oder den Newsletter abonnieren, um immer rechtzeitig die Einladungen zu den Live Sessions zu bekommen.

KI fürs Persönliche Wissensmanagement – WMMOC Aufzeichnung online

Die Aufzeichnung der WMOOC Session mit Simon Dückert vom 15. Oktober ist nun online verfügbar in unserem Open Academy-Kanal (Dauer 1:19 Std.). Simon hat in beeindruckender Weise demonstriert, wie er KI-Tools nutzt um seine Effizienz als Wissensarbeiter signifikant zu steigern. Die vielen Fragen im Anschluss an den intensiven Vortrag zeigen das große Interesse der Teilnehmenden – so groß, dass wir ausnahmsweise die Session deutlich länger haben laufen lassen als üblich. Und ich bin sicher, wir hätten noch mehr Zeit mit vielen praktischen Anregungen von Simon füllen können. Herzlichen Dank, Simon!

Wissensmanagement-Methodenkoffer erweitert

Wissensmanagement-Methodenkoffer erweitert
WMOOC

In den letzten Wochen haben Dirk und ich nicht nur unser Kursbuch Wissensmanagement einer Generalüberholung unterzogen und einige Seiten zum Thema Wissensmanagement und KI ergänzt, sondern wir erweitern auch unseren Methodenkoffer. Neu dazu gekommen ist nun die Methode Journal Club.

Das Kursbuch bildet die Grundlage für unseren Wissensmanagement MOOC (WMOOC), der am
3. Oktober wieder startet. Auch hier laufen die Vorbereitungen auch Hochtouren, wozu vor allem die Akquise und Organisation der wöchentlichen Live Sessions gehört. Ein paar kleine ‚Appetitmacher‘ und Save-the-Dates:

  • 7.10. 13 Uhr Start des WMOOC mit der üblichen kleinen Einführung für MOOC-Neulinge durch Dirk und mich
  • 15.10. 16 Uhr Simon Dückert von Cogneon wird uns berichten, wie KI unser persönliches Wissensmanagement boostern kann
  • 23./24.10. Termin wird noch festgelegt werden Angelika Mittelmann, Sabine Wax und ich in Kooperation mit dem Knowledge Camp der GfWM über die aktuelle Entwicklung unseres Kompetenzkatalogs Wissensmanagement berichten. Konkret haben wir Profile für die Wissensmanagement-Rollen aus dem ITIL und IT Service Management Frameworks entwickelt.

Zusagen haben wir außerdem bereits von Sabine Wax zu AI-Agents: Vom Tool zum Teamplayer, von Kai Hofmann von Schutz und Rettung der Stadt Zürich zum dortigen Wissensmanagement und von Janine Bauer zum Konzept des Unlearning. Die Termine werden noch festgelegt.

Mit zahlreichen weiteren Referent:innen sind wir im Austausch. Es werden auf jeden Fall anregende Wochen.

Wenn ihr keine Live Session verpassen wollt, registriert euch entweder für den WMOOC oder abonniert den Newsletter!

Macht KI unsere Sprache ärmer?

Macht KI unsere Sprache ärmer?
erstellt mit Midjourney

Eine aktuelle Studie des Max-Planck-Instituts für Bildungsforschung findet Belege dafür, dass Menschen zunehmend wie eine KI sprechen. Dafür wurden englischsprachige Videos von über 20.000 YouTube-Kanälen akademischer Institutionen analysiert. Die Forscher:innen konzentrierten sich auf Wörter, die in früheren Studien als charakteristisch für ChatGPT-bearbeitete Texte identifiziert worden waren, etwa „delve“, „realm“ oder „adept“: Nach der Veröffentlichung von ChatGPT stieg die Verwendung dieser Begriffe in gesprochener Sprache signifikant an. So nahm die Nutzung des Wortes „delve“ um 48 Prozent zu, „realm“ um 35 Prozent und „adept“ sogar um 51 Prozent – jeweils innerhalb der ersten 18 Monate nach ChatGPTs Markteinführung. Eine vertiefte Analyse eines Teils der Videos lässt erkennen, dass die Sprecher:innen nicht abgelesen haben, die Begriffe also spontan verwendet wurden.

Nicht die KI wird also an den Menschen angepasst, sondern der Mensch passt sich – unbewusst – an die KI an.

Die Forschenden problematisieren diese Erkenntnisse unter mehreren Aspekten:

  • So sei zu befürchten, dass mit den Large Language Models eine Reduzierung der Sprachvielfalt einhergeht, weil sich der Wortschatz vereinheitliche. Dies sei besonders dann zu befürchten, wenn KI-Modelle zunehmend in der Bildung zum Einsatz kommen.
  • Auch sei gesellschaftlich zu hinterfragen, ob Sprachmodelle vielleicht sogar zur Massenmanipulation benutzt werden könnten.
  • Die Verwendung von KI als nützlicher Helfer im Alltag könnte einen tiefgreifenden kulturellen Wandel einleiten. Die Folgen für die Entwicklung der menschlichen Sprache und Kommunikation seien dabei noch nicht abzusehen.

Eine kritische Auseinandersetzung mit KI, ihren Möglichkeiten, Limitierungen und Risiken ist notwendig. In diesem Kontext erinnere ich an den diesjährigen Wissensmanagement-MOOC mit dem Schwerpunkt KI im Wissensmanagement. Start ist am 3. Oktober. Registrierung über die oncampus-Plattform. Oder, wer nicht den gesamten Kurs absolvieren möchte, Abonnieren des Newsletters und darüber Teilnahme – auch ohne Kurs-Einschreibung – an den wöchentlichen Live Sessions.

WMOOC 2025: neue KI-Inhalte

WMOOC 2025: neue KI-Inhalte
WMOOC

In der letzten Woche haben Dirk und ich in einem kleinen Hackaton unseren Wissensmanagement MOOC generalüberholt, d.h. wir haben unser didaktisches Konzept überarbeitet, die Informationen im oncampus-Kurs entsprechend angepasst und unser Freies Kursbuch Wissensmanagement aktualisiert und erweitert. Kurz: Wir waren ganz schön fleißig für euch! Damit es in diesem Jahr pünktlich am 3. Oktober wieder losgehen kann.

Neu ist in diesem Jahr, dass wir einen inhaltlichen Schwerpunkt setzen, und zwar auf KI im Wissensmanagement. Dazu habe ich während unseres Hackaton insgesamt vier neue Beiträge an unterschiedlichen Stellen im Freien Kursbuch Wissensmanagement erstellt. Wo, verrate ich euch nicht. Sucht einfach mal selbst! Feedback ist sehr gerne erwünscht.

Wenn ihr den WMOOC noch gar nicht kennt: Dirk und ich haben letzte Woche auch unser Intro-Video neu aufgenommen. Darin erfahrt ihr, was der WMOOC ist, für wen er ist und wie er funktioniert. Wir freuen uns, wenn ihr dabei seid! Anmeldung über die oncampus-Plattform.