Allgemein

Good AI Practice in Drug Development (cont.)

In my previous post, I argued that the medical technology sector offers valuable lessons for building reliable AI systems—particularly through Good Machine Learning Practice (GMLP). With the “Guiding Principles of Good AI Practice in Drug Development”, jointly published by the European authority EMA and the US-american FDA in January 2026, this perspective is extended beyond medical devices.

These principles span the entire drug‑development lifecycle: preclinical research, clinical trials, and manufacturing. This expansion is not only regulatory in nature—it also has important implications for how organisations learn, govern knowledge, and stabilise expertise around AI.

Human‑centric by design: making responsibility explicit
The emphasis on human‑centric and ethical design reframes AI as a socio‑technical system rather than a purely technical artefact. Human oversight is no longer assumed; it is a design requirement.
From a KM perspective, this matters because it forces organisations to make responsibility, judgement, and decision authority explicit—and therefore learnable. Tacit assumptions about “what the system does” or “who decides in the end” no longer suffice. AI design becomes a vehicle for clarifying roles, expectations, and accountability structures that are central to organisational knowledge.

AI systems as part of the GxP (Good Practices in Pharma) knowledge landscape
The explicit requirement for GxP compliance positions AI systems firmly within the organisation’s regulated knowledge infrastructure.
For AI‑enabled computerized systems, e.g. analytical decision‑support systems, this implies:

  • structured data governance as a shared organisational memory (not just a technical safeguard)
  • quality management across the entire AI lifecycle, turning development, deployment, monitoring, and change into learning loops rather than isolated events

In KM terms, AI is treated as institutionalised knowledge—codified, governed, audited, and continuously maintained.

Proportionate validation as organisational sense‑making
The call for risk‑based, proportionate validation once again supports a move away from schematic compliance towards contextual judgement.
This aligns closely with organisational learning: validation becomes an ongoing process of sense‑making about risk, impact, and uncertainty, rather than a checklist exercise. Different AI systems require different depths of scrutiny—not because standards are weakened, but because learning is situated.

Performance beyond metrics: learning in use
By extending performance evaluation beyond isolated model metrics to include human–AI interaction, the principles acknowledge an old KM insight: systems only reveal their quality in practice.
Interpretability and explainability are not technical luxuries; they are prerequisites for:

  • shared understanding
  • justified trust
  • reflective use

An AI system that cannot be meaningfully explained cannot become part of an organisation’s collective knowledge—no matter how accurate it is.

Plain language and monitoring: sustaining knowledge over time
Two further aspects strengthen the learning dimension.
First, the requirement for plain‑language communication treats understanding as a quality attribute. Knowledge about AI functionality, limits, and changes must be accessible—not only to experts, but to users and, where relevant, patients.
Second, the focus on continuous monitoring and data drift reinforces the idea that AI systems are never “finished”. They evolve with their context. Managing them therefore means learning over time, detecting change, and deliberately updating both models and organisational understanding.

My conclusion:
Seen through a KM lens, the EMA–FDA principles do more than regulate AI. They provide a framework for embedding AI into organisational learning structures – through transparency, lifecycle thinking, and explicit responsibility. Reliable AI, in this sense, is not primarily a technical achievement. It is the outcome of organisations that are able to learn about their systems, their data, and their own practices—continuously and collectively.

KI, Kant und metakognitive Faulheit

KI, Kant und metakognitive Faulheit
erstellt mit Midjourney

Das Schöne an KI ist doch, dass wir anstrengende geistige Tätigkeiten an diese auslagern können. Eben nicht nur das Suchen nach Informationen, sondern – zu mehr oder weniger großen Anteilen – das Kreativ Sein, das Analysieren, das Problemlösen, das Nachdenken, kurz das Wissensarbeiten. Einige aktuelle Studien zeigen nun, dass Personen, die KI in dieser Form als ‚Mitdenker‘ nutzen, dazu neigen, ihre Arbeit, die mit der signifikanten Hilfe von KI entstanden ist, seltener zu prüfen und zu hinterfragen. Die Autoren einer dieser Studien (Beware of metacognitive laziness: Effects of generative artificial intelligence on learning motivation, processes, and performance) nennen dies „metakognitive Faulheit“.

Als Erwachsene können wir entscheiden, welche geistigen Prozesse wir an eine KI auslagern und wo wir uns bewusst dieser Faulheit widersetzen. Dazu nutzen wir unseren kritischen Verstand. Doch wie steht es um Kinder und Jugendliche, deren Mut sich des eigenen Verstandes zu bedienen – das Kantsche ’sapere aude‘ – gar nicht erst entwickelt wird, weil sie die anstrengende Reibung, die ein entsprechender Lernprozess bedeutet, vermeiden können?

Und was macht diese Entwicklung mit unserer Gesellschaft?

Unsere liberalen Demokratien beruhen auf mündigen Bürgern und Bürgerinnen, wie sie die Philosophen der Aufklärung beschreiben. Also Menschen, die sich ihres Verstandes bedienen und die Meinungen kritisch hinterfragen, auch ihre eigene. Wer nicht selbst denkt, wird alles glauben.

Und das, was wir da denken lassen, wird immer homogener, denn schließlich beruht generative KI auf Statistik und Wahrscheinlichkeit. „In großem Maßstab wird das, was als statistisches Musterlernen beginnt, zu einer generativen Kraft, die zentrale Tendenzen bevorzugt (…)“, so der Informatiker Zhivar Sourati.

Das Risiko, vor dem unsere Gesellschaften stehen, ist nicht die imaginäre Super-KI, die irgendwann die Weltherrschaft an sich reißt. Es ist unser selbst gewählter Weg in eine vor-aufklärerische Unmündigkeit – aus schierer Bequemlichkeit. Warum nur muss ich seit einiger Zeit immer wieder an den Animationsfilm Wall-E denken?

Vielleicht etwas pathetisch, aber ich ende mit einem hochaktuellen 300 Jahre alten Zitat:
„Aufklärung ist der Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit. Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. Selbstverschuldet ist diese Unmündigkeit, wenn die Ursache derselben nicht am Mangel des Verstandes, sondern der Entschließung und des Mutes liegt, sich seiner ohne Leitung eines anderen zu bedienen. Sapere aude! Habe Mut, dich deines eigenen Verstandes zu bedienen! ist also der Wahlspruch der Aufklärung.“

Die KI denkt

Die KI denkt
erstellt mit Midjourney

Kürzlich habe ich in der Frankfurter Sonntagszeitung Folgendes gelesen: „Die KI [Claude Code] (…) kann jetzt einen Workflow von vier Schritten eigenständig abarbeiten: lesen, also unstrukturierte Informationen aufnehmen; denken, also domänenspezifisches Wissen anwenden; schreiben, also strukturierte Ergebnisse produzieren; verifizieren, also das Ergebnis mit mit vorgegebenen Standards abgleichen. In der Wissensökonomie gibt es nicht viele Berufe, die sich nicht auf diese vier Bausteine herunterbrechen lassen.“

Natürlich hat mich die Aussage zum Denken der KI nun selbst ins Nachdenken gebracht. Findet hier tatsächlich ein Denkprozess und eine Anwendung von Wissen statt – was ja voraussetzt, dass eine KI über Wissen verfügt.

Laut Philosophischem Wörterbuch von Georgi Schischkoff werden unter ‚Denken‘ alle (psychologischen) Vorgänge zusammengefasst, die aus einer inneren Beschäftigung mit Vorstellungen, Erinnerungen und Begriffen eine Erkenntnis zu formen versuchen. Martin Heidegger beschreibt das Denken gar als einen Weg. Das zu-Denkende entzieht sich dem Menschen und zieht ihn mit. Weil sich das zu-Denkende dem Menschen entzieht und sich von ihm abwendet, nimmt es ihn in Anspruch. 

Das kann mit dem Denken der KI nicht gemeint sein. Was also passiert, wenn eine KI „denkt“?
Hier verarbeitet das Modell die Informationen aus dem „Lesen“-Schritt und führt mehrere interne Teilprozesse aus:

  • Problemstruktur erkennen (Welche Aufgabe ist gestellt? Welche Informationen sind relevant?)
  • Hypothesen bilden durch statistisches Abwägen von Mustern aus Trainingsdaten
  • Lösungsstrategie planen (sinnvolle Schritte planen vor dem Schreiben)
  • Kontext verknüpfen durch die Kombination mehrerer Informationsquellen wie vorherige Nachrichten, bekannte Muster usw.

Das Denken einer KI bedeutet also interne Berechnungsschritte, probabilistische Planung, logische Strukturierung der Antwort. Das hat nichts zu tun mit Verstehen, Bewusstsein und intentionaler Überlegung, was das menschliche Denken kennzeichnet. Auch wird im eigentlichen Sinne kein „domänenspezifisches Wissen angewandt“, sondern die KI nutzt korrelationsbasierte Muster aus domänenspezifischen Trainingsdaten. Wir reden also von statistischer Generalisierung, nicht von Wissensanwendung.

Trotzdem ähnelt der Vier-Schritte-Workflow, mit dem bei modernen KI-Agenten typische Schwächen von Sprachmodellen, wie z. B. das Halluzinieren, reduziert werden, dem menschlichen Arbeitsablauf beim Problemlösen (z. B. nach Newell & Simon). Dadurch wird die KI vom reinen Textgenerierer zum Problemlöser.

Doch unser menschliches Denken ist soviel mehr als analytisches Problemlösen. Es ist auch zweckfreies Philosophieren, Träumen, Spintisieren… Ich denke, wir sollten uns angewöhnen, die technische Funktionsweise einer KI nicht mit menschlichen Begriffen wie ‚Denken‘ oder ‚Wissen‘ zu beschreiben, sondern angemessene technische Begrifflichkeiten dafür finden. Denn eine zunehmende Vermenschlichung von KI birgt das Risiko der abnehmenden kritischen Distanz. Und eine Vermenschlichung führt dazu, dass einer Technik Eigenschaften zugeschrieben werden, z. B. moralisches Verhalten, die für eine realistische Einschätzung technologischer Folgen letztlich irrelevant sind. Und den Blick ablenken von den verantwortlichen Menschen hinter der KI.

WMOOC-Kursbuch: neue Inhalte

WMOOC-Kursbuch: neue Inhalte
WMOOC Kursbuch

Unser Wissensmanagement MOOC 2025 ist zwar beendet und der WMOOC 2026 noch in weiter Ferne (Start am 3. Oktober!), aber unser Wissen bleibt trotzdem in Bewegung:

Es gibt einige neue Inhalte im Kursbuch, auf die wir auch gerne aufmerksam machen möchten:

  • Transferampel
    Egal, ob personenbezogen oder themenzentriert, die Transferampel unterstützt sowohl Führungskräfte als auch Mitarbeitende dabei, mit Wissenssicherungund Wissenstransfer an den richtigen Stellen anzusetzen und die ohnehin knappen Ressourcen, vor allem zeitliche, mit größtmöglicher Wirkung einzusetzen.
  • Modell für das Persönliche Wissensmanagement von Reinmann und Eppler
    Ein bisschen theoretischer Unterbau zum Persönlichen Wissensmanagement.
  • Methodenwahl für das Persönliche Wissensmanagement
    Aufbauend auf dem Modell (s.o.) ein Anforderungsraster für die Methodenwahl, ebenfalls Reinmann und Eppler.

Unser Wissen entwickelt sich stetig weiter und gerne teilen wir das mit euch – auch außerhalb des MOOCs! 

Wissensmanagement im Studium: ein Werkzeugkasten

Wissensmanagement im Studium: ein Werkzeugkasten
Handreichung

Gerne möchte ich auf die gelungene Handreichung Wissensmanagement im (Promotions)Studium hinweisen, die in den letzten Monaten durch eine Fachgruppe der GfWM erarbeitet wurde. Diese Gruppe durfte ich von außen ein klein wenig mit meiner Expertise in diesem Thema unterstützen. Das Arbeitsergebnis liegt nun vor und ist – nicht nur für Studierende – absolut lesenswert.

Workshop zu Kompetenzprofilen im Wissensmanagement

Workshop zu Kompetenzprofilen im Wissensmanagement
Sollprofil WM Professional

Am 25. Februar von 17 bis 19 Uhr biete ich gemeinsam mit Angelika Mittelmann, Sabine Wax und Ute John einen offenen Online-Workshop zur Entwicklung von Kompetenzprofilen im Wissensmanagement an. Dabei nutzen wir den von Angelika und mir entwickelten und gemeinsam mit Ute und Sabine weiterentwickelten GfWM Kompetenzkatalog.

Im Workshop werden wir in kleinen Arbeitsgruppen konkret Profile für Personae, also fiktive Personen, mit Rollen im Wissensmanagement erarbeiten. Diese Personae könnt ihr selbst mitbringen oder auch eine von uns vorgeschlagene nutzen. Durch die konkrete Anwendung werdet ihr den Kompetenzkatalog und dessen praktische Anwendung intensiv kennenlernen. Und wir erhalten von euch wertvolle Rückmeldung zum Katalog, aber auch zu Berufsbildern und Anforderungen im weiten Feld des Wissensmanagement.

Der Workshop ist kostenfrei. Bei Interesse bitte einfach bei mir melden!

Als kleine Vorbereitung könnt ihr euch mithilfe von ein paar knappen Erklärvideos schon einmal in den Kompetenzkatalog ‚eindenken‘ – müsst ihr aber nicht.

Wir freuen uns auf eine intensive Beschäftigung und Auseinandersetzung mit ‚Kompetenzen für Wissensmanagement‘.

Wissensmanagement in hybriden Arbeitswelten und The Unlearning Organization

Der WMOOC ist in vollem Gange, 2 Module von insgesamt 3 haben die Teilnehmenden schon geschafft – mit zahlreichen Live Sessions, deren Aufzeichnungen wir nun nach und nach auf dem Open Academy-Kanal veröffentlichen.

Seit gestern online ist die Live Session von Benedikt Scharf (Wittenstein SE) zu den Herausforderungen hybrider Arbeitssettings für das Wissensmanagement. Benedikt vermittelt inspirierende Einblicke in den Arbeitsalltag seines Teams und welche Wege sie gefunden haben mit diesen Herausforderungen konstruktiv und pragmatisch umzugehen (Dauer 58’07 Min.).

Eine dritte Live Session steht in Modul 2 noch aus:

The Art of Unlearning: Warum Organisationen nicht nur Wissen aufbauen, sondern auch bewusst Überholtes loslassen müssen mit Janine Bauer (Transformation Mindset), die Session ist in deutscher Sprache.
Janine ist UNLearning Facilitator und Digital Learning Manager und reflektiert gemeinsam mit uns die Rolle von Unlearning im Wissensmanagement: Was macht Loslassen so schwer – individuell und organisatorisch? Wie kann Unlearning im Alltag und in der Organisation gelebt werden?
Termin: Donnerstag, 27. November, 16 Uhr

Und auch im dritten und damit schon letzten Modul gibt es wieder 3 Live Sessions:
3.12. 17:00, „Forecast to expertise“ (in englischer Sprache), Yannick Vogt
11.12. 16:00, „Wikis erfolgreich einführen und betreiben – Erfahrungsbericht“, Martin Harnisch
15.12. 16:00, „Wissensmanagement bei Schutz und Rettung der Stadt Zürich“, Kai Hofmann

Bei Interesse an einer Teilnahme bitte einfach bei mir melden. Die Live Sessions stehen allen Interessierten offen, auch ohne für den WMOOC registriert zu sein. Oder noch einfacher: Den WMOOC Newsletter abonnieren und die Einladung direkt bekommen.

KI fürs Persönliche Wissensmanagement – WMMOC Aufzeichnung online

Die Aufzeichnung der WMOOC Session mit Simon Dückert vom 15. Oktober ist nun online verfügbar in unserem Open Academy-Kanal (Dauer 1:19 Std.). Simon hat in beeindruckender Weise demonstriert, wie er KI-Tools nutzt um seine Effizienz als Wissensarbeiter signifikant zu steigern. Die vielen Fragen im Anschluss an den intensiven Vortrag zeigen das große Interesse der Teilnehmenden – so groß, dass wir ausnahmsweise die Session deutlich länger haben laufen lassen als üblich. Und ich bin sicher, wir hätten noch mehr Zeit mit vielen praktischen Anregungen von Simon füllen können. Herzlichen Dank, Simon!

Simply explained: Knowledge Transfer – new video

Here you go with part 7 of my little series on Knowledge Management basics. This time I try to simply explain what the term Knowledge Transfer actually means. Enjoy!
(duration – 4:20 min).

You missed episode 1-6? All episodes are available on my YouTube channel BTW, all videos are also available in German on that channel.
And also this time: Thanks to my daughter and assistant Pauline for the creative part in it!