Blog

Good AI Practice in Drug Development (cont.)

In my previous post, I argued that the medical technology sector offers valuable lessons for building reliable AI systems—particularly through Good Machine Learning Practice (GMLP). With the “Guiding Principles of Good AI Practice in Drug Development”, jointly published by the European authority EMA and the US-american FDA in January 2026, this perspective is extended beyond medical devices.

These principles span the entire drug‑development lifecycle: preclinical research, clinical trials, and manufacturing. This expansion is not only regulatory in nature—it also has important implications for how organisations learn, govern knowledge, and stabilise expertise around AI.

Human‑centric by design: making responsibility explicit
The emphasis on human‑centric and ethical design reframes AI as a socio‑technical system rather than a purely technical artefact. Human oversight is no longer assumed; it is a design requirement.
From a KM perspective, this matters because it forces organisations to make responsibility, judgement, and decision authority explicit—and therefore learnable. Tacit assumptions about “what the system does” or “who decides in the end” no longer suffice. AI design becomes a vehicle for clarifying roles, expectations, and accountability structures that are central to organisational knowledge.

AI systems as part of the GxP (Good Practices in Pharma) knowledge landscape
The explicit requirement for GxP compliance positions AI systems firmly within the organisation’s regulated knowledge infrastructure.
For AI‑enabled computerized systems, e.g. analytical decision‑support systems, this implies:

  • structured data governance as a shared organisational memory (not just a technical safeguard)
  • quality management across the entire AI lifecycle, turning development, deployment, monitoring, and change into learning loops rather than isolated events

In KM terms, AI is treated as institutionalised knowledge—codified, governed, audited, and continuously maintained.

Proportionate validation as organisational sense‑making
The call for risk‑based, proportionate validation once again supports a move away from schematic compliance towards contextual judgement.
This aligns closely with organisational learning: validation becomes an ongoing process of sense‑making about risk, impact, and uncertainty, rather than a checklist exercise. Different AI systems require different depths of scrutiny—not because standards are weakened, but because learning is situated.

Performance beyond metrics: learning in use
By extending performance evaluation beyond isolated model metrics to include human–AI interaction, the principles acknowledge an old KM insight: systems only reveal their quality in practice.
Interpretability and explainability are not technical luxuries; they are prerequisites for:

  • shared understanding
  • justified trust
  • reflective use

An AI system that cannot be meaningfully explained cannot become part of an organisation’s collective knowledge—no matter how accurate it is.

Plain language and monitoring: sustaining knowledge over time
Two further aspects strengthen the learning dimension.
First, the requirement for plain‑language communication treats understanding as a quality attribute. Knowledge about AI functionality, limits, and changes must be accessible—not only to experts, but to users and, where relevant, patients.
Second, the focus on continuous monitoring and data drift reinforces the idea that AI systems are never “finished”. They evolve with their context. Managing them therefore means learning over time, detecting change, and deliberately updating both models and organisational understanding.

My conclusion:
Seen through a KM lens, the EMA–FDA principles do more than regulate AI. They provide a framework for embedding AI into organisational learning structures – through transparency, lifecycle thinking, and explicit responsibility. Reliable AI, in this sense, is not primarily a technical achievement. It is the outcome of organisations that are able to learn about their systems, their data, and their own practices—continuously and collectively.

What We Can Learn from Medical Technology Industry About Reliable AI

It is quite rare for my two main areas of consultancy – knowledge management and computerised system validation in the pharmaceutical sector – to overlap, but when it comes to AI…

Whilst many companies are still experimenting with prototypes, the medical sector has already established a strict framework for the safe use of these technologies: Good Machine Learning Practice (GMLP).
These ten principles, developed by leading regulatory bodies such as the FDA (US Food and Drug Administration) and the IMDRF (International Medical Device Regulators Forum), provide a blueprint for robust and trustworthy AI systems, not only in the regulated field of medical technology.

Here are the key GMLP principles:

  1. Interdisciplinary teams rather than siloed solutions
    An AI model is only as good as the understanding of its intended purpose. GMLP requires experts from various disciplines to collaborate throughout the entire lifecycle. Engineers, data specialists and the actual end-users must work together to define the clinical or business benefits the AI is intended to deliver, as well as the risks involved.
  2. Sound software engineering and security
    AI is software – and should be treated as such. This means consistently applying best practices in software engineering, cybersecurity and risk management. A methodical design process ensures that decisions are traceable and that the integrity and authenticity of the data are maintained.
  3. Data quality and representativeness
    A common mistake in AI projects is a ‘bias’ in the data. GMLP stipulates that datasets must reflect the actual target population. If, for example, only data from a specific user group is used, the model will fail in the real world. Careful data governance is key here.
  4. Strict separation of training and test data
    To objectively evaluate a model’s performance, the training and test datasets must be strictly independent of one another. This prevents ‘label leakage’ – a phenomenon whereby the model ‘guesses’ the outcome based on hidden clues in the training data, rather than learning genuine patterns. Only through independent testing can it be demonstrated that the AI also works with new, unknown data.
  5. Suitability of reference standards
    Use of the best available (clinical) methods for generating reference data
  6. Tailored model design
    The model design must be suited to the available data and the intended use in order to minimise risks such as overfitting
  7. Focus on human-AI interaction
    In practice, AI rarely operates entirely independently. GMLP therefore focuses on the interaction between humans and machines. It is essential to ensure that users can interpret the AI’s outputs correctly and that no dangerous over-reliance on the system develops. Transparency and clear information about the system’s limitations are essential for this.
  8. (Clinically) Relevant test conditions
    Testing is carried out under conditions that simulate real-world clinical use
  9. Clear user information
    Users are provided with transparent information about the system’s capabilities, limitations and updates/re-training.
  10. Control does not stop after roll-out
    An ML model is not a static product. GMLP requires continuous monitoring of performance in real-world use (‘post-market monitoring’). This allows performance declines caused by changing data patterns (dataset drift) to be detected at an early stage and risks associated with retraining the model to be managed.

At first glance, applying these principles may seem like a lot of work. However, it is just necessary if we should build trust in AI, isn’t it? And for me the main message is: „It is the controlled data quality, stupid“.

KI, Kant und metakognitive Faulheit

KI, Kant und metakognitive Faulheit
erstellt mit Midjourney

Das Schöne an KI ist doch, dass wir anstrengende geistige Tätigkeiten an diese auslagern können. Eben nicht nur das Suchen nach Informationen, sondern – zu mehr oder weniger großen Anteilen – das Kreativ Sein, das Analysieren, das Problemlösen, das Nachdenken, kurz das Wissensarbeiten. Einige aktuelle Studien zeigen nun, dass Personen, die KI in dieser Form als ‚Mitdenker‘ nutzen, dazu neigen, ihre Arbeit, die mit der signifikanten Hilfe von KI entstanden ist, seltener zu prüfen und zu hinterfragen. Die Autoren einer dieser Studien (Beware of metacognitive laziness: Effects of generative artificial intelligence on learning motivation, processes, and performance) nennen dies „metakognitive Faulheit“.

Als Erwachsene können wir entscheiden, welche geistigen Prozesse wir an eine KI auslagern und wo wir uns bewusst dieser Faulheit widersetzen. Dazu nutzen wir unseren kritischen Verstand. Doch wie steht es um Kinder und Jugendliche, deren Mut sich des eigenen Verstandes zu bedienen – das Kantsche ’sapere aude‘ – gar nicht erst entwickelt wird, weil sie die anstrengende Reibung, die ein entsprechender Lernprozess bedeutet, vermeiden können?

Und was macht diese Entwicklung mit unserer Gesellschaft?

Unsere liberalen Demokratien beruhen auf mündigen Bürgern und Bürgerinnen, wie sie die Philosophen der Aufklärung beschreiben. Also Menschen, die sich ihres Verstandes bedienen und die Meinungen kritisch hinterfragen, auch ihre eigene. Wer nicht selbst denkt, wird alles glauben.

Und das, was wir da denken lassen, wird immer homogener, denn schließlich beruht generative KI auf Statistik und Wahrscheinlichkeit. „In großem Maßstab wird das, was als statistisches Musterlernen beginnt, zu einer generativen Kraft, die zentrale Tendenzen bevorzugt (…)“, so der Informatiker Zhivar Sourati.

Das Risiko, vor dem unsere Gesellschaften stehen, ist nicht die imaginäre Super-KI, die irgendwann die Weltherrschaft an sich reißt. Es ist unser selbst gewählter Weg in eine vor-aufklärerische Unmündigkeit – aus schierer Bequemlichkeit. Warum nur muss ich seit einiger Zeit immer wieder an den Animationsfilm Wall-E denken?

Vielleicht etwas pathetisch, aber ich ende mit einem hochaktuellen 300 Jahre alten Zitat:
„Aufklärung ist der Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit. Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. Selbstverschuldet ist diese Unmündigkeit, wenn die Ursache derselben nicht am Mangel des Verstandes, sondern der Entschließung und des Mutes liegt, sich seiner ohne Leitung eines anderen zu bedienen. Sapere aude! Habe Mut, dich deines eigenen Verstandes zu bedienen! ist also der Wahlspruch der Aufklärung.“

Neuer Workshop zu Kompetenzprofilen im Wissensmanagement

Neuer Workshop zu Kompetenzprofilen im Wissensmanagement
Sollprofil WM Professional

Am 23. April von 17 bis 19 Uhr biete ich nochmals gemeinsam mit Angelika Mittelmann, Sabine Wax und Ute John einen offenen Online-Workshop zur Entwicklung von Kompetenzprofilen im Wissensmanagement an. Dabei nutzen wir den von Angelika und mir entwickelten und gemeinsam mit Ute und Sabine weiterentwickelten GfWM Kompetenzkatalog.

Im Workshop werden wir in kleinen Arbeitsgruppen konkret Profile für Personae, also fiktive Personen, mit Rollen im Wissensmanagement erarbeiten. Diese Personae könnt ihr selbst mitbringen oder auch eine von uns vorgeschlagene nutzen. Durch die konkrete Anwendung werdet ihr den Kompetenzkatalog und dessen praktische Anwendung intensiv kennenlernen. Und wir erhalten von euch wertvolle Rückmeldung zum Katalog, aber auch zu Berufsbildern und Anforderungen im weiten Feld des Wissensmanagement.

Der Workshop ist kostenfrei. Bei Interesse bitte einfach bei mir melden!

Als kleine Vorbereitung könnt ihr euch mithilfe von ein paar knappen Erklärvideos schon einmal in den Kompetenzkatalog ‚eindenken‘ – müsst ihr aber nicht.

Wir freuen uns auf eine intensive Beschäftigung und Auseinandersetzung mit ‚Kompetenzen für Wissensmanagement‘.

Die KI denkt

Die KI denkt
erstellt mit Midjourney

Kürzlich habe ich in der Frankfurter Sonntagszeitung Folgendes gelesen: „Die KI [Claude Code] (…) kann jetzt einen Workflow von vier Schritten eigenständig abarbeiten: lesen, also unstrukturierte Informationen aufnehmen; denken, also domänenspezifisches Wissen anwenden; schreiben, also strukturierte Ergebnisse produzieren; verifizieren, also das Ergebnis mit mit vorgegebenen Standards abgleichen. In der Wissensökonomie gibt es nicht viele Berufe, die sich nicht auf diese vier Bausteine herunterbrechen lassen.“

Natürlich hat mich die Aussage zum Denken der KI nun selbst ins Nachdenken gebracht. Findet hier tatsächlich ein Denkprozess und eine Anwendung von Wissen statt – was ja voraussetzt, dass eine KI über Wissen verfügt.

Laut Philosophischem Wörterbuch von Georgi Schischkoff werden unter ‚Denken‘ alle (psychologischen) Vorgänge zusammengefasst, die aus einer inneren Beschäftigung mit Vorstellungen, Erinnerungen und Begriffen eine Erkenntnis zu formen versuchen. Martin Heidegger beschreibt das Denken gar als einen Weg. Das zu-Denkende entzieht sich dem Menschen und zieht ihn mit. Weil sich das zu-Denkende dem Menschen entzieht und sich von ihm abwendet, nimmt es ihn in Anspruch. 

Das kann mit dem Denken der KI nicht gemeint sein. Was also passiert, wenn eine KI „denkt“?
Hier verarbeitet das Modell die Informationen aus dem „Lesen“-Schritt und führt mehrere interne Teilprozesse aus:

  • Problemstruktur erkennen (Welche Aufgabe ist gestellt? Welche Informationen sind relevant?)
  • Hypothesen bilden durch statistisches Abwägen von Mustern aus Trainingsdaten
  • Lösungsstrategie planen (sinnvolle Schritte planen vor dem Schreiben)
  • Kontext verknüpfen durch die Kombination mehrerer Informationsquellen wie vorherige Nachrichten, bekannte Muster usw.

Das Denken einer KI bedeutet also interne Berechnungsschritte, probabilistische Planung, logische Strukturierung der Antwort. Das hat nichts zu tun mit Verstehen, Bewusstsein und intentionaler Überlegung, was das menschliche Denken kennzeichnet. Auch wird im eigentlichen Sinne kein „domänenspezifisches Wissen angewandt“, sondern die KI nutzt korrelationsbasierte Muster aus domänenspezifischen Trainingsdaten. Wir reden also von statistischer Generalisierung, nicht von Wissensanwendung.

Trotzdem ähnelt der Vier-Schritte-Workflow, mit dem bei modernen KI-Agenten typische Schwächen von Sprachmodellen, wie z. B. das Halluzinieren, reduziert werden, dem menschlichen Arbeitsablauf beim Problemlösen (z. B. nach Newell & Simon). Dadurch wird die KI vom reinen Textgenerierer zum Problemlöser.

Doch unser menschliches Denken ist soviel mehr als analytisches Problemlösen. Es ist auch zweckfreies Philosophieren, Träumen, Spintisieren… Ich denke, wir sollten uns angewöhnen, die technische Funktionsweise einer KI nicht mit menschlichen Begriffen wie ‚Denken‘ oder ‚Wissen‘ zu beschreiben, sondern angemessene technische Begrifflichkeiten dafür finden. Denn eine zunehmende Vermenschlichung von KI birgt das Risiko der abnehmenden kritischen Distanz. Und eine Vermenschlichung führt dazu, dass einer Technik Eigenschaften zugeschrieben werden, z. B. moralisches Verhalten, die für eine realistische Einschätzung technologischer Folgen letztlich irrelevant sind. Und den Blick ablenken von den verantwortlichen Menschen hinter der KI.

The parable of the learning flock of sheep

In my lectures on knowledge management, I have always enjoyed using the story of the learning flock of sheep – based on David Hutchens‘ story Outlearning the Wolves – to develop the characteristics of a learning organisation together with my students. Now my daughter Pauline has made a video out of it – without any AI, which I think makes it all the more beautiful.
Enjoy (duration 5’34 min.).

A German version is also available.

WMOOC-Kursbuch: neue Inhalte

WMOOC-Kursbuch: neue Inhalte
WMOOC Kursbuch

Unser Wissensmanagement MOOC 2025 ist zwar beendet und der WMOOC 2026 noch in weiter Ferne (Start am 3. Oktober!), aber unser Wissen bleibt trotzdem in Bewegung:

Es gibt einige neue Inhalte im Kursbuch, auf die wir auch gerne aufmerksam machen möchten:

  • Transferampel
    Egal, ob personenbezogen oder themenzentriert, die Transferampel unterstützt sowohl Führungskräfte als auch Mitarbeitende dabei, mit Wissenssicherungund Wissenstransfer an den richtigen Stellen anzusetzen und die ohnehin knappen Ressourcen, vor allem zeitliche, mit größtmöglicher Wirkung einzusetzen.
  • Modell für das Persönliche Wissensmanagement von Reinmann und Eppler
    Ein bisschen theoretischer Unterbau zum Persönlichen Wissensmanagement.
  • Methodenwahl für das Persönliche Wissensmanagement
    Aufbauend auf dem Modell (s.o.) ein Anforderungsraster für die Methodenwahl, ebenfalls Reinmann und Eppler.

Unser Wissen entwickelt sich stetig weiter und gerne teilen wir das mit euch – auch außerhalb des MOOCs! 

Wissensmanagement im Studium: ein Werkzeugkasten

Wissensmanagement im Studium: ein Werkzeugkasten
Handreichung

Gerne möchte ich auf die gelungene Handreichung Wissensmanagement im (Promotions)Studium hinweisen, die in den letzten Monaten durch eine Fachgruppe der GfWM erarbeitet wurde. Diese Gruppe durfte ich von außen ein klein wenig mit meiner Expertise in diesem Thema unterstützen. Das Arbeitsergebnis liegt nun vor und ist – nicht nur für Studierende – absolut lesenswert.