März 08, 2026
Regulatorik
KI
Eine neue Art von Zulassungsproblem in der Medtech-Industrie
Künstliche Intelligenz ist inzwischen in einer wachsenden Zahl zugelassener Medizinprodukte integriert – insbesondere in Bereichen wie Radiologie, Kardiologie und digitaler Pathologie. Doch KI-basierte Systeme stellen Regulierungsrahmen vor eine Frage, für die klassische Zulassungslogiken ursprünglich nicht entwickelt wurden: Was passiert, wenn sich ein Medizinprodukt nach der Zulassung weiterentwickelt?
Teil 1 der Serie „Die neuen Spielregeln der Medtech-Industrie“ von Sandra Heeg, Chefredakteurin von MedTech Media Europe
Bild: pixabay
Künstliche Intelligenz ist inzwischen in einer wachsenden Zahl zugelassener Medizinprodukte integriert – insbesondere in Bereichen wie Radiologie, Kardiologie und digitaler Pathologie. Doch KI-basierte Systeme stellen Regulierungsrahmen vor eine Frage, für die klassische Zulassungslogiken ursprünglich nicht entwickelt wurden:
Was passiert, wenn sich ein Medizinprodukt nach der Zulassung weiterentwickelt?
Viele KI-Systeme basieren auf Softwaremodellen, die im Laufe der Zeit angepasst, aktualisiert oder mit neuen Daten trainiert werden können. Damit markiert die Zulassung nicht mehr zwangsläufig das Ende des regulatorischen Lebenszyklus eines Produkts. Für viele Hersteller beginnt die eigentliche regulatorische Herausforderung erst dann, wenn das Produkt bereits im klinischen Alltag eingesetzt wird.
Locked vs. Adaptive AI Systems
Eine zentrale Unterscheidung in der aktuellen regulatorischen Diskussion ist der Unterschied zwischen sogenannten „Locked AI Systems“ und adaptiven KI-Systemen.
Die meisten heute zugelassenen KI-Medizinprodukte verwenden Locked Algorithms. Dabei bleibt das zugelassene Modell unverändert, sobald es auf den Markt gebracht wurde. Änderungen am Algorithmus erfolgen ausschließlich über kontrollierte Software-Updates durch den Hersteller.
Adaptive KI-Systeme hingegen sind darauf ausgelegt, ihr Verhalten auf Basis neuer Daten im laufenden Betrieb zu verändern.
Solche Systeme könnten theoretisch ihre Leistung kontinuierlich verbessern. Gleichzeitig stellen sie jedoch erhebliche regulatorische Herausforderungen dar, da sich das Verhalten eines Medizinprodukts nach der Zulassung verändern kann.
Aus diesem Grund setzen die meisten heute zugelassenen KI-Medizinprodukte auf statische Modelle mit kontrollierten Update-Zyklen und striktem Versionsmanagement.
Langfristig könnten adaptive Systeme dennoch relevanter werden. Medizinische Daten, Patientenkollektive und Geräteumgebungen verändern sich kontinuierlich. Adaptive Modelle könnten solche Veränderungen schneller erkennen und darauf reagieren.
Wie KI-Software unter der MDR reguliert wird
Unter der EU-Medizinprodukteverordnung (MDR) wird medizinische Software in der Regel unter Regel 11 klassifiziert, die speziell für eigenständige medizinische Software gilt.
Abhängig davon, wie stark eine Software klinische Entscheidungen beeinflusst, kann sie in folgende Klassen fallen:
- Klasse IIa
- Klasse IIb
- Klasse III
In der Praxis bedeutet dies, dass viele KI-basierte Softwareprodukte heute mindestens als Klasse IIa oder IIb eingestuft werden und somit ein Konformitätsbewertungsverfahren mit einer Benannten Stelle durchlaufen müssen.
Im Rahmen dieser Bewertung prüfen Benannte Stellen unter anderem:
- klinische Leistung
- Risikomanagement
- Software-Entwicklungsprozesse
Dabei spielen insbesondere zwei internationale Standards eine zentrale Rolle:
- IEC 62304 für Software-Lebenszyklusprozesse
- ISO 14971 für Risikomanagement
Wann Software-Updates zu einem regulatorischen Problem werden
Unter der MDR müssen Hersteller bewerten, ob Änderungen an einem bereits zertifizierten Produkt als „significant change“ gelten.
Ist dies der Fall, kann eine erneute Konformitätsbewertung erforderlich werden.
Zur Auslegung solcher Änderungen greifen Hersteller häufig auf Leitlinien der Medical Device Coordination Group (MDCG) zurück, insbesondere auf MDCG 2020-3.
Bei Software können beispielsweise folgende Änderungen als signifikant gelten:
- Änderungen an der Algorithmus-Logik
- Änderungen der klinischen Leistung
- Änderungen der medizinischen Zweckbestimmung
Gerade bei KI-Systemen kann diese Bewertung komplex werden.
Beispiel: Aktualisierung eines KI-Radiologiesystems
Angenommen, ein KI-basiertes Radiologiesystem erkennt Lungenknoten in CT-Scans. Das Modell wird auf großen Datensätzen trainiert und erhält nach klinischer Validierung eine CE-Zertifizierung.
Nach der Markteinführung sammelt der Hersteller zusätzliche Daten aus dem klinischen Einsatz und trainiert den Algorithmus erneut, um die Erkennungsrate zu verbessern.
Dabei können mehrere technische Effekte auftreten. Ein neues Trainingsdataset könnte beispielsweise die Sensitivität des Systems erhöhen, gleichzeitig aber auch neue Fehlklassifikationen erzeugen.
An dieser Stelle stellen sich mehrere regulatorische Fragen:
- Fällt das neu trainierte Modell noch unter die ursprüngliche Zertifizierung?
- Handelt es sich um eine signifikante Änderung im Sinne der MDR?
- Ist eine erneute Bewertung durch eine Benannte Stelle erforderlich?
In der Praxis hängt die Antwort davon ab, ob sich durch die Änderung beispielsweise die klinische Leistung, das Risikoprofil oder die medizinische Zweckbestimmung des Systems verändert.
Solche Bewertungen erfolgen häufig im Einzelfall und in enger Abstimmung zwischen Herstellern, Benannten Stellen und Regulatory-Experten.
Post-Market-Surveillance und Monitoring im klinischen Einsatz
Auch ohne adaptive KI müssen KI-basierte Medizinprodukte nach der Markteinführung kontinuierlich überwacht werden.
Unter der MDR sind Hersteller verpflichtet, Post-Market-Surveillance-Systeme (PMS) sowie Post-Market Clinical Follow-Up (PMCF) zu betreiben.
Für KI-basierte Systeme kann dies beispielsweise umfassen:
- Monitoring der Modellleistung anhand realer Daten
- Erkennung von Dataset Drift, also Veränderungen in der Datenverteilung
- Analyse von Fehlalarmen oder Fehlklassifikationen
Diese Prozesse führen bereits heute dazu, dass sich regulatorische Überwachung zunehmend auf den gesamten Produktlebenszyklus erstreckt.
Wie die FDA mit Algorithmus-Updates umgeht
In den USA arbeiten Regulierungsbehörden bereits an neuen Ansätzen für KI-basierte Medizinprodukte.
Die US-amerikanische Food and Drug Administration (FDA) hat das Konzept eines Predetermined Change Control Plan (PCCP) vorgeschlagen.
Dabei definieren Hersteller bereits im Rahmen der Zulassung:
- welche Änderungen am Algorithmus später möglich sein sollen
- wie diese Änderungen validiert werden
- wie die Leistung des Systems überwacht wird
Bleiben Updates innerhalb dieses definierten Rahmens, kann eine vollständige neue Zulassung unter Umständen vermieden werden.
Damit wird nicht jede einzelne Änderung reguliert, sondern der Prozess der Änderungen selbst.
Eine Verschiebung hin zu Lifecycle-Regulierung
Die Diskussion um KI verdeutlicht einen grundlegenderen Wandel in der Medtech-Industrie.
Während traditionelle Medizinprodukte häufig als statische Produkte betrachtet werden, entwickeln sich viele moderne Systeme zunehmend zu softwarebasierten Plattformen, die über längere Zeiträume betrieben und aktualisiert werden.
Wenn sich Medizinprodukte zunehmend wie Software-Systeme verhalten, könnte sich langfristig auch die Logik ihrer Regulierung verändern: von einer einmaligen Zulassung hin zu einer kontinuierlichen Aufsicht über den gesamten Produktlebenszyklus.
Für Hersteller bedeutet das, dass regulatorische Strategien künftig stärker auch folgende Aspekte umfassen könnten:
- Management von Software-Updates
- Monitoring der realen Produktleistung
- Governance von Algorithmen und Daten
Künstliche Intelligenz verändert damit nicht nur die Funktionsweise vieler Medizinprodukte. Sie könnte langfristig auch verändern, wie sie reguliert werden.
Autor: Sandra Heeg
© 2026 Sandra Heeg. Alle Rechte vorbehaltenen. Das Urheberrrechtverbleibt beim Autor. Veröffentlichung auf medtechmediaeurope.com erfolgt mit Genehmigung des Autors, die jederzeit widerrufen werden kann.