März 16, 2026
Regulatorik
Wenn Algorithmen zur Regulierungsfrage werden
Wie der EU AI Act die Regulierung von KI-Medizinprodukten verändern könnte
Teil 2 der Serie „Die neuen Spielregeln der Medtech-Industrie“ von Sandra Heeg, Chefredakteurin, MedTech Media Europe.
Im ersten Teil dieser Serie ging es um eine neue regulatorische Fragestellung, die durch KI‑basierte Medizinprodukte entsteht: Was passiert, wenn sich ein Algorithmus nach der Zulassung verändert?
Diese Frage ist längst nicht mehr nur theoretisch. Regulierungsbehörden beginnen bereits, neue regulatorische Ansätze zu entwickeln, um mit dieser Entwicklung umzugehen. Einer der wichtigsten regulatorischen Rahmen entsteht derzeit in Europa: der EU Artificial Intelligence Act (AI Act).
Wenn der erste Artikel das Problem beleuchtet hat, das künstliche Intelligenz für die klassische Medizinprodukte‑Regulierung darstellt, beschäftigt sich dieser zweite Teil mit der Frage, wie Regulierer darauf reagieren.
Wenn klassische Medizinprodukte‑Regulierung auf künstliche Intelligenz trifft
Die Regulierung von Medizinprodukten wurde ursprünglich für Produkte entwickelt, deren grundlegende Funktionalität über die Zeit weitgehend stabil bleibt. Auch Software‑basierte Medizinprodukte folgen in der Regel einem relativ klaren Lebenszyklus: Entwicklung, Validierung, Zertifizierung und Marktüberwachung.
Künstliche Intelligenz verändert diese Logik. KI‑Systeme basieren auf datengetriebenen Modellen, die sich durch neue Trainingsdaten, Updates oder veränderte Einsatzbedingungen weiterentwickeln können.
Damit entsteht eine zentrale regulatorische Herausforderung: Wie lassen sich Medizinprodukte regulieren, deren Verhalten sich im Laufe der Zeit verändern kann?
Der AI Act als regulatorische Antwort
In Europa ist der wichtigste regulatorische Ansatz für diese Herausforderung derzeit der EU AI Act. Der AI Act verfolgt einen horizontalen, risikobasierten Ansatz zur Regulierung von künstlicher Intelligenz in unterschiedlichen Industrien.
KI‑Systeme, die in Medizinprodukten eingesetzt werden, werden in der Regel als „High‑Risk AI Systems“ eingestuft. Damit sind für Hersteller spezifische Anforderungen verbunden.
Zu den zentralen regulatorischen Anforderungen gehören unter anderem:
Artikel 9 – Risikomanagementsysteme
Artikel 10 – Daten‑ und Datenqualitätsanforderungen
Artikel 13 – Transparenzanforderungen
Artikel 14 – Human Oversight (menschliche Aufsicht)
Diese Anforderungen zielen darauf ab, Risiken zu reduzieren, die sich aus algorithmischem Verhalten, Datensätzen und möglichen Verzerrungen in Trainingsdaten ergeben können.
Eine zweite Regulierungsebene für KI‑Medizinprodukte
Für Hersteller von KI‑basierten Medizinprodukten entsteht dadurch eine strukturell neue Situation. Produkte müssen weiterhin die Anforderungen der EU Medical Device Regulation (MDR) erfüllen – einschließlich Sicherheitsnachweis, klinischer Bewertung und Post‑Market‑Surveillance.
Gleichzeitig können KI‑basierte Systeme künftig zusätzlich Anforderungen erfüllen müssen, die speziell für künstliche Intelligenz gelten, etwa in Bezug auf Daten‑Governance, Transparenz von Algorithmen, Mechanismen zur menschlichen Aufsicht sowie die Überwachung der Systemleistung über den gesamten Lebenszyklus.
Damit entsteht potenziell eine zweite regulatorische Ebene für KI‑Medizinprodukte.
Neue Anforderungen an Benannte Stellen
Eine zentrale praktische Frage betrifft die Rolle der Benannten Stellen. Sollten AI‑spezifische Anforderungen künftig Teil der Regulierung werden, müssen Benannte Stellen möglicherweise neue Bewertungsdimensionen in ihre Konformitätsbewertungen integrieren.
Dazu könnten beispielsweise gehören: Analyse von Trainingsdatensätzen, Validierungsstrategien für KI‑Modelle, Strategien zur Bias‑Reduktion sowie Konzepte zur Überwachung der Modellleistung.
Damit verschiebt sich ein Teil der regulatorischen Bewertung zunehmend von der reinen Produktbewertung hin zur Bewertung von Daten‑ und Algorithmus‑Governance.
Daten‑Governance als zentrales Regulierungsthema
KI‑Systeme sind stark abhängig von den Datensätzen, mit denen sie trainiert wurden. Unzureichende Datensätze können zu algorithmischen Fehlentscheidungen, systematischen Verzerrungen oder unterschiedlichen Leistungsniveaus in verschiedenen Patientengruppen führen.
Regulierungsbehörden stellen deshalb zunehmend Fragen wie: Wie wurden Trainingsdaten erhoben? Sind Datensätze repräsentativ für die Zielpopulation? Wie werden mögliche Bias‑Effekte identifiziert und reduziert?
Für Hersteller bedeutet dies, dass Datendokumentation und Modellvalidierung künftig eine deutlich größere Rolle in regulatorischen Dossiers spielen könnten.
Lebenszyklus‑Überwachung von KI‑Systemen
Ein weiterer Fokus der Regulierung liegt zunehmend auf dem Lebenszyklusverhalten von KI‑Systemen. KI‑Modelle können sich in unterschiedlichen klinischen Umgebungen unterschiedlich verhalten.
Regulierungsbehörden richten ihren Fokus daher zunehmend auf kontinuierliche Leistungsüberwachung, Management von Algorithmus‑Updates sowie langfristige Evaluation der Systemperformance.
Damit verschiebt sich der regulatorische Fokus zunehmend von einer statischen Produktbewertung hin zu einer kontinuierlichen Lebenszyklus‑Überwachung.
Strategische Auswirkungen für Medtech‑Unternehmen
Für viele Unternehmen wird KI‑Regulierung bisher primär als Compliance‑Thema betrachtet. Tatsächlich hat sie jedoch deutlich weiterreichende Auswirkungen.
Neue regulatorische Anforderungen können zentrale Aspekte der Produktentwicklung beeinflussen, darunter Softwarearchitektur, Dateninfrastruktur, Validierungsstrategien sowie Produkt‑ und Update‑Strategien.
Regulatorische Überlegungen müssen daher zunehmend frühzeitig in Entwicklungsprozesse integriert werden. KI‑Regulierung wird damit zu einer Querschnittsaufgabe zwischen Regulatory Affairs, Softwareentwicklung, Data Science und Qualitätsmanagement.
Eine neue Phase der Medtech‑Regulierung
Mit der Einführung der MDR hat sich die regulatorische Landschaft für Medizinprodukte bereits grundlegend verändert. Die Regulierung von künstlicher Intelligenz könnte eine ähnliche Transformation auslösen.
Künstliche Intelligenz verändert damit nicht nur die Medizintechnik. Sie beginnt auch zu verändern, wie Medizintechnik reguliert wird.
Autor: Sandra Heeg
© 2026 Sandra Heeg. Alle Rechte vorbehaltenen. Das Urheberrrechtverbleibt beim Autor. Veröffentlichung auf medtechmediaeurope.com erfolgt mit Genehmigung des Autors, die jederzeit widerrufen werden kann.