Nur sichere KI-Systeme schaffen Vertrauen
Ein Gastbeitrag von Prof. Dr. Jörn Müller-Quade
Künstliche Intelligenz kann die Medizin bei Prävention, Diagnose und Therapie verbessern. Nutzen und Akzeptanz stellen jedoch hohe Anforderungen an die IT-Sicherheit.
Gerade durch die aktuelle Corona-Krise zeigen sich viele Chancen, ein stärker digitalisiertes Gesundheitswesen zu ermöglichen. So startete etwa die nordrhein-westfälische Landesregierung in den vergangenen Tagen vorzeitig ihr Projekt zum sogenannten virtuellen Krankenhaus. Aber nicht nur ein stärker digitalisiertes Gesundheitswesen, sondern auch der Einsatz von Künstlicher Intelligenz (KI) verspricht in der Medizin große Verbesserungen. Lernende Systeme können künftig bei der Prävention, frühzeitigen Diagnose sowie der patientengerechten Therapie zu besseren Behandlungsergebnissen führen und somit unsere Gesundheitsfürsorge verbessern.
Durch die Nutzung von patientenindividuellen medizinischen Daten und KI-Assistenzsystemen lassen sich künftig neue medizinische Zusammenhänge entdecken, innovative Präventionsansätze entwickeln, schneller Diagnosen stellen und seltene Erkrankungen früher erkennen. Damit können KI-Systeme medizinisches und pflegerisches Personal entlasten und bei einer verbesserten Patientenversorgung unterstützen. Zudem ermöglichen KI-basierte medizinische Systeme differenziertere Behandlungsmethoden sowie bessere Ergebnisse in der Vor- und Nachsorge.
KI-Systeme in der Medizin: Potenziale und Risiken
Gemeinsam mit anderen Mitgliedern der Plattform Lernende Systeme haben wir diese und andere Potenziale sowie Herausforderungen und Anforderungen für den Einsatz von KI im Gesundheitswesen in einem aktuellen Whitepaper zusammengetragen. Das Papier fokussiert das Datenmanagement und die Sicherheitsaspekte beim Einsatz von KI-Systemen im Gesundheitswesen und benennt technische Lösungsmöglichkeiten sowie rechtlich-regulatorische Gestaltungsoptionen.
Einigkeit besteht darüber, dass KI in der Medizin große Potenziale verspricht, der Einsatz von intelligenten und (selbst-)lernenden Systemen im Gesundheitswesen aber auch hohe Anforderungen an die IT-Sicherheit der Systeme stellt. Für die Nutzung der genannten Potenziale ist es daher notwendig, bei ÄrztInnen und PatientInnen Vertrauen in die Sicherheit von KI-unterstützten medizinischen Systemen zu schaffen.
Zu den möglichen Risiken beim Einsatz lernender Systeme im Gesundheitsbereich zählen etwa:
- verzerrte oder bewusst verfälschte Trainingsdaten,
- Angriffe auf die KI-Software,
- Verletzungen der Privatsphäre der PatientInnen,
- Angriffe auf KI-Datenbanken und
- die aufwändige Integration in die klinische Praxis.
Für die Gestaltung eines digitalisierten Gesundheitswesens ist auch wichtig zu klären, wer eine Zugriffsberechtigung für die elektronische Patientenakte (ePA) erhält, welcher rechtlichen Regulierung eine freiwillige und geschützte Datenfreigabe unterliegt und ob etwa bestehende rechtliche Vorgaben für den Einsatz von KI-Systemen im Gesundheitswesen angepasst werden müssen.
Healthcare AI: Anforderungen an die IT-Sicherheit
Lernende Systeme sind umso präziser und hilfreicher, je mehr Trainingsdaten verwendet werden können. Daher ist es unbedingt notwendig, medizinische Trainingsdaten aus vielen Studien oder Krankenhäusern unter Schutz der Privatsphäre zu poolen. Die KI-Systeme selbst müssen vor Angriffen geschützt werden, gleichzeitig muss die aktuelle Version schnell und sicher in die klinische Praxis integriert werden.
Zu den technischen und organisatorischen Bedingungen, die für den Einsatz von KI-Assistenzsystemen in der Medizin wichtig sind, gehören unter anderem die Zertifizierung von KI-Systemen - etwa für die Sicherstellung von unverfälschten Trainingsdaten - sowie besondere Zugriffskontrollmechanismen zum Schutz vor Angriffen auf die KI-Software. Sichere KI-Datenbanken für KI-basierte Analysen im Gesundheitswesen erfordern auch die Integrität der Datensätze und sichere Übertragungswege. Außerdem sollte die regulatorische Aufsicht der KI-Analyseverfahren samt zugehöriger Trainings- und Testdatensätze an staatlich beauftragte neutrale Einrichtungen vergeben werden.
Künstliche Intelligenz in der Medizin: Gestaltungsoptionen
Bei den rechtlich-regulatorischen Handlungsoptionen, um KI-Systeme in der Medizin vertrauenswürdig und zuverlässig zu gestalten, muss der Fokus auf der Qualitätsabsicherung der für das Training von KI-Systemen verwendeten Daten, der Nachvollziehbarkeit und Erklärbarkeit von KI-Systemen sowie deren Sicherheit im Sinne von Safety und IT-Security liegen. Wichtig ist hier, gemeinsame Leitlinien und Prüfvorschriften für die Zulassung und Zertifizierung für KI-Datenbanken sowie für deren Betreiber zu entwickeln.
Wie bereits erwähnt, können das Gesundheitswesen und die Gesellschaft von den Potenzialen KI-basierter Systeme nur dann profitieren, wenn genügend nutzbare Daten verfügbar sind. Dennoch sollten PatientInnen über die Nutzung der eigenen Gesundheitsdaten souverän bestimmen können. Die elektronische Gesundheitskarte (eGK) gilt dafür als zentrales technisches Instrument. Vor dem Hintergrund der Sensibilität der Daten und der DSGVO sollen Krankenkassen die Sperrung der eGK ermöglichen, um so einen unautorisierten Zugriff auf Daten zu verhindern. Ergänzt werden kann dies durch die Formulierung von Mindestanforderungen an die Sicherheit der Dateninfrastrukturen und der Rechenzentren, Daten können dann etwa nur innerhalb der Europäischen Union gespeichert und verarbeitet werden.
Damit verknüpft sind eine Reihe gesellschaftsrelevanter Fragestellungen, etwa zum Nutzen und zu potenziellen Risiken des Einsatzes von KI-Systemen im Gesundheitswesen und zur Verwendung von anonymisierten oder pseudonymisierten Daten. Weiterhin muss geklärt werden, welche Institutionen wir mit dem Betreiben, Warten und Pflegen der Dateninfrastruktur oder mit der Finanzierung und Bereitstellung von KI-Assistenzsystemen beauftragen möchten. Ungeklärt ist zudem auch die Verantwortung und Haftung bei Behandlungsfehlern durch falsch verarbeitete Informationen beim Einsatz von KI-Systemen. Der Gesetzgeber ist auch hier in der Verantwortung, Regeln für die Nachvollziehbarkeit und Erklärbarkeit von KI-basierten Medizinprodukten zu schaffen.
Gastbeitrag erschienen auf:
www.computerwoche.de
27. April 2020