Ethische Standards und Anwenderfokus: Innovationstreiber für KI-basierte Gesundheitstechnologien

Ein Interview mit Martin Böhm, Chief Experience Officer bei Ottobock und Mitglied im Lenkungskreis der Plattform Lernende Systeme und Alena Buyx, Vorsitzende des Deutschen Ethikrats

KI bietet große Potenziale zur Verbesserung der medizinischen Versorgung, Diagnostik und Therapie und kann mehr Lebensqualität, Teilhabe und Selbstbestimmung ermöglichen – etwa durch intelligente Medizintechnik. Gleichzeitig gilt es besonders bei KI-basierten Gesundheitstechnologien, die Bedürfnisse Betroffener sowie medizinethische Fragestellungen von Beginn an zu berücksichtigen, um Vertrauen in Anwendungen und Produkte zu schaffen. Alena Buyx, Professorin für Ethik der Medizin und Gesundheitstechnologien an der TU München, und Martin Böhm, Chief Experience Officer beim Medizintechnikunternehmen Ottobock und Mitglied in der Plattform Lernende Systeme, diskutieren im Interview, wie Ethik und Nutzererfahrungen in die Entwicklung medizinischer KI integriert werden können.

Was sind die wichtigsten Potenziale und Anwendungsbereiche von Künstlicher Intelligenz in der Medizin?

Alena Buyx ist Professorin für Ethik der Medizin und Gesundheitstechnologien an der TU München und Vorsitzende des Deutschen Ethikrats

Alena Buyx: Das spannendste KI-Potenzial in der Medizin stellt die Kraft der Mustererkennung dar, vor allem im diagnostischen, aber auch im präventiven Bereich: Hier verspricht man sich neue Erkenntnisse über die Entstehung von Krankheiten. Konkret im klinischen Bereich bietet sogenannte KI überall dort große Potenziale, wo man auf Daten zugreifen kann, etwa bei bildgebenden Verfahren. Zumindest experimentell zeigt sich, dass KI-Anwendungen inzwischen für einzelne diagnostische Aufgaben – etwa dem Befunden von Lungenröntgenaufnahmen oder dermatologischen Erkrankungen – „besser“ sind als Fachärztinnen und Fachärzte. Diese Anwendungen sind aber aktuell noch weitgehend experimentell, bislang ist dazu noch kaum etwas in der breiten Praxis angekommen – insbesondere bei den präventiv-prädiktiven KI-Verfahren.

Der zweite große Chancenbereich ist der therapeutische, bei dem es konkret um die Patientenbehandlung geht. Da gibt es inzwischen verschiedene Anwendungen, etwa im Bereich der KI-basierten Psychotherapie. Was nicht mehr nur experimentell ist, sondern in der Praxis bereits zum Einsatz kommt, sind therapeutische Chatbots. Potenziale verspricht KI auch in der Chirurgie, indem Algorithmen – auch das ist im Moment noch experimentell – darauf trainiert werden können, die leitende Chirurgin oder den leitenden Chirurgen durch Assistenzrobotik zu unterstützen.

In der Pflege sind vor allem Anwendungen vielversprechend, die Pflegekräfte bei Routinetätigkeiten oder körperlich belastenden Aufgaben unterstützen – also schweres Heben und Tragen. Assistenzroboter, die Sachen reichen oder Aufgaben übernehmen, können eine Hilfe für Pflegebedürftige sein. Spannende Anwendungen werden gerade auch in der Pflegedokumentation entwickelt: Das ist natürlich auch für Ärztinnen und Ärzte relevant, weil es hier darum geht, Fachkräfte von zeitaufwändigen Dokumentationspflichten freizuspielen.

Ottobock gehört zu den Weltmarktführern in der Orthopädietechnik und entwickelt Lösungen für Menschen, die durch Unfälle oder Erkrankungen auf Prothesen oder Orthesen angewiesen sind. Wo sehen Sie in diesem Anwendungsbereich den größten Nutzen von KI?

Martin Böhm: Bei Ottobock unterstützt uns KI entlang des gesamten Produktlebenszyklus: Den größten Mehrwert sehen wir in der Personalisierung von Produkten und Services. Konkret hilft uns KI, das Nutzerverhalten besser zu verstehen und Nutzerbedürfnisse zu identifizieren. Anhand von Daten sehen wir auch, wie sich Nutzerinnen und Nutzer Alltagssituationen anpassen. Ein gutes Beispiel sind Handprothesen: Trägerinnen und Träger trainieren gewisse Situationen, ein KI-System kann mit diesen Daten Bewegungsabläufe erlernen und anschließend in ähnlichen Situationen replizieren. Im Bereich der KI-Mustererkennung arbeiten wir gerade daran, durch gefilmte Bewegungssequenzen analysieren zu können, ob Prothesen richtig aufgebaut und angepasst sind.

Auch beim Produktsupport arbeiten wir mit KI: Konfigurationseinstellungen von Prothesen sind sehr individuell, da Produkte entsprechend Größe, Gewicht und Geschlecht anwenderspezifisch eingestellt werden müssen. Zum Einsatz kommen dort KI-basierte Chatbots, die bei der Konfiguration unterstützen. Auch beim Nutzungssupport setzen wir KI ein, etwa, um Stürze oder Unfälle durch Prothesen vorausschauend vermeiden zu können. Dazu werden Bewegungsabläufe in KI-Modellen trainiert, damit diese immer besser werden.

Wo sehen Sie aktuell technologische Grenzen und welche Lösungen werden dafür diskutiert?

Martin Böhm ist Chief Experience Officer bei Ottobock und Mitglied im Lenkungskreis der Plattform Lernende Systeme

Böhm: Ein KI-System kann nur wiedererkennen, was es schon mal gesehen hat. Die Systeme müssen also immer wieder mit neuen, passenden Daten gefüttert werden. Hinzu kommen Fairness-Kriterien: Wir müssen in der Entwicklung verschiedene Geschlechter, Ethnizitäten und Altersgruppen berücksichtigen, damit die Produkte später für alle richtig funktionieren. Dafür brauchen wir nicht nur eine gute Datenbasis, sondern auch die entsprechenden Systeme und Hardware, um diese Daten verarbeiten zu können. Ganz unabhängig von vielversprechenden KI-Anwendungen haben wir in Deutschland weiterhin große Probleme bei der Dateninfrastruktur, etwa wenn es darum geht, Patientendaten in den verschiedenen Systemen von A nach B zu schieben.

Medizinische KI stellt einen spezifischen Anwendungsfall dar: Welche ethischen Fragestellungen müssen besonders beachtet werden?

Buyx: Die Medizin stellt einen Bereich mit besonderer Vulnerabilität dar: Wir haben es mit Patientinnen und Patienten zu tun, die verletzlich sind. Wir haben es auch mit einem Arzt-Patienten-Verhältnis zu tun, das ganz besonders geschützt ist. In der Medizin gibt es zudem spezifische medizinethische Fragestellungen: Wie verändert der KI-Einsatz das Arzt-Patienten-Verhältnis? Wer ist verantwortlich, wenn Fehler passieren? Es stellen sich auch konkrete rechtliche Fragen, die am besten ethisch vorgedacht werden sollten. Und dann: Wie können wir dafür sorgen, wenn Anwendungen gut funktionieren, dass auch alle Zugang dazu bekommen? Wie transparent müssen wir darüber aufklären, dass bestimmte Befundungen nicht mehr nur von Ärztinnen und Ärzten gemacht werden? Einen weiteren Aspekt, den Herr Böhm gerade schon angesprochen hat, betrifft die Güte von Algorithmen und Trainingsdaten.

Sie haben dazu gemeinsam mit Kolleginnen und Kollegen einen integrierten Ethik-Ansatz (embedded ethics) vorgeschlagen. Was ist das Ziel dieses Ansatzes?

Buyx: Mit dem embedded ethics-Ansatz wollen wir medizinethische Fragen adressieren, die sich je nach Anwendung unterscheiden. Was ist das für ein KI-Produkt? Was sind das für Daten? Wie wird das eingesetzt? Wir analysieren ethische Fragen in gemeinsamen Pilotprojekten mit unseren Robotik-Expertinnen und -Experten, die KI-basierte telemedizinische Anwendungen oder maschinelle Lern-Algorithmen für die intelligente Prothetik entwickeln. Ethikerinnen und Ethiker sind dabei von Anfang an Teil des KI-Entwicklungsteams. Im Sinne einer menschenzentrierten Technikgestaltung (Human-centered-Engineering) können so im fortlaufenden Prozess mögliche ethische oder soziale Implikationen erfasst und direkt Lösungen erarbeitet werden. Teil dieser Auffassung ist, dass wir die hohen ethischen Entwicklungsstandards letztlich als Innovationsförderer bewerten, im Sinne von AI-Ethics made in Germany. Es erstaunt mich manchmal, dass einige das nur als Bremse sehen – das muss überhaupt nicht so sein. Und Nutzerinnen und Nutzer werden Anwendungen, die solche Standards erfüllen, besser annehmen, weil sie nicht nur die höchsten technischen und qualitativen Standards, sondern auch die höchsten ethischen und sozialen Standards erfüllen.

Für den Erfolg des „embedded ethics-Ansatzes“ braucht es klare Standards für die Praxis. Wie könnten diese aussehen?

Buyx: National und international existieren bereits verschiedene Ethikkodizes und Normen. Das Problem ist, am Ende fragt ein KI-Entwickler: Was heißt denn jetzt hier, für meine Anwendung, Autonomie? Das ist häufig noch zu abstrakt. Im praktischen Innovationsprozess muss man gemeinsam herausarbeiten, welche Fragen für welche Medizinprodukte und Anwendungsbereiche wichtig sind. Anschließend kann man das auf bereichsspezifische Standards zurückgeneralisieren, die dann Praktikerinnen und Praktikern konkrete Orientierung geben. Ein Ergebnis könnten praxis- und anwendungsnahe Empfehlungen bis hin zu Checklisten sein – etwa für bestimmte Anwendungen in der Bildgebung. Damit können wir von den übergreifenden Kodizes runter zu konkreten Kriterien gelangen.

Wie kann – analog zur Berücksichtigung medizinethischer Fragestellungen – auch die Nutzerperspektive stärker in der Produktentwicklung bedacht werden?

Böhm: Bei Ottobock verfolgen wir einen User-in-theloop- Ansatz: Wir müssen rausfinden, wie reagiert KI auf Anwender, wie reagiert der Anwender wiederum auf den Output der KI? Wie fühlen sich Produkte an und sind Produktkonzepte für Nutzerinnen und Nutzer überhaupt relevant? – Um die Erfahrungen und Bedarfe noch stärker in der Entwicklung berücksichtigen zu können, brauchen wir echte Nutzungsdaten, das können wir nicht alles nur simulieren. Durch mikroprozessgesteuerte Produkte oder Feldtests können wir auf Realdaten zugreifen. Zusätzlich laden wir bestimmte Anwendergruppen ein und Ingenieurinnen und Ingenieure können anhand von Echtzeitdaten Rulesets und Funktionsweisen anpassen. Einschränkend gilt, dass das häufig noch keine komplexe KI ist, sondern wir hier erst am Anfang stehen. Richtig interessant wird das, wenn wir mithilfe von KI personalisierte Datensätze aufbauen können, denn in der Anwendung gibt es große Unterschiede zwischen den Nutzerinnen und Nutzern.

Was ethische Fragen betrifft, so enthält KI für mich per se erst mal noch keine Frage der Ethik. Künstliche Intelligenz basiert auf Zahlen, die Ethik kommt eigentlich erst ins Spiel, wenn der Mensch als Teil dieser Gleichung eingreift und die Daten interpretiert…

Buyx: Da würde ich gerne kurz einhaken, wenn ich darf. Denn es gibt tatsächlich KI, die schon auf der Zahlenebene aufgrund der Trainingsdaten Verzerrungen aufweist, was zu ethisch problematischen Ergebnissen führt. So wurde beispielsweise von einer großen Krankenversicherung in den USA ein KI-Algorithmus eingesetzt, der mit einem verzerrten Datensatz trainiert wurde. Dadurch wurden die Reha-Bedarfe afroamerikanischer Patientinnen und Patienten signifikant zu niedrig eingeschätzt, weil diese Patientengruppe in der Vergangenheit aufgrund struktureller Ungleichheiten seltener Reha-Maßnahmen zugesprochen bekam. Die Verzerrung, die also in der Gesellschaft und in der medizinischen Versorgung vorlag, wurde in die Datenbasis übernommen und durch die Empfehlungen des KI-Systems noch verstärkt. Dadurch entstehen Qualitäts-, Fairness- und Diskriminierungsprobleme.

Böhm: Da stimme ich absolut zu, wenn der Dateninput nicht stimmt, entstehen problematische Verzerrungen. Aber die KI selbst weiß nicht, wenn sie ethisch etwas falsch macht, am Ende wurden auch diese Verzerrungen erst durch den Menschen verursacht.

Wie können solche Probleme verhindert werden?

Buyx: Wir müssen uns die jeweilige Datenbasis genau anschauen, die Daten müssen ordentlich kuratiert werden und dürfen nicht verzerrt sein. Deswegen brauchen wir gute und übrigens auch eigene Datensätze, um qualitativ hochwertige KI entwickeln zu können. Nur mit chinesischen oder amerikanischen Datensätzen kommen wir da nicht weiter.

Damit verzerrte KI-Ergebnisse gar nicht erst entstehen, ist also eine gute Datengrundlage wichtig. Wie könnte man die Datenbasis für medizinische Anwendungskontexte verbessern?

Böhm: In der Medizinbranche stehen Anwenderinnen und Anwender im Zentrum und sollen die Datenhoheit haben, mündig über ihre Datenhoheit zu entscheiden. Wir müssen aber generell mehr Anreize schaffen, um Daten zu teilen. In Deutschland neigen wir dazu, das mit Blick auf den Datenschutz immer etwas pessimistisch zu bewerten; am Ende muss jeder selbst entscheiden, ob und wann sie oder er Daten teilen möchte. Im Medizinumfeld ist das meines Erachtens gar keine so große Herausforderung, weil die Vorteile für viele offensichtlicher sind und die Datenfreigabe einen konkreten Mehrwert verspricht. Größer erscheinen mir technische Herausforderungen: Wir wollen künftig stärker Daten austauschen, etwa mit Kliniken und Sanitätshäusern, um Produkte und Services zu verbessern. Was passiert aber, wenn jemand die Datenfreigabe zurückzieht? Daten, mit denen KI-Systeme trainiert wurden, müssten dann wieder extrahiert werden.

Wagen wir zum Schluss noch einen Blick in die Zukunft: Welche Rolle wird KI in der Medizin in Deutschland in fünf bis zehn Jahren spielen?

Buyx: Mit Blick auf die verschiedenen Digitalisierungsbedarfe bin ich momentan eher etwas pessimistisch: Es gibt noch viele Herausforderungen, was die Nutzungskultur mit Daten anbelangt. Gleichzeitig haben wir mit Unterversorgung und weiteren Baustellen in der Medizin zu kämpfen. Von daher erwarte ich in fünf Jahren noch nicht so wahnsinnig viele Fortschritte, während ich mir in zehn Jahren mehr erhoffe und glaube, dass wir an den Stellen, an denen KI wirklich entlasten oder Prozesse vereinfachen kann – also offenkundige Potenziale bietet –, weiter vorankommen, und das natürlich in einer ethisch und gesellschaftlich verantwortlichen Art und Weise.

Böhm: Was die Fortschritte in den nächsten fünf Jahren betrifft, bin ich auch etwas pessimistisch – zumindest mit Blick auf Deutschland und Europa. In den USA ist da sicher mehr möglich, weil weniger reguliert und die Verantwortung mehr an die Unternehmen übergeben wird. Was über den Horizont von fünf Jahren hinausgeht, schließe ich mich Frau Buyx an und hoffe, dass wir dann schon einen Schritt weiter sind. Wir dürfen nicht vergessen, dass wir in Deutschland aktuell erst die Basis schaffen müssen, um die Potenziale von KI nutzen zu können.

Interview erschienen in:

Fortschrittsbericht Plattform Lernende Systeme
Dezember 2022

Zurück