3 Fragen an

Armin Grunwald

Professor für Technikphilosophie am Karlsruher Institut für Technologie, Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag und Mitglied der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme

3 Fragen an Armin Grunwald

Vertrauenswürdige KI: “Die Systeme brauchen einen regelmäßigen TÜV“

Die EU-Kommission will gesetzlich regulieren, was Künstliche Intelligenz darf und was nicht. In ihrem Entwurf für ein KI-Gesetz, den sie im April dieses Jahres vorlegte, hat die Kommission einen Kriterienkatalog festgelegt, anhand dessen künftig die Risiken, die sogenannte Kritikalität, eines KI-Systems beurteilt werden sollen. Je nach Höhe der Risiken kann ein KI-System verboten werden, muss vor seiner Markteinführung bestimmte Anforderungen erfüllen oder unterliegt keinerlei Vorgaben. Warum die Beurteilung von Risiken bei Künstlicher Intelligenz besonders schwierig ist und was über den EU-Vorschlag hinaus für ein vertrauenswürdiges KI-System notwendig ist, erläutert Armin Grunwald, Professor für Technikphilosophie am Karlsruher Institut für Technologie (KIT) und Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB).

1

Herr Grunwald, ist ein KI-System mit niedriger Kritikalität unbedenklich?

Armin Grunwald: Die Kritikalität eines KI-Systems hängt davon ab, wie, wo, wann und von wem es eingesetzt wird. Innerhalb dieses Anwendungskontextes lassen sich mögliche Risiken in der Theorie nachvollziehbar beurteilen. Dies ist hilfreich, um eventuelle Vorsichtsmaßnahmen für den Einsatz der KI-gestützten Produkte und Dienstleistungen in der Praxis zu treffen, sozusagen „für den Fall der Fälle“. Allerdings kann die theoretische Beurteilung nicht die mögliche Dynamik der späteren realen Nutzung vorwegnehmen. Diese ist oft unvorhersehbar, schon allein deshalb, weil Marktgeschehen und Akzeptanz bei den Menschen immer wieder überraschend verlaufen. Außerdem übersteigt die menschliche Kreativität häufig die angenommenen Anwendungsszenarien – im positiven Sinne, wenn neue erwünschte Anwendungen und Innovationen entdeckt werden, aber auch im negativen Sinne, wenn KI-Systeme für unethische Aktionen missbraucht oder zweckentfremdet werden. Daher ist eine niedrige Kritikalität nur ein Hinweis auf ein zunächst anzunehmendes geringes Schadenspotential, aber keine Garantie, dass dies auch so bleibt. Keinesfalls ist sie gleichbedeutend mit Unbedenklichkeit, denn letztere zeigt sich erst im Laufe der Anwendungen in der Praxis. Unbedenklichkeit ist nicht einfach ein technischer Parameter, sondern verbindet technische Eigenschaften mit menschlichem Nutzungsverhalten. Und letzteres ist immer für Überraschungen gut – in sehr unterschiedliche Richtungen.

2

Warum ist es so schwierig die Risiken eines KI-Systems verlässlich zu beurteilen?

Armin Grunwald: Über die Gefahren und Risiken (also mögliche Gefahren) von konventioneller IT verfügen wir zumindest in Teilen über belastbares Wissen. So wissen wir, mit welcher Wahrscheinlichkeit Fehler eintreten oder wie sich mögliche Gefahren ausprägen können. KI hingegen ist häufig in visionäre Erzählungen und Anwendungsszenarien eingebettet, in denen dieses Wissen nicht vorhanden ist. Stattdessen müssen Annahmen über zukünftige Anwendungen getroffen werden, deren Eintreten mehr oder weniger erwartbar oder auch spekulativ ist. Die Offenheit der Zukunft – oft abwertend als Unsicherheit bezeichnet – verhindert eine auf empirischen Daten beruhende Risikobeurteilung, denn Daten aus der Zukunft gibt es nicht. Zu dieser grundsätzlichen Begrenzung kommt hinzu, dass KI-Systeme sich durch maschinelles Lernen in unvorhersehbarer Weise verändern können, während konventionelle IT ihre Eigenschaften nicht selbst verändern kann. Jegliche Risikobeurteilung für KI-Systeme muss daher auch mögliche Veränderungen in den Blick nehmen und sogar die Risiken eines nicht-intendierten Lernens betrachten – also: Lernen unerwünschter Effekte. Eventuell sind auch Leitplanken des Lernens in das KI-System einzuprogrammieren, um solch unerwünschte Effekte zu vermeiden.

3

Die Regulierung anhand von Kritikalitätsstufen reicht also nicht aus. Was ist notwendig, um ein KI-System vertrauenswürdig zu machen?

Armin Grunwald: Die Antwort fällt leichter, wenn wir die Frage mit anderen Techniken vergleichen. Wann sehen wir ein Auto als vertrauenswürdig an? Wenn wir nicht darauf vertrauen würden, dass Bremsen, Lenkung und andere Funktionselemente wie gewünscht arbeiten, würden wir kein Auto fahren. Die Vertrauenswürdigkeit der Funktionsweise hat zwei Komponenten: Vertrauen in die Technik selbst, also das sie das tut, was sie tun soll. Und Vertrauen in Menschen und Institutionen, die dafür geradestehen und dies überprüfen. Das reicht von der Herstellerfirma über die Werkstatt bis zum TÜV. Vertrauen entsteht, wenn technische Leistungsparameter, entsprechende Erfahrung und deren menschliche bzw. institutionelle Überwachung zusammenkommen. Analog ist dies bei KI-Systemen: sie müssen zugelassen werden, sie müssen verlässlich und nachweisbar ihren Dienst tun und sie muss regelmäßig von einer Art TÜV überprüft werden. Auch dank des genannten Symbols des TÜV vertrauen wir in die Sicherheit von traditionellen Autos. In ein selbstfahrendes Auto würden heute hingegen nicht alle Menschen steigen. Der Unterschied liegt darin, dass wir mit der KI als Teil des Bordcomputers keine Erfahrungen haben und ihr ein vertrauenswürdiges Siegel fehlt.

 

Als Mitglied der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik hat Armin Grunwald das Whitepaper Kritikalität von KI-Systemen in ihren jeweiligen Anwendungskontexten mitverfasst.

Das Interview ist für eine redaktionelle Verwendung freigegeben (bei Nennung der Quelle © Plattform Lernende Systeme).

Zurück