Herr Müller-Quade, warum ist es wichtig, Künstliche Intelligenz zu zertifizieren?
Jörn Müller-Quade: Wie KI-Systeme zu ihren Entscheidungen kommen, ist häufig selbst für Experten nicht verständlich. Man spricht hier auch von Black-Box-Systemen. Ein Kunde kann also selbst nicht beurteilen, ob der Einsatz eines KI-Systems in einem bestimmten Kontext unbedenklich ist. Hier kann ein Zertifikat Orientierung geben und am Markt den gewissenhaften Herstellern einen Vorteil bieten.
Was unterscheidet die Zertifizierung von Künstlicher Intelligenz von der Zertifizierung anderer IT-Systeme?
Jörn Müller-Quade: Entscheidungen von KI-Systemen sind häufig nicht einfach nachvollziehbar, insbesondere bei Lernenden Systemen. Eine Zertifizierung wird aber sehr viel schwieriger, wenn man das System nicht verstehen kann. In manchen Fällen wird man wohl gut verstandene Schutzmechanismen mit KI kombinieren müssen. Zusätzlich können KI-Systeme dazulernen, sich also dynamisch verändern, weswegen eine einmalige, statische Zertifizierung nicht ausreicht. Zertifizierung muss ein offener Prozess werden.
Wie gelingt eine Zertifizierung, die die Qualität von KI-Systemen sicherstellt, ohne Innovationen zu hemmen?
Jörn Müller-Quade: Da Zertifizierung aufwendig sein kann und Zeit kostet, sollte man nur solche KI-Systeme zertifizieren, die eine erhöhte Kritikalität haben. Irrt sich etwa ein Algorithmus, der mir Musikstücke vorschlagen soll, ist das sicher kein Drama und eine Zertifizierung nicht notwendig. Eine Zertifizierung ist eher nötig für autonomes Fahren, oder für KI-Systeme in der Medizintechnik.
Das Interview ist für eine redaktionelle Verwendung freigegeben (bei Nennung der Quelle © Plattform Lernende Systeme).