Künstliche Intelligenz: Wie sich ihr missbräuchlicher Einsatz verhindern lässt

Künstliche Intelligenz (KI) unterstützt Menschen bereits heute im Alltag und verbessert Prozesse in Unternehmen und Behörden. Selbstlernende Systeme können aber auch entgegen ihrem eigentlichen Zweck eingesetzt werden und der Gesellschaft und Wirtschaft schaden. Wie sich KI-Systeme schützen lassen, zeigt ein aktuelles Whitepaper der Plattform Lernende Systeme. Die Expertinnen und Experten veranschaulichen anhand realistischer Anwendungsszenarien mögliche Herausforderungen und benennen konkrete Vorkehrungen, um einen Missbrauch zu verhindern. Ihr Fazit: Von der Entwicklung bis zur Entsorgung eines KI-Systems können und müssen mögliche Einfallstore für eine schadhafte Anwendung geschlossen werden. Dazu zählen neben technischen und organisatorischen Vorkehrungen auch ein verantwortungsvoller Umgang mit KI in der Gesellschaft.

Whitepaper zum Download

Autonome Fahrzeuge können Personen sicher durch den Straßenverkehr bewegen – oder, als Waffe umfunktioniert, in eine Menschenmenge gelenkt werden. KI-gesteuerte Flugdrohnen können Pakete zustellen – oder Drogen liefern. Sprachmodelle können den Kundenservice verbessern – oder täuschend echte Phishing-Mails verfassen, um Schadsoftware in ein Unternehmen zu schleusen. Die nutzbringenden Einsatzmöglichkeiten von KI sind ebenso vielfältig wie die missbräuchlichen Anwendungsfälle. Als „Zweckentfremdung mit negativen Folgen“ beschreiben die Autorinnen und Autoren des Whitepapers „KI-Systeme schützen, Missbrauch verhindern“ den sogenannten Missbrauch von KI-Systemen. Dahinter stehe immer menschliche Absicht unterschiedlicher Akteure mit unterschiedlichen Motiven. Die Expertinnen und Experten betonen die besondere Tragweite einer Manipulation von KI-Systemen im Vergleich mit anderen technischen Systemen: So können die Handlungen von Menschen und Maschinen beeinflusst werden, wenn KI-Systeme zur Entscheidungsfindung herangezogen werden.

„Fakt ist, dass KI-Systeme von Kriminellen, staatlichen Organisationen oder wirtschaftlichen Wettbewerbern immer auch für unlautere Zwecke missbraucht werden können – sei es, um Spionage zu betreiben, Falschinformationen zu streuen oder Menschen zu überwachen. Wir müssen deshalb den Blick von Anfang an auf mögliche Schwachstellen richten, vom Design bis zur Wartung“, sagt Jürgen Beyerer, Leiter des Fraunhofer-Instituts für Optronik, Systemtechnik und Bildauswertung IOSB und Leiter der Arbeitsgruppe „Lebensfeindliche Umgebungen“ der Plattform Lernende Systeme. „Wir müssen uns in einen möglichen Täter hineinversetzen und überlegen, welche Angriffsszenarien im konkreten Anwendungsfall denkbar sind. Hierfür sind technische Schutzmechanismen zu integrieren, aber auch organisatorische Vorkehrungen zu treffen.“

Nicht nur das KI-System selbst, sondern auch seine Daten und Lernprozesse müssen geschützt werden. Zum technischen Schutz der KI-Systeme dienen sowohl klassische Vorrichtungen der Cybersecurity als auch KI-gestützte Instrumente wie die Erkennung von Anomalien oder Identitäten.

“Missbrauch bedeutet dabei nicht notwendigerweise, dass das KI-System gehackt wird, sondern dass es, so wie es ist, für einen nicht beabsichtigten, bösartigen Zweck verwendet wird. So könnte ein autonomes Auto für Angriffe missbraucht werden, oder ein KI-System, das aus Sicherheitsgründen Giftstoffe erkennt, dazu verwendet werden, neuartige, noch giftigere Stoffe zu entwickeln“, erklärt Jörn Müller-Quade, Professor für Kryptographie am Karlsruher Institut für Technologie (KIT) und Leiter der Arbeitsgruppe IT-Sicherheit, Privacy, Ethik und Recht der Plattform Lernende Systeme. „Deshalb müssen schon in der Entwicklung von KI-Systemen Vorkehrungen getroffen werden, die eine derartige kriminelle Nutzung bestenfalls erkennen und unterbinden, zumindest aber deutlich erschweren.“

Die Autorinnen und Autoren des Whitepapers unterstreichen, dass Schutzvorkehrungen auch die Umgebung des KI-Systems berücksichtigen sollten sowie die Menschen, die es entwickeln, anwenden oder kontrollieren. Das Fehlverhalten von Menschen könne in jeder Phase des Lebenszyklus eines KI-Systems zu Risiken führen. Klare Prozesse und Regeln, etwa zum Umgang mit KI im Unternehmen, erschweren einen missbräuchlichen Einsatz. Notwendig sei es, das Wissen zu KI in der Gesellschaft zu stärken und die Auseinandersetzung mit Schwachstellen von KI zu fördern, heißt es im Whitepaper.  Zudem empfehlen die Expertinnen und Experten, ausgewählte KI-Systeme regelmäßig von unabhängigen Drittstellen auf Schwachstellen überprüfen zu lassen – auch nach deren Zulassung – sowie die Verantwortlichkeiten und Haftung im Fall eines Missbrauchs auf europäischer Ebene zu klären.

Über das Whitepaper

Das Whitepaper KI-Systeme schützen, Missbrauch verhindern wurde federführend von Expertinnen und Experten der Arbeitsgruppen Lebensfeindliche Umgebungen und IT-Sicherheit, Privacy, Ethik und Recht der Plattform Lernende Systeme verfasst. Mitglieder weiterer Arbeitsgruppen waren beteiligt.

Weitere Informationen

Anschauliche Szenarien auf der Webseite der Plattform Lernende Systeme zeigen auf, durch welche Schutzvorkehrungen sich ein Missbrauch verhindern lässt. Grafiken zu den Szenarien stehen Ihnen zum Download zur Verfügung (im Abschnitt „Anwendungsszenarien“). In einem Kurzinterview erläutert Mitautor Detlef Houdeau, Senior Director Business Development bei Infineon, wie Kriminelle beim Missbrauch eines KI-Systems vorgehen.

Weitere Informationen:

Linda Treugut / Birgit Obermeier
Presse- und Öffentlichkeitsarbeit
Lernende Systeme – Die Plattform für Künstliche Intelligenz
T.: +49 89/52 03 09-54 /-51
M.: +49 172/144 58-47/-39
presse@plattform-lernende-systeme.de

Zurück