Wie KI-Systeme und Daten geschützt werden können

Ein Expertenbeitrag von Peter Rost, Director Business Development bei der secunet Security Networks AG und Mitglied der Plattform Lernende Systeme

KI (Künstliche Intelligenz) kann ein zentraler Baustein einer zukunftsfähigen Wirtschaft sein, da sie es Unternehmen ermöglicht, Geschäftsprozesse und Produkte effizienter zu gestalten. Der KI-Einsatz im Unternehmen birgt aber auch Herausforderungen, insbesondere für die Unternehmenssicherheit und den Datenschutz. Es gibt allerdings Wege, wie sich der Missbrauch von KI-Systemen verhindern und die Sicherheit der verwendeten Daten sicherstellen lässt. Hierfür müssen jedoch noch geeignete gesetzliche Rahmenbedingungen geschaffen werden. Expertinnen und Experten der Plattform Lernende Systeme zeigen diese in ihren Arbeitsergebnissen.

Der KI-Einsatz birgt Herausforderungen für Unternehmen

Peter Rost ist Director Business Development bei der secunet Security Networks AG.

KI-Systeme bieten zahlreiche Chancen für Gesellschaft und Wirtschaft. Sie können etwa eingesetzt werden, um die Gesundheitsversorgung personalisierter, den Straßenverkehr sicherer und Bildungsangebote passgenauer zu gestalten. Unternehmen profitieren vor allem im wirtschaftlichen Sinn, denn sie können durch den KI-Einsatz Prozesse verschlanken und ihr Leistungsangebot optimieren. Mitarbeitende können durch die Systeme von monotonen und repetitiven, aber auch körperlich schweren Aufgaben entlastet werden, und auf diese Weise mehr kreative und kommunikative Tätigkeiten übernehmen. Dennoch sind Unternehmen noch skeptisch bei der Implementierung von KI-Systemen und begründen dies mit hohen datenschutzrechtlichen Hürden.  Auch der Missbrauch der Systeme stellt eine Herausforderung dar.

Missbräuchlicher Umgang mit KI-Systemen kann beispielsweise bei Überwachungskameras ein Bedrohungsszenario für Unternehmen darstellen: Bei einer großen Anzahl von Überwachungskameras ist es sinnvoll, KI-Systeme zum Monitoring einzusetzen, da diese das gesamte Videomaterial in Echtzeit analysieren und dem Sicherheitspersonal als relevant erkannte Anomalitäten sofort anzeigen können. Zu Fehlalarmen oder fälschlicherweise ausbleibenden Warnungen kann es kommen, wenn das KI-Modell für eine unerwartete Situation nicht trainiert wurde oder das Trainingsmaterial des KI-Systems von mangelhafter Qualität ist: Copyright-Vermerke, Logos, Uhrzeiteinblendungen oder variierende Bildauflösungen können vom KI-Modell fälschlicherweise als inhaltlich klassifizierend interpretiert werden und zu falschen Entscheidungen führen.

Diese Fehlentscheidungen können Kriminelle auch bewusst herbeiführen, wenn etwa Hacker Zugriff auf die Trainingsdaten des KI-Systems erhalten und diese analysieren oder gar manipulieren. Daher sollten Unternehmen ausführliche Testreihen vor Ort und detaillierte Audits der Trainingsdaten beim KI-Anbieter vornehmen. Weitere Szenarien und Maßnahmen zur Unterstützung der Unternehmenssicherheit sind im Whitepaper „KI-Systeme schützen, Missbrauch verhindern“ der Plattform Lernende Systeme aufgeführt.

Manipulierte KI-Systeme verursachen umfangreichen Schaden

Aus der Perspektive der IT-Abteilung eines Unternehmens sind KI-Systeme zunächst ähnlichen Angriffsszenarien wie herkömmliche Systeme ausgesetzt. In Hinblick auf ihre Verfügbarkeit, Integrität, Authentizität und Vertraulichkeit müssen KI-Anwendungen daher mindestens den aktuellen organisatorischen und technischen IT-Schutzanforderungen entsprechen. Der Schaden, der durch manipulierte KI-Systeme entsteht, kann jedoch ungleich höher sein als bei herkömmlichen Systemen.

KI-Systeme werden in Unternehmen und Behörden oft zur Automatisierung von Kernprozessen verwendet, sodass im Falle einer böswilligen Manipulation, etwa durch externe Hacker oder kriminelle Mitarbeitende, die gesamte Organisation betroffen ist. Ein besonderes Gefahrenpotenzial ergibt sich zudem daraus, dass die Manipulation der KI-Anwendung möglicherweise über einen langen Zeitraum hinweg unbemerkt bleibt und somit immense Schäden verursachen kann.

Durch geeignete Maßnahmen können Risiken des KI-Einsatzes reduziert werden

Unternehmen und Behörden können eine Reihe von Vorkehrungen treffen, um sich vor Missbrauch und Manipulation von KI-Systemen zu schützen. Möglich ist etwa die Signierung oder Verschlüsselung aller Algorithmen und Daten, die beim Training und der Anwendung von KI-Systemen genutzt werden. Auch Zutrittskontrollen zum hauseigenen Rechenzentrum können mehr Sicherheit schaffen.

Zu einigen Maßnahmen sind Organisationen sogar verpflichtet, etwa wenn sie in den Regelungsbereich des IT-Sicherheitsgesetzes 2.0, der europäischen NIS2-Richtlinie oder branchenspezifischer Vorschriften wie etwa der MARisk für den Finanzsektor fallen. Für Führungskräfte gibt es zahlreiche Möglichkeiten, sich über systematische Sicherheitskonzepte für das eigene Unternehmen zu informieren, darunter das IT-Grundschutzkompendium des Bundesamts für Sicherheit in der Informationstechnik, das den aktuellen Stand der Technik der IT-Sicherheit behandelt. Ein Vorbild kann auch das „CISIS12“-Modell darstellen, das für kleine und mittlere Unternehmen konzipiert wurde.

Technische Lösungen können den Datenschutz bei KI-Anwendungen sicherstellen

Nur wenn Daten in ausreichender Menge und Qualität verfügbar sind, können KI-Systeme sinnvoll in Unternehmen und Behörden angewendet werden. Besonders wertvoll – aber auch besonders schützenswert – sind dabei personenbezogene Daten: Informationen über die präferierten Arbeitszeiten, Kompetenzen und Verfügbarkeiten von Beschäftigten ermöglichen es beispielsweise, mittels KI-Anwendungen Schichtpläne zu optimieren und Angestellten flexiblere Arbeitszeitmodelle zu ermöglichen. Im Gesundheitswesen sind personenbezogene Daten die Grundlage, um die Entstehung von Erkrankungen besser vorhersagen zu können.

Personenbezogene Daten unterliegen berechtigterweise einem besonderen rechtlichen Schutz, sodass ihre Sammlung, Speicherung und Nutzung mit strengen Anforderungen verbunden sind. Für Unternehmen stellen diese Anforderungen oftmals eine Hürde dar, so dass sie vor der Verarbeitung der Daten von Beschäftigten und KundInnen zurückschrecken. Durch verschiedene technische Privacy-Ansätze ist es möglich, den Datenschutz bei der Verwendung der sensiblen Daten zu wahren.

Der erste Ansatzpunkt für den Datenschutz liegt bereits in der Entwicklung der KI-Anwendung: Im sogenannten Privacy-Preserving Machine Learning (kurz: PPML) wird der Datenschutz bereits beim Design der Anwendungen sichergestellt, wobei personenbezogene Daten anonymisiert, pseudonymisiert, verrauscht, KI-gestützt verfremdet oder verschlüsselt werden. Darüber hinaus sollten KI-Systeme erklärbar gestaltet werden, das bedeutet, dass sowohl die Funktionsweise als auch die Ergebnisse des Systems transparent und verständlich gemacht werden, was einen selbstbestimmen Umgang mit den eigenen Daten stärkt. Zudem gibt es Ansätze, die sich nicht auf das KI-System, sondern auf den Datenumgang fokussieren: Um datengebenden Personen die Hoheit über ihre Daten zu geben, können etwa Datentreuhänder eingesetzt werden, die datengebenden Personen sogar eine Monetarisierung ihrer Informationen ermöglichen.

Unternehmen brauchen geeignete, konkrete Rahmenbedingungen für den KI-Einsatz

Obwohl die genannten technischen Möglichkeiten, Privacy- und Datenschutzstandards einzuhalten, bereits erprobt sind, fehlt bisher die rechtliche Anerkennung der Instrumente. Im Whitepaper „Datenschatz für KI nutzen, Datenschutz mit KI wahren“ der Plattform Lernende Systeme fordern Expertinnen und Experten daher eine Ausnahmeregelung für diese Verfahren in der Datenschutzgrundverordnung (DSGVO) sowie in der künftigen KI-Verordnung der Europäischen Union, die in einer anwendungsspezifischen Datenschutzgesetzgebung ausformuliert werden soll. Somit kann eine flexiblere Nutzung von personenbezogenen Daten gewährleistet werden. Diese Ausnahme sollte allerdings nur gelten, wenn die Nutzung nicht dem Gemeinwohl zuwiderläuft, und die Nutzung von personenbezogenen Daten alternativlos ist. In Hinblick auf die oben erwähnten Ansätze für erklärbare KI-Systeme sowie für die Anonymisierung von Daten sollten zudem klare Standards und Zertifizierungsmöglichkeiten eingeführt werden.

Vor allem Unternehmen könnten von einer solchen Ausnahmeregelung profitieren, da für sie Rechtssicherheiten für den Einsatz von KI geschaffen und bestehende Interpretationsspielräume geschlossen werden können. Beim Training eines KI-Systems im Unternehmensumfeld sollten dennoch nicht-personenbezogene oder synthetisierte Daten grundsätzlich personenbezogenen Daten vorgezogen werden, sofern sie die gleiche Datenqualität aufweisen. Um einen besseren Zugriff auf diese nicht-personenbezogene Daten zu ermöglichen, sollten der Aufbau von interoperablen Datenräumen in Erwägung gezogen werden.

Für Unternehmen und Behörden birgt angesichts dieser Problemstellungen der KI-Einsatz noch immer Herausforderungen, denen allerdings mit technischen und organisatorischen Maßnahmen und der Schaffung von geeigneten gesetzlichen Rahmenbedingungen beigekommen werden kann. Ohnehin ist der Mehraufwand für Maßnahmen zum Schutz vor Manipulation durch Cyberkriminelle und zur Berücksichtigung des Datenschutzes weitaus geringer als der potenzielle Nutzen von KI-Systemen als produktivitäts- und qualitätssteigerndes Instrument.

Diese Überlegungen sollten jedoch nicht dazu führen, dass Erprobung und Einsatz von KI als produktivitäts- und qualitätssteigerndes Instrument vermieden werden. Ihr potenzieller Nutzen übersteigt bei adäquatem Schutz vor unbefugter Manipulation durch Cyberkriminelle und bei Beachtung von Entscheidungstransparenz, Diskriminierungsfreiheit und Datenschutz die Risiken erheblich. Dies gilt auch im Bereich der Unternehmenssicherheit – gerade dann, wenn ihr Betrieb hochautomatisiert ablaufen soll.

Beitrag erschienen in:

Digitale Welt Magazin
November 2023

Zurück