Auf europäischer Ebene hat die EU erstmalig eine verbindliche Regelung für Künstliche Intelligenz (KI), den AI Act, entwickelt. In Deutschland hat das Deutsche Institut für Normung (DIN) an der wegweisenden KI-Normungsroadmap gearbeitet. Darüber hinaus existiert eine Vielzahl an Leitfäden und Prüfkatalogen, mit denen zu einer gelingenden KI-Regelsetzung beitragen wird.
Bestehende Leitfäden und Prüfkataloge aus Deutschland
Unterschiedliche Akteure aus dem Bereich der Standardisierung und KI-Forschung in Deutschland haben erste Angebote entwickelt, die die Regelung von KI-Systemen vorantreiben. Hier ein Überblick zu verschiedenen Ansätzen und Leitlinien:
AI Ethics Impact Group
Rahmenwerk zur Übertragung ethischer Prinzipien für KI-Systeme in die Praxis
Bundesamt für Sicherheit in der Informationstechnik (BSI)
Kriterien-Katalog für KI in Cloud-Diensten AIC4: Formulierung von Mindestanforderungen zur sicheren Verwendung von Methoden des Maschinellen Lernens in Cloud-Diensten (Spezifikation des Cloud Service Compliance Criteria Catalogue C5) (Link)
DEKRA
Angebote zur Prüfung und Zertifizierung der Sicherheit von KI-Systemen
Deutsches Institut für Normung e.V (DIN)
Neben der KI-Normungsroadmap, die einen übergreifenden und richtungsweisenden Charakter hat, entwickelt das DIN konkrete und praxisnahe Regelungsansätze für KI in konkreten Kontexten:
Leuchtturmprojekt safe.trAIn: sichere KI im fahrerlosen Regionalzug
Beratungsangebot von Expertinnen und Experten zur Prüfung, Absicherung und Zertifizierung von KI-Systemen: Ziel einer transparenten, verlässlichen, sicheren und datenschutzkonformen KI-Anwendung
Institut der Wirtschaftsprüfer in Deutschland e.V. (IDW)
Entwurf eines Prüfungsstandards zur standardisierten Prüfung von KI-Systemen
TÜV NORD
Angebote zur Prüfung und Zertifizierung der Sicherheit von KI-Systemen
TÜV SÜD
Angebot an Reifegradanalysen, Guided Assessments und Trainings u.a. zur Qualität, Sicherheit und Ethik von KI-Systemen
Internationale Abkommen und Normen
Großbritannien und USA
Die Sicherheitsbehörden aus UK und USA haben mit Unterstützung 16 weiterer Länder einen Leitfaden zur Entwicklung sicherer KI-Systeme entwickelt.
G7
Die G7-Staaten haben im sogenannten Hiroshima-Prozess Leitlinien für vertrauenswürdige KI-Systeme entwickelt.
OECD
Die OECD erließ bereits 2019 Empfehlungen für Künstliche Intelligenz.
Publikationen zum Thema
AI Act der Europäischen Union: Regeln für vertrauenswürdige KI
Publikation aus der Reihe: KI Kompakt
Plattform Lernende Systeme Erschienen: Mai 2024
KI-Systeme schützen, Missbrauch verhindern
AGs IT-Sicherheit, Privacy, Recht und Ethik und Lebensfeindliche Umgebungen AutorInnen: Beyerer, J., Müller-Quade, J. et al. Erschienen: März 2022
Kritikalität von KI-Systemen in ihren jeweiligen Anwendungskontexten
AGs IT-Sicherheit, Privacy, Recht und Ethik und Technologische Wegbereiter und Data Science AutorInnen: Jessica Heesen, Jörn Müller-Quade, Stefan Wrobel et al. Erschienen: November 2021
Zertifizierung von KI-Systemen
AGs IT-Sicherheit, Privacy, Recht und Ethik und Technologische Wegbereiter und Data Science AutorInnen: Jessica Heesen, Jörn Müller-Quade, Stefan Wrobel et al. Erschienen: November 2020
Ethik-Briefing
Leitfaden für eine verantwortungsvolle Entwicklung und Anwendung von KI-Systemen
AG IT-Sicherheit, Privacy, Recht und Ethik AutorInnen: Jessica Heesen et al. Erschienen: Oktober 2020