![](files/img/Themenseiten/Regulierung/Grafik Risiken_KI_Website.png)
Unannehmbares Risiko: Verbot
Für Hochrisiko-KI-Systeme, deren Risiken als unannehmbar eingestuft werden, gilt ein pauschales Verbot. Darunter fällt die behördliche Bewertung des sozialen Verhaltens anhand öffentlich verfügbarer Daten aus dem Internet (Social Scoring), biometrische Kategorisierung, die auf sensible Daten wie die sexuelle Orientierung oder religiöse Überzeugungen schließen lässt, KI-Systeme, die menschliches Verhalten manipulieren und solche, die die Schwachstellen von Schutzbedürftigen ausnutzen, Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen, massenhaftes, ungezieltes Auslesen von Gesichtsbildern aus dem Internet (Scraping) und teils präventive Polizeiarbeit, bei der mithilfe von KI die Wahrscheinlichkeit einer Straftat berechnet wird (Predictive Policing).
Hochrisiko-Anwendungen: Regeln und Registrierung
Wenn von KI-Systemen erhebliche Risiken für die Gesundheit und die Grundrechte von Personen, für Rechtsgüter oder die Umwelt ausgehen, müssen sie bestimmte Anforderungen erfüllen, um Zugang zum EU-Markt zu erhalten. Darunter fallen zum Beispiel KI-Systeme, die auf das Wahlverhalten Einfluss nehmen, die nachträgliche Auswertung von im öffentlichen Raum erfassten biometrischen Daten und viele KI-Systeme in der Medizin oder für die Justiz.
Laut KI-Verordnung müssen Hersteller und Anwender von potenziellen Hochrisiko-Systemen deren Folgen auf Umwelt und Grundrechte abschätzen, bevor das System zum Einsatz kommen kann. Hochrisiko-Systeme müssen dann einer Konformitätsbewertung unterzogen werde, bei der geprüft wird, ob die Systeme den EU-Anforderungen entsprechen. Alle Hersteller von Hochrisiko-Systemen und öffentliche Behörden, die die Systeme nutzen, müssen sich in einer EU-Datenbank registrieren.
Geringes Risiko: Geringe Transparenzpflichten
Ziel ist es, dass die Nutzer einen Überblick über die Funktionsweise des Systems erhalten. Die Entscheidung über die weitere Nutzung der Anwendung obliegt damit den Bürgerinnen und Bürgern. Ein Beispiel hierfür sind automatisierte Film- oder Musikempfehlungen.
Minimales Risiko: Keine Vorschriften
Systeme, die nur ein minimales oder kein Risiko für die Grundrechte darstellen, unterliegen keinen Vorschriften. Diese Kategorie umfasst die meisten KI-Systeme, wie KI-gestützte Videospiele. Anbieter solcher Systeme können sich freiwillig Verhaltenskodizes unterwerfen. So können auch Produkte mit minimalem Risiko einige oder alle Anforderungen des AI Acts erfüllen.