Ziel des AI Acts der EU ist es, den Einsatz von KI-Systemen sicher und vertrauenswürdig zu machen, ohne Innovationen zu hemmen. Ein ausdifferenziertes Regelwerk soll verpflichtende Vorgaben für die Entwicklung und Anwendung von risikoreichen KI-Systemen machen. So werden technische wie auch ethische Standards vorgeschrieben, um die Grundrechte der EU-Bürgerinnen und -Bürger zu schützen und zugleich den Wirtschaftsstandort Europa global zu stärken.
Diese Regeln gelten als der erste transnationale Versuch, KI mit verbindlichen und gemeinsam ausgehandelten Normen zu gestalten. Was bereits in vielen anderen Bereichen existiert – beispielsweise in der Medizintechnik oder der Regulierung von Impfstoffen, soll nun auch für die KI geschaffen werden: verbindliche Regeln für eine vertrauenswürdige Technik. Damit nimmt die EU eine Vorreiterrolle zugunsten der europäischen Gesellschaft und Wirtschaft ein. Durch die rechtlichen Rahmenbedingungen für KI schafft die EU nicht nur Transparenz für Nutzerinnen und Nutzer und Rechtssicherheit für Unternehmen, sondern sichert auch die technologische Souveränität des Kontinents. Im internationalen Wettbewerb können sich europäische Wertvorstellungen als Qualitätsmerkmal einer vertrauenswürdigen KI durchsetzen – Stichwort: „KI made in Europe“.
Künftig werden EU-weit einheitliche Anforderungen an KI-Systeme gelten. Gerade im Bereich der Hochrisiko-KI-Anwendungen spielen Normen und Standards dabei eine wichtige Rolle. Das Video zeigt, wie das Zusammenspiel von Gesetzgebung und Normung funktioniert (Quelle: Deutsches Institut für Normung).
Im Zentrum des AI Acts steht die Risiko- oder Kritikalitätsbewertung von KI-Systemen. Dem Entwurf der Europäischen Kommission folgend sollen Regeln für KI entsprechend ihrem Gefahrenpotenzial bestimmt werden. Die Kommission sieht vor, KI-Anwendungen in vier Risikostufen zu klassifizieren, vom minimalen Risiko bis hin zum inakzeptablen Risiko. So gehen etwa von Systemen zur intelligenten Wartung von Industriemaschinen keinerlei Gefahren aus. Sie entsprechen der niedrigsten von vier Risikostufen und bedürften laut EU-Vorschlag keiner Regeln. Andere denkbare KI-Anwendungen bergen indessen Risiken. Wenn von KI-Systemen erhebliche Risiken für die Gesundheit und die Grundrechte von Personen, für Rechtsgüter oder die Umwelt ausgehen, wie es im Vorschlag der Europäischen Kommission heißt, ist ihre Entwicklung und Einsatz nur unter bestimmten Bedingungen erlaubt. Für Hochrisiko-KI-Systeme, deren Risiken als unannehmbar eingestuft werden, soll ein pauschales Verbot gelten, etwa für sogenanntes Social Scoring durch staatliche Stellen.