Regeln für Künstliche Intelligenz
KI-Anwendungen bieten viele Chancen für die Gesellschaft und Wirtschaft, können jedoch auch mit Risiken verbunden sein. Welche Regeln braucht KI, damit Entwicklung und Einsatz der Technologie vertrauenswürdig werden?
Empfohlener redaktioneller Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Künstliche Intelligenz (KI) ist eine Schlüsseltechnologie für die Zukunftsfähigkeit unserer Wirtschaft und Gesellschaft. In der Medizin zum Beispiel werden mithilfe von KI Diagnosen präziser, Mobilität kann sicherer und unternehmerisches Handeln nachhaltiger gestaltet werden. Doch zugleich bergen KI-Systeme auch Risiken. Wenn KI-Systeme im autonomen Fahrzeug oder in der Arztpraxis fehlerhaft sind, können Menschen zu Schaden kommen. KI-Lösungen im Dienst von Personalabteilungen könnten bei der Vorsortierung von Bewerbungen weibliche Kandidatinnen benachteiligen, weil der Algorithmus mit Daten überwiegend männlicher Bewerber trainiert wurde.
Wie können wir sichere und vertrauenswürdige KI-Systeme gestalten? Welche Regeln für Entwicklung und Einsatz von KI brauchen wir, um die Risiken zu minimieren? Und was ist das richtige Maß an Regulierung, um wettbewerbsfähige KI-Innovationen aus Europa zu unterstützen?
Vertrauenswürdige KI
Wann sind KI-Anwendungen vertrauenswürdig? Regeln für den Einsatz der Technologie müssen europäische Werte und vielfältige Anwendungen berücksichtigen.
Formen der Regelsetzung
Regeln für den Einsatz von KI können als freiwillige Selbstverpflichtungen und staatliche Normen formuliert werden.
Standpunkte
Die Expertinnen und Experten der Plattform Lernende Systeme bewerten aus unterschiedlichen Perspektiven, wie Regeln für KI gestaltet werden können.
Die Normungsroadmap des DIN
Das Deutsche Institut für Normung (DIN) hat Handlungsempfehlungen für gemeinsame Standards erarbeitet, wie KI vertrauenswürdig entwickelt und eingesetzt werden kann.
Aktuelles aus der Presse
- In einem Interview mit dem Deutschlandfunk bewertet Aljoscha Burchardt den AI Act der EU.
- Ein Podcast von SWR 2 beleuchtet die Perspektive von Kulturschaffenden auf die KI-Regulierung.
- Das Handelsblatt fasst die wichtigsten Punkte der neuen europäischen KI-Verordnung zusammen.
- Dass die Warnungen vor Desinformation durch generative KI möglicherweise überzogen sind, wird in einem Kommentar der Havard Kennedy School argumentiert.
- Die Bletchley Declaration stellt ein wichtigen Schritt zur internationalen Zusammenarbeit zur Regulierung von KI-Systemen dar, erläutert ein Artikel der Süddeutschen Zeitung.
- Spektrum.de zeigt auf, warum es schwierig ist, einen gesetzlichen Rahmen für KI-Systeme festzulegen.
- Die Schweiz, die nicht vom EU AI Act betroffen ist, berät eigenständig über KI-Regulierungen, zeigt ein Bericht von swissinfo.ch.
- In einem Kommentar erläutert Patrick Bernau in der FAZ, warum die KI-Forschung Freiräume braucht.
- Reuters gibt einen Überblick über die aktuellen nationalen und internationalen Regulierungsvorhaben zu KI“.
- Ein Beitrag im Deutschlandfunk klärt über den AI Act und die Gefahren einer unkontrollierten KI auf.
- Der Spiegel berichtet über den Beschluss des AI Acts im Europaparlament.
- Der Wissenschaftler Philipp Hacker analysiert in einem Gastbeitrag für die Zeit Inhalt und Wirksamkeit des europäischen AI Acts.
- Der Spiegel zitiert aus einem Schreiben, in dem führende Experten die EU vor der Überregulierung von KI warnen.
- In einem Beitrag für das ZDF äußert sich Jessica Heesen (AG 3) zu den Maßnahmen des AI Acts und deren Notwendigkeit.
- Die Webseite Gründer.de erläutert die wichtigsten Regelungen des neuen AI Acts.
- Jessica Heesen (AG 3) kritisiert in einem Gastkommentar für die TAZ die Panik vor einer vorgeblichen Superintelligenz.
- Die ARD zeigt in ihrer Sendung plusminus, wie KI bereits heute für unterschiedliche Zwecke missbraucht wird.
- Das Handelsblatt berichtet über einen offenen Brief führender europäischer Wirtschaftsakteure, in dem diese Änderungen am AI Act fordern.
- Der Digitalexperte Holger Schmidt resümiert auf seiner Webseite, dass viele große KI-Modelle die Anforderungen des AI Acts noch nicht erfüllen.