Standpunkte
Ziel gelungener Regeln für Künstliche Intelligenz ist es, die Vertrauenswürdigkeit eines KI-Systems zu garantieren. Wie gestalten wir diese Regeln? Bei der Abschätzung des Risikopotenzials von Künstlicher Intelligenz und ihrer Regulierung gibt es vielfältige Aspekte zu berücksichtigen.
Stimmen aus der Plattform Lernende Systeme
Expertinnen und Experten der interdisziplinär besetzten Plattform Lernende Systeme blicken vor ihrem jeweiligen fachlichen Hintergrund auf die Gestaltung vertrauenswürdiger Künstlicher Intelligenz.
Richtige Balance finden
„Normen und Standards für KI-Systeme schützen Menschen sowie Unternehmen vor möglichen Risiken, die mit dem Einsatz von KI-Anwendungen verbunden sind. Es gilt jedoch, die richtige Balance zwischen einer harten Beschränkung und der Innovationsförderung für den Wirtschaftsstandort Deutschland zu finden. Überregulierung ist unbedingt zu vermeiden Ziel ist eine vertrauensstiftende Gestaltung der Technologie. Im besten Fall gelingt es uns, durch einheitliche Regeln in Europa eine Art Qualitätssiegel ‚AI made in Europe‘ zu schaffen“.
Prof. Dr.-Ing. Jan Wörner, Präsident acatech – Deutsche Akademie der Technikwissenschaften und Co-Vorsitzender der Plattform Lernende Systeme
Weitere Informationen finden sich in folgendem Video.
Verordnungen dürfen nicht hemmen
„Derzeit sind die Anforderungen des Gesetzgebers an KI-gestützte Medizinprodukte unklar. Das hemmt Investitionen in diesen Bereich. Der AI Act der EU schafft Rechtssicherheit. Er stellt verbindliche Leitplanken auf, innerhalb derer Hersteller und Benannte Stellen sichere, rechtskonforme KI-Systeme für die Medizin gestalten können. Wichtig ist allerdings, dass die Verordnung der rasanten technischen Entwicklung der KI-Technologie Rechnung trägt und Innovation nicht hemmt.“
Albin Rad, Global Director Functional Safety, Software and Digitization TÜV SÜD und Mitglied der Plattform Lernende Systeme
Ein ausführliches Interview finden Sie hier.
Risiken nicht-intendierten Lernens
„KI ist häufig in visionäre Erzählungen eingebettet, in denen kein belastbares Wissen über Gefahren und Risiken besteht. Weiterhin verändern sich KI-Systeme durch Maschinelles Lernen. Eine Technikfolgenabschätzung für KI-Systeme muss daher auch mögliche Risiken nicht-intendierten Lernens betrachten und über einprogrammierte Leitplanken des Lernens nachdenken.“
Prof. Dr. Armin Grunwald, Leiter des Instituts für Technikfolgenabschätzung und Systemanalyse (ITAS) am KIT, Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) und Mitglied in der Plattform Lernende Systeme
Ein ausführliches Interview finden Sie hier.
Handlungsräume im Datenschutz schaffen
“Einsatz und Entwicklung von KI brauchen Rechtssicherheit. Statt Verbotsräumen sollte der Gesetzgeber Handlungsräume schaffen und technische Verfahren zur Wahrung des Datenschutzes juristisch zulassen. So lassen sich aktuell bestehende Interpretationsspielräume bei der Verarbeitung personenbezogener Daten schließen und die Chancen der Schlüsseltechnologie KI für unsere Gesellschaft besser nutzen.”
Prof. Dr. Jörn Müller-Quade, Professor für IT-Sicherheit am Karlsruher Institut für Technologie (KIT) und AG-Leiter in der Plattform Lernende Systeme
Weitere Informationen bietet das folgende Whitepaper.
Handlungsspielraum für den Menschen
„Je geringer der menschliche Entscheidungsraum und je höher die Gefährdungslage eines KI-Systems eingeschätzt wird, desto mehr Handlungsoptionen sollten dem Individuum zur Verfügung stehen, um mögliche Gefährdungen für Menschen und Rechtsgüter abzuwenden. Beispiele hierfür sind, den Anbieter zu wechseln oder alternative Konfigurationen zu wählen bis hin zum Opt-out.“
Dr. Dipl.-Ing. Detlef Houdeau, Senior Director Business Development bei Infineon Technologies AG und AG-Leiter in der Plattform Lernende Systeme
Weitere Informationen bietet das folgende Whitepaper.
Selbstverpflichtungen und Bildung
Die KI-Verordnung der EU wird ein entscheidender Beitrag für eine verbesserte Regulierung sein. Sie reicht jedoch nicht aus. Wir brauchen insbesondere im staatsfernen Medienbereich Selbstverpflichtungen mit Kennzeichnungspflichten. Zudem muss Ethik in KI-Forschung und Entwicklung integriert werden. Und selbstverständlich sind wir auch alle selbst aufgerufen, uns mit neuen Techniken wie KI auseinanderzusetzen und sie selbstbestimmt zu nutzen. Dazu brauchen wir Bildung für kritische Medienmündigkeit etwa in der Schule, der Hochschule und der Ausbildung.
Prof. Dr. Jessica Heesen, Leiterin des Forschungsschwerpunkts Medienethik an der Universität Tübingen und AG-Leiterin in der Plattform Lernende Systeme
Weitere Informationen hierzu: Whitepaper, Interview, Gastbeitrag
Betriebliche Folgen von KI abschätzen
„Es sind die Pflichten der Betriebe zu stärken. Es ist dringend erforderlich Nutzungsregeln im Sinne einer betrieblichen Folgenabschätzung für KI in der Arbeitswelt zu implementieren. Hierzu gehören Fragen wie zum Beispiel Auswirkungen auf Beschäftigung (Rationalisierungswirkung), Qualifizierungsbedarfe, Belastungsveränderungen etc.“
Oliver Suchy, Mitglied im Bundesvorstand des Deutschen Gewerkschaftsbundes DGB und Mitglied in der Plattform Lernende Systeme
Weitere Informationen finden sich in folgender Stellungnahme.
Unabhängige Zertifizierung
„Die Kritikalitätsstufen sind ein Indikator für die Risiken, welche mit dem Einsatz eines KI-Systems verbunden sind. Für hohe Kritikalitätsstufen ist es also wichtig, dass potenzielle KI-Risiken hinreichend gut mitigiert sind, was etwa durch eine unabhängige Prüfung und die Verleihung eines Zertifikats erfolgen kann. Gleichzeitig können Zertifikate für Systeme mit geringer Kritikalität bescheinigen, dass zugesicherte Eigenschaften dieser Systeme erfüllt werden. Dies kann für Anbieter dieser Systeme einen Wettbewerbsvorteil darstellen und Transparenz für Nutzende dieser Systeme schaffen.“
Prof. Dr. Stefan Wrobel, Leiter des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme IAIS und Mitglied in der Plattform Lernende Systeme
Weitere Informationen bietet das folgende Whitepaper.
Technologie als Zeitenwende
„Große Sprachmodelle werden fundamentale Kulturtechniken wie Lesen und Schreiben sowie primäre Informationsverarbeitung radikal verändern; schwer überprüfbare Fakeinformationen via Schrift, Videos und Bildern werden Konzepte von Wahrheit und Wirklichkeit weiter unter Druck setzen. Den modernitätsaffinen Systemen von Wissenschaft und Demokratie drohen schwerste Krisen, wenn kein Weg gefunden wird, ihre Entwicklung so zu regeln, dass sie Selbstbestimmung für möglichst viele stärken und Sozialkohäsion nicht zerstören. Entscheidend ist, dass alle Stufen und Organisationen von Bildungs- und nicht nur Kompetenzvermittlung realisieren, dass Sprachmodelle einen Epochenbruch darstellen und wir umgehend lernen, diesen kritisch und konstruktiv zu gestalten.“
Prof. Dr. Peter Dabrock, Professor für Systematische Theologie (Ethik) der Friedrich-Alexander-Universität Erlangen-Nürnberg und Mitglied der Plattform Lernende Systeme
Technologischen Fortschritt beachten
„Bestehende Zertifizierungssysteme sind oft zu träge. In der Folge werden IT-Systeme teilweise nicht weiterentwickelt, weil die damit verbundene erneute Zertifizierung zu aufwendig ist. Ein gutes Zertifikat für KI muss diese Dynamik berücksichtigen und seine Gültigkeit unabhängig vom technologischen Fortschritt bewahren.“
Prof. Dr. Jörn Müller-Quade, Professor für IT-Sicherheit am Karlsruher Institut für Technologie (KIT) und AG-Leiter in der Plattform Lernende Systeme
Weitere Informationen bietet das folgende Whitepaper.
Publikationen zum Thema