CEBIT: Gute KI für Beruf und Alltag

Lernende Systeme und Künstliche Intelligenz (KI) prägen unsere Zukunft – in Alltag und Arbeitsleben. KI ist die nächste Stufe der Digitalisierung und erfasst unsere gesamte Lebenswelt. Wie menschengerechte Arbeit mit Lernenden Systemen aussehen kann und welche ethischen sowie rechtlichen Herausforderungen sich beim Einsatz von Lernenden Systemen stellen, diskutierten Expertinnen und Experten der Plattform Lernende Systeme am 12. Juni auf der CEBIT in Hannover.

Bundesministerin Anja Karliczek und EU-Digitalkommissarin Mariya Gabriel informieren sich bei ihrem Messerundgang über die Arbeit der Plattform Lernende Systeme. ©Hans-Joachim Rickel/BMBF

Bundesforschungsministerin Anja Karliczek besuchte mit EU-Kommissarin Marija Gabriel den Stand der Plattform Lernende Systeme in Halle 27. Reimund Neugebauer, Präsident der Fraunhofer Gesellschaft und Frank Riemensperger, Vorsitzender von Accenture, stellten als Lenkungskreismitglieder der Plattform die Arbeit und Ziele des Netzwerks vor.

Begrüßung und Keynote: Frank Riemensperger (Accenture)

Lernende Systeme verbessern die Lebensqualität der Menschen, sie bieten enormes wirtschaftliches Potenzial und können so den Wohlstand in Deutschland sichern. Um dieses Potenzial zu heben, muss Deutschland im Bereich KI wettbewerbsfähig bleiben. „Wir müssen den deutschen Weg finden, wir müssen das machen, was wir gut können“, sagte Frank Riemensperger, Vorsitzender von Accenture und Lenkungskreismitglied der Plattform. Das bedeute, die deutschen erfolgreichen Produkte mit KI ausstatten, aus den so gewonnenen Daten intelligente Dienste entwickeln und Leistungsversprechen geben, die den Nutzen der Lernenden Systeme für den Menschen in den Mittelpunkt rücken. Stefan Wrobel, Leiter des Fraunhofer IAIS, nannte vier Schritte auf dem Weg zu erfolgreichen, deutschen KI-Produkten: vereinfachter Transfer von der Wissenschaft in die Anwendung, Kooperationsprogramme zwischen Start-Ups und Forschung, eine Weiterbildungsinitiative und nationale Forschungsförderprogramme für Machine Learning und KI.

Hand in Hand mit Kollege Roboter: Wie gestalten wir die Zusammenarbeit mit Lernenden Systemen?

KI-Anwendungen können Menschen von anstrengender, eintöniger oder gefährlicher Arbeit entlasten, zum Beispiel bei Katastropheneinsatz oder Rückbau von Kernkraftanlagen. „Wir wünschen uns lernende Systeme, die es den Menschen ermöglichen, während des Einsatzes in sicherer Entfernung zur Gefahrenstelle zu bleiben", sagte Michael Gustmann vom Kerntechnischen Hilfsdienst in der Podiumsdiskussion „Hand in Hand mit Kollege Roboter“, die Wilhelm Bauer, Leiter des Fraunhofer IAO moderierte. Eine Schlüsselrolle spielt die Qualifizierung der Menschen für die Zusammenarbeit mit Lernenden Systemen. Weiterbildung werde nicht nur für ungelernte, sondern auch für Fachkräfte notwendig sein, betonte Michael Heister vom Bundesinstitut für Berufsbildung. Wünschenswert sei allerdings, dass Roboter und Lernende Systeme so selbsterklärend gestaltet würden, dass eine umfangreiche Qualifizierung nicht notwendig sei, bemerkte Elisabeth André, Informatik-Professorin an der Universität Augsburg.

Faire und sichere Algorithmen heiß debattiert

Panel „Faire und sichere Algorithmen“, v.l.n.r.: Sirko Straube (DFKI), Susanne Beck (Universität Hannover), Jörn Müller-Quade (KIT), Angelika Christoph (HUK Coburg), Claudia Wiesemann (Universität Göttingen / Deutscher Ethikrat)

Über ethische und rechtliche Anforderungen an die Entwicklung und den Einsatz von Künstlicher Intelligenz diskutierte Jörn Müller-Quade (KIT) mit Sirko Straube (DFKI), Susanne Beck (Universität Hannover), Angelika Christoph (HUK Coburg) und Claudia Wiesemann (Universität Göttingen/ Deutscher Ethikrat). Selbst lernende Algorithmen können die Menschen bei Entscheidungen unterstützen, sei es bei Kredit- oder Versicherungsabschlüssen oder im Straßenverkehr beim autonomen Fahren. Die genauen Rechenvorgänge sind dabei im Nachhinein nicht immer transparent. „Lernende Systeme müssen sich zukünftig selbst erklären können. Wir möchten Lernende Systeme in Situationen einsetzen, in denen sie eigenständig Entscheidungen treffen. Die komplexen Vorgänge einer solchen Handlung müssen nachvollziehbar werden“, so Sirko Straube vom DFKI.

Erklärbar müssen Algorithmen auch deshalb sein, um kontrollieren zu können, dass Lernende Systeme faire Entscheidungen treffen. Algorithmen spiegelten Vorurteile und Diskriminierung in der Gesellschaft und spitzten diese zu, da sie die gelernten Kriterien nüchtern und radikal anwenden, erläuterte Susanne Beck. Claudia Wiesemann forderte daher, dass sich die Gesellschaft bei der Interpretation von beispielsweise Patientendaten im Gesundheitswesen nicht auf Lernende Systeme allein verlassen dürfe. Ob es diskriminierend ist, in Daten Unterschiede wie das Geschlecht zu berücksichtigen, könne im Zweifelsfall nur der Mensch entscheiden.

Autonomes Fahren in der Diskussion

Tobias Hesse vom Deutschen Zentrum für Luft- und Raumfahrt diskutierte mit weiteren Experten über das autonome Fahren. Der Standort Deutschland könne in den einzelnen Technologiebereichen, die für das autonome Fahren notwendig seien, Komponenten mit sehr hoher Reife vorweisen – Sensorik, Algorithmen, Deep learning-Technologien, so Hesse. Jetzt gehe es darum, diese so zusammenzubringen, dass sie sichere und verlässliche Lernende Systeme bilden.

Weitere Informationen:

Linda Treugut / Birgit Obermeier
Presse- und Öffentlichkeitsarbeit
Lernende Systeme – Die Plattform für Künstliche Intelligenz
T.: +49 89/52 03 09-54 /-51
M.: +49 172/144 58-47/-39
presse@plattform-lernende-systeme.de

Zurück