„Wir dürfen Künstliche Intelligenz nicht verurteilen“

Prof. Dr. Wolfgang Wahlster ist Professor für Informatik an der Universität des Saarlands und leitet mit dem Deutschen Forschungszentrum für
Künstliche Intelligenz (DFKI) in Saarbrücken, Kaiserslautern, Bremen und Berlin die weltweit größte Forschungseinrichtung auf diesem Gebiet. Er ist Mitglied der Nobelpreis-Akademie in Stockholm und im Lenkungskreis der Plattform Lernende Systeme.

Haben Sie heute bereits Künstliche Intelligenz verwendet, Herr Wahlster?

Ja, am Morgen habe ich mir meine persönliche Presseschau angesehen. Die wird mit KI auf Grundlage meiner Lesepräferenzen erstellt. Bevor ich mit dem Auto losgefahren bin, habe ich wie immer bei Google Maps nachgesehen, wie die Verkehrslage ist. Dahinter steckt ein komplexer KI-Algorithmus, der mittels vieler Faktoren wie Verkehrsdichte, Staus und Umleitungen abschätzt, wann ich an meinem Ziel ankommen werde.

Was genau ist daran intelligent?

Solche KI-Algorithmen interpretieren digitale Massendaten inhaltlich auf Grundlage großer Wissensbasen. Sie ziehen eigene Schlussfolgerungen und lernen neue Zusammenhänge. Sie liefern punktgenau ein Ergebnis, zugeschnitten auf die individuelle Situation eines Benutzers. In meinem Fall ist das mein individueller Arbeitsweg zu einer ganz bestimmten Uhrzeit unter Berücksichtigung vieler anderer Verkehrsteilnehmer.

Mit Google Maps kann man nicht nur Staus umfahren. Per KI werden wir auch zu individuellen Restaurant- Empfehlungen geleitet. Stirbt so der Zufall aus?

Ein guter Punkt. Das gilt auch für das Suchen von Literatur. Dazu nutzt man oft Dienste wie Google oder Amazon. Früher stand man in der Bibliothek, im Buchladen, stöberte, schmökerte, wurde auf Bücher aufmerksam, die der Buchhändler als dazu passend daneben drapiert hatte. Bei der personalisierten Zeitung ist das ähnlich. Der Vorteil ist, man bekommt, was einen interessiert. Aber man stolpert nicht mehr über das, was einen zufällig auch interessiert hätte.

Ist das nicht traurig?

Ich würde das nicht verteufeln. Ich sehe beim bewussten Umgang mit personalisierten KI-Diensten viele Vorteile. Industrie 4.0 kann auf diese Weise physische Objekte und digitale Dienstleistungen individuell an jeden Kunden anpassen. Das wird heute teilweise schon mit KI-Technologie realisiert: das Müslimix, das ich mir wünsche, das selbst gemischte Parfüm im individuellen Flakon, das zu meiner Frau passt, oder der Sportschuh, den ich selbst entworfen habe.

Sie forschen bereits seit den siebziger Jahren an Künstlicher Intelligenz. Wie sind die großen Fortschritte in letzter Zeit zu erklären?

Damit Computer selbst lernen können, brauchen sie extrem große Datenmengen als Trainingsdaten. Die Internet-Technologie, die Cloud-Technologie und die sozialen Medien, bei denen Milliarden Menschen jeden Tag Datenspuren hinterlassen, haben diese Grundvoraussetzung geschaffen. Durch das Internet der Dinge wurde das für Lernalgorithmen entscheidende Datenvolumen nochmals drastisch erweitert. In jedem Airbus werden heutzutage allein durch Echtzeit-Monitoring der Turbinen während eines einzigen Fluges von Texas nach London circa 30 Millionen Datenpunkte gesammelt.

Was hat sich bei den Maschinen getan?

Früher konnte man mit digitalen Massendaten meist nicht viel anfangen. Big Data bedeutete oftmals Datenfriedhöfe. Der Durchbruch, den wir erleben, besteht darin, dass neue KI-Verfahren es ermöglichen, diese Massendaten inhaltlich zu verstehen. Man kennt das etwa von Massen an unsortierten Bildern auf dem Smartphone. KI-Systeme können jetzt alle Bilder finden, auf denen etwa die Tochter zu sehen ist oder alle Urlaubsbilder mit Sonnenuntergang. Wir können mit KI aus unstrukturierten Big Data strukturierte Smart Data mit sinnvoll aufbereiteten Informationen machen.

Und trotzdem sind wir noch ganz am Anfang dieser Entwicklung?

Wir sind mittendrin. Der dritte wichtige Grund für den Durchbruch von KI sind neue, viel schnellere Computerarchitekturen, die durch eine Vielzahl von Hochleistungsgrafikkarten massiv parallel rechnen. So können jetzt KISysteme nahezu in Echtzeit lernen, während sie Datenströme von Sensornetzen geliefert bekommen. Wichtig wird das sehr bald etwa beim autonomen Fahren. Hier muss ein Auto in Echtzeit Entscheidungen treffen, Probleme analysieren und lösen.

Gerade das autonome Fahren wird seit Jahren auch unter ethischen Aspekten diskutiert. Viele Menschen fürchten sich davor, Kontrolle an Maschinen abzugeben.

Ja, die Angst vor Kontrollverlust ist durchaus verständlich. Ich würde das nie abwerten. Gerade die deutschen Nutzer sind kritisch. Wirtschaftlich gesehen ist das sogar ein Vorteil, auch wenn es erst nachteilig erscheinen mag.

Wie das? Oft heißt es, wegen unserer Bedenkeritis machten Amerikaner und Chinesen nun bei KI das Rennen.

Wir sollten in Europa selbstbewusster auftreten. Für Amerikaner und Chinesen sind wir ein sehr wichtiger Markt. Würden sie ihre Produkte und Dienstleistungen nicht mehr verkaufen können, wäre das eine Katastrophe für deren Firmen. Darum müssen sie uns etwa bei Privatsphärenschutz und ITSicherheit etwas bieten, das unseren europäischen Werten genügt. Zugleich ist unsere Forschung in diesen Bereichen extrem gut.

Sie kennen den Vorwurf, Europa habe die Digitalisierung verschlafen und wirft anderen stattdessen Knüppel wie die Datenschutzgrundverordnung zwischen die Beine.

Das ist Unsinn. Würden Sie heute noch ein Auto ohne Airbag kaufen? Wir müssen uns mit unseren Sicherheitsbedürfnissen und ethischen Leitlinien auch bei der jetzt laufenden zweiten Welle der Digitalisierung durchsetzen. Das ist technisch alles durchaus machbar. Google etwa hat in Deutschland viel getan. Sein Webbrowser Chrome gilt heute als recht sicher und wurde vom Münchner Entwicklungszentrum betreut. Warum? Weil Google sagt, deutsche Nutzer sind sehr kritisch, also machen wir den Härtetest hier. Auch in Japan oder den USA werden Nutzer kritischer, wie etwa der Facebook-Skandal zeigte. Dass wir eine Bevölkerung haben, die nachfragt, spricht für einen hohen Bildungsstand. Wir müssen aus dieser angeblichen Not eine Tugend machen.

Warum werden uns Maschinen eines Tages nicht übernehmen? Das ist eine viel beschriebene Angst vor Künstlicher Intelligenz.

Ich halte diesen Transhumanismus für Märchen aus der Frankenstein-Welt. Zwar sind autonome Roboter in der Lage, eine gewisse Selbstreflexion etwa bezüglich ihrer Energiereserven zu leisten. Ein Roboter kann so dank KI auf seinem Weg von A nach B kalkulieren, wie er sich etwa bei starkem Gegenwind verhalten muss, damit seine Energie bis B reicht. Dann bleibt er vielleicht stehen und wartet, bis der Wind nachlässt, statt stur weiterzufahren.

Sind Maschinen gar nicht intelligenter als wir?

Zu menschlicher Intelligenz gehören viel mehr Dimensionen als die rein kognitive Intelligenz: die emotionale, soziale und sensomotorische Dimension von intelligentem Verhalten in Alltagssituationen. Meine Hochachtung vor den alltäglichen Intelligenzleistungen jedes Menschen ist über die Jahrzehnte durch meine Forschung stetig größer geworden. Am DFKI war immer unser Credo: Wir machen KI nicht, um den Menschen zu ersetzen, sondern um ihn zu unterstützen.

Aber haben wir nicht zu Recht die Angst, dass diese Technik den "Falschen" in die Hände fällt? China experimentiert mit datengetriebenem Social Scoring und teilt seine Bürger so ein in gute und schlechte. Eine antiliberale Dystopie.

Ich gebe Ihnen vollkommen recht. Das ist aber die Gefahr einer jeden Technologie. Jede technische Errungenschaft wurde in der Menschheitsgeschichte von Diktatoren oder kriminellen Vereinigungen für deren Zwecke genutzt. Kritische Diskussionen um KI sind deshalb vollkommen berechtigt. Für uns in der Forschung ist das aber kein Argument, es darum einfach sein zu lassen. Die positiven Effekte, die uns KI bringt, sind gewaltig und wiegen die Risiken bei Weitem auf. Es ist Aufgabe von Regierungen und Parlamenten, die rechtlichen Rahmenbedingungen zu schaffen, und viele Staaten in der EU sind da auch dran. Die Bundesregierung hat gerade eine Datenethikkommission eingesetzt und mich zum Mitglied berufen. Ein intransparentes, KI-getriebenes Social Scoring etwa, das nur Ergebnisse auswirft ohne klare Begründungen, ist in einer Demokratie schlicht nicht denkbar und inakzeptabel. Das heißt aber nicht, dass man mit KI nicht faire und transparente Bonussysteme für Leistungen etwa im beruflichen Umfeld etablieren könnte.

Wie können wir künftig nachvollziehen, was intelligente Maschinen machen?

Nicht in allen Bereichen müssen wir das im Detail jederzeit nachvollziehen. Ich hinterfrage nicht, warum und auf welcher Grundlage Google Maps mir Staus anzeigt. In anderen Situationen will ich das aber wissen. Wenn mir ein Chatbot sagt, ich solle unbedingt in Tesla-Aktien investieren, würde ich eher nachfragen: Wie kommt er zu diesem Tipp?

Und die Antwort sollten wir verstehen.

Genau. Solche Erklärungswünsche treten bei komplexeren Systemen vermehrt auf. Darum müssen wir insbesondere an der Dialogfähigkeit unserer KI-Systeme arbeiten. Es gibt heute in der Medizin viele Systeme, die bei der Diagnostik und Therapieauswahl helfen. Das heißt, ein Arzt bekommt von KI-Systemen einen Vorschlag, welche Art einer Chemotherapie er bei einem bestimmten Krebs anwenden soll. Der Arzt sollte dann wissen, wie die Begründung des Systems für seine Empfehlung lautet. Er wird das nicht einfach so übernehmen wollen, auch weil er letztlich haftet. Das Gleiche gilt auch für KI-Systeme im Bereich Steuer- oder Immobilienrecht, an denen wir derzeit arbeiten.

Wir sind stark geprägt vom Glauben an Messbarkeit. Wir erheben Daten, glauben an Statistiken und leiten daraus viele Handlungen ab. Woher nehmen Sie den Optimismus, dass wir KI-Systemen nicht blind vertrauen werden, sondern skeptisch bleiben?

Auch Menschen mit durchschnittlicher Bildung stellen Warum-Fragen. Wir wollen wissen, warum etwas geschieht oder empfohlen wird. Die Leute lesen ja auch den Cicero, um sich eine weitere Meinung einzuholen. Da sind wir wieder bei uns Deutschen, von denen es oft heißt, wir seien etwas zu kritisch bei technischen Entwicklungen und sähen zu wenig die Chancen. Ich selbst bin von den riesigen Chancen der KI absolut überzeugt, würde aber selbst meine eigenen KI-Systeme niemals einfach als delphisches Orakel akzeptieren, sondern immer verantwortungsvoll damit umgehen.

Wie stellen wir das sicher?

Schon seit den achtziger Jahren plädiere ich für mehr Transparenz. Internetnutzer haben es oft mit undurchsichtigen Blackbox-Profilen zu tun. Wir brauchen aber Glasbox-Modelle.

Wie soll diese Transparenz entstehen?

Wir wollen es jedem ermöglichen, etwa sein vom System gelerntes Interessenprofil detailliert einsehen und auch ändern zu können. Wir müssen dahin kommen, dass jeder, jederzeit, bei jedem Produkt, jeder Dienstleistung und jeder anderen Anwendung in seine eigene Glasbox sehen und verständlich nachvollziehen kann, wie das System zu dieser Profileinstellung kam. Ich möchte etwa wissen, unter welchem Benutzerstereotyp ich als Wolfgang Wahlster klassifiziert wurde: Als Akademiker? Als KI-Experte? Mit welchen Interessen im Sport? Denn die KISysteme, so viel ist sicher, ziehen auch Fehlschlüsse und schätzen - wie wir selbst auch - unsere Mitmenschen manchmal falsch ein.

Dazu müsste man stark regulierend in Geschäftsmodelle eingreifen.

Wie KI-Algorithmen aus Trainingsdaten lernen, ist heute bekannt. Aber wie genau lernende Systeme etwa Benutzerprofile ermitteln, wenn es um kommerzielle Empfehlungen geht, bleibt meist ein Geschäftsgeheimnis. Verständlich, denn eine Firma, die eine wasserabweisende Oberflächenbeschichtung erfunden hat, gibt die chemische Formel auch nicht heraus. Aber für jene KI-Anwendungen, bei denen ich mit meinen Nutzerdaten selbst Teil der Formel bin, brauchen wir zumindest das Recht, falsche Behauptungen über uns richtigzustellen. Viele Unternehmen denken darüber längst nach. Es ist noch ein weiter Weg zu Glasbox-Modellen. Aber wir steuern geradewegs darauf zu.

Interview erschienen in:

CICERO
Nr. 9/2018

Zurück