KI revolutioniert Wirtschaft und Alltag – und erfordert neues Recht

Ein Expertenbeitrag von Prof. Dr. Klaus Heine, Erasmus University Rotterdam

KI und Big Data sind Treiber der technologischen Entwicklung und der Entstehung neuer globaler Geschäftsmodelle. Die Rechtsordnung ist dabei weder Zuschauer noch Hindernis, sondern die Ressource, die die technologische Entwicklung gesellschaftlich einbettet. Gefordert sind neue Perspektiven auf Eigentum, Haftung und Rechtspersönlichkeit.

Klaus Heine ist Professor für Law and Economics und Jean Monnet Chair of Economic Analysis of European Law an der Erasmus University Rotterdam (Niederlande) und Mitglied der AG 3 – IT-Sicherheit, Privacy, Recht und Ethik.

Digitale Disruption hat mannigfaltige gesellschaftliche Wirkungen: Sie bringt neue Geschäftsmodelle hervor, prägt die Zukunft der Arbeit, die Ausbildung sowie das soziale Miteinander. Gemeinsam ist allen diesen Veränderungen, dass sie nicht in einem Vakuum stattfinden, sondern im Rahmen von gesetztem Recht und sozialen Normen.

Der rechtliche Rahmen bildet die Fahrrinne, innerhalb derer Künstliche Intelligenz (KI) und Big Data ihre Kraft entfalten und Richtung erhalten. Damit wird deutlich: KI rechtlich zu flankieren bedeutet nicht allein, sie zu begrenzen. Es geht ganz entscheidend auch darum, einen Rahmen zu schaffen, der die Kräfte von KI nutzbar macht. Die sozio-kulturelle Fahrrinne muss – um im Bild zu bleiben – tief genug ausgebaggert sein, um KI tragen zu können. Je klüger das Recht gestaltet ist, desto besser lässt sich KI wirtschaftlich nutzen und desto eher wird sie gesellschaftlich akzeptiert.

Recht muss schützen, aber auch Neues ermöglichen

Das bedeutet aber auch, dass „altes Recht" und alte Gewissheiten über die Steuerungsmöglichkeiten von Recht auf den Prüfstand müssen. Begleitend zu den disruptiven Anwendungen von KI und Big Data gilt es, das Recht selbst neu zu gestalten – damit es seinen Schutz optimal entfalten, aber auch seiner Funktion gerecht werden kann, Neues zu ermöglichen. Recht darf nicht der technischen Entwicklung hinterherhinken, sondern ist entscheidend für die Durchsetzung von Neuerung. Die Einführung des deutschen GmbH-Rechts Ende des 19. Jahrhunderts oder der Organisationshaftung im Zuge der industriellen Massenfertigung durch Richterrecht sind nur zwei Beispiele, wie Rechtsinnovationen den technisch-sozialen Fortschritt in der Vergangenheit beschleunigt haben.

Vor diesem Hintergrund scheint es nicht übertrieben, darüber zu sprechen, ob Roboter eine eigene Rechtspersönlichkeit haben, Steuern zahlen und für ihre Handlungen selbst haften sollten. Ebenso lohnt die Diskussion, ob es besser angepasste Formen des Dateneigentums geben könnte. Letzteres ist besonders spannend, da es an einen technischen Imperativ anknüpft: Künstliche Intelligenz kann ihr Potenzial nur entfalten, wenn sie Zugriff auf große Datenbestände hat. Technisch gesehen spielt es dabei keine Rolle, ob dieser Zugriff quasi-staatlich oder durch privatwirtschaftliche Tech-Giganten erfolgt. Der Schlüssel zum Erfolg liegt in der Größe des Datenpools und den durch erhebliche Investitionen erzeugten Algorithmen.

Schiere Größe ermöglicht aber auch den Missbrauch von Macht – sei es durch private Monopole auf vernetzten Güter- und Datenmärkten oder durch das politische Gewaltmonopol. In beiden Fällen ist es Aufgabe der Rechtsordnung, den Machtmissbrauch zu verhindern – und gleichzeitig die datentechnischen Voraussetzungen von KI zu ermöglichen. Als besondere Herausforderung gilt dabei, dass Größe und Macht in der digitalen Welt nicht an Ländergrenzen halt machen.

Daten im Eigentum einer unabhängigen Institution

Weiterhin stellt sich die Frage: Wie kann der technologische Imperativ von Größe mit den gesellschaftlichen Werthaltungen von Demokratie, Offenheit und Privatheit in Einklang gebracht werden? Hierzu ist ein mutiger Sprung im rechtlichen Design nötig – ähnlich wie er seinerzeit mit dem GmbH-Recht und der Organisationshaftung vollzogen wurde. Konkret zu hinterfragen ist: Warum sollen Daten entweder einem Unternehmen, den Individuen oder dem Staat gehören? Warum sollte ein KI-basiertes System nicht einen bestimmten Grad an rechtspersönlicher Unabhängigkeit haben?

Verleiht man Künstlicher Intelligenz eine Rechtspersönlichkeit, so könnte sie verpflichtet werden, ihr Wissen mit anderen zu teilen, ohne dass es der Zustimmung des Besitzers bedarf. Wären Daten automatisch im Eigentum einer unabhängigen Institution (vergleichbar einer Zentralbank), könnte diese sie exklusiv an Unternehmen verleihen – die daraus wiederum lukrative Geschäftsmodelle kreieren. Dies eröffnet auch die Möglichkeit, systematisch über neue Architekturen für Datennutzungen nachzudenken – von hoch vertraulichen Daten bis zu anonymisierten Massendaten. In einem solchen institutionellen Design könnte bei Missbrauch und Wettbewerbsverfälschung die unabhängige Institution das Recht auf Datennutzung auch wieder zurückziehen. Fakt ist: Eine kluge Verteilung von Datennutzungsrechten – und nicht von Abwehrrechten – macht eine nationale Rechtsordnung attraktiv im Wettbewerb der Ideen.

Gastbeitrag erschienen auf:

www.wissenschaftsjahr.de
25.Juni 2019

Zurück