Warum braucht es in der KI-Forschung und -Entwicklung mehr Frauen?
Regina Ammicht Quinn: In den 1950er und 60er Jahren war Programmieren Frauenarbeit. Diese Tätigkeit hatte noch nicht den Status, den sie heute hat, der Begriff „Software“ war noch nicht erfunden und „Coding“ galt als sekundäre Aufgabe, während Ruhm und Ehre den Herstellern der Maschinen zukam. Frauen galten als besonders qualifizierte Programmiererinnen, schließlich – so eine der Argumentationen – waren sie auch in der Lage, Strickmuster zu entwerfen. Viele Frauen haben Grundsteine für die heutige Informatik gelegt, etwa Mary Allen Wilkes, Grace Hopper oder Fran Allen – um nur einige der vergessenen Namen zu nennen. Dass es heute wenige Frauen in diesem Bereich gibt, hat also wenig mit der DNA oder anscheinend geschlechtsspezifischen Begabungen zu tun, sondern mit einer Sozialgeschichte, die im Einzelnen noch nachgezeichnet werden muss.
KI ist eine Technologie, die unsere Gesellschaft prägt und als „Enabler“ auch die entscheidenden Entwicklungslinien in zentralen Gesellschafts- und Technikbereichen wie Medizin, Bildung oder Mobilität steuert. KI-Forschung und Entwicklung ist also Gesellschaftsentwicklung, an der Frauen selbstverständlich zu gleichen Teilen wie Männer beteiligt sein sollen. Gleichzeitig bedeutet Diversität in der KI-Entwicklung, die Bedürfnisse und Lebenswirklichkeiten unterschiedlicher Gesellschaftsgruppen in den Blick zu nehmen. Dies ist ein wichtiger Schritt, um dem Ausschluss bestimmter Gruppen von der Nutzung relevanter Anwendungen vorzubeugen, Diskriminierung einzuschränken und KI zum Nutzen aller zu entwickeln.
Läuft KI Gefahr, bestehende Geschlechterrollen zu festigen?
Regina Ammicht Quinn: Ja, denn KI bildet die Gesellschaft mitsamt den bislang bestehenden Ungerechtigkeiten ab. Ein Beispiel ist das vor wenigen Monaten diskutierte Prognosesystem des österreichischen Arbeitsmarktservice (AMS). Da Frauen auf dem Arbeitsmarkt strukturell und aufgrund von Vorurteilen benachteiligt sind, werden diese Daten hier zur Grundlage für die Berechnung der Chancen von Frauen auf dem Arbeitsmarkt generell. Die daraus errechneten schlechteren Aussichten von Frauen münden dann gegebenenfalls in schlechtere Vermittlungshilfen und wirken sich auch negativ auf das Selbstbild von arbeitssuchenden Frauen aus.
Was lässt sich gegen diese Verzerrungen tun?
Regina Ammicht Quinn: Grundlegend gilt natürlich, dass sich die gesellschaftliche Wirklichkeit ändern muss, damit auch Prognosesysteme mit „fairen Daten“ rechnen können. Aber auch die KI-Algorithmen selbst können so erstellt worden sein, dass sie zu Diskriminierungen führen. Um dies zu verhindern, kann Diversität in Entwicklungsabteilungen ein wichtiges Instrument sein – aber nicht das Einzige. Um nur drei weitere wichtige Punkte zu nennen: Zur Verhinderung von Diskriminierungen brauchen wir eine Berufsethik für Informatiker und Informatikerinnen, wie sie bereits durch DADM (Discrimination-Aware Data-Mining) und FATML (Fairness, Accountability and Transparency in Machine Learning“) auf den Weg gebracht wurde. Wir brauchen außerdem Standards für KI, die über Audits, Zertifikate und Kontrollen der öffentlichen Hand für besonders relevante Anwendungen, z.B. in Medizin oder Justiz, durchgeführt werden. Zudem müssen geregelte, transparente und leicht zugängliche Wege für die Anfechtung von Entscheidungen, die mithilfe von KI getroffen wurden, sichergestellt werden.
*Spezifische Zahlen den Teilbereich Künstliche Intelligenz (KI) betreffend liegen nicht vor
Das Interview ist für eine redaktionelle Verwendung freigegeben (bei Nennung der Quelle © Plattform Lernende Systeme).