1. MZ.de
  2. >
  3. Lokal
  4. >
  5. Nachrichten Merseburg
  6. >
  7. Sexistische Assistenten?: Sexistische Assistenten?: Warum "Siri" und "Alexa" Stereotypen erfüllen

Sexistische Assistenten? Sexistische Assistenten?: Warum "Siri" und "Alexa" Stereotypen erfüllen

Von Michael Bertram 23.06.2019, 13:00
Natalie Sontopski blickt aus weiblicher Perspektive auf das Thema künstliche Intelligenz.
Natalie Sontopski blickt aus weiblicher Perspektive auf das Thema künstliche Intelligenz. Hans-G. Unrau /Unrau Fotografie

Merseburg - „Künstliche Intelligenz ist nicht sexistisch, es sind die Daten, mit der der Mensch die Technologien füttert“, sagte Natalie Sontopski. Sie nennt das Beispiel bekannter Sprachassistenzsysteme: Warum müssen Apples „Siri“ und Amazons „Alexa“ denn unbedingt weiblich sein? „Da schwingen alte Geschlechterstereotypen mit“, sagt Sontopski. Die Frau eben, die bedient, hilft und ordnet.

Im Rahmen ihrer Promotion will die studierte Soziologin an der Hochschule Merseburg erforschen, wie es dazu kommt und wie man die Mechanismen im Hintergrund so beeinflussen kann, dass es auch bei Anwendungen mit künstlicher Intelligenz eine gewisse Geschlechtergerechtigkeit gibt. Die Chancen, dass sich tatsächlich schnell etwas ändert, stehen allerdings nicht so gut.

Eine Frauenstimme strahlt eine gewisse Wärme aus, die ankomme

„Apple beruft sich ja etwa auf Marktrecherchen, laut denen sowohl Männer als auch Frauen weibliche Stimmen bevorzugen“, erklärt die 34 Jahre alte Forscherin. Die Erklärung sei einfach. Eine Frauenstimme strahle eine gewisse Wärme aus, die ankomme.

Dass es aber auch gegenteilige Entwicklungen gibt, zeigte eine Studie des Autobauers BMW vor vielen Jahren. Als der nämlich sein Navigationssystem mit Frauenstimme präsentierte, reagierten viele Männer ablehnend. „Die wollten sich nicht von einer Frau sagen lassen, wo sie abzubiegen haben“, erklärt Natalie Sontopski. Die Folge: BMW musste nachbessern und auch Männerstimmen in der Software anbieten.

Wissenschaftlerin nennt abschreckendes Beispiel künstlicher Intelligenz

Die Wissenschaftlerin nennt aber auch ein abschreckendes Beispiel künstlicher Intelligenz, mit dem Amazon vor geraumer Zeit Schlagzeilen gemacht hatte. Der Internetriese hatte nämlich einen Bewerbungsroboter eingesetzt, um die eingehenden Unterlagen von Jobinteressenten zu sortieren und automatisch zu entscheiden, wer am besten zum Unternehmen passt und wer weniger. „Was passiert ist, dass Frauen diskriminiert wurden“, erklärt Sontopski.

Grund dafür war ein simpler Algorithmus, der darauf achtete, wer sich in der Vergangenheit einen Job im Haus sichern konnte. Und das waren vor allem technikaffine Männer. „Man sieht also, dass man an die Programmierer der Maschinen ran muss, um etwas zu ändern“, meint die Forscherin.

Inzwischen haben sich feministische Coding-Initiativen gegründet

Tatsächlich haben sich vor diesem Hintergrund inzwischen feministische Coding-Initiativen gegründet, die Einfluss auf Computerprogrammierung nehmen wollen. Eine davon, die „Code Girls“, hat Natalie Sontopski zusammen mit einer Freundin gegründet. Seitdem bietet das Start-up Mädchen und Frauen Workshops an, um auch sie für die Welt von Code und Programmiersprachen zu begeistern. (mz)