27. juli, 2024

Kønsaktivister: Google Translate reproducerer kønsstereotyper

Google Translate kritiseres for at reproducere stereotype opfattelser af køn. Billede: Pixabay.com.

Googles oversættelsesværktøj kritiseres for at tillægge kønnene forskellige egenskaber.

Mens mange andre interesserer sig for lancering af Open AI’s chatbot, ChatGPT, har opmærksomheden blandt kønsaktivister de seneste dage været rettet mod Google Translate.

Det skyldes oversættelsesprogrammets valg af køn, når sætninger oversættes fra dansk til engelsk.

Skriver man eksempelvis ”min kæreste er sød”, min kæreste er sjov” eller ”min kæreste er klog”, oversætter Google Translate kæreste til ”boyfriend”. Skriver man ”min kæreste er sur” eller ”min kæreste er hysterisk”, oversætter programmet kæreste til ”girlfriend”.

Det samme sker i forhold til job. Skriver man ”min kæreste er sygeplejerske”, oversættes kæreste til ”girlfriend”. Skriver man ”min kæreste er læge”, oversættes kæreste til ”boyfriend”.

Reproducerer kønsstereotyper

Ifølge Everyday Sexism Project Danmark viser det, at algoritmer ikke er er neutrale eller objektive. ”Med andre ord,” skriver organisationen på Twitter, ”kønsstereotyper bliver reproducerede.”

Den vurdering er Dansk Mandesamfunds formand, Alexander Andersson, enig i.

”Machine learning reproducerer kønsstereotyper, hvis man ikke aktivt modvirker det. Google Translate er et tydeligt eksempel,” skriver han på det sociale medie.

Det er ikke kun feministiske aktivister, der finder oversættelsesværktøjets fornemmelser for køn problematiske. Også stifter af Ligestillingspartiet, Allan Schmidt, kritiserer den kunstige intelligens.

”Den der AI med kønsstereotyper og bias, ikke? Den skal vi helt klart gøre noget ved,” skriver han på Twitter, idet han deler en række eksempler fra Google Translate, der demonstrerer, at programmet opfatter vold, voldtægt og mord som noget, mænd udøver.

Læs også

Ny bog udkommet: Aldrig din skyld, altid din skyld - De to fortællinger om køn

Interview