Преподавательница медицины из Венгрии Дора Варга заметила сексизм в алгоритмах Google Translate при переводе с гендерно-нейтрального венгерского языка на английский. Об этом она рассказала в твиттере.
В венгерском языке нет местоимений «он», «она» и «оно», вместо них используют нейтральное слово «ö», которое переводят в зависимости от контекста. Когда речь идет о политиках или ученых, Google использует местоимение «он», а когда о мытье посуды, уборке или воспитании детей — «она».
В ответах к посту Варги пользовательница из Эстонии написала, что в переводе с также гендерно-нейтрального эстонского языка на английский происходит то же самое.
Hungarian is a gender neutral language, it has no gendered pronouns, so Google Translate automatically chooses the gender for you. Here is how everyday sexism is consistently encoded in 2021. Fuck you, Google. pic.twitter.com/EPqkEw5yEQ
— Dora Vargha (@DoraVargha) March 20, 2021
«Утопия» проверила, как Google Translate и «Яндекс.Переводчик» переводят «ö» на русский. При переводе с венгерского или эстонского на русский обе программы так же подбирают местоимения по традиционному для мужчин и женщин роду деятельности или описаниям. Например, «она красивая», «он профессор», «она готовит» или «он повар».
В ноябре 2020 года ученые из Университета Нью-Йорка выяснили, что искусственный интеллект от Google, Microsoft и Amazon при распознавании лиц анализирует фотографии женщин-политиков по внешности, а мужчин – по роду деятельности и навыками. Например, мужчин алгоритм Google отметил ярлыками «бизнесмен», «чиновник», а женщин распознавали по понятиям «волосы», «улыбка» и «шея». Исследователи объяснили это некорректными стереотипами, которые разработчики загружали в программу для обучения.