Рассылка Черты
«Черта» — медиа про насилие и неравенство в России. Рассказываем интересные, важные, глубокие, драматичные и вдохновляющие истории. Изучаем важные проблемы, которые могут коснуться каждого.

Алгоритмы Google оценивают мужчин по навыкам, а женщин по внешности — исследование

Читайте нас в Телеграме
ПО МНЕНИЮ РОСКОМНАДЗОРА, «УТОПИЯ» ЯВЛЯЕТСЯ ПРОЕКТОМ ЦЕНТРА «НАСИЛИЮ.НЕТ», КОТОРЫЙ, ПО МНЕНИЮ МИНЮСТА, ВЫПОЛНЯЕТ ФУНКЦИИ ИНОСТРАННОГО АГЕНТА
Почему это не так?

Ученые выяснили, что искусственный интеллект (ИИ) от Google, Microsoft и Amazon анализирует фотографии женщин-политиков по внешности, а мужчин - по роду деятельности и навыками. Об этом пишет Wired.

Исследование проводили ученые из Университета Нью-Йорка, Американского университета, Университетского колледжа Дублина, Мичиганского университета и некоммерческой организации YIMBY в Калифорнии.

Предвзятые описания мужчин и женщин ИИ использовал при загрузке фотографий в программу для распознавания лиц. Ученые считают, что причина в некорректных стереотипных данных, которые разработчики загружали в программу для обучения. 

Исследователи дали задание ИИ Google, Microsoft и Amazon составить аннотации к 20 официальным фотографиям политиков из твиттера — 10 мужчин и 10 женщин. Всех мужчин алгоритм Google отметил ярлыками «бизнесмен» и «чиновник», а женщин распознавали по понятиям «волосы», «улыбка» и «шея». Программа Amazon не распознала двух из десяти женщин-сенаторов, отметив их как «девушку или ребенка». Служба Microsoft не смогла определить пол по фотографиям: двух женщин она пометила как мужчину и «человека другого пола».

Ученые пришли к выводу, что ИИ необъективен и имеет гендерные предрассудки. Это связано в первую очередь с тем, что на фотографиях, используемых для тренировки алгоритмов зрения ИИ, часто изображены стереотипные ситуации, например, когда женщина стоит у плиты, а мужчина стреляет из оружия.

«Это результат того, что женщины имеют меньше статусных стереотипов, чем мужчины. Женщины должны всегда хорошо выглядеть, а мужчины — быть бизнес-лидерами», — сказал научный сотрудник Института социальных наук имени Лейбница Карстен Швеммер.

Руководитель исследовательской группы Avast по изучению искусственного интеллекта Хавьер Алдан Юит пояснил, что модели ИИ часто бывают предвзяты, потому что обучаются на стереотипных человеческих решениях. «В Amazon перестали использовать алгоритм поиска новых сотрудников, заметив, что он отдает предпочтение словам, часто встречающимся в резюме мужчин, таким как “быстро схватывать” и “использовать”», — добавил эксперт.

Он считает, что для обеспечения объективности системы и создания инклюзивного и объективного ИИ нужно привлечь к его созданию как можно больше разнообразных групп людей с разными взглядами.