Компания Apple собирается проверять все фотографии, загруженные в облачное хранилище ICloud, на наличие детской порнографии. Система поиска материалов о сексуализированном насилии над детьми пока будет работать только в США. Apple анонсировала проект 5 августа.
Перед загрузкой в облачное хранилище новый алгоритм будет сравнивать все фотографии на телефоне с реестром изображений, собранных Национальным центром пропавших и эксплуатируемых детей (NCMEC) и другими организациями по безопасности детей в США. Аналогичные алгоритмы для анализа контента в этом году запустили во всех соцсетях и месссенджерах, принадлежащих Facebook, и на сайте Pornhub.
В заявлении компании сказано, что при этом будет обеспечена конфиденциальность данных пользователей. Алгоритм зашифровывает фотографии, переводя их в числовые коды, по которым система будет искать соответствия — то есть, фотографии не будут отображаться нигде, кроме самого телефона.
В Apple заявили, что если фото на телефоне совпадут с фотографиями детей из реестра, информацию об этом сразу передадут в правоохранительные органы. По данным компании, вероятность ошибки анализа — менее одного случая на триллион. Функция появится в новых версиях iOS и iPadOS в конце этого года.
Эксперты опасаются, что авторитарные государства будут использовать технологию для слежки за гражданами. «Независимо от долгосрочных планов Apple, они дали очень четкий сигнал. По их (очень влиятельному) мнению, можно безопасно создавать системы, которые сканируют телефоны пользователей на предмет запрещенного контента, — исследователь безопасности в университете Джона Хопкинса считает Мэтью Грин. — Правы они или нет в этом вопросе — не имеет значения. Это прорвет плотину — правительства потребуют этого от всех».