Специалисты и научные сотрудники Принстонского университета в США заявили, что система Apple CSAM (child sexual abuse material) не может быть безопасной. К такому выводу ученые пришли, занимаясь разработкой аналогичной технологии в течение нескольких лет.
Доцент Джонатан Майер и аспирант Анунай Кулшреста несколько лет прорабатывали систему обнаружения изображения жестокого обращения с детьми на телефонах пользователей. Идея ученых созвучна с Apple: ограничить распространение подобного контента, при этом сохраняя конфиденциальность.
Создав рабочий прототип, разработчики пришли к выводу, что при любом исходе технология оставляет нерешенной одну «вопиющую проблему» – система на техническом уровне ни при каких условиях не может ограничиваться только одним типом контента. Иными словами, ее работа подчинена содержимому базы данных, которое можно изменить и использовать в своих целях.
Подобную проблему выявили в китайском мессенджере WeChat, где аналогичный алгоритм используется для обнаружения диссидентских материалов. Легкость перепрофилирования системы для использования в политических и иных целях – это, по мнению ученых, и есть главная опасность CSAM.