Мнение ученых Принстонского университета: Apple CSAM не может быть безопасной:

Специалисты и научные сотрудники Принстонского университета в США заявили, что система Apple CSAM (child sexual abuse material)  не может быть безопасной. К такому выводу ученые пришли, занимаясь разработкой аналогичной технологии  в течение нескольких лет.

Доцент Джонатан Майер и аспирант Анунай Кулшреста несколько лет прорабатывали систему обнаружения изображения жестокого обращения с детьми на телефонах пользователей. Идея ученых созвучна с Apple: ограничить распространение подобного контента, при этом сохраняя конфиденциальность.

Создав рабочий прототип, разработчики пришли к выводу, что при любом исходе технология оставляет нерешенной одну «вопиющую проблему» – система на техническом уровне ни при каких условиях не может ограничиваться только одним типом контента. Иными словами, ее работа подчинена содержимому базы данных, которое можно изменить и использовать в своих целях.

Подобную проблему выявили в китайском мессенджере WeChat, где аналогичный алгоритм используется для обнаружения диссидентских материалов. Легкость перепрофилирования системы для использования в политических и иных целях – это, по мнению ученых, и есть главная опасность CSAM.

Гастрономия

Роман с гастрономией: серия «литературных» ужинов в ресторане ЦДЛ

28 ноября ресторан Центрального дома литераторов запускает серию ужинов, посвященных литературным произведениям и жизни русских классиков, с участием приглашенных шеф-поваров. Первый ужин будет посвящен великому писателю

Читать »
Lifestyle

«Художественный»

«Художественный» — это место, с которого начиналось кино в столице. Первый кинопоказ прошел в этом здании в 1909 году, это была премьера фильма «Жоржетта». Тогда

Читать »
Lifestyle

Из книги в кино и обратно

Как дефицит контента в кино влияет на издательский бизнес С весны 2022 года начался отток западных производителей контента из России. Но киноиндустрия, лишившись источников сценариев,

Читать »