Мнение ученых Принстонского университета: Apple CSAM не может быть безопасной:

Специалисты и научные сотрудники Принстонского университета в США заявили, что система Apple CSAM (child sexual abuse material)  не может быть безопасной. К такому выводу ученые пришли, занимаясь разработкой аналогичной технологии  в течение нескольких лет.

Доцент Джонатан Майер и аспирант Анунай Кулшреста несколько лет прорабатывали систему обнаружения изображения жестокого обращения с детьми на телефонах пользователей. Идея ученых созвучна с Apple: ограничить распространение подобного контента, при этом сохраняя конфиденциальность.

Создав рабочий прототип, разработчики пришли к выводу, что при любом исходе технология оставляет нерешенной одну «вопиющую проблему» – система на техническом уровне ни при каких условиях не может ограничиваться только одним типом контента. Иными словами, ее работа подчинена содержимому базы данных, которое можно изменить и использовать в своих целях.

Подобную проблему выявили в китайском мессенджере WeChat, где аналогичный алгоритм используется для обнаружения диссидентских материалов. Легкость перепрофилирования системы для использования в политических и иных целях – это, по мнению ученых, и есть главная опасность CSAM.

«МАНЕ» возвращается
Культура

«МАНЕ» возвращается

Дополнительные спектакли пройдут 19 марта и 16 апреля «Мане» —это независимый культурный проект Ильи Шпака, на создание которого вдохновил знаменитый художник: его вера, страсть к

Читать »
Натуральный шоколад и церемониальное какао по концепции Tree to Bar (от дерева до стола).
Гастрономия

Натуральный шоколад и церемониальное какао по концепции Tree to Bar (от дерева до стола).

От дерева к человеку Философия FOODROOM строится на концепции от дерева до стола: мы контролируем каждый этап — от селекции какао-деревьев до перетирания очищенных какао-бобов

Читать »