Компания Apple официально подтвердила запуск функции проверки фотографий, находящихся в частных смартфонах, на наличие запрещенных снимков. При обнаружении подобных снимков, компания намерена передавать данные правоохранительным органам.
Теперь, прежде чем изображение будет сохранено в iCloud Photos, на смартфоне пользователя будет запущен процесс сопоставления этого изображения с паттернами, относящимися к сексуальному насилию над детьми. Если компьютерный алгоритм определит, что фотография пользователя относится к детской порнографии, сотрудник компании получит сигнал и перепроверит это вручную.
В случае, если факт нелегального контента подтвердится, аккаунт пользователя будет заблокирован, а его данные будут отправлены в организацию NCMEC (Национальный центр пропавших без вести и эксплуатируемых детей), которая работает в сотрудничестве с правоохранительными органами США.
Представители компании заверяют, что программа распознания обладает чрезвычайно высоким уровнем точности, и вероятность ошибки составляет всего один к триллиону. В любом случае, как указано в пресс-релизе, можно будет подать апелляцию на решение о блокировке аккаунта, если, по мнению владельца, она произошла ошибочно.
Пока эта функция анонсирована только для граждан США в обновлениях iOS 15 для iPhone, iPadOS 15, для планшетов, watchOS 8, для умных часов и macOS Monterey для компьютеров.