Apple усилит защиту детей: алгоритмы будут размывать откровенные снимки в «Сообщениях», проверять iCloud и давать рекомендации в Siri

В США Apple также будет отправлять отчеты в Национальный центр пропавших и эксплуатируемых детей, которая работает совместно с полицией.
Apple усилит защиту детей: алгоритмы будут размывать откровенные снимки в «Сообщениях», проверять iCloud и давать рекомендации в Siri
Vincenzo Pinto / AFP / Getty Images

Компания Apple запустит в США новую технологию для защиты детей от запрещенного контента на своих операционных системах (iOS, iPadOS, macOS и watchOS). Она будет предупреждать родителей об отправке и получении фотографий с сексуальным насилием над детьми (Child Sexual Abuse Material, CSAM), находить такие изображения в iCloud, а также выявлять попытки найти запрещенный контент в поиске и с помощью Siri. Об этом сообщается на сайте компании.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Новые функции, которые станут доступны после осеннего обновления, разработаны совместно с экспертами по детской безопасности. В Apple заявили, что так компания хочет защитить детей от «хищников, которые используют средства коммуникации для привлечения и эксплуатации».

Обновление для «Сообщений»

На всех операционных системах Apple в приложении «Сообщения» будет применяться машинное обучение, которое сможет предупреждать о запрещенном контенте. Отмечается, что Apple не сможет читать остальные переписки.

Кроме того, при получении фотографии, содержащей откровенный контент, технология автоматически сделает ее размытой, а ребенок получит предупреждение о том, что он может не смотреть эту фотографию. Ребенка также уведомят, что его родители тоже получат доступ к фотографии, если он решит ее посмотреть. Такие же меры безопасности будут действовать, если ребенок сам захочет отправить запрещенный контент.

Поиск откровенных снимков в iCloud и передача данных правоохранительным органам

Apple сможет распознавать откровенные фотографии еще до выгрузки в iCloud и передавать данные правоохранительным органам. В США компания будет отправлять отчеты в Национальный центр пропавших и эксплуатируемых детей (NCMEC). А организация будет работать совместно с полицией.

Изучение фотографий в iCloud будет происходить с помощью машинного обучения, поэтому Apple не получит доступа к другим снимкам. Нейросети будут сопоставлять изображения из облачного хранилища с изображениями, предоставленными NCMEC и другими организациями.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Обновления в Siri и «Поиске»

Обновленные Siri и «Поиск» будут предупреждать пользователя, если он захочет найти информацию, связанную с CSAM. Он получит уведомление, что это болезненная тема, и сможет прочитать об этой проблеме подробнее.

Siri также будет предоставлять детям и родителям информацию о том, как реагировать на сексуальное насилие. В частности, при соответствующем запросе голосовой помощник предложит пользователям перейти на ресурсы, связанные с детской безопасностью.

А вы пользуетесь продукцией компании Apple?
Да
Нет