iOS 15 Child Safety: Что нужно знать о новых возможностях

С самого начала Apple всегда отдавала приоритет приватности и безопасности. Она не только стремится создавать смартфоны и планшеты высшего класса, но и хочет, чтобы ее клиенты чувствовали себя безопасно, используя их устройства. С помощью iOS 15 Apple представляет дополнительный уровень безопасности с помощью функции ‘Child Safety’.

В этой статье мы предоставим вам всю необходимую информацию о Child Safety и объясним, как Apple реализует эту систему фильтрации. Итак, давайте погрузимся и исследуем, что такое Child Safety и как оно может повлиять на вашу повседневную жизнь.

Что такое Child Safety в iOS 15?

Child Safety — это функция, введенная в iOS 15, чтобы предотвратить распространение материалов сексуального насилия над детьми (CSAM) и защитить детей от хищников, злоупотребляющих ими с помощью коммуникационных инструментов. Apple планирует выпустить эту функцию сначала в Соединенных Штатах, а затем в других регионах. Эта трехкомпонентная функция стремится принести родителям душевное спокойствие и, как всегда, предоставляется бесплатно, с единственным требованием — iOS 15.

Apple тесно сотрудничает с ведущими экспертами по безопасности детей, чтобы система была максимально надежной.

Как Apple реализует Child Safety в iOS 15?

Система Child Safety не была разработана за одну ночь; Apple совершенствовала ее на протяжении нескольких итераций. В ее текущей форме Child Safety в iOS 15 состоит из трех разделов. Первый раздел — это безопасность коммуникации в приложении Messages по умолчанию. Второй раздел включает сканирование CSAM в iCloud Photos. Наконец, третий раздел предоставляет более безопасные рекомендации в Siri и поиске. Давайте рассмотрим каждый из этих разделов.

Безопасность коммуникации в приложении Messages

Изображение: Apple

Приложение Messages по умолчанию в iOS считается одним из самых привлекательных аспектов устройства Apple, поэтому эта система фильтрации имеет потенциал быть очень эффективной. Безопасность коммуникации добавляет дополнительный уровень в пользовательский интерфейс Messages вашего ребенка. Когда они получают изображение сексуального характера, фотография размывается, и им сообщается о чувствительности фотографии. Если они все равно решают продолжить, есть возможность отправить оповещение родителям или опекунам. Та же система фильтрации применяется, если несовершеннолетние решают отправить сексуально откровенные фотографии. Родители уведомляются, если их ребенок проигнорирует предупреждение и нажмет на отправку.

Эта функция доступна только для учетных записей, настроенных как семьи в iCloud на iOS 15, iPadOS 15 и macOS Monterey.

Обнаружение CSAM в iCloud Photos

Обнаружение CSAM в iCloud Photos — самая обширная реализация программы Child Safety. Она затрагивает всех пользователей, которые резервируют свои фотографии в iCloud, что недавно вызвало некоторую контроверзу в СМИ. Для обнаружения и предотвращения распространения материалов сексуального насилия над детьми (CSAM) Apple использует передовые криптографические техники. Когда изображение идентифицируется и подтверждается нарушение руководящих принципов, устройства iOS 15 и iPadOS 15 сообщают об этом случае в Национальный центр по пропажам и эксплуатации детей (NCMEC). NCMEC является центральной платформой для всех связанных с CSAM отчетов и тесно сотрудничает с правоохранительными органами по всей территории Соединенных Штатов для привлечения преступников к ответственности.

Процесс сканирования фотографий может вызывать беспокойство, но Apple заверяет, что он не сканирует все фотографии в iCloud. Он сканирует только те фотографии, которые соответствуют определенному профилю, предоставленному NCMEC и другим службам безопасности детей. Машинное обучение на устройстве играет значительную роль в обнаружении CSAM. Оно ограничивает доступ и точно анализирует чувствительные фотографии, чтобы дать родителям спокойствие.

Безопасное руководство в Siri и Search направлено на обучение пользователей проблематичному поведению. Если пользователь ищет запросы, связанные с материалом сексуального насилия над детьми, используя голосовой поиск Siri или обычный поиск, iOS 15 вмешивается с предупреждающим сообщением. Предупреждение объясняет, что такие темы проблематичны и вредны, и iOS 15 предоставляет ресурсы для помощи в решении проблемы.

Безопасность детей встроена в iOS 15 и не может быть полностью отключена. Однако для работы сервиса должны быть выполнены определенные условия. Функция «Безопасность общения» доступна только для учетных записей «Семьи». У изолированных учетных записей эта функция отсутствует. Кроме того, обнаружение CSAM применяется только к фотографиям в iCloud. Если вы не используете iCloud, ваша личная библиотека не будет сканироваться на наличие CSAM.

Нет конкретного переключателя для отключения сервиса, только косвенные способы сделать это.

Вопросы и ответы:

— Может ли каждый получить доступ к безопасности общения в сообщениях?

Нет, безопасность общения может использоваться только учетными записями «Семьи» в настройках iCloud.

— Будут ли новые меры безопасности детей подвергать компрометации конфиденциальность?

Apple уверяет, что у него нет доступа ко всем вашим фотографиям и сообщениям. Он только сопоставляет их с известными профилями CSAM и сообщает органам власти при необходимости.

— Apple будет ли сканировать все фотографии на вашем iPhone?

Нет, Apple будет использовать только машинное обучение на устройстве для сопоставления фотографий, которые вы загружаете в iCloud, с подозрительными записями CSAM. Если вы не загружаете фотографии в iCloud, сервис CSAM отключен по умолчанию.

— Применяется ли обнаружение CSAM к старым фотографиям или только к новым?

Обнаружение CSAM применяется как к старым, так и к новым фотографиям. Если какие-либо медиафайлы указывают на сексуальное насилие над детьми, органы власти будут уведомлены.

— Как обрабатываются невинные фотографии CSAM?

Обнаружение CSAM проверяет фотографии на совпадение с известными изображениями CSAM. Если совпадений нет, фотография считается безопасной. Apple сотрудничает с организациями для предотвращения ложных сообщений о голых/полуголых фотографиях детей.

Будет ли правительство использовать сканирование на устройствах компании Apple?

Apple имеет сильное обязательство к конфиденциальности и часто признается самой ориентированной на конфиденциальность компанией. Поэтому возникли опасения, когда Apple представила сканирование на устройствах. Однако Apple заверила, что система Child Safety не будет использоваться правительством или какой-либо другой организацией для изучения личных файлов пользователей. Система полностью прозрачна, с подробным аудитом и несколькими механизмами защиты для защиты данных пользователей.

Оцените статью
binarate.ru
Добавить комментарий