![]() |
Нововведение появится в Великобритании, Канаде, Австралии и Новой Зеландии. https://www.securitylab.ru/upload/ib...281f865805.jpg Функция Apple «Безопасность общения в сообщениях», предназначенная для автоматического размытия изображений наготы, теперь развертывается в других странах. После запуска в США в прошлом году функция будет доступна в приложениях «Сообщения» на iOS, iPadOS и macOS для пользователей в Великобритании, Канаде, Новой Зеландии и Австралии. Опциональная функция сканирует входящие и исходящие изображения на наличие материалов «сексуального характера» для защиты детей. Если изображение найдено, оно становится размытым, и предоставляются рекомендации по поиску помощи, а также заверения в том, что можно не просматривать изображение и выйти из беседы. У детей по всему миру будет возможность сообщить о помеченной фотографии взрослому, которому они доверяют. Apple также расширяет развертывание новой функции для поиска в Spotlight, Siri и Safari, которая будет указывать пользователям на безопасные ресурсы, если они ищут темы, связанные с сексуальным насилием над детьми. Напомним, ранее техногигант также планировал разработать систему сканирования фотографий пользователей iPhone на предмет запрещенного контента, связанным с насилием над детьми (Child Sexual Abuse Material, CSAM). Анонсированная компанией система сканирования изображений на телефоне CSAM вызвала опасения у правозащитников, по мнению которых, новая система откроет двери для слежки за пользователями. В связи с этим Apple решила на некоторое время отложить развертывание CSAM на устройствах пользователей. |
All times are GMT. The time now is 09:57 AM. |
Powered by vBulletin® Version 3.8.7
Copyright ©2000 - 2025, vBulletin Solutions, Inc.