Поиск детского порно на iPhone откладывается
Компания Apple приостанавливает внедрение системы поиска запрещённых фотографий с сексуальным насилием над детьми (CSAM) после анализа полученной негативной реакции. Компания заявила, что ей необходимо продолжить работу по улучшению этой функции. Apple отметила, что соберёт больше информации от различных групп и сторонников тех, кого это касается.
В прошлом месяце мы объявили о планах по внедрению функций, призванных помочь защитить детей от хищников, которые используют средства коммуникации, чтобы вербовать и эксплуатировать их, а также ограничивают распространение материалов о сексуальном насилии над детьми. Основываясь на отзывах клиентов, групп защиты интересов, исследователей и других лиц, мы решили в ближайшие месяцы выделить дополнительное время, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти критически важные функции.
Apple
Apple ранее заявила, что эта система разрабатывалась много лет и не предназначена для государственного контроля за деятельностью граждан. Более того, пользователям в России и других странах мира не нужно беспокоиться об этой проблеме, потому что система будет доступна только в Соединённых Штатах Америки и только при условии включения сервиса iCloud.
При этом многие эксперты по безопасности предупредили, что новый инструмент Apple может быть использован для слежки, подвергая риску личную информацию миллионов людей.
Изначально внедрение функции ожидалось с выходом финальной версии iOS 15 уже в сентябре, новые сроки не сообщаются.