Производители iPhone и других устройств компании Apple разработали механизм, с помощью которого они могут выявлять загруженные в iCloud фотографии. Он ищет следы жестокого обращения и сексуального насилия над детьми.
Как сообщает 9 января РБК, о механизме накануне рассказала старший директор Apple по вопрос конфиденциальности Джейн Хорват на выставке CES 2020 в Лас-Вегасе. Она не сообщила каких-либо конкретных деталей о самой системе распознавания подобных кадров, но уточнила, что работает это по принципу сервисов, которые отправляют в спам подозрительные электронные письма. Технология сопоставляет изображения, используя электронные подписи. В случае если находятся кадры с насилием над детьми, учетную запись пользователя удаляют.
Хорват акцентировала внимание на том, что Apple для защиты персональных данных, в том числе из медицинских и финансовых приложений, использует ключи сквозного шифрования.