Брюс Уиллис не снимался в рекламе российского мобильного оператора — рекламодатель использовал цифровой образ голливудского актера с его разрешения. Но технология дипфейк — мощное оружие в руках мошенников. 25 июня в библиотеке «Планетария 1» расскажут, как не попасться на уловку. Бесплатно. 16+
Дипфейк (от deep learning, «глубокое обучение» нейросетей, и fake, «фальшивый») — технология генерации фото, видео или звука: искусственный интеллект способен крайне правдоподобно изобразить событие, которого в реальности никогда не происходило. Название технологии довольно зловещее, на самом деле это просто инструмент. Например, во флоридском музее Дали с посетителями взаимодействует сгенерированный образ сюрреалиста. Да и для селебрити такие «подделки» высвобождают массу времени: продал свой цифровой образ — и не надо самому участвовать в съемках какого-нибудь рекламного ролика. Возможно, скоро мы будем смотреть иностранные фильмы не в озвучке наших актеров, а с «оригинальными» голосами, как будто иностранные звезды сами говорят по-русски.
Между тем уже и политики, и звезды периодически появляются на дискредитирующих фальшивых фото и видео. Нейросеть способна выдавать «новостные репортажи» о никогда не случавшихся событиях. А некоторые менеджеры крупных западных компаний уже переводили мошенникам существенные суммы, полагая, что выполняют распоряжение руководства.
25 июня в библиотеке «Планетария 1» (наб. Обводного канала, 74б) старший научный сотрудник ФИЦ РАН, доцент ЕУСПб Дмитрий Левшун расскажет об основных угрозах, которые несут с собой технологии искусственного интеллекта, и объяснит, как другие технологии ИИ помогают выявлять фейковые изображения. Зарегистрироваться на лекцию «Дипфейки, или Как обнаружить ненастоящее лицо на фотографии» можно на странице библиотеки во «ВКонтакте». Начало в 19:00.
Александра Шеромова