Функционирует при финансовой поддержке Министерства цифрового развития, связи и массовых коммуникаций Российской Федерации
Общество «Информационный терроризм» и экстремистские эмодзи. Как на ПМЮФ обсудили искусственный интеллект и пропаганду

«Информационный терроризм» и экстремистские эмодзи. Как на ПМЮФ обсудили искусственный интеллект и пропаганду

9 756

На Петербургском международном юридическом форуме (ПМЮФ) 26 июня обсудили, чем опасен Интернет и почему искусственный интеллект — это «чума XXI века». Парадоксально, но к такой мысли пришли участники сессии «Роль искусственного интеллекта в противодействии пропаганде радикальной, экстремистской и террористической деятельности».

«Они разработали оружие нападения»

Ожидалось, что хедлайнером встречи станет глава Следственного комитета Александр Бастрыкин, но он принять участие в этом не смог. Роль первой скрипки досталась вице-спикеру Госдумы Ирине Яровой. Она с нарочитой дипломатичностью говорила о том, что общество и государство должны договориться о новых мерах регулирования Интернета. И в то же время подчеркивала, что запреты нужны, потому что «против России ведут информационную войну».

«Кому принадлежит Интернет и все СМИ в мире? Это пять крупных компаний. Нужно говорить не о том, что они придумали меры защиты [в области искусственного интеллекта]. Они разработали оружие нападения. И они его активно используют», — заявила Яровая.

Каким именно пяти компаниям принадлежит Интернет и все СМИ — депутат не уточнила. В качестве положительного примера урегулирования интернет-пространства она привела Китай. В России же сейчас важно, считает депутат, прийти к максимальной ликвидации анонимности: автор любого контента должен быть известен. Сложнее всего с этим ситуация обстоит в чат-ботах и автоматизированных рассылках — и именно там может процветать запрещенный контент.

«Должны быть разработаны технологии, направленные на автоматизированное выявление массовой рассылки агрессивного, экстремистского контента. И должны быть быстрыми средства реагирования, необходима внесудебная блокировка. <…> Любой правоохранитель скажет: анонимность — это путь к введению в заблуждение», — сказала Яровая.

Директор иркутского филиала Всероссийского государственного университета юстиции Артур Бычков заявил, что искусственный интеллект — одно из самых больших зол, которое, по его мнению, приносит вред многим людям уже сейчас. Ответы ИИ зачастую идут вразрез с традиционными ценностями и не учитывают российское законодательство.

«Искусственный интеллект — это цифровая чума 21 века. Если ее не остановить и не контролировать, мы неизвестно до чего дойдем. Это используется не только на благо государства, но и в противоречие с интересами государства, и соответственно — общества, личности», — сказал Бычков.

Искусственный интеллект мешает жить людям и в повседневности — считает он. Так, при оформлении кредита клиент не имеет возможности выбрать: пройти процедуру с использованием ИИ или без него. А автоматизированная аналитика может привести к несправедливому отказу. И роботы на горячих линиях компаний подходят не всем.

Итак, по мнению Бычкова, людям необходимо оставить возможность получить услугу без ИИ, а в Интернете создать систему, которая позволит выявлять весь контент, создаваемый ИИ, и устанавливать авторство.

«Фотографии протестного движения, радикальной оппозиции»

Сотрудник Российского федерального центра судебной экспертизы при Минюсте Виталий Кузнецов рассказал, что искусственный интеллект способствует развитию нетрадиционных видов контента. Это усложняет работу экспертов, которые изучают его на предмет состава преступления.

«Прежде всего, это фейковая информация, вплоть до дипфейков, где от первых лиц государства исходит недостоверная информация. Также это тексты, сгенерированные ИИ. Чат-боты, которые не только распространяют агитационный контент, но и собирают его. Например, недавно на экспертизу приходил объект — общение с чат-ботом, который собирал противоправный контент (изображения, фотографии протестного движения, радикальной оппозиции)», — сказал Кузнецов.

Он отметил, что Россия подвергается информационному терроризму, и закономерной реакцией на это стали запреты на пропаганду ЛГБТ* и новая информационная доктрина. Появились новые виды судебных экспертиз, в том числе судебно-религиоведческая.

Правда, эксперты уже учатся и использовать искусственный интеллект в своей работе — так что он не только мешает, но и помогает им давать заключения для уголовных дел за поведение в Интернете. Например, эксперты просят ИИ анализировать большие объемы данных, кратко пересказывать суть текста, переводить фразы с иностранных языков, давать определение словам с учетом контекста.

Высказывания в сети — терроризм?

Заведующая сектором информационного права и международной информационной безопасности Института государства и права РАН Татьяна Полякова подчеркнула, что за ИИ всегда стоит человек, технология не самостоятельна и не может сравняться с естественным интеллектом.

«Сегодня на стенде Минюста я подошла к [роботу] Юстиниане, попробовала с ней поговорить и спросила: как в России регулируется применение искусственного интеллекта. Она немножко подумала, но ответила достаточно уверенно: никак. Потом рассказала о проблематике. Я ей сказала, что тему нужно изучить подробнее. Она предложила сделать селфи. В общем, вы понимаете, что Юстиниана не готова вести с нами диалог», — поделилась Полякова.

В то же время ИИ представляет собой большую силу и может быть использован террористами, уверена Полякова: для вербовки, агитации, генерации видео, подмены голоса, совершения кибератак.

Она предложила создать правовые и этические правила работы искусственного интеллекта, контролировать его работу на всех этапах. А еще — ввести в законе понятие «информационный терроризм» и включить его в состав уголовной статьи о терроризме.

Люди уже сейчас имеют возможность оказаться за решеткой по обвинению по террористической статье из-за постов в соцсетях. Со статьей 205 («Террористический акт») давно рука об руку 205.2 («Публичные призывы к осуществлению террористической деятельности, публичное оправдание терроризма или пропаганда терроризма»). Вероятно, понятие «информационный терроризм» может вобрать в себя более широкий спектр тем.

«Белый интернет» vs права человека

Генератором идей на сессии выступила член совета по развитию гражданского общества и правам человека при президенте России, директор АНО «Белый интернет» Элина Сидоренко. Она предложила признать экстремистскими некоторые эмодзи, урегулировать распространение контента в субкультурах и малых социальных группах, создать «Фонд защиты потерпевших» и финансировать за счет него разработки новых ограничений.

«На сегодня ни у кого нет сомнений, что перепост общественно опасен. Но с эмодзи такая же ведь история. Я говорю не о реакциях, лайк-дизлайк, которые суды уже признают юридически значимыми действиями, я говорю о картинках, которые могут носить радикальный характер», — сказала Сидоренко.

Она также обратила внимание на существование бота со сливом персональных данных «Глаз бога» и ему подобных — но в этом вопросе была менее категорична. «Вопрос не к законодателю, а вообще ко всему праву: нужно ли это регулировать и как?» — размышляла правозащитница.

А вот агитация из недружественных стран, по ее мнению, приводит к тому, что дети бросают в военкоматы зажигательные смеси и высказывают экстремистские настроения. Чтобы этому противостоять, можно создать альтернативную, антиэкстремистскую систему информации, где будет позитив и хорошие новости, отметила Сидоренко.

При этом силовой блок, образовательный и культурный должны действовать согласованно — тогда в области информации всё получится, считает Сидоренко. России, по ее мнению, необходимо разработать и предложить единую цифровую доктрину странам БРИКС и другим блокам дружественных государств — иначе это может сделать Китай.

Возможно, лучше всех общий настрой выразил ведущий сессии Алексей Бессонов — ректор Московской академии СК:

«Почему люди пользуются Интернетом? Потому что им не хватает общения. Давайте общаться воочию, а не по Интернету, и тогда, наверное, большой пласт проблем уйдет».

«Фонтанка» рассказывала, какое отражение нашла тема искусственного интеллекта на Петербургском международном экономическом форуме.

*ЛГБТ признано экстремистским и запрещено в России.

ПО ТЕМЕ
Лайк
LIKE1
Смех
HAPPY0
Удивление
SURPRISED3
Гнев
ANGRY4
Печаль
SAD8
Увидели опечатку? Выделите фрагмент и нажмите Ctrl+Enter
Комментарии
34
Присоединиться
Самые яркие фото и видео дня — в наших группах в социальных сетях