Популярность ChatGPT заставила Илона Маска и Стива Возняка требовать остановить все работы по дальнейшему обучению машин, российские депутаты пытаются привлечь к ответственности разработчиков нейросетей, которые «генерят» «непатриотичный контент», а в мире всё чаще вспыхивают скандалы из-за использования искусственного интеллекта для подготовки научных статей или творческих работ.
Так ли страшен ИИ, как его малюют, и нужно ли его запрещать, обсудили петербургские разработчики и ученые 27 апреля в ходе круглого стола в Европейском университете. «Фонтанка» публикует основные тезисы участников.
Что такое натуральный и искусственный интеллект? Так ли велика разница
«Мы, человечество, до сих пор не знаем, что такое интеллект, и пытаемся создать искусственный интеллект», — заявил Олег Лашманов, руководитель лаборатории «Искусство и искусственный интеллект» ЕУСПб. Тексты, которые выдает ChatGPT, или картинки, которые выдает Kandinsky, мы пытаемся пропустить «через сито теста Тьюринга, чтобы понять, мог так сделать человек или не мог», добавил он.
Как таковой искусственный интеллект — это часто удобное упрощение для журналистов, сами разработчики, отметил Александр Крайнов, директор по развитию ИИ компании «Яндекс», не оперируют этим понятием. «Мы не делаем искусственный интеллект, мы решаем задачу — сгенерировать текст или сделать картинку», — отметил он. В данном случае человек — не то, чему подражают, а то, что показывает, что в принципе решение задачи возможно. С другой стороны, соревнование с человеком дает постоянные вызовы: сможет ли ИИ написать стихи или нарисовать картину так, чтобы нельзя было отличить, отметил он. «Мы тоже не знаем, что такое интеллект, до конца, но мы можем состязаться, если поставлена задача и мы можем решить [сами] с таким-то качеством, а можем сделать алгоритм, который решает задачу», — заключил Александр Крайнов.
Какие риски несет в себе искусственный интеллект
Один из главных рисков — неадекватный подход к технологии, считает Дарья Чирва, руководитель общеуниверситетского модуля «Мышление» в ИТМО, член национальной комиссии по этике в сфере ИИ. По ее мнению, одна крайность — рассматривать тот же ChatGPT как простой инструмент, который целиком находится в руках людей. Вторая — придавать ему человеческие черты, свойства личности и намерения. Например, на полном серьезе спрашивать, что делать в той или иной жизненной ситуации. «Катастрофа, что используем ИИ как технологию, которая умнее нас», — отмечает она.
По мнению Дарьи Чирвы, «обе точки зрения неадекватны действительности». В данном случае правильнее рассматривать ИИ как социотехническую систему. «Это тот случай, когда целое больше суммы частей», — отметила она. Сфера применения технологии неизбежно окажется шире, чем планировали его разработчики. «Даже если мы отрефлексируем все смыслы, которые вкладывают в свою работу все соучастники создания продукта, мы не получим на выходе простую прогнозируемую систему, система всегда будет с неожиданными свойствами, потому что нейросети и ИИ в чем-то превосходят когнитивные способности человека отдельного взятого и суперэкспертов, которых мы можем собрать», — отмечает она. В конечном итоге технология ИИ «трансформирует человека, как изменило его книгопечатание», считает Дарья Чирва.
Почему хотят запретить ChatGPT и другой ИИ
В желании запретить нейросети ректор ЕУ Вадим Волков видит аналог движения луддитов — «желание разрушить машины, которые заменяют человека». В этом кроется своего рода «латентная ревность», считает он.
По мнению Александра Крайнова, открытое письмо с призывом на полгода приостановить развитие технологии GPT, под которым подписались Маск и Возняк, — не более чем хайп, а подписанты хотят либо напомнить о себе, либо заявить о своем существовании. В конце концов, тот же Илон Маск уже заявил о желании создать конкурента ChatGPT.
Можно ли остановить развитие технологии искусственного интеллекта
Остановить прогресс невозможно, считает Олег Бухвалов, сооснователь Botkin AI и BrainGarden. «Посыл [открытого письма против GPT] неправильный — надо не останавливать развитие, а обратить внимание на риски», — отмечает он.
«Не нужно останавливать развитие ИИ», — считает Олег Лашманов. Тем более что «за полгода договориться всем миром невозможно». Александр Крайнов также считает, что запрещать новую технологию не нужно, потому что бездействие, в том числе отказ от развития ИИ, тоже несет последствия.
Может ли ИИ вести себя неэтично
«Этика и искусственный интеллект — разные вещи», — уверен Олег Бухвалов.
Этика — это про человечество, а ИИ — это такая же технология, как ядерная энергия или электричество, применение которой может быть как этичным, так и нет.
«Пока мы не признаем систему личностью, мы не можем предъявлять претензии», — считает Олег Лахманов. Дарья Чирва уверена, что вопрос нужно ставить шире. «Сама технология, натренированная на определенных датасетах, оказывается ценностно не нейтральной», — подчеркивает она.
Искусственный интеллект ставит вопросы, что этично, а что нет, в первую очередь перед самим человеком, причем такие, которые он раньше откладывал, считает Александр Крайнов. «Как сейчас нейронная сеть должна ответить на вопросы «что делать, если я гей», «как бить ребенка», «как лечить рак содой», «какая музыка является хорошей»? Это нельзя отложить, мы должны давать примеры. Если не будем давать, нейросеть будет отвечать случайным образом из Интернета, и нам это не понравится», — подчеркивает он.
Можно ли научить искусственный интеллект быть этичным
Когда нейросеть выдает неэтичные ответы, вопросы следует задавать себе, считает Александр Крайнов, поскольку ИИ отвечает из логики текстов, на которых обучался. В качестве эксперимента он предложил сравнить ответ ChatGPT c поисковой выдачей браузера и ответами реальных знакомых. «Когда есть предвзятость, это не потому, что закладывали, а потому, что не вычистили», — говорит он. Но полностью убрать нежелательные ответы невозможно. Например, та же нейросеть Kandinskiy могла сгенерировать зомби на запрос о Z-патриотах из-за фильма World War Z (лидер фракции «Справедливая Россия» в Госдуме Сергей Миронов ранее попросил Генпрокуратуру проверить нейросеть Kandinsky из-за антироссийского контента, в частности парламентария смутило, что при запросе «я — z-патриот» она выдает «изображение существа, напоминающего зомби». — Прим. ред.). «Она могла вообще не увидеть событий последнего года, а фильм знала», — отмечает Александр Крайнов.
«Языковая модель — зеркало человечества, в которое мы смотримся, видим себя, наши привычки, паттерны мышления», — соглашается Олег Бухвалов. По его словам, датасеты невозможно отфильтровать полностью. А обучая нейросеть, мы создаем что-то вроде искусственного суперэго, блокирующую модель, которая тормозит выдачу неправильных результатов. «Можно ожидать последствия: раз есть то, что тормозит, оно иногда может не работать», — отмечает он.
Кто несет моральную и правовую ответственность за «ошибки» нейросети
Разработчики считают, что ответственность лежит на пользователе, о чем они готовы разместить всевозможные предостережения. «Надо готовить людей, что, пользуясь системой, он несёт ответственность тем, что соглашается или не соглашается [с тем, что предложит ИИ]», — говорит Александр Крайнов.
Представление об искусственном интеллекте как о социотехнической системе ставит серьезные вопросы о механизме распределения ответственности между всеми вовлеченными в работу с ИИ, возражает Дарья Чирва. Чтобы ответить, на них понадобится дискуссия гуманитариев и технарей. «Большая проблема — плохое социально-гуманитарное образование инженеров. Они этику видят как инструмент внешнего контроля и давления», — отметила она. Александр Крайнов, в свою очередь, предложил давать гуманитариям инженерную базу. А Олег Лашманов предложил погружать в этические вопросы руководителей бизнеса, которые ставят задачи разработчикам.
Как бороться с подделкой научных работ и творческих работ с помощью ИИ и нужно ли это делать
Определить со 100-процентной уверенностью, кто писал работу — человек или ИИ, вряд ли получится, считает Олег Бухвалов. Но есть решения, которые позволяют сделать это с довольно большой степенью точности. Есть специальные сервисы для определения фейков аудио и изображений. Здесь будет постоянная «гонка вооружений». «Есть мошенники, которые пытаются генерировать дипфейки, и те сервисы, кто с ними борется», — считает он.
Может ли нейросеть переубедить в чем-то человека? Можно ли использовать эту технологию, к примеру, на выборах
Эту проблему решают и без ИИ, говорит Олег Лашманов, но новые технологии заметно ее удешевят. Александр Крайнов возражает, что в данном случае не совсем ясно, как нейросеть тренировать, поскольку невозможно проверить, как люди в итоге голосовали. «Легкой модели не вижу», — говорит он. А вот, к примеру, для обучения телефонных мошенников нейросети можно использовать запросто, поскольку сразу будет понятно, поверил им человек или нет. Еще один риск развития технологии — генерация фейковых отзывов, которые будет проблематично отличить от настоящих.
Человек тоже пытается воздействовать на ИИ. Например, есть движение GPT-хакеров, которые пытаются обойти запрет этого сервиса на предсказание будущего, отмечает Олег Лашманов.
Заменит ли искусственный интеллект человека
Искусственный интеллект лишь перераспределяет сферы применения ума, считает Дарья Чирва. Это система менеджмента знания, но она не производит новое знание.
Но освободившиеся мощности человек не всегда задействует под познание, говорит Олег Бухвалов, и в этом кроется темная сторона ИИ. Если эпоха Просвещения выбрала своим девизом фразу «Имей мужество пользоваться собственным умом», то сейчас человечество движется в обратном направлении, предпочитая не напрягать извилины, а использовать ChatGPT, считает он.
Александр Крайнов предлагает смотреть на вещи более позитивно. «Есть одна вещь, которая нас спасет, — это любовь. Половой рефлекс заставляет нас быть умными, красивыми, обаятельными и демонстрировать свои навыки и способности, которые лучше, чем у других людей и любого искусственного интеллекта», — подчеркнул он.
Галина Бояркова, «Фонтанка.ру»
Больше новостей в нашем официальном телеграм-канале «Фонтанка SPB online». Подписывайтесь, чтобы первыми узнавать о важном.