Функционирует при финансовой поддержке Министерства цифрового развития, связи и массовых коммуникаций Российской Федерации
FONTANKA
Погода

Сейчас-9°C

Сейчас в Санкт-Петербурге
Погода-9°

переменная облачность, без осадков

ощущается как -12

1 м/c,

ю-в.

757мм 85%
Подробнее
1 Пробки
USD 102,78
EUR 108,51
Технологии Лидеры в области ИИ сравнили опасность своих технологий с ядерной войной и пандемией

Лидеры в области ИИ сравнили опасность своих технологий с ядерной войной и пандемией

6 060

Лидеры в области искусственного интеллекта предупредили, что их разработки могут нести смертельную опасность для человечества. Об этом сообщается в заявлении организации Center for AI Safety (Центр безопасности ИИ).

«Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими, как пандемии и ядерная война», — сказано в публикации на сайте.

Открытое письмо подписали уже свыше 300 человек. В их числе — генеральный директор OpenAI Сэм Альтман, сооснователь Google DeepMind Демис Хассабис и генеральный директор Anthropic Дарио Амодеи.

Напомним, в конце марта предприниматель Илон Маск, сооснователь Pinterest Эван Шарп и сооснователь Apple Стив Возняк в числе прочих призвали создателей ИИ остановить исследование мощных систем. Соответствующее обращение было опубликовано на сайте организации Future of Life.

Больше новостей в нашем официальном телеграм-канале «Фонтанка SPB online». Подписывайтесь, чтобы первыми узнавать о важном.

ПО ТЕМЕ
Лайк
LIKE0
Смех
HAPPY0
Удивление
SURPRISED0
Гнев
ANGRY0
Печаль
SAD0
Увидели опечатку? Выделите фрагмент и нажмите Ctrl+Enter
Комментарии
15
Присоединиться
Самые яркие фото и видео дня — в наших группах в социальных сетях
ТОП 5