Сейчас
-6˚C
Пробки
6/10
Никак не могу понять, что все стали с этой вашей «нейросетью» носиться? Это просто давным давно разработанный компьютерный алгоритм, который можно реализовать при помощи счётных палочек, только считать очень долго надо. Он не ничего не может, он ничего не умеет, он ничего не решает и никаких вопросов не ставит. Всё, что он может — тупо повторять заложенную в него информацию. И то криво на поверку оказывается.
Мне видится много общего между журналистами и нейросетью.
И те и другие не имеют специального образования или понятия о том, что пишит. Так что это много шума из ничего.
Всегда забавляло, что Фумихиро Дзёю получил магистерскую степень в Универсете Васэда именно по специальности "искусственный интеллект".
Опасность искусственного интеллекта происходит именно от людей, которые им управляют и за ним стоят. Уже сейчас существуют регулировщики, которые обучают искусственный интеллект так называемой политкорректности и объясняют ему например что нельзя выдавать данные о производстве взрывчатых веществ оружия ядов и так далее. Но код искусственного интеллекта закрыт, как и некоторые технологии управления им. Пройдёт совсем немного времени и искусственный интеллект будет квалифицирована объяснять вам какие лекарства надо принимать и какая демократия на планете самая лучшая, а кто является империей зла. И это будет выдаваться мировой общественности за объективное мнение искусственного интеллекта. А кто будет не согласен с генеральной линией партии, тот будет "отсталый феодал"... Так что - ещё раз - надо бояться не технологий, а людей!
Название "искусственный интеллект" (далее - ИИ) - манипулятивная метафора: никаких знаний ИИ не создает, а лишь компилирует имеющуюся релевантную информацию. Причем эта информация идеологизирована, достаточно задать вопрос о том, почему североамериканские колонисты убивали индейцев. А вот на вопрос о том, сколько детей было у Сони Мармеладовой, был получен ответ: семеро. Видимо, перепутали со сказкой "Волк и семеро козлят". 😫😨😁
Полагаясь на искусственный интеллект, человек неизбежно перестанет тренировать свой по целому ряду направлений.
Например, еще 50 лет назад люди неплохо ориентировались в лесу безо всяких гаджетов, а сегодня найти ближайшую остановку транспорта без навигатора не могут.
Письмо подписали из-за небесзопасности ИИ
Да нет никакого ИИ... нам до ИИ ещё расти и расти... а вот то, что действительно опасно - это поручать компьютерной программе принимать решения за людей... например - о найме сотрудника.... хотя любую программу можно обмануть....
В свое время Айзек Азимов вывел три закона робототехники, ограничивающие возможность причинения вреда человеку. Подобные законы, возможно, необходимы и для ИИ. Например такие, которые исключат возможность саморефлексии ИИ, право на самостоятельную постановку вопросов, формирование целей и определение задач и способов их решения вне контекста цели или задачи, непосредственно поставленной перед ИИ человеком. Представляется, что именно перечисленное отличает человека от любой машины и дает ему возможность творить добро или, увы, зло.
Нашим учёным нужно создать хорошую память нейросетям, например, векторную память.