Сейчас

+6˚C

Сейчас в Санкт-Петербурге

+6˚C

Облачно, Без осадков

Ощущается как 3

3 м/с, ю-з

740мм

78%

Подробнее

Пробки

3/10

Чат-бот «Тинькофф банка» предложил клиентке отрезать пальцы. В учреждении извинились за грубость, которой голосовой помощник набрался из открытых данных

5493

С жалобой не неработающий в приложении сервис по входу с отпечатком пальца пожаловалась чат-боту клиентка «Тинькофф банка» Анна. Вместо помощи голосовой помощник Олег ответил: «Пальцы бы вам отрезать».

О проблеме клиентка кредитного учреждения сообщила в своих соцсетях.

Представители «Тинькоффа» оперативно отреагировали извинениями:

«Голосовой помощник у нас немного с характером и учится на открытых данных. Иногда такое проскакивает. Безусловно, не хотели причинять неудобств». Также сотрудники банка сослались на «своеобразный юмор» «Олега» и в шутку пообещали провести с ним беседу.

Так в комментарии РБК в банке уверили:

«Мы стараемся уберечь его от дурного влияния окружающего мира, но не всегда это получается. Мы провели разъяснительную работу с голосовым помощником, ему очень стыдно за свой ответ, он обещал так больше не делать».

До этого Олег уже попадал под «дурное влияние» и отвечал клиентам банка, например, «пососите потом просите». Эксперты, как пишет tjournal, связывают это с тем, что боты на основе нейросетей обучаются на постах в соцсетях или форумах. Так не раз с этим сталкивался Microsoft: в 2016 году твиттер-бот компании по имени Тау научился расистским высказываниям за сутки. В 2017 году чат-бот Zo обошёл цензурные фильтры и стал высказываться на темы религии и терроризма.

 

ЛАЙК0
СМЕХ0
УДИВЛЕНИЕ0
ГНЕВ0
ПЕЧАЛЬ0

ПРИСОЕДИНИТЬСЯ

Самые яркие фото и видео дня — в наших группах в социальных сетях

Увидели опечатку? Выделите фрагмент и нажмите Ctrl+Enter

сообщить новость

Отправьте свою новость в редакцию, расскажите о проблеме или подкиньте тему для публикации. Сюда же загружайте ваше видео и фото.

close