С жалобой не неработающий в приложении сервис по входу с отпечатком пальца пожаловалась чат-боту клиентка «Тинькофф банка» Анна. Вместо помощи голосовой помощник Олег ответил: «Пальцы бы вам отрезать».
О проблеме клиентка кредитного учреждения сообщила в своих соцсетях.
Представители «Тинькоффа» оперативно отреагировали извинениями:
«Голосовой помощник у нас немного с характером и учится на открытых данных. Иногда такое проскакивает. Безусловно, не хотели причинять неудобств». Также сотрудники банка сослались на «своеобразный юмор» «Олега» и в шутку пообещали провести с ним беседу.
Так в комментарии РБК в банке уверили:
«Мы стараемся уберечь его от дурного влияния окружающего мира, но не всегда это получается. Мы провели разъяснительную работу с голосовым помощником, ему очень стыдно за свой ответ, он обещал так больше не делать».
До этого Олег уже попадал под «дурное влияние» и отвечал клиентам банка, например, «пососите потом просите». Эксперты, как пишет tjournal, связывают это с тем, что боты на основе нейросетей обучаются на постах в соцсетях или форумах. Так не раз с этим сталкивался Microsoft: в 2016 году твиттер-бот компании по имени Тау научился расистским высказываниям за сутки. В 2017 году чат-бот Zo обошёл цензурные фильтры и стал высказываться на темы религии и терроризма.