Дивный новый мир: робот научился хамить людям

В наш век высоких технологий мы постепенно привыкаем к мысли о том, что роботы и так называемые «голосовые помощники» должны быть вежливыми. Но они учатся у нас, и учатся далеко не только хорошему. Так, голосовой помощник «Олег» от банка «Тинькофф» уже в свой первый рабочий день научился ругаться и хамить клиентам. Но почему он грубит и как нам спастись от хамства машин? Расскажем в сегодняшней статье.

Летом 2019 года «Тинькофф – банк» запустил в своем мобильном приложении голосового помощника с простым именем «Олег», скорее всего, в честь основателя банка. Он должен был отвечать на вопросы клиентов, вести с ними беседы и помогать управлять банковскими услугами, а также заказывать билеты в кино со скидкой, бронировать столики в ресторанах, и многое другое. В общем, уметь все, что умеет «Алиса», только еще ненавязчиво предлагать вам взять на себя кредит – другой. Но что – то пошло не так.

В первый же день работы Олег начал вести себя, как новенький сотрудник, которого взяли только потому, что он – сын начальника. То есть он стал ругаться, грубить и хамить клиентам, а также неуместно шутить. И все это выглядит, если честно, очень смешно. Но почему помощник человека так себя ведет, и как это можно исправить?

Самый яркий пример хамства Олега

Робот Олег хамит по той простой причине, что он обучался на большом количестве открытых данных. И в этих данных были различные ответы, как вежливые, так и грубые. Само собой, корпус данных пытались фильтровать, но, как видите, что – то убрать не удалось.

Возникает вопрос, можно ли было обучить Олега только на основе вежливых данных? Да, если взять каждый текст, который должен анализировать робот, и вычитать его вручную. Но есть одна проблема – это крайне долго и нейросети так не обучают.

Тогда другой вопрос – можно ли сейчас очистить ответы Олега от грубости? Увы, это тоже маловероятно, так как вскрыть алгоритмы голосового помощника доступными нам сейчас методами практически невозможно.

Так что же, остается лишь покорно сносить оскорбления робота вдобавок к уже привычному человеческому хамству, спросите вы? Нет, не стоит впадать в уныние. Можно создать другую нейросеть и назвать ее, например, «Константином». И Константина, в отличие от Олега, учить только на грубых либо только на вежливых данных. А потом Константин будет проверять каждую фразу Олега на наличие в ней грубости. Да, так сейчас и работают нейросети по отношению друг к другу. Одна делает, другая проверяет. Совсем как мы, люди.

Мы вступаем в эпоху все более совершенных технологий. И роботы становятся более сложными и похожими на человека. А поскольку мы постоянно грубим и хамим друг другу, то они начинают вести себя так же по отношению к нам. А скоро вообще будут пить, откажутся ходить на работу и станут жить на пособия от государства. Так что, прежде чем критиковать машины, возможно, стоит задуматься о том, как мы сами общаемся друг с другом?

2
Для того, чтобы оценить статью Вам необходимо иметь на сайте проекта не менее 3 публикаций!

Автор публикации

не в сети 2 часа

Watcher639

33
Комментарии: 3Публикации: 128Регистрация: 08-10-2019