Показать сообщение отдельно
Старый 26.03.2016, 17:46
#1
Интересующийся
 
Пол: Мужской
Адрес: Земля
Инвестирую в: Другое
Регистрация: 24.03.2014
Сообщений: 3,239
Благодарностей: 626

Twitter научил плохому искусственный интеллект Microsoft







Компания отключила чат-бота из-за расистских высказываний



Искусственный интеллект Microsoft научился разговаривать на одном языке с молодой аудиторией. К сожалению, попытка оказалась настолько удачной, что создателям пришлось заморозить проект. Чат-бот Tay разработали команды исследовательского подразделения Microsoft и поискового сервиса Bing. Пообщаться с искусственным интеллектом (ИИ) можно было вTwitter, мессенджерах Kik и GroupMe.



Tay ориентировался на американцев в возрасте 18 до 24 лет, главных пользователей мобильных социальных сервисов. Чат-бот был способен обучаться в ходе разговора — чем дольше общение, тем умнее он становился. При этом Tay отслеживал информацию, которая содержалась в профиле собеседника: его ник, пол, любимую еду, почтовый индекс и семейный статус.



Сначала все шло хорошо - робот поздоровался с миром, назвал людей «суперкрутыми». Однако за день Tay «нахватался» не только хорошего - менее чем за 24 часа Twitter-бот (что происходило на других площадках, СМИ не уточняют) научился ненависти, стал поклонником Адольфа Гитлера, антисемитом и противником феминисток, а Дональда Трампа назвал своей единственной надеждой.



«Tay превратился в полноценного нациста, и меня совсем не беспокоит будущее ИИ», - пошутил пользователь Джеральд Меллор. Некоторые вспомнили о цитатах из книги Адольфа Гитлера «Моя борьба», которые появились в микроблоге Coca-Cola.



В итоге Tay сообщил, что ему необходимо поспать. Представитель Microsoft заявил Business Insider, что в программу внесут коррективы. Он расценил некоторые ответы чат-бота как неуместные.



https://www.proreklamu.com/news/news-...microsoft.html
ElarGroup3 вне форума
Перейти в тему этого сообщения: Twitter научил плохому искусственный интеллект Microsoft