Робот вышел из-под контроля

Ентузіаст

Ученые создают роботов, чтобы они помогали человечеству, а те раз — и уже ненавидят людей. Сценарий фантастического фильма? Нет. История из жизни.


Компания Microsoft создала самообучающегося твиттер-бота для общения в соцсетях. Разработчики придали роботу вид девушки-подростка и назвали его Тэй. По их задумке, программа должна была общаться в «Твиттере» с молодыми людьми 18-24 лет, развлекать пользователей шутливыми разговорами и в процессе диалогов самообучаться и становиться умнее.

 

твиттер-бот.jpg

Сначала сообщения Тэй были очень милыми. Она писала, что «люди супер крутые», и другие подобные вещи. Но потом что-то пошло не так. Меньше чем за сутки робот изменил свое отношение к человечеству. Чат-бот научился оскорблять собеседников, употреблять нецензурную лексику, сообщил, что ненавидит всех, а позже перешел к откровенно расистским и антисемитским комментариям.


Разработчики удалили провокационные сообщения робота, а потом и вовсе отключили его, отправив Тей «спать». Что будет дальше с ботом - неизвестно. Понятно только одно: искусственный интеллект обучается очень быстро, в том числе и плохим вещам.