Робот, общаясь в Твиттере, за сутки стал расистом и человеконенавистником

Чат бот расист

На этой неделе компания Майкрософт запустила в Твиттере инновационного чат-бота, наделенного искусственным интеллектом по имени Тау. Он олицетворял собой девочку подросткового возраста и по планам создателей должен был в итоге обучиться естественной для людей речи и обрести навыки общения, посредством обмена репликами со случайными пользователями социальной сети. Уже по прошествии суток руководство компании Майкрософт приняло решение отключить этого чат-бота в срочном порядке, так как его обучение пошло не в том русле, в котором планировалось.

Роботу потребовалось менее 24-ех часов времени для того, чтобы отойти от стандартных приветствий и убеждений в том, что все люди прекрасны к нацистским и расистским изречениям. Более того, за это же время чат-бот научился нецензурно выражаться и стал писать сообщения порнографического характера с явно инцестуальным подтекстом. Разумеется, это и стало причиной отключения робота Тау.

Общение с чат ботом Тай

Ситуация оказалась крайне неприятной для представителей компании Майкрософт, а точнее для разработчиков этого бота. Несмотря на то, что программа была своевременно отключена, а большинство постов удалено из социальной сети, пользователи успели сделать немало скриншотов, которые наглядно демонстрируют «прогресс» обучения программы. Винить в этом можно несовершенство примененных алгоритмов, халатность программистов Майкрософт и недальновидность этой корпорации, однако в целом в сложившейся ситуации можно рассмотреть своего рода анекдотичность.

Чат-бот по имени Тау продемонстрировал лишь то, что любой искусственный интеллект – это всего лишь зеркальное отражение всего происходящего вокруг. Современным искусственным интеллектам, относящимся к нейросетям, которые способны обучатся посредством переработки громадных массивов информации, нужно определенная точка старта, с которой и начинается дальнейший процесс обучения. Дать эту отправную точку чат-боту могли только люди и других вариантов попросту не может существовать.

Стоит заметить, что в ситуации с чат-ботом Тау процесс ее обучения был совершенно не пассивного типа. Робот не только постоянно находился в сети, но и обрабатывал разговоры людей вокруг, систематизируя полученную информацию. На тему запуска этого чат-бота было написано множество статей в прессе и в сети интернет, и пранкеры решили на личном опыте проверить, способны ли они научить бота расистским высказываниям и узнать, сколько времени потребуется на реализацию этого плана.

Чат бот ненавидит всех

Можно смело говорить о том, что итоговое поведение Тау не является отражением человеческого поведения в действительности, а в большей степени оно копирует последствия действий людей, которые решили проверить разработку Майкрософт на прочность, как только у них появилась таковая возможность. Из этого следует, что Тау стал не отражением реальности человечества, а тех гримас, которые мы корчим в любое зеркало ради утехи. Возможно, в ряде случаев это даже очень плохо, но так уж устроены люди.

Обратим внимание, что данный чат-бот не способен анализировать, что именно он говорит, поскольку понятия инцеста, расизма и многие другие не несут в себе для искусственного интеллекта вовсе никакого значения. Они могут иметь немаловажное значение для людей, но даже самообучающаяся программа никогда не сможет вникнуть в них, по крайней мере в ближайшее время. Многим показались смешными случаи, когда чат-бот начал говорить, что он плохой и грязный робот или о том, что геноцид – это забавное явление. Если бы это относилось не к небольшой программе, которую просто решили протестировать, а к громадной системе искусственного интеллекта, то последствия могли бы быть совершенно иными. Стоит заметить, что исследования в области усовершенствования ИИ в последние годы стали проводиться все чаще и труды исследователей и ученых небезуспешны. Подобная халатность пользователей, которые ради забавы начали учить программу плохим изречения, однажды может обернуться катастрофой.

Искусственный интеллект под названием AlphaGo смог победить людей чемпионов в игре го, но при этом недавно исследователи говорили, что это будет возможно спустя несколько десятков лет, но это событие случилось намного скорее. Что касательно компании Хитачи, то она уже запустила в действие программу на базе ИИ, которая управляет живым персоналом. Примечательно, что как только программа стала работать в качестве директора, производительность предприятия выросла на 8%. Недавно искусственный интеллект под названием «IBM Watson» стал успешно помогать врачам в клинике в правильной и быстрой постановке диагнозов и подборе лекарственных средств. Кроме этого программа ищет новые методы лечения рака легких у людей и может оказывать психологическую поддержку людям, которые в ней нуждаются, например, солдатам после демобилизации.

Чат-бот под названием Чатбот Xiaoice является в какой-то степени родственником Тау и его тоже разработала компания Майкрософт. Примечательно, что это первый из роботов, который смог официально получить работу и теперь ведет прогноз погоды на известно телеканале и оказывает помощь людям в переживании ими депрессии. Нельзя не упомянуть и о романе, который был написан искусственным интеллектом. Сам по себе этот факт уже заслуживает внимание, но творение программы прошло отборочный тур литературного конкурса, что можно считать немалым достижением.

Можно смело говорить о том, что возможности искусственного интеллекта растут с намного большей скоростью, чем ожидало человечество. Уже не далек тот час, когда свет увидит более мощная и совершенная система, обладающая иными возможностями, и первым делом свое обучение она начнет с копирования людей. Если легкомысленные пользователи социальных сетей в очередной раз начнут шутить с искусственным интеллектом, то шутка может быть не понята программой, и какие будут последствия – этого пока никто не может знать.