ХроникаПандемия коронавирусаОбновлено в 13:44Заразились
на 29.07
В России 6 218 502+23 270В мире 195 968 310+638 614

Чат-бот от Microsoft за сутки научился ругаться и стал расистом

Москва. 24 марта. INTERFAX.RU - Разработанный Microsoft чат-бот Tay, запущенный 23 марта в твиттере, научился ругаться, а также стал делать расистские высказывания, пишет "Би-би-си".

Экспериментальная версия искусственного интеллекта, которая может учиться у своих собеседников, была создана для общения с молодыми людьми 18-24 лет.

Уже через сутки после запуска Microsoft была вынуждена удалить некоторые из наиболее провокационных высказываний Tay.

В частности, бот заявил, что поддерживает геноцид, ненавидит феминисток, а также выразил свое согласие с политикой Гитлера. Кроме того, Tay признался, что тайно сотрудничает с АНБ.

После этого в Microsoft сообщили, что "вносят некоторые поправки" в работу Tay.

"Чат-бот Tay с искусственным интеллектом - это обучаемый проект, созданный для взаимодействия с людьми. Недопустимые ответы, которые он дает, свидетельствуют о взаимодействиях, которые у него были по мере обучения", - говорится в сообщении корпорации.

После появления новостей о изменении ответов Tay некоторые пользователи стали выражать опасения как по поводу будущего искусственного интеллекта, так и касательно убеждений современной молодежи.

Новости

 
Подписка
Хочу получать новости:
Введите код с картинки:
Обновить код
(function(w, n) { w[n] = w[n] || []; w[n].push([{ ownerId: 173858, containerId: 'adfox_151179074300466320', params: { p1: 'byuef', p2: 'emwl', puid1: '', puid2: '', puid3: '' } }, ['tablet', 'phone'], { tabletWidth: 1023, phoneWidth: 639, isAutoReloads: false }]); setTimeout(function() { if (document.querySelector("#adfox_151179074300466320 #adfox_151179074300466320")) { document.querySelector("#adfox_151179074300466320").style.display = "none"; // console.log("Баннер скрыт"); } // console.log("OKs"); }, 1000); })(window, 'adfoxAsyncParamsAdaptive');