Вплив людини на “характер” штучного інтелекту

“Штучний інтелект небезпечніше Північної Кореї”

Ілон Маск

 

В 2016 році, 23 березня, компанія Microsoft – американський розробник програмного забезпечення, запустила програму чат-бот із штучним інтелектом на ім’я Tay (Тай), працюючу в соціальній мережі Twitter. Чат-бот було запрограмовано на імітацію манери спілкування звичайної девʼятнадцятирічної дівчини в мережі Інтернет.

Експеримент був направлений на дослідження комунікацій між людьми в соціальних мережах. Характер повідомлень Тай повинен був бути дружелюбним і неформальним. ЇЇ штучний інтелект самонавчався: чим більше повідомлень проходило через програму, тим розумнішою вона ставала. Ця система працювала як належить. Програма справді навчалась, але не так, як було заплановано.

Twitter чат-бот Тай (Tay)

Здатність чат-бота імітувати манеру спілкування інших, зробила її вразливою перед людьми, дозволяючи користувачам Твітера впливати на її твіти і повідомлення. Твіти Taй стали агресивними, расистськими, образливими. Після того, як програма набрала 50 тис. підписників і виклала більше 100 тис. твітів, Microsoft припинила роботу чат-бота. Протягом дня повідомлення Taй були видалені.

Люди повинні відповідально підходити до навчання штучного інтелекту, інакше, одного разу, він “видалить” нас!