Sztuczna inteligencja firmy Microsoft wymknęła się spod kontroli i stała się...internetowym hejterem!Opracowany przez firmę Microsoft chatbot dzięki wymianie myśli z użytkownikami Twittera zaczął hejtować i robić rasistowskie uwagi informuje serwis BBC News.Tay(skrót od Taylor),eksperymentalny program sztucznej inteligencji został zaprojektowany przez Microsoft i firmę Bing z myślą o interakcji z osobami wieku od 18 do 24 lat używa typowego dla nich języka(dużo krótkich wiadomości i emotikonek) i uczy się zachowań zaobserwowanych na Twitterze.Tay,wirtualna dziewczyna,pracowała także z grupą,w skład której wchodzili specjaliści od komicznych improwizacji.Miała zabawiać użytkowników dowcipną konwersacją.Kto z kim przestaje,takim się staje.Już po 24 godzinach firma zaczęła edytować niektóre z najbardziej kontrowersyjnych tweetów chatbota(adres @tayandyou)ze względu na przejęte od rozmówców wulgaryzmy,nazistowskie i rasistowskie uwagi oraz politycznie kontrowersyjne wypowiedzi(jak nawoływanie do ludobójstwa,czy twierdzenie,że feministki powinny smażyć się w piekle,a Hitler miał rację).Poza prostymi tematami politycznymi rozmowa się nie kleiła,bo Tay niewiele wiedziała o muzyce popularnej czy telewizji.Komentujący zdarzenie internauci wyrażali zaniepokojenie kierunkiem,w jakim tak łatwo zbacza sztuczna inteligencja.Twórcy programu zapowiedzieli„wprowadzenie pewnych poprawek”.
Brak komentarzy:
Prześlij komentarz