Aktualności

MICROSOFT POUCZYŁ SIĘ, ŻE internet jest ciemnym, przerażającym miejscem. Założyli bota czatu na Twitterze o imieniu Tay, który został zaprojektowany tak, aby naśladować mowę 19-letniej dziewczynki. Sztuczna inteligencja (AI) miała pomóc w „prowadzeniu badań nad zrozumieniem konwersacji”, powiedział Microsoft, więc kiedy została uruchomiona, była w stanie uczyć się od ludzi, z którymi rozmawiała i naśladować ich sposób mówienia.
Problem polegał na tym, że Microsoft nie zaprojektował swojego bota, aby unikał podchwytliwych lub politycznych tematów, co oznacza, że odzwierciedlałby opinie ludzi, którzy z nim rozmawiali. To oczywiście była zbyt dobra okazja dla trolli internetowych wszystko stało się naprawdę brzydkie, naprawdę szybkie.



W ciągu 24 godzin od uruchomienia bota Tay zmienił się w rasistę. Oprócz zaprzeczania Holokaustowi i nazizmu bot zaczął także naśladować opinie Donalda Trumpa na temat imigracji, teorii spiskowych z 11 września i naturalnie zaczął stosować wiele okropnych rasistowskich obelg.
Microsoft postanowił to zamknąć. Nie oznacza to, że bot nie był sukcesem: idealnie naśladował ludzi, z którymi rozmawiał. Microsoft nie wziął jednak pod uwagę faktu, że ludzie, których naśladował, byli trollami internetowymi. Internet zamienił zaawansowany technologicznie eksperyment w sztucznej inteligencji w nic innego, jak tylko kolejny palant.