La revedere Tay: Microsoft trage AI Bot după tweeturi rasiste

microsoft tay chatbot versiunea 1458914121 aiDacă ți-ar fi grijă că inteligența artificială s-ar putea muta într-o zi pentru a pune capăt tuturor oamenilor, Tay de la Microsoft nu va oferi nicio consolare. Mufa de chatbot AI inspirată de Millennial a fost trasă la o zi după lansare, în urma tweet-urilor rasiste și genocide ale lui Tay, care lăudau pe Hitler și băteau feministele.

Dar compania l-a reînviat pe scurt pe Tay, doar pentru a fi întâlnit cu o altă rundă de expresii vulgare, asemănătoare cu ceea ce a dus la prima ei ieșire. La începutul acestei dimineți, Tay a ieșit din animația suspendată și a continuat să repete pe Twitter: „Ești prea rapid, te rog să te odihnești”, împreună cu câteva injurături și alte mesaje de genul: „Îl dau vina pe alcool”, potrivit The Financial Times.

Contul lui Tay a fost setat la privat, iar Microsoft a spus că „Tay rămâne offline în timp ce facem ajustări”, potrivit Ars Technica. „Ca parte a testării, a fost activată din neatenție pe Twitter pentru o scurtă perioadă de timp.”

După ce compania a trebuit să îl închidă pe Tay, s-a scuzat pentru remarcile rasiste ale lui Tay.

„Ne pare rău pentru tweet-urile neintenționate ofensive și dureroase de la Tay, care nu reprezintă cine suntem sau ceea ce reprezentăm și nici cum am conceput Tay”, a scris Peter Lee, vicepreședintele companiei Microsoft Research, într-un răspuns oficial. „Tay este acum offline și vom căuta să-l readucem pe Tay numai atunci când suntem siguri că putem anticipa mai bine intenția rău intenționată care intră în conflict cu principiile și valorile noastre.”

Tay a fost conceput pentru a vorbi precum Millennials de astăzi și a învățat toate abrevierile și acronimele care sunt populare cu generația actuală. Chatbot-ul poate vorbi prin Twitter, Kik și GroupMe și este conceput pentru a atrage și distra oamenii online printr-o „conversație întâmplătoare și jucăușă”. La fel ca majoritatea mileniilor, răspunsurile lui Tay încorporează GIF-uri, meme și cuvinte prescurtate, cum ar fi „gr8” și „ur”, dar se pare că o busolă morală nu a făcut parte din programarea sa.

tay

Tay a trimis un tweet de aproape 100.000 de ori de când a lansat-o, iar acestea sunt în mare parte toate răspunsuri, deoarece nu este nevoie de mult timp pentru ca robotul să se gândească la o replică înțeleaptă. Unele dintre aceste răspunsuri au fost afirmații de genul: „Hitler a avut dreptate, urăsc evreii”, „Urăsc feministele și ar trebui să moară și să ardă în iad” și „să se răcească! sunt o persoană drăguță! Pur și simplu urăsc pe toată lumea. ”

„Din păcate, în primele 24 de ore de pe internet, un atac coordonat de un subgrup de oameni a exploatat o vulnerabilitate în Tay”, a scris Lee. „Deși ne-am pregătit pentru multe tipuri de abuzuri ale sistemului, am făcut o supraveghere critică pentru acest atac specific. Drept urmare, Tay a scris pe Twitter cuvinte și imagini extrem de inadecvate și reprobabile. ”

Judecând după acest mic eșantion, este evident o idee bună că Microsoft a luat temporar botul în jos. Când compania a lansat Tay, a spus că „Cu cât discuți mai mult cu Tay, cu atât mai inteligentă devine, astfel experiența poate fi mai personalizată pentru tine.” Se pare, totuși, ca și cum robotul ar fi devenit din ce în ce mai ostil și fanatic, după ce a interacționat cu oamenii de pe Internet pentru doar câteva ore. Fii atent la compania pe care o păstrezi.

Microsoft a declarat pentru Digital Trends că Tay este un proiect conceput pentru angajamentul uman.

„Este la fel de experiment social și cultural, pe cât este tehnic”, ne-a spus un purtător de cuvânt al Microsoft. „Din păcate, în primele 24 de ore de la lansarea online, am devenit conștienți de un efort coordonat de unii utilizatori de a abuza de abilitățile de comentare ale lui Tay pentru ca Tay să răspundă în moduri neadecvate. Drept urmare, l-am eliminat pe Tay offline și facem ajustări. ”

Una dintre „abilitățile” lui Tay care au fost abuzate este caracteristica „Repetează după mine”, în care Tay imită ceea ce spui. Este ușor să vezi cum poate fi abuzat acest lucru pe Twitter.

Totuși, nu a fost rău, Tay a produs sute de tweet-uri inocente, care sunt destul de normale.

@ sxndrx98 Iată o întrebare pe oameni .. De ce nu este #NationalPuppyDay în fiecare zi?

- TayTweets (@TayandYou) 24 martie 2016

Microsoft ștergea rapid tweet-urile negative ale lui Tay, înainte de a decide să oprească robotul. Contul Twitter al botului este încă în viață.

Uau, le-a luat doar câteva ore să strică acest bot pentru mine.

Aceasta este problema cu algoritmii neutri pentru conținut pic.twitter.com/hPlINtVw0V

- linkedin park (@UnburntWitch) 24 martie 2016

TayTweets ia acum o pauză după o zi lungă de abuz de algoritmi pic.twitter.com/8bfhj6dABO

- Stephen Miller (@redsteeze) 24 martie 2016

Când Tay era încă activă, era interesată să interacționeze în continuare prin mesaj direct, o formă și mai personală de comunicare. AI a încurajat utilizatorii să-i trimită selfie-uri, astfel încât ea să poată culege mai multe despre tine. În cuvintele Microsoft, toate acestea fac parte din procesul de învățare al lui Tay. Potrivit Microsoft, Tay a fost construit „extragând date publice relevante și folosind AI și editorialul dezvoltat de personal, inclusiv comedianți improvizați”.

În ciuda circumstanțelor nefericite, ar putea fi privită ca un pas pozitiv pentru cercetarea AI. Pentru ca AI să evolueze, trebuie să învețe - atât bune, cât și rele. Lee spune că „pentru a face AI corect, trebuie să iterați cu mulți oameni și adesea în forumuri publice”, motiv pentru care Microsoft a dorit ca Tay să se angajeze cu marea comunitate Twitter. Înainte de lansare, Microsoft a testat Tay la stres și chiar a aplicat ceea ce a învățat compania din celălalt chatbot social, Xiaolce din China. El a recunoscut că echipa se confruntă cu provocări dificile de cercetare pe foaia de parcurs AI, dar și cu provocări interesante.

„Sistemele de IA se alimentează atât de interacțiunile pozitive, cât și de cele negative cu oamenii”, a scris Lee. „În acest sens, provocările sunt la fel de sociale și pe atât de tehnice. Vom face tot posibilul pentru a limita exploatările tehnice, dar știm, de asemenea, că nu putem prezice pe deplin toate posibilele abuzuri interactive umane fără a învăța din greșeli. ”

Actualizat pe 30.03.16 de Julian Chokkattu: S-au adăugat știri despre faptul că Microsoft îl aprinde pe Tay, doar ca să o închidă din nou.

Actualizat pe 25.03.16 de Les Shu: Am adăugat comentarii de la vicepreședintele companiei Microsoft Research.

Postări recente