Cum îi învățăm pe roboți drept și rău?

algoritmul identifică falsuri pe roboții de pe rețelele de socializare o etică greșităNota editorului: Digital Trends a colaborat cu WebVisions, conferința recunoscută la nivel internațional de design, tehnologie și experiență a utilizatorului, pentru a contribui la aducerea luminii Douglas Rushkoff la evenimentul din acest an din Portland, Oregon. Ca parte a parteneriatului nostru, suntem, de asemenea, încântați să prezentăm conținut selectat din blogul inteligent al WebVisions, Word. În această săptămână, colaboratorul Mark Wyner se întreabă cum ne străduim să predăm inteligența artificială de la rău la rău. Bucurați-vă!

Twitter a recunoscut că până la 23 de milioane (8,5 la sută) din conturile sale de utilizator sunt Twitterboti autonomi. Mulți sunt acolo pentru a crește productivitatea, pentru a efectua cercetări sau chiar pentru a se distra. Cu toate acestea, multe au fost create cu intenții dăunătoare. În ambele cazuri, se știe că roboții se comportă cu o etică discutabilă - poate pentru că sunt doar specimene minore de inteligență artificială (AI).

Oamenii construiesc în prezent mașini mult mai sofisticate care se vor confrunta cu probleme de etică pe scări monumentale. Chiar și în mortalitatea ființelor umane. Deci, cum ne asigurăm că fac alegerile corecte atunci când vine momentul?

Construiește-l sau învață-l

Factorul cheie în construirea cu succes a mașinilor autonome care coincid simbiotic cu ființele umane este etica. Și există practic două moduri de a programa etica în mașini:

În primul rând, le puteți codifica în sistemele de operare. Preocuparea aici este că etica este subiectivă. Etica din aparat este condiționată de etica creatorului său. Dar noi, oamenii, nu ne alinăm întotdeauna la moralitatea noastră. Luptăm războaie din cauza diferențelor etice. Deci, pe măsură ce construim mașini autonome pentru a fi etici, construim în limitele disparităților noastre existente.

roboți-corect-greșit-etică-2

În al doilea rând, puteți oferi câteva orientări, apoi permiteți mașinii să-și învețe propria etică pe baza propriilor experiențe. Această abordare pasivă lasă mult spațiu pentru interpretări greșite ale moralității, în funcție de care sunt observate comportamentele. Luați în considerare recenta colaps al AI-ului de pe Twitter al Microsoft, Tay, care a fost păcălit să trimită tweeturi despre insultele rasiste și promovarea genocidului pe baza unei inferențe false a normalității etice acceptate.

O echipă de la Georgia Tech lucrează la aceasta din urmă, învățând sistemele cognitive să învețe cum să se comporte în moduri acceptabile din punct de vedere social citind povești. Un sistem de recompensă numit Quijote ar trebui să ajute sistemele cognitive să identifice protagoniștii în povești, pe care mașinile le folosesc pentru a-și alinia propriile valori cu cele ale ființelor umane. Nu este clar ce metode a folosit Microsoft cu Tay. Dar dacă tehnicile lor erau preventive, ca și în cazul sistemului de învățare al Georgia Tech, suntem departe de a solidifica etica în inteligența artificială.

Paralizia etică

Acum, toate acestea se bazează pe ideea că un computer poate înțelege chiar etica. Așa cum arată Alan Winfield în studiul său Către un robot etic, atunci când un computer întâlnește un paradox etic, rezultatul este imprevizibil, adesea paralizant. În studiul său, unui robot cognitiv (robot A) i s-a cerut să salveze un robot „uman” (robot H) din pericol. Când robotul A a putut salva doar unul dintre cei doi roboți H, s-a zguduit și a recunoscut în propria confuzie, salvând niciunul dintre ei.

Există o veche dezbatere filosofică despre dacă etica este o chestiune de rațiune sau emoție. Printre psihologii moderni, există un consens că luarea deciziilor etice necesită atât judecăți raționale, cât și judecăți emoționale. După cum remarcă profesorul Paul Thagard într-o lucrare despre acest subiect, „judecățile etice sunt adesea extrem de emoționale, atunci când oamenii își exprimă puternica aprobare sau dezaprobare față de diferite acte. Dacă sunt și raționale, depinde dacă evaluarea cognitivă care face parte din emoție se face bine sau rău. ”

Decizii cu consecințe

Deci, dacă mașinile cognitive nu au capacitatea de etică, cine este responsabil atunci când încalcă legea? În prezent, nimeni nu pare să știe. Ryan Calo de la Facultatea de Drept a Universității din Washington notează, „robotica combină, pentru prima dată, promiscuitatea datelor cu capacitatea de a face rău fizic; sistemele robotice îndeplinesc sarcinile în moduri care nu pot fi anticipate în avans; iar roboții estompează din ce în ce mai mult linia dintre persoană și instrument. ”

Procesul legislativ este extrem de lent, în timp ce tehnologia, pe de altă parte, face o grabă exponențială.

De asemenea, crimele pot fi destul de grave. Dezvoltatorul olandez Jeffry van der Goot a trebuit să se apere - și pe Twitterbot - când poliția a bătut la ușa sa, întrebând despre o amenințare cu moartea trimisă din contul său de Twitter. Apoi, există Random Darknet Shopper; un bot de cumpărături cu o alocație săptămânală de 100 USD în Bitcoin pentru a face cumpărături pe Darknet pentru o expoziție de artă. Oficialii suedezi nu s-au amuzat când a cumpărat extazul, pe care artistul l-a expus. (Deși, în sprijinul expresiei artistice, nu au confiscat drogurile până la expunerea.)

În ambele cazuri, autoritățile au făcut tot ce au putut în cadrul legii, dar în cele din urmă i-au iertat pe proprietarii umani, deoarece nu au comis în mod explicit sau direct infracțiuni. Dar cum se traduce asta atunci când o ființă umană dezlănțuie o IA cu intenția de răutate?

Realitatea ironică este că explorăm modalități prin care ne putem guverna mașinile autonome. Și dincolo de capacitatea noastră discutabilă de a le insufla etică, suntem adesea derutați doar de comportamentul lor general. Când a discutat despre metodele din spatele rețelelor lor neuronale, inginerul de software Google Alexander Mordvintsev a dezvăluit: „... chiar dacă acestea sunt instrumente foarte utile bazate pe metode matematice bine cunoscute, de fapt înțelegem surprinzător puțin de ce anumite modele funcționează și altele nu”.

Putem ține pasul?

Toate lucrurile luate în considerare, procesul legislativ este dificil de lent, în timp ce tehnologia, pe de altă parte, face o grabă exponențială. Așa cum explică Vivek Wadhwa de la Singularity University, „legile nu pot ține pasul pentru că ... legile sunt în esență etică codificată. Că dezvoltăm un consens ca societate cu privire la ce este bine și ce este rău și apoi devine ceea ce este bine și ce este greșit, iar apoi devine ceea ce este legal și ceea ce este ilegal. Așa merge progresia. În majoritatea acestor tehnologii, nu am decis ce este bine sau rău. "

Dacă legea ajunge din urmă, este posibil să ne scriem propria noastră pedeapsă. Toate astea vorbesc despre roboții care preiau lumea? Poate că doar se desfășoară în masă până ne închidem atât de mult din rasa noastră, încât devenim minoritatea în ființe autonome. Șah mat.

Postări recente

$config[zx-auto] not found$config[zx-overlay] not found