Cum să faci roboții etici învățându-i să spună nu

învățând ai roboți cum să spună nu matthias scheutz tufts Matthias Scheutz Kelvin Ma / Tufts University Fie că este vorba de smartphone-ul dvs. care ține evidența restaurantelor preferate de luat masa, sau de browserul dvs. Web care păstrează filele pe site-urile pe care le vizitați cel mai des, există probabil o bucată de tehnologie în casa dvs. care învață despre dvs.

Pe măsură ce computerele se transformă din instrumente în asistenți în următorii ani, nevoile de învățare ale tehnologiei pe care o folosim zilnic vor crește exponențial. Aceste servicii vor fi mai sofisticate și vor ajunge mult mai departe decât astăzi - dar vor trebui să devină mult mai inteligente înainte de a le face.

Sistemele de calculatoare, inteligența artificială și roboții ajutoare vor trebui să ajungă la cărți pe o serie întreagă de subiecte - conversația umană, normele culturale, eticheta socială și multe altele. Oamenii de știință de astăzi predau AI lecțiile de care vor avea nevoie pentru a ajuta utilizatorii de mâine, iar programul cursului nu este ceea ce vă așteptați.

Primii pași către o IA mai inteligentă

Anul trecut, în limitele Laboratorului de interacțiune om-robot de la Universitatea Tufts din Boston, un mic robot s-a apropiat de marginea unei mese. Când a ajuns la această prăpastie, robotul a observat că suprafața pe care mergea a luat sfârșit și i-a spus operatorului său: „Îmi pare rău, nu pot face asta”.

Procedând astfel, aparatul a confirmat că lucrările efectuate de Matthias Scheutz și Gordon Briggs au fost un succes. Perechea își propusese să ofere robotului lor capacitatea de a respinge o cerere prezentată de un operator uman, actul de conservare de la masă al subiectului testat fiind o demonstrație a sistemului la locul de muncă.

Proiectul Scheutz și Briggs face parte dintr-o ramură crucială a cercetării în domeniul inteligenței artificiale. Interacțiunea om-robot - uneori denumită HRI - este un element esențial al muncii noastre continue pentru aplicarea practică a IA. Este ușor de uitat, roboții fiind încă o preocupare ipotetică pentru majoritatea oamenilor, că aceste mașini vor trebui, într-o bună zi, să se integreze cu oamenii pe care urmează să îi asiste.

Învățarea unui robot cum să meargă este un lucru. Învățarea aceluiași robot atunci când este sigur să traversezi un drum este destul de diferită. Acesta este nucleul proiectului realizat de Scheutz și Briggs. Au vrut să ofere unui robot capacitatea de a respinge comenzile date, dacă se pare că îndeplinirea sarcinii i-ar provoca daune.

Pentru un om, acest lucru ar putea părea un element implicit al acțiunii de mișcare. Dar roboții nu au „bun simț”.

Importanța cuvântului „nu”

Învățarea unui robot să refuze o comandă care îl trimite plonjându-se la soarta sa este de un beneficiu evident pentru robot și, de asemenea, pentru oricine îl deține. Dar importanța sa ajunge mult mai adânc. A ajuta un robot să spună „nu” înseamnă a-l ajuta să învețe să judece implicațiile acțiunilor sale.

„În același mod în care nu vrem ca oamenii să urmeze orbește instrucțiunile celorlalți oameni, nu vrem ca roboții instructibili să execute ordine umane fără a verifica care sunt efectele”, a spus Scheutz pentru Digital Trends.

Trebuie să învățăm roboții să nu se supună comenzilor care nu sunt etic solide.

„Instrucțiunile pot fi inadecvate într-o anumită situație din mai multe motive”, a continuat el, „dar cel mai important, deoarece acestea pot provoca daune oamenilor sau deteriorarea bunurilor, inclusiv robotul însuși. Raționând despre posibilele rezultate ale unei acțiuni instruite, robotul ar putea fi capabil să detecteze potențiale încălcări ale normelor și potențialele daune rezultate din acțiune și ar putea încerca să le atenueze. ”

În esență, atunci când robotul primește instrucțiunile sale de a merge înainte, verifică cererea în raport cu informațiile pe care le are la îndemână. Dacă ceva pare pește, robotul își poate ridica îngrijorarea către operatorul uman, respingând în cele din urmă comanda direct dacă instructorul nu are date suplimentare pentru a-și potoli temerile.

Procesul științific nu este un titlu la fel de atrăgător ca amenințarea unei răscoale a robotului pentru noi, oamenii. Ziare tabloide precum Daily Mail au raportat lucrările lui Scheutz cu un titlu desen animat care speculează despre supunerea iminentă a speciei noastre din mâinile domnitorilor de roboți. Și noi, cei de la DT, știm că glumim și despre apocalipsa robotului. De obicei, este distractiv, dar în astfel de cazuri poate afecta cercetătorii capacitatea de a-și transmite mesajul.

„Vor exista întotdeauna răspunsuri care scot cercetarea din context și se vor concentra asupra a ceea ce pare incomod pentru noi, cum ar fi ideea roboților care nu ne respectă comenzile”, a spus Scheutz ca răspuns la raportul Daily Mail. „Cu toate acestea, aspectul cheie al cercetării noastre pe care astfel de titluri atrăgătoare îl ignoră este acela de a învăța robotul să respingă comenzile care sunt nu etic sănătos - și numai acelea. Să nu fiu neascultător în general ”.

Ce se întâmplă dacă, de exemplu, un băiețel ar spune unui robot din gospodărie să arunce cafea fierbinte peste fratele său mic ca farsă? Asigurarea faptului că acest lucru nu ar putea avea loc este vitală pentru succesul oricărei companii care produce o astfel de tehnologie pentru piața consumatorilor și este posibil doar dacă robotul are o bază de date extinsă de norme sociale și etice de referință, alături de capacitatea sa de a spune „nu. ”

Adăugarea de straturi de complexitate

Oamenii știu să oprească mersul pe jos atunci când se apropie de o picătură abruptă sau de ce nu este adecvat să scapi un sugar în cafea fierbinte. Experiențele noastre ne-au spus ce este periculos și ce înseamnă doar. Indiferent dacă am făcut sau ni s-a spus despre ceva în trecut, putem folosi informațiile stocate pentru a ne informa comportamentul într-o situație nouă.

Roboții pot rezolva probleme pe baza aceluiași principiu. Dar încă nu am creat un computer care poate învăța ca un om - și chiar și atunci, învățarea eticii este un proces care durează ani. Roboții trebuie să aibă la dispoziție o viață de informații înainte de a fi dezlănțuiți în lume.

Scara acestei lucrări este uluitoare, cu mult peste ceea ce mulți s-ar putea aștepta. Pe lângă învățarea robotului cum să îndeplinească orice sarcină este trimisă, există un strat suplimentar de complexitate oferit de numeroasele complexități ale interacțiunii om-robot.

Andrew Moore este decanul Școlii de Științe Informatice de la Universitatea Carnegie Mellon. În acest rol, el oferă sprijin unui grup de 2.000 de studenți și membri ai facultății, dintre care mulți lucrează în domenii legate de robotică, învățare automată și AI.

„Suntem responsabili să ajutăm să ne dăm seama cum va fi anul 2040 în care vom trăi”, mi-a spus el. „Așadar, suntem responsabili și să ne asigurăm că 2040 este un an foarte bun în care să trăim”. Având în vedere că este probabil ca roboții asistenți să joace un rol în acea viziune a viitorului, Moore are o mulțime de experiență în relația dintre mașină și utilizator. Pentru a-și face o idee despre cum va evolua legătura în anii următori, el folosește exemplul familiar al asistentului pentru smartphone.

Astăzi, mulți dintre noi avem un smartphone capabil să răspundă la întrebări precum „cine este actualul președinte al Statelor Unite?” și întrebări mai complexe precum „cât de înalt este președintele fiicelor Statelor Unite?” În curând, vom vedea că acțiunile bazate pe aceste întrebări devin obișnuite. S-ar putea să solicitați telefonului dvs. să comande un nou pachet de scutece, de exemplu.

Pentru a demonstra următoarea etapă de dezvoltare, Moore a prezentat o întrebare de exemplu aparent inofensivă. „Am timp să mă duc să iau o cafea înainte de următoarea mea întâlnire?”

Mai multe despre AI: Algoritmul de învățare automată pune cuvintele lui George W. Bush în gura lui Barack Obama

„Sub capotă, există multe cunoștințe care trebuie să ajungă la computer pentru ca computerul să răspundă la întrebare”, a spus Moore. Deși tehnologia actuală poate înțelege întrebarea, sistemul are nevoie de multe date pentru a răspunde. Care este linia la cafenea? Cum este traficul? Ce fel de băutură comandă de obicei utilizatorul? Acordarea computerului la aceste date prezintă propriile provocări.

Sistemele AI vor avea nevoie de acces la o cantitate uriașă de informații - dintre care unele sunt aruncate în piatră, dintre care unele se schimbă tot timpul - pur și simplu pentru a îndeplini sarcinile complexe pe care le vom aștepta de la ei în doar câțiva ani.

Moore ilustrează acest punct comparând tonul vocii pe care o persoană îl poate lua atunci când vorbește cu șeful șefului său sau cu un prieten vechi. Undeva, în băncile dvs. de date, există un nucleu de informații care vă spune că primul ar trebui tratat cu anumite indicii sociale care nu sunt la fel de necesare atunci când vorbiți cu acesta din urmă.

Dacă îi ceri Google să prezinte rochii roșii, iar unul dintre rezultate este un prăjitor de pâine, totul se destramă.

Este o chestiune simplă pentru un om, dar ceva ce trebuie insuflat în AI. Și cu cât sarcina este mai presantă, cu atât devine mai importantă precizia. A întreba un asistent dacă aveți cafea este un lucru. Dar dacă ai fi rănit și ai avea nevoie să știi care spital ar putea fi accesat cel mai repede - și, eventual, ai nevoie de ajutorul unui roboți pentru a ajunge la el? O greșeală devine brusc amenințătoare de viață.

„Este de fapt destul de ușor să scrii un program de învățare automată în care îl instruiești cu o mulțime de exemple”, a spus Moore. „Când ați făcut acea muncă, ajungeți la un model. Acest lucru funcționează destul de bine și, atunci când construim un astfel de sistem, vorbim despre „acuratețe” și folosim fraze precum „precizie” și „amintire”. Interesant este că este destul de simplu să obții lucruri corecte de 19 ori din 20. ”

„Pentru multe aplicații, este destul de bun. Dar, în multe alte aplicații - mai ales atunci când este vorba de siguranță sau în care puneți întrebări foarte complicate - aveți cu adevărat nevoie ca sistemul dvs. să aibă o precizie de 99,9% ".

Încrederea utilizatorilor este, de asemenea, o problemă. „[Dacă] întrebi Google‘ arată-mi cele mai populare 15 rochii roșii ’și dă rezultate și doar una dintre ele este de fapt un prăjitor de pâine, atunci totul se destramă. Utilizatorii nu mai au încredere în el. ” Un utilizator care își pierde încrederea într-un robot este probabil să înceteze să-l folosească în totalitate.

Predarea cunoștințelor comune

Chiar și ignorând sarcinile specifice pe care orice implementare individuală este concepută să le îndeplinească, roboții și AI vor avea nevoie de o cantitate imensă de cunoștințe de bază pentru a opera în sălbăticie. Totul, de la indicii sociale până la reglementările de siguranță, trebuie să fie imprimat pe creierele mașinilor pentru a le asigura succesul.

Din fericire, alte domenii oferă o mână de ajutor în unele elemente ale acestui curriculum de calcul. „Cu lucruri precum navigația și analiza expresiei faciale umane, există o disciplină științifică existentă, care are de fapt o mulțime de date reale”, a spus Moore. Proiectele individuale de cercetare pot fi deseori re-menite să fie și ele.

„Algoritmii la care lucrăm sunt generali”, mi-a spus Matthias Scheutz, referindu-se la cercetările pe care el și Gordon Briggs le-au condus la Universitatea Tufts. „Ele pot fi aplicate în orice domeniu, atâta timp cât robotul are reprezentările necesare ale acțiunilor și normelor pentru acel domeniu.”

Modulele care ar putea oferi unui robot capacitatea de a recunoaște expresiile umane sau de a nu mai cădea de pe o masă, își au cu siguranță folosirea. Cu toate acestea, fiecare ar satisface o parte foarte mică a cerințelor de bază ale unei mașini pentru funcționarea nesupravegheată. Un sistem de operare generalizat ar putea prezenta un nivel de bază al cunoștințelor comune care ar putea fi ușor împărțit între diferite implementări.

„Unul dintre principalii finanțatori ai acestui tip de muncă este un grup care a finanțat multe alte lucruri care s-au dovedit a fi importante”, a spus Moore. „Asta este DARPA. Au o serie de proiecte mari care se desfășoară în ceea ce numesc „cunoștințe comune pentru robotică”. ”

Dacă AI și roboții asistenți vor deveni realitate într-un viitor nu prea îndepărtat, o versiune a acestei platforme „cunoștințe comune pentru robotică” va fi probabil o componentă crucială. Ar putea fi chiar cheia unei adoptări generale.

Există o mulțime de lucruri de făcut înainte de a exista o bază de cunoștințe care să susțină primul val de roboți de consum. Produsul final ar putea fi la ani distanță, dar fundamentele necesare pentru a facilita crearea acestuia nu sunt science fiction.

Postări recente

$config[zx-auto] not found$config[zx-overlay] not found