noile legi ale roboticii – bazându-se pe Asimov's science fiction moștenire în vârstă de AI

Drumul înapoi la începutul anilor 1940 — cu mult înainte de telefoane inteligente, Siri și semi-autonome arme — marele și regretatul scriitor sci-fi Isaac Asimov a elaborat un set de principii pentru dezvoltarea avansată sisteme robotizate.Asimov a fost, în esență, un optimist, dar și-a dat seama că viitoarele dispozitive AI și designerii lor ar putea avea nevoie de puțin ajutor pentru a se menține drepte și înguste.,prin urmare, faimoasele sale trei legi, care au influență în cercurile științifice și tehnologice până în prezent.

  1. 1.Un robot nu poate răni o ființă umană sau, prin inacțiune, să permită unei ființe umane să facă rău.
  2. 2.Un robot trebuie să se supună ordinelor date de ființele umane, cu excepția cazului în care astfel de ordine ar intra în conflict cu prima lege.
  3. 3.Un robot trebuie să-și protejeze propria existență atâta timp cât o astfel de protecție nu intră în conflict cu prima sau a doua lege.,acum, aproape 80 de ani mai târziu, expertul juridic academic și de inteligență artificială Frank Pasquale a adăugat patru principii suplimentare.

    el a dat viitorul Podcast tensionat RN lowdown. Iată ce trebuie să știți.

    ce a greșit Asimov?profesorul Pasquale spune că, în timp ce ideile lui Asimov erau bine fundamentate, și — au asumat o anumită traiectorie tehnologică care nu mai deține-inovațiile nu sunt întotdeauna spre binele umanității.,”în timp ce Asimov vorbește despre cum avem roboți care ajută oamenii și nu le fac rău, vorbesc despre cum democratizăm direcția tehnologiei”, spune el.și face o distincție importantă între IA și ceea ce el numește IA — intelligence augmentation.

    „scopul inteligenței artificiale este adesea înlocuirea ființelor umane, crearea, de exemplu, a unui medic robot sau a unui profesor robot. Scopul augmentării inteligenței este de a ajuta ființele umane.deci, care sunt noile legi și de ce sunt necesare?,

    Profesorul Pasquale spune de locuri de muncă care implică judecată și deliberare peste alegeri ar trebui să fie păstrate pentru oameni.(Getty: Donald Iain Smith)

    Profesorul Pasquale spune că miza este mare.amestecul optim de interacțiune robotică și umană este mult prea important pentru a fi determinat doar de corporații și ingineri, susține el.

    „Dacă mergem pentru o viziune a inteligenței artificiale de înlocuire, aceasta va crea un viitor fără locuri de muncă în multe domenii”, spune el.,

    „în timp ce dacă punem accentul pe creșterea inteligenței, aceasta ar trebui să crească, de fapt, atât productivitatea, cât și valoarea forței de muncă.”

    noua Lege 1: AI ar trebui să completeze profesioniștii, nu să-i înlocuiască profesorul Pasquale spune că unele domenii ale economiei, în special în industria prelucrătoare, vor continua să vadă automatizarea rapidă, dar locurile de muncă care implică judecată și deliberare asupra alegerilor ar trebui păstrate pentru oameni.,

    „în domenii precum predarea, Medicina, o mulțime de domenii profesionale, doriți să aveți oameni capabili să explice opțiunile clienților, pacienților și studenților, mai degrabă decât să aibă o firmă mare de tehnologie doar să presupună ce este mai bun și să automatizeze rezultatul.”

    dar subliniază necesitatea de a recunoaște și de a ajuta pe cei disponibilizați de tehnologie.

    „o parte din a face mai ușor este să investești în oameni și să subliniezi că toată lumea poate avea un rol în societate care implică munca cu judecată, expertiza lor fiind valoroasă pentru acea muncă.,”

    noua Lege 2: sistemele robotice și AI nu ar trebui să contrafacă umanitatea

    dispozitivele nu ar trebui dezvoltate pentru a imita emoțiile umane.profesorul Pasquale spune că, în timp ce asistenții personali precum Siri ar putea părea Benigni, riscă să înșele oamenii și să ne manipuleze sentimentele.

    viitorul interacțiunii om-calculator va implica apeluri dure de judecată despre cum ar trebui să fie interacțiunile personale fără sudură cu roboții și dacă ar trebui să fie implicate unele fricțiuni pentru a crea un nivel de distanță.,profesorul Pasquale susține, de asemenea, că trebuie să fim mai disciplinați în limbajul pe care îl folosim în jurul roboticii.

    „rezist chiar romancierilor sau Scriitorilor de ficțiune care numesc robotul” el ” sau ” ea ” ca o persoană. Cred că ” ea „ar trebui să fie întotdeauna pronumele pentru că eu cred că” ea ” un fel de denotă faptul că aceasta este o mașină și nu este o persoană.”

    mergeți mai adânc: ce spun asistenții noștri virtuali despre sexism? Destul de mult, după cum se dovedește.,

    noua Lege 3: sistemele robotice și AI nu ar trebui să intensifice cursele de arme cu sumă zero

    dezvoltarea necontrolată a sistemelor inteligente de arme robotizate riscă să scape de sub control, avertizează profesorul Pasquale.și având în vedere istoricul nostru cu alte cheltuieli militare, există toate motivele pentru a sugera că o cursă a înarmărilor se va dezvolta în ceea ce privește dezvoltarea și desfășurarea armelor AI.,

    „foarte devreme cred că trebuie să spunem cum facem societățile să recunoască faptul că acest lucru este distructiv, nu oferă servicii umane reale, ci doar investește în istoria distrugerii”, spune profesorul Pasquale.de asemenea, avertizează împotriva companiilor de tehnologie precum Google și Facebook care se angajează într-o „cursă a înarmărilor pentru atenție” atât în rândul agenților de publicitate, cât și al utilizatorilor platformei.hiper-competitivitatea, avertizează el, este drumul către „dominația tehnologică și monopolizarea”.

    Related: forța australiană de apărare investește milioane în cercetarea „roboților ucigași”.,

    noua lege 4: sistemele robotice și AI trebuie să indice întotdeauna identitatea creatorilor, controlorilor și proprietarilor

    niveluri mai mari de transparență sunt necesare pentru a crește responsabilitatea și a descuraja activitatea necorespunzătoare și ilegală atât de către proprietarii, cât și de dezvoltatorii de tehnologie.la fel cum mașinile au plăcuțe de înmatriculare, la fel și roboții, spune profesorul Pasquale.el crede că niciun sistem robotic nu ar trebui făcut vreodată complet autonom. Riscurile, spune el, sunt prea mari.,

    „este important pentru că știm cum să pedepsim oamenii, nu știm cum să pedepsim roboții sau AI, iar acest lucru este cu adevărat important pentru viitorul aplicării legale.”

    tu decizi: ai lăsa o mașină să determine cine moare?

    dar asta nu va pune frână inovației?

    răspunsul scurt este da.profesorul Pasquale recunoaște că aplicarea pe scară largă a noilor sale legi ar împiedica dezvoltarea anumitor tehnologii, dar că, spune el, ar fi pentru binele public.,”am văzut atât de multe domenii în care progresele tehnologice au dus la consecințe foarte îngrijorătoare și dăunătoare, cum ar fi încălzirea globală. Trebuie să mergem înainte de aceste lucruri”, spune el.

    „Nu putem doar să ne uităm la ceva de genul încălzirii globale și să spunem, Ei bine, vom obține doar o soluție tehnologică din ea.

    „trebuie să ne gândim foarte profund la direcționarea inovației, iar inovația în sine nu poate fi doar un cuvânt de ordine pentru a opri reglementarea.aceste legi sunt detaliate în cartea profesorului Pasquale new Laws of Robotics: Defending Human Expertise in the Age of AI., Pentru a auzi interviul complet, Ascultați viitorul Podcast tensionat.acest articol conține conținut care este disponibil numai în versiunea web.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *