Le nuove leggi della robotica-sulla base di Asimov's eredità fantascienza nell’era di AI

Via del ritorno nei primi anni 1940-molto prima di smart phone, Siri e armi semi-autonome-il grande scrittore di fantascienza Isaac Asimov ha elaborato una serie di principi per lo sviluppo di sistemi robotici avanzati.

Asimov era essenzialmente un ottimista, ma si rese conto che i futuri dispositivi IA, e i loro progettisti, potrebbero aver bisogno di un piccolo aiuto per mantenere la linea retta e stretta.,

Da qui le sue famose Tre Leggi, che hanno influenza nei circoli scientifici e tecnologici fino ad oggi.

  1. 1.Un robot non può ferire un essere umano o, attraverso l’inazione, permettere a un essere umano di venire a nuocere.
  2. 2.Un robot deve obbedire agli ordini impartitigli dagli esseri umani, tranne quando tali ordini sarebbero in conflitto con la Prima Legge.
  3. 3.Un robot deve proteggere la propria esistenza purché tale protezione non sia in conflitto con la Prima o la Seconda legge.,

Ora, quasi 80 anni dopo, accademico legale e esperto di intelligenza artificiale Frank Pasquale ha aggiunto quattro principi aggiuntivi.

Ha dato il podcast Future Tense di RN the lowdown. Ecco cosa devi sapere.

Cosa ha sbagliato Asimov?

Il professor Pasquale dice che mentre le idee di Asimov erano ben fondate, hanno assunto una certa traiettoria tecnologica che non regge più — le innovazioni non sono sempre per il bene dell’umanità.,

“Mentre Asimov sta parlando di come i robot aiutino le persone e non le danneggino, sto parlando di come democratizziamo la direzione della tecnologia”, dice.

E disegna un’importante distinzione tra AI e ciò che definisce IA — aumento dell’intelligenza.

“L’obiettivo dell’intelligenza artificiale è spesso quello di sostituire gli esseri umani, per creare, ad esempio, un medico robot o un insegnante robot. L’obiettivo di aumento di intelligenza è quello di aiutare gli esseri umani.”

Quindi, quali sono le nuove leggi e perché sono necessarie?,

Il professor Pasquale dice che i lavori che coinvolgono il giudizio e la deliberazione sulle scelte dovrebbero essere mantenuti per gli esseri umani.(Getty: Donald Iain Smith)

Il professor Pasquale dice che la posta in gioco è alta.

Il mix ottimale di interazione robotica e umana è troppo importante per essere determinato solo da aziende e ingegneri, sostiene.

” Se andiamo per una visione di intelligenza artificiale di sostituzione, che sta per creare un futuro senza lavoro in molte aree,” dice.,

“Mentre se sottolineiamo l’aumento dell’intelligenza, ciò dovrebbe effettivamente aumentare sia la produttività che il valore del lavoro.”

Nuova legge 1: l’IA dovrebbe integrare i professionisti, non sostituirli

Il professor Pasquale afferma che alcune aree dell’economia, in particolare nel settore manifatturiero, continueranno a vedere una rapida automazione, ma i lavori che implicano il giudizio e la deliberazione sulle scelte dovrebbero essere mantenuti per gli esseri umani.,

” In aree come l’insegnamento, la medicina, molti campi professionali, si desidera avere persone in grado di spiegare le opzioni ai propri clienti, pazienti e studenti, piuttosto che avere una grande azienda tecnologica solo assumere ciò che è meglio e automatizzare il risultato.”

Ma sottolinea la necessità di riconoscere e aiutare quelli resi ridondanti dalla tecnologia.

“Parte di rendere più facile è investire nelle persone e sottolineare che tutti possono avere un ruolo nella società che implica un lavoro con giudizio, con la loro esperienza preziosa per quel lavoro.,”

Nuova legge 2: i sistemi robotici e l’IA non dovrebbero contraffare l’umanità

I dispositivi non dovrebbero essere sviluppati per imitare le emozioni umane.

Il professor Pasquale dice che mentre gli assistenti personali come Siri potrebbero sembrare benigni, rischiano di ingannare le persone e manipolare i nostri sentimenti.

Il futuro dell’interazione uomo-computer coinvolgerà dure chiamate di giudizio su come dovrebbero essere le interazioni personali senza soluzione di continuità con i robot e se dovrebbero essere coinvolti alcuni attriti per creare un livello di distanza.,

Il professor Pasquale sostiene anche che dobbiamo essere più disciplinati nel linguaggio che usiamo intorno alla robotica.

“Resisto anche ai romanzieri o agli scrittori di narrativa che chiamano il robot” lui ” o ” lei ” come una persona. Penso che ‘ it ‘dovrebbe sempre essere il pronome perché penso che’ it ‘ denoti il fatto che questa è una macchina e non è una persona.”

Vai più in profondità: cosa dicono i nostri assistenti virtuali sul sessismo? Un bel po’, a quanto pare.,

Nuova legge 3: i sistemi robotici e l’IA non dovrebbero intensificare la corsa agli armamenti a somma zero

Lo sviluppo incontrollato di sistemi di armi robotiche intelligenti rischia di andare fuori controllo, avverte il professor Pasquale.

E dato il nostro track-record con altre spese militari, ci sono tutte le ragioni per suggerire una corsa agli armamenti si svilupperà sullo sviluppo e il dispiegamento di armi AI.,

“Molto presto penso che dobbiamo dire come facciamo le società a riconoscere che questo è distruttivo, non sta fornendo servizi umani reali, sta solo investendo nella storia della distruzione”, dice il professor Pasquale.

Mette in guardia anche contro le aziende tecnologiche come Google e Facebook che si impegnano in una “corsa agli armamenti per l’attenzione” sia tra gli inserzionisti che gli utenti della piattaforma.

L’iper-competitività, avverte, è la strada del “dominio tecnologico e della monopolizzazione”.

Correlati: La forza di difesa australiana sta investendo milioni nella ricerca di “robot killer”.,

Nuova legge 4: I sistemi robotici e l’IA devono sempre indicare l’identità dei loro creatori, controllori e proprietari

Sono necessari maggiori livelli di trasparenza per aumentare la responsabilità e scoraggiare attività inappropriate e illegali sia da parte dei proprietari che degli sviluppatori di tecnologia.

Proprio come le auto hanno targhe, così anche i robot dovrebbero, dice il professor Pasquale.

Crede che nessun sistema robotico dovrebbe mai essere reso completamente autonomo. I rischi, dice, sono troppo alti.,

“È importante perché sappiamo come punire le persone, non sappiamo come punire i robot o l’IA, e questo è davvero importante per il futuro dell’applicazione legale.”

Decidi tu: lasceresti che un’auto determini chi muore?

Ma questo non metterà un freno all’innovazione?

La risposta breve è sì.

Il professor Pasquale riconosce che l’applicazione diffusa delle sue nuove leggi bloccherebbe lo sviluppo di alcune tecnologie, ma che, dice, sarebbe per il bene pubblico.,

“Abbiamo visto tanti campi in cui i progressi tecnologici hanno portato a conseguenze molto preoccupanti e dannose come il riscaldamento globale. Dobbiamo anticipare queste cose”, dice.

“Non possiamo semplicemente guardare qualcosa come il riscaldamento globale e dire, beh, ne ricaveremo una soluzione tecnologica.

“Dobbiamo pensare molto profondamente a dirigere l’innovazione, e l’innovazione stessa non può essere solo una parola d’ordine per fermare la regolamentazione.”

Queste leggi sono dettagliate nel libro del professor Pasquale New Laws of Robotics: Defending Human Expertise in the Age of AI., Per ascoltare l’intervista completa, ascolta il podcast Future Tense.

Questo articolo contiene contenuti disponibili solo nella versione web.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *