les nouvelles lois de la robotique – s’appuyant sur Asimov'l’héritage de la science — fiction à l’ère de L’IA

Au début des années 1940-bien avant les téléphones intelligents, Siri et les armes semi — autonomes -, le grand écrivain de science-fiction Isaac Asimov a élaboré un ensemble de principes

Asimov était essentiellement un optimiste, mais il a réalisé que les futurs appareils D’IA, et leurs concepteurs, pourraient avoir besoin d’un peu d’aide pour rester sur la ligne droite et étroite.,

D’où ses célèbres trois lois, qui ont une influence dans les milieux scientifiques et technologiques à ce jour.

  1. 1.Un robot ne peut pas blesser un être humain ou, par son inaction, permettre à un être humain de lui nuire.
  2. 2.Un robot doit obéir aux ordres qui lui sont donnés par les êtres humains, sauf lorsque ces ordres entreraient en conflit avec la première loi.
  3. 3.Un robot doit protéger sa propre existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième Loi.,

maintenant, près de 80 ans plus tard, L’universitaire en droit et expert en intelligence artificielle Frank Pasquale a ajouté quatre principes supplémentaires.

il a donné le podcast Future Tense de RN the lowdown. Voici ce que vous devez savoir.

Qu’est-ce Qu’Asimov s’est trompé?

Le Professeur Pasquale dit que si les idées D’Asimov étaient bien fondées, elles assumaient une certaine trajectoire technologique qui ne tient plus: les innovations ne sont pas toujours pour le bien de l’humanité.,

« alors Qu’Asimov parle de la façon dont les robots aident les gens et ne leur nuisent pas, je parle de la façon dont nous démocratisons l’orientation de la technologie », dit-il.

et il établit une distinction importante entre L’IA et ce qu’il appelle IA — augmentation de l’intelligence.

« L’intelligence artificielle objectif est souvent de remplacer les êtres humains, pour créer, par exemple, un robot médecin ou un robot enseignant. L’objectif d’augmentation de l’intelligence est d’aider les êtres humains. »

Alors, quelles sont les nouvelles lois et pourquoi sont-ils nécessaires?,

le professeur Pasquale dit que les emplois qui impliquent le jugement et la délibération sur les choix devraient être conservés pour les humains.(Getty: Donald Iain Smith)

Le Professeur Pasquale dit que les enjeux sont élevés.

la combinaison optimale de l’interaction robotique et humaine est beaucoup trop importante pour être déterminée uniquement par les entreprises et les ingénieurs, soutient-il.

« Si nous optons pour une vision de remplacement par l’intelligence artificielle, cela créera un avenir sans emploi dans de nombreux domaines », dit-il.,

« alors que si nous mettons l’accent sur l’augmentation de l’intelligence, cela devrait en fait augmenter à la fois la productivité et la valeur du travail. »

nouvelle loi 1: L’IA devrait compléter les professionnels, pas les remplacer

Le Professeur Pasquale affirme que certains secteurs de l’économie, en particulier dans le secteur manufacturier, continueront de connaître une automatisation rapide, mais que les emplois qui impliquent un jugement et une délibération sur les choix devraient être conservés pour les humains.,

« dans des domaines comme l’enseignement, la médecine, beaucoup de domaines professionnels, vous voulez avoir des gens capables d’expliquer les options à leurs clients, patients et étudiants, plutôt que d’avoir une grande entreprise de technologie juste assumer ce qui est le mieux et automatiser le résultat. »

Mais il souligne la nécessité de reconnaître et d’aider ceux qui sont licenciés par la technologie.

« Une partie de la facilité consiste à investir dans les gens et à souligner que chacun peut avoir un rôle dans la société qui implique un travail avec jugement, leur expertise étant précieuse pour ce travail., »

nouvelle loi 2: les systèmes robotiques et L’IA ne doivent pas contrefaire l’humanité

Les dispositifs ne doivent pas être développés pour imiter les émotions humaines.

Le Professeur Pasquale dit que si les assistants personnels comme Siri peuvent sembler bénins, ils risquent de tromper les gens et de manipuler nos sentiments.

l’avenir de l’interaction homme-machine va impliquer des appels de jugement sévères sur la façon dont les interactions personnelles transparentes avec les robots devraient être, et si une certaine friction devrait être impliquée pour créer un niveau de distance.,

Le Professeur Pasquale soutient également que nous devons être plus disciplinés dans le langage que nous utilisons autour de la robotique.

« je résiste même des romanciers ou des romanciers d’appeler le robot » il  » ou « elle » comme une personne. Je pense qu ‘il doit toujours être le pronom parce que je pense que » ça  » sorte d’dénote le fait que c’est une machine et il n’est pas une personne. »

aller plus loin: que disent nos assistants virtuels sur le sexisme? Beaucoup, comme il s’avère.,

nouvelle loi 3: les systèmes robotiques et L’IA ne devraient pas intensifier les courses aux armements à somme nulle

le développement incontrôlé de systèmes d’armes robotiques intelligents risque de devenir incontrôlable, prévient le professeur Pasquale.

et compte tenu de nos antécédents en matière d’autres dépenses militaires, il y a tout lieu de suggérer qu’une course aux armements se développera au fil du développement et du déploiement d’armes D’IA.,

« très tôt, je pense que nous devons dire comment nous faisons en sorte que les sociétés reconnaissent que c’est destructeur, Ce n’est pas fournir de vrais services humains, c’est simplement investir dans l’histoire de la destruction », explique le professeur Pasquale.

il met également en garde contre les entreprises technologiques telles que Google et Facebook qui se livrent à une « course aux armements pour attirer l’attention » à la fois parmi les annonceurs et les utilisateurs de la plate-forme.

l’Hyper-compétitivité, prévient-il, est la voie de la « domination et de la monopolisation technologiques ».

connexe: la force de défense australienne investit des millions dans la recherche sur les « robots tueurs ».,

nouvelle loi 4: les systèmes robotiques et L’IA doivent toujours indiquer l’identité de leur(s) créateur(s), contrôleur(s) et propriétaire (s)

de plus grands niveaux de transparence sont nécessaires pour accroître la responsabilité et dissuader les activités inappropriées et illégales de la part des propriétaires et des développeurs de technologies.

tout comme les voitures ont des plaques d’immatriculation, les robots devraient aussi, dit le professeur Pasquale.

il pense qu’aucun système robotique ne devrait jamais être rendu totalement autonome. Les risques, dit-il, sont trop élevés.,

« c’est important parce que nous savons comment punir les gens, nous ne savons pas comment punir les robots ou L’IA, et c’est vraiment important pour l’avenir de l’application de la loi. »

vous décidez: laisseriez-vous une voiture déterminer qui meurt?

mais cela ne freinera-t-il pas l’innovation?

La réponse courte est oui.

Le Professeur Pasquale reconnaît que l’application généralisée de ses nouvelles lois freinerait le développement de certaines technologies, mais cela, dit-il, serait pour le bien public.,

« Nous avons vu tant de domaines où les progrès technologiques ont conduit à des conséquences très troublantes et néfastes comme le réchauffement climatique. Nous avons obtenu d’obtenir à l’avance de ces choses, » dit-il.

« Nous ne pouvons pas simplement regarder quelque chose comme le réchauffement climatique et dire, Eh bien, nous allons simplement en tirer une solution technologique.

« nous devons réfléchir très profondément à la direction de l’innovation, et l’innovation elle-même ne peut pas être simplement un mot d’ordre pour arrêter la réglementation. »

Ces lois sont détaillées dans le Professeur Pasquale livre de Nouvelles Lois de la Robotique: la Défense de l’Expertise Humaine dans l’Âge de l’IA., Pour écouter l’interview complète, écoutez le podcast Future Tense.

Cet article contient du contenu qui n’est disponible que dans la version web.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *