the new laws of robotics – building on Asimov' s science fiction legacy in the age of AI

Way back in the early 1940s — long before smart phones, Siri and semi-autonomous weapons — the late great sci-fi writer Isaac Asimov draw-up a set of principles for the development of advanced robotic systems.

Asimov era esencialmente un optimista, pero se dio cuenta de que los futuros dispositivos de IA, y sus diseñadores, podrían necesitar un poco de ayuda para mantenerse en lo recto y estrecho.,

de ahí sus famosas tres leyes, que tienen influencia en los círculos de ciencia y tecnología hasta el día de hoy.

  1. 1.Un robot no puede herir a un ser humano o, a través de la inacción, permitir que un ser humano sufra daño.
  2. 2.Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entrarían en conflicto con la primera ley.
  3. 3.Un robot debe proteger su propia existencia siempre y cuando dicha protección no entre en conflicto con la primera o segunda ley.,

ahora, casi 80 años después, el académico jurídico y experto en inteligencia artificial Frank Pasquale ha agregado cuatro principios adicionales.

le ha dado al podcast Future Tense de RN la verdad. Esto es lo que necesitas saber.

¿en qué se equivocó Asimov?

El Profesor Pasquale dice que si bien las ideas de Asimov estaban bien fundadas, asumieron una cierta trayectoria tecnológica que ya no se sostiene: las innovaciones no siempre son para el bien de la humanidad.,

«mientras Asimov está hablando de cómo tenemos robots que ayudan a las personas y no las dañan, yo estoy hablando de cómo democratizamos la dirección de la tecnología», dice.

y hace una distinción importante entre IA y lo que él llama ia — aumento de inteligencia.

«el objetivo de la inteligencia artificial es a menudo reemplazar a los seres humanos, para crear, por ejemplo, un doctor robot o un maestro robot. El objetivo del aumento de la inteligencia es ayudar a los seres humanos.»

entonces, ¿cuáles son las nuevas leyes y por qué son necesarias?,

el profesor Pasquale dice que los trabajos que implican juicio y deliberación sobre las opciones deben mantenerse para los seres humanos.(Getty: Donald Iain Smith)

El Profesor Pasquale dice que hay mucho en juego.

la combinación óptima de interacción robótica y humana es demasiado importante para ser determinada solo por corporaciones e ingenieros, argumenta.

«si optamos por una visión de reemplazo de inteligencia artificial, eso va a crear un futuro sin empleo en muchas áreas», dice.,

«mientras que si enfatizamos el aumento de inteligencia, eso debería aumentar tanto la productividad como el valor del trabajo.»

nueva ley 1: la IA debe complementar a los profesionales, no reemplazarlos

El Profesor Pasquale dice que algunas áreas de la economía, particularmente en la fabricación, continuarán viendo una automatización rápida, pero los trabajos que implican juicio y deliberación sobre las opciones deben mantenerse para los seres humanos.,

«en áreas como la enseñanza, la medicina, una gran cantidad de campos profesionales, usted quiere tener personas capaces de explicar las opciones a sus clientes, pacientes y estudiantes, en lugar de tener una gran empresa de tecnología acaba de asumir lo que es mejor y automatizar el resultado.»

pero hace hincapié en la necesidad de reconocer y ayudar a los despedidos por la tecnología.

«parte de hacerlo más fácil es invertir en las personas y enfatizar que todos pueden tener algún papel en la sociedad que implica trabajar con juicio, y que su experiencia es valiosa para ese trabajo.,»

nueva ley 2: Los sistemas robóticos y la IA no deben falsificar a la humanidad

Los dispositivos no deben desarrollarse para imitar las emociones humanas.

El Profesor Pasquale dice que si bien los asistentes personales como Siri pueden parecer benignos, corren el riesgo de engañar a la gente y manipular nuestros sentimientos.

el futuro de la interacción humano-computadora va a involucrar juicios duros sobre cómo deben ser las interacciones personales sin fisuras con los robots, y si debe haber alguna fricción para crear un nivel de distancia.,

El Profesor Pasquale también argumenta que necesitamos ser más disciplinados en el lenguaje que usamos en torno a la robótica.

«Me resisto incluso a novelistas o escritores de ficción que llaman al robot» él » o «ella» como una persona. Creo que ‘ it ‘ siempre debería ser el pronombre porque creo que ‘it’ denota el hecho de que esto es una máquina y no es una persona.»

ir más profundo: ¿qué dicen nuestros asistentes virtuales sobre el sexismo? Bastante, como resulta.,

nueva ley 3: Los sistemas robóticos y la IA no deben intensificar las carreras armamentísticas de suma cero

el desarrollo incontrolado de sistemas robóticos inteligentes de armas corre el riesgo de salirse de control, advierte el profesor Pasquale.

y dado nuestro historial con otros gastos militares, hay muchas razones para sugerir que se desarrollará una carrera armamentista sobre el desarrollo y el despliegue de armamento de IA.,

«muy pronto creo que tenemos que decir cómo hacemos que las sociedades reconozcan que esto es destructivo, no es proporcionar servicios humanos reales, solo es invertir en la historia de la destrucción», dice el profesor Pasquale.

también advierte contra las empresas tecnológicas como Google y Facebook que se involucran en una «carrera armamentista por la atención» tanto entre los anunciantes como entre los usuarios de la plataforma.

La Hipercompetitividad, advierte, es el camino hacia el «dominio tecnológico y la monopolización».

relacionado: la fuerza de Defensa australiana está invirtiendo millones en la investigación de’ robots asesinos’.,

nueva ley 4: Los sistemas robóticos y la IA siempre deben indicar la identidad de su(s) creador(es), controlador(es) y propietario (es)

se necesitan mayores niveles de transparencia para aumentar la rendición de cuentas y disuadir la actividad inapropiada e ilegal tanto de los propietarios como de los desarrolladores de tecnología.

así como los coches tienen matrículas, también los robots deben hacerlo, dice el profesor Pasquale.

cree que ningún sistema robótico debería ser completamente autónomo. Los riesgos son demasiado altos.,

«Es importante porque sabemos cómo castigar a las personas, no sabemos cómo castigar a los robots o la IA, y eso es realmente importante para el futuro de la aplicación de la ley.»

tú decides: ¿dejarías que un auto determine quién muere?

¿pero eso no frenará la innovación?

La respuesta corta es sí.

El Profesor Pasquale reconoce que la aplicación generalizada de sus nuevas leyes paralizaría el desarrollo de ciertas tecnologías, pero eso, dice, sería para el bien público.,

«hemos visto muchos campos donde los avances tecnológicos han llevado a consecuencias muy preocupantes y dañinas como el calentamiento global. Tenemos que adelantarnos a estas cosas», dice.

«no podemos simplemente mirar algo como el calentamiento global y decir, bueno, solo obtendremos una solución tecnológica.

«tenemos que pensar muy profundamente en dirigir la innovación, y la innovación en sí misma no puede ser solo una consigna para detener la regulación.»

estas leyes se detallan en el Libro del profesor Pasquale New Laws of Robotics: Defending Human Expertise in the Age of AI., Para escuchar la Entrevista Completa, Escucha el podcast Future Tense.

este artículo contiene contenido que solo está disponible en la versión web.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *