Isaac Asimov, la ciencia ficción y la ética de la IA.

por Pauli

La ciencia ficción es capaz de revelarnos más sobre el futuro de la humanidad que cualquier otra cosa, y nadie lo hizo mejor que Isaac Asimov.

Nacido en Rusia el 2 de enero de 1920 (Según el calendario Gregoriano), Asimov fue un escritor y profesor de bioquímica de la Universidad de Boston. Su obra, que incluye libros sobre ciencia ficción, divulgación científica, divulgación histórica, fantasía, misterio y un par de autobiografías, lo han llevado a ser considerado junto a Clarke (2001: Una Odisea en el Espacio) y Heinlein (Starship Troopers) fue considerado como uno de los Tres Grandes de la Ciencia Ficción.

La saga de la Fundación, su obra más famosa, es un conjunto de 16 libros que según él mismo esbozan una especie de historia del futuro. Los libros pertenecientes a esta Saga pueden dividirse en 3 grupos: la Saga de Robots, la Trilogía del Imperio Galáctico y el Ciclo de Trántor. Cada uno de estos grupos se compone de múltiples libros y compilaciones de cuentos cortos que nos llevan en un viaje a un posible futuro de la humanidad y su expansión por la galaxia.

Asimov exploró el auge y decadencia de las nuevas sociedades humanas, el desarrollo de los robots y su impacto en la humanidad. Este impacto se extiende más allá de la ficción. La mayoría de los millennials crecimos asociando la Inteligencia Artificial con la robótica, pero hoy sabemos que la IA es un mundo mucho más amplio y con muchas más aplicaciones.

Según el Diccionario de Oxford, el origen de la palabra robótica pertenece a la historia Liar! (1941) de Asimov.

Las tres leyes de la robótica, propuestas en la ficción por Asimov como 3 reglas absolutas programadas en el núcleo de cada robot, podrían ser utilizadas en la realidad como una “guía ética” a la hora de desarrollar entes inteligentes artificiales. Sin embargo, como sugieren las historias del mismo Asimov, estas leyes pueden ser dobladas, romperse o modificarse, causando dilema morales o lógicos que son el eje centras de muchos de sus escritos.

Las 3 leyes son:

  1. Un robot no puede hacer daño a un ser humano ni, por inacción, permitir que un ser humano sea dañado.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando estas entren en conflicto con la primera ley.
  3. Un robot debe proteger su propia integridad, siempre y cuando esto no impida el cumplimiento de la primera y segunda ley.

En el año 2017 un grupo de especialistas de 26 países, liderados por Elon Musk, solicitó a las Naciones Unidas una regulación sobre la IA, particularmente una prohibición para el desarrollo y uso de armas autónomas. Inspirado por estas leyes ficticias y por la solicitud de Musk y compañía, Oren Etzioni presentó en una editorial en el NY Times una modificación a las 3 leyes:

  1. Un sistema de IA debe estar sujeto a toda la gama de leyes que se aplican a su operador humano.
  2. Un sistema de IA debe indicar claramente que no es un humano.
  3. Un sistema de IA no puede retener o divulgar información confidencial sin la aprobación explícita de la fuente de esa información.

En un mundo donde los avances en IA son acelerados y de alto interés, es necesario preocuparse por lo que vendrá luego. Investigadores, científicos y emprendedores en el área comienzan a alzar sus voces, pero normalmente la regulación llega después de que se ha hecho daño a algún ser humano. Quizás debemos ver el camino que estamos tomando con estas nuevas tecnologías y repasar un poco los posibles conflictos escritos por Asimov.

Consultas:

También puedes leer