La séptima ley de la robótica: cómo hacer de los robots humanos ejemplares

La séptima ley de la robótica: cómo hacer de los robots humanos ejemplares Imagen superior: ilustración de Ralph McQuarrie para el libro "Robot Visions", de Isaac Asimov (Roc Books, 1989).

Si viviéramos ya en un mundo futuro y existieran robots equipados con inteligencia artificial, iguales en todo lo demás a los humanos, ¿sería necesario que fueran conscientes de que lo son? Es decir, ¿debe un robot saber que no es un ser humano? Imagínese viviendo en ese mundo sin saber si usted es o no un robot: ¿querría saberlo?, ¿sería conveniente? Si no hay diferencias fundamentales entre humano y robot, ¿tiene sentido saber si se es una cosa o la otra?

Ya convivimos con robots. No siempre los llamamos así, pero están en todas partes: en nuestras cocinas, en los móviles, pilotan los aviones, regulan las transacciones bursátiles, acabarán por conducir nuestros vehículos, o los vehículos serán robots, etc.

Para Nikola Kesarovski es fundamental que el robot sepa que lo es. En su obra La quinta ley (1983), un robot que desconoce su condición acaba con un ser humano al darle un abrazo demasiado cariñoso. No tenía intención de hacer daño. Esta situación es relevante porque normalmente se recurre a las famosas tres leyes de la robótica que Asimov expuso en 1942 (Círculo vicioso) como lenitivo ante el temor que produce la posibilidad de convivir con robots en todo mejores que nosotros y, además, casi inmortales. El problema es que esas leyes no tienen en cuenta los excesos afectuosos.

Seis leyes de la robótica

La primera las leyes de Asimov establece que ningún robot ocasionará daño a un humano por acción u omisión. Lamentablemente, esta ley da más problemas que soluciones porque es complicado definir lo que es daño. Por ejemplo, recientemente se ha creado un robot albañil. Aparentemente, esto no ocasiona daño a nadie. Sin embargo, si deja sin trabajo a los que ahora se dedican a ello, ¿no estaría ocasionando un daño? Pero, si dejara de construir, el “daño” se lo estaría causando a quienes esperan la vivienda.

Para superar esos problemas, algunos autores de ciencia ficción han sentido la necesidad de complementar las tres leyes de Asimov. Lubien Dilov dio la cuarta en su obra El camino de Ícaro (1974): “Todo robot debe identificarse siempre como tal”. Y Kesarovsky enuncia la quinta más o menos así en su obra La quinta ley (1983): “Todo robot debe saber siempre que es un robot”. Tal vez sería más correcto alterar el orden de estas dos leyes, ya que resulta evidente que para identificarse como robot debe saberse primero que se es tal cosa.

Asimov2

Puede añadirse otra, de Harry Harrison: “Un robot debe reproducirse, en tanto en cuanto esta reproducción no entre en conflicto con las leyes primera o tercera (de Asimov)”. Para Harrison, ésta era la cuarta ley: aparece en su obra de 1986 La cuarta ley de la robótica. Entraría en conflicto con la de Dilov en cuanto al orden que han de seguir. Pero esto es un detalle menor. El caso es que hay seis leyes con las que se pretende desvanecer cualquier amenaza que la convivencia con robots pueda suponer en el futuro. Son, ordenadas según mi criterio:

  1. Un robot no debe dañar a un ser humano o permitir, por inacción, que sufra daño un ser humano (Asimov, 1942).
  2. Un robot debe cumplir las órdenes dadas por seres humanos, salvo aquellas que entren en conflicto con la primera ley (Asimov, 1942).
  3. Un robot debe proteger su propia existencia, siempre que esta protección no entre en conflicto con las leyes primera o segunda (Asimov, 1942).
  4. Un robot debe saber siempre que es un robot (Kesarovsky, 1983).
  5. Un robot debe identificarse siempre como tal (Dilov, 1974).
  6. Un robot debe reproducirse, en tanto en cuanto esta reproducción no entre en conflicto con las leyes primera o tercera (Harrison, 1986).

Creo que para solucionar el problema que ocasiona la primera ley y que se ha mencionado antes, convendría redactarla de la siguiente manera:

  1. Un robot no iniciará nunca un acto de agresión contra la vida o la propiedad de un ser humano.

Esta redacción es más adecuada por dos motivos: en primer lugar, al decir que no “iniciará” nunca un acto de agresión, permite pensar en la posibilidad de robots encargados de garantizar la seguridad, que se verían obligados, tarde o temprano, a responder a actos violentos iniciados por humanos. En segundo lugar, los robots podrían llevar a cabo acciones que, siendo perjudiciales para los humanos, como ocupar puestos de trabajo, no podrían considerarse como agresión, por lo mismo que no lo consideramos así cuando lo hace un ser humano.

yorobot

La séptima ley

También se ha eliminado en esta nueva redacción la idea de daño por inacción. Esto puede parecer extraño, ya que un robot que no acuda a socorrer a un humano en peligro no estaría realizando ninguna agresión, pero tampoco serviría como salvavidas, por ejemplo. Los robots podrían permanecer impasibles ante actos de agresión cometidos por unos humanos sobre otros, o no ayudar nunca a nadie que lo necesite.

En realidad, no es un problema, ya que los robots están programados para ejecutar determinadas tareas, como por ejemplo salvar vidas en la piscina, y no podrán dejar de llevarlas a cabo; es decir, no podrán nunca no actuar, no habrá omisión. Es lo que establece la segunda ley: han de obedecer.

Si, tal y como se afirma que ocurrirá, los robots llegarán a tener conciencia de sí mismos y, en consecuencia, podrán decidir “libremente” qué acciones llevar a cabo o no, las leyes mencionadas no serán de aplicación. Habría que sustituir “debe” por “puede” y, por eso mismo, dejarían de ser leyes. Además, los robots ya no se distinguirían de nosotros y no sería fácil justificar que tuvieran que regirse por leyes distintas a las nuestras.

Este es el caso que genera más preocupación. De hecho, las leyes de Asimov impiden el desarrollo de una conciencia autónoma o, si se desarrolla, impiden que se aplique en la práctica. Si los robots, en todo más inteligentes que nosotros, más fuertes, más resistentes, sin enfermedades, con vidas útiles larguísimas, etc., tienen, además, conciencia de sí mismos, no cabe esperar que sean muy indulgentes con nosotros. Y si no nos trataran mal serían como santos, a los que les resultaríamos indiferentes, o peor, innecesarios.

Por ello, por si adquieren autoconciencia, hay que añadir una séptima ley con el fin de humanizarlos. La llamo ley, pero ello no quiere decir que lo sea en sentido estricto, o que haya de ser impuesta de alguna manera, ya que es probable que surgiera de manera espontánea y simultánea con la conciencia de sí mismos. Podría enunciarse así:

  1. Un robot debe sentir deseo por aquello mismo que los otros robots desean.

Robots y humanos

De este modo, al tener deseos miméticos (como los llamaba René Girard), serán en todo iguales a nosotros. Surgirá entre ellos el conflicto y se verán obligados, para evitar que los destruya, a hacer lo mismo que nosotros: usar la política, de la que depende la civilización.

Serán así civilizados y tratarán de establecer garantías que aseguren la integridad y la libertad de cada uno, tendrán que respetar la autonomía individual, se preocuparán por la justicia, se dotarán de un orden jurídico, adoptarán normas morales, etc., y, lo que es más importante, sentirán empatía por quienes “sólo” somos formas de vida con base de carbono, menesterosas, llenas de deseos. Lo político, que procura la convivencia, será esencial también para ellos.

Serán libres, necesitarán de la política y podremos buscar un bien común. Probablemente, entonces, no sea relevante distinguir a un humano de un robot, pero no porque nos hayamos deshumanizado nosotros, sino porque se hayan humanizado ellos.

Copyright del artículo © Roberto Losada Maestre. Artículo editado originalmente por The Conversation y publicado en TheCult.es (Thesauro Cultural) por cortesía de esta publicación, con licencia CC.

Roberto Losada Maestre

Profesor de Teoría Política, Universidad Carlos III.

logonegrolibros

Términos de uso y Aviso de privacidad. ISSN 2530-7169 (Ilustración: Kellepics, CC)

  • La mirada crítica y el poema "Instantes"
    Escrito por
    La mirada crítica y el poema "Instantes" En varias ocasiones he hablado del poema Instantes, que se atribuye a Borges erróneamente. Lo transcribo aquí de nuevo: Si pudiera vivir nuevamente mi vida. En la próxima trataría de cometer más errores. No intentaría ser…
  • América en la torre de Babel
    Escrito por
    América en la torre de Babel Babel es palabra que en hebreo significa confusión y en babilonio (bab–ili), casa de Dios. 1 Al llegar a Mesoamérica, los españoles se encontraron con unas pirámides que parecían egipcias y con una leyenda maya…

logonegrociencia

Comfreak, CC

  • Dos teorías de la mente
    Dos teorías de la mente Uno de los más grandes misterios que le quedan a la ciencia por resolver, luego de habernos dado una perspectiva acerca del universo y de la vida, es la mente. Me desagrada, al…

Trestesauros500

Vlynn, CC

  • El bibliotecario lector
    Escrito por
    El bibliotecario lector En los años 90 surgió la idea de que la mente humana, de forma muy elemental, está compuesta de módulos que realizan tareas especializadas, módulos que ya traemos como parte de nuestra “programación”. Salta a…
  • "Tor" (1953-1993), de Joe Kubert
    "Tor" (1953-1993), de Joe Kubert Hay autores que encarnan un modo de hacer cómic, que simbolizan toda una forma de narrar historias. Su maestría se convierte en ejemplo e influencia para generaciones de artistas posteriores, que imitan su estilo o…

Cartelera

Cine clásico

logonegrofuturo2

Imagen © Richard Kingston (young rascal)

logonegrolibros

MystycArtDesign, CC

logonegromusica

Fradellafra, CC

  • Cristo según Perosi
    Escrito por
    Cristo según Perosi Con su habitual rapidez, monseñor Lorenzo Perosi estrenó su oratorio Jerusalén en abril de 1900, habiéndolo comenzado en enero, a bordo del tren que lo llevaba de Venecia a Milán. La popularidad ya adquirida le…

logonegroecologia

Coffy, CC

etimologia