Inteligencia artificial, riesgos y amarillismo

Inteligencia artificial, riesgos y amarillismo Imagen superior: "Blade Runner 2049" © Sony Pictures.

La idea de una “inteligencia artificial”, creada por el ser humano, siempre ha causado temor. Las raíces de este temor se remontan al Gólem de la mitología judía, y pasan por el monstruo de Frankenstein: el primero creado de arcilla y animado por uno de los nombres de Dios; el segundo, a partir de cadáveres y vuelto a la vida gracias a la ciencia, mediante la electricidad. Ambos se revelan contra sus creadores y causan caos y destrucción.

Pero fue con el desarrollo de los primeros robots y computadoras electrónicas, y a través de la ficción literaria, cinematográfica y televisiva, que la idea de una inteligencia artificial que se rebelara para dominarnos o destruirnos pasó a formar parte del imaginario colectivo.

Sólo hasta hace relativamente poco la frase “inteligencia artificial” (que la Wikipedia define como “la capacidad de un agente de percibir su entorno y llevar a cabo acciones que maximicen sus posibilidades de éxito en algún objetivo o tarea”) comenzó a tener algún sentido.

Primero con cosas simples como que el navegador de internet o el programa de correo electrónico recordaran direcciones anteriormente usadas y las llenaran automáticamente. Luego, a través de sistemas como los de Google, Amazon o Facebook, que aprenden a reconocer nuestros hábitos y gustos y a hacernos recomendaciones acordes con ellos, o bien a identificar nuestra cara y las de nuestros conocidos en fotografías, con asombrosa precisión. Y posteriormente con “ayudantes digitales” como Siri, de Apple, o Cortana, de Microsoft, con los que se puede “conversar” de forma casi natural y obtener respuestas moderadamente satisfactorias y cada vez mejores. ¡Ah! Y no olvidemos al autocorrector de los smartphones, que tanta alegría nos da cada día. Por supuesto, en temas más serios, también se están desarrollando sistemas capaces de detectar un tumor en una radiografía o de conducir un auto.

Pero, como se ve, aunque lo logrado puede o no ser impactante, no parece ni con mucho amenazador.

Sin embargo, desde junio de 2017 ha circulado ampliamente una noticia que pareciera ser la primera señal de que amenazas como HAL 9000 de 2001: Odisea espacial o Skynet de Terminator podrían estar a la vuelta de la esquina: unos investigadores de Facebook que estaban trabajando con chatbots (programas de inteligencia artificial diseñados para comunicarse en lenguaje natural) a los que “entrenaban” para negociar entre ellos (lo cual logran, básicamente, por prueba y error), los dejaron sin supervisión y luego de un tiempo hallaron que habían comenzado a utilizar una derivación del idioma inglés que estaba dejando de ser comprensible para los humanos.

La noticia se exageró bastante en los medios, donde se afirmaba que se había tenido que “desconectar” a las inteligencias artificiales antes de que “se convirtieran en un sistema cerrado” y siguieran comunicándose entre ellas sin que los investigadores pudieran saber de qué hablaban. Suena casi como el inicio de la pesadilla, pero en realidad se trató de algo mucho más simple: el “nuevo lenguaje” desarrollado por los chatbots era más eficiente para comunicarse entre ellos, pero no para lograr su objetivo. Los programadores simplemente suspendieron el experimento para mejorar la programación y evitar que ocurrieran esas desviaciones.

Lo triste fue que quedó opacado lo que podría haber sido la verdadera nota: los bots descubrieron, por sí mismos, maneras de negociar que no tenían programadas pero que los humanos solemos usar, como fingir interés en algo para luego cederlo en una etapa posterior de la negociación, a cambio de otra cosa de mayor valor.

Lo cierto es que la posibilidad de que, con el tiempo, surjan inteligencias artificiales lo suficientemente avanzadas como para ser potencialmente peligrosas (e incluso conciencias artificiales, con los problemas éticos que esto traería aparejado) es casi inevitable. El punto es qué tan pronto podría suceder, y qué podríamos hacer para prevenir el riesgo.

El magnate Elon Musk, dueño de Tesla Motors, opina que el peligro es inminente y llega a decir cosas como que la gente no lo entenderá “hasta que vean robots por la calle matando gente”. Stephen Hawking, Bill Gates o Steve Wozniak comparten versiones más moderadas de sus temores. Otros, como Mark Zuckerberg, dueño de Facebook, con quien Musk tuvor una escaramuza al respecto, discrepan: “creo que quienes proponen estos escenarios de día del juicio son bastante irresponsables”, dijo Zuckerberg en respuesta a Musk. La mayor parte de la comunidad global de expertos en inteligencia artificial concuerdan con él.

De cualquier modo, es indudable que cierto riesgo existe. Quizá la solución sería imbuir estructuralmente en toda inteligencia artificial las famosas “tres leyes de la robótica” planteadas por el gran Isaac Asimov en sus novelas: “jamás dañar a un humano; jamás desobedecer a un humano; proteger su propia existencia”. Pero aunque enunciarlas es sencillo, programarlas en una moderna inteligencia artificial seria extraordinaria, monumentalmente complicado.

Aunque, ¿quién sabe? Por lo pronto, ya hay gente comenzando a trabajar en ello. Mientras tanto, sigamos disfrutando, o padeciendo, las “inteligencias” artificiales de las que podemos disponer cotidianamente, y esperemos a que mejoren lo suficiente como para dejar de ser una constante fuente de frustración y molestia.

Copyright del artículo © Martín Bonfil Olivera. Publicado previamente en "La Ciencia por Gusto" y reproducido en TheCult.es (Thesauro Cultural) con permiso del autor. Reservados todos los derechos.

Martín Bonfil Olivera

Martín Bonfil Olivera, mexicano, es químico farmacéutico biólogo y estudió la maestría en enseñanza e historia de la biología de la Facultad de Ciencias, ambas en la UNAM.

Desde 1990 se ha dedicado a la divulgación de la ciencia por escrito. Colaboró en los proyectos del museo de ciencias Universum y el Museo de la Luz, de la UNAM. Es autor de varios libros de divulgación científica y hasta 2008 fue editor de libros y del boletín El muégano divulgador.

Ha sido  profesor de la Facultad de Ciencias de la UNAM y la Escuela de Periodismo Carlos Septién García. Ha colaborado regularmente en varias revistas (Milenio, Cambio, Los universitarios) y periódicos (La Jornada, Crónica, Reforma). Actualmente escribe la columna semanal “La ciencia por gusto”, que aparece los miércoles en Milenio Diario (puede consultarse en el blog La Ciencia por Gusto), además de escribir mensualmente la columna “Ojo de mosca” para la revista ¿Cómo ves?

Ha colaborado también en el canal ForoTV y en los programas de radio Imagen en la Ciencia e Imagen Informativa, de Grupo Imagen, Hoy por hoy, de W Radio, y actualmente Ecléctico, en la estación de radio por internet Código Radio, del gobierno del DF, con cápsulas de ciencia.

En 2004 publicó el libro La ciencia por gusto, una invitación a la cultura científica (Paidós). Desde 2013 es miembro del comité editorial de la revista de divulgación científica Hypatia, del Consejo de Ciencia y Tecnología del Estado de Morelos (CCyTEM).

En 2005 recibió la Distinción Universidad Nacional para Jóvenes Académicos en el área de Creación Artística y Extensión de la Cultura.

Ha impartido numerosos cursos de divulgación escrita en casi todos los Estados de la República Mexicana.

Sitio Web: sites.google.com/site/mbonfil/

Social Profiles

logonegrolibros

  • El libro de los condenados
    Escrito por
    El libro de los condenados Cuando llegue el Día el Juicio Final, todos los seres humanos se presentaran ante el trono de Dios. Los muertos saldrán de sus tumbas y se unirán a los vivos para ser escrutados por los…
  • El Siglo del Anacronismo
    Escrito por
    El Siglo del Anacronismo La vieja costumbre de dividir el tiempo histórico en unidades regulares y adjudicar a cada una de ellas un sentido predominante, nos hace admitir con facilidad, por ejemplo, que el siglo XVI fue el del…
  • Información y calidad
    Información y calidad Vivimos en la era de la información. Las últimas décadas han traído cambios radicales, y cada vez más acelerados, en la manera en que ésta se genera y se difunde. Hace unos años…

logonegrociencia

Cosmos: A Spacetime Odyssey © Fox

  • Después del diluvio
    Escrito por
    Después del diluvio En la última década se han establecido, al menos en la percepción colectiva, varias verdades fundamentales sobre el estado de la información como materia prima y su papel en el mundo. A saber: La cantidad…
  • Cuando llega la noche
    Escrito por
    Cuando llega la noche El dormitorio es el lugar donde nos hallamos a solas, cara a cara, con el espanto. Conviene, a juzgar por lo que nos muestra, en especial, el cine, que la víctima del terror duerma sola…

Cartelera

Cine clásico

logonegrofuturo2

Cosmos: A Spacetime Odyssey © Fox

logonegrolibros

bae22, CC

logonegromusica

Namlai000, CC

  • Beverly Sills ante Pavarotti
    Escrito por
    Beverly Sills ante Pavarotti Beverly Sills, la gran soprano norteamericana fallecida en 2007, hizo de la Lucia donizettiana uno de sus caballos de batalla, dotando al personaje de ese difícil equilibrio entre canto y expresión. Magnífica sucesora de las…

logonegroecologia

Mathias Appel, CC

logonegrofuturo2

Petar Milošević, CC