¿Sirve de algo hablar ahora de la ética de las máquinas inteligentes?

Un libro del físico cuántico José Ignacio Latorre reflexiona acerca de la ética de las máquinas que algún día serán más inteligentes que los humanos. ¿Tiene sentido hacer estas preguntas cuando quizá nunca veamos inteligencia no biológica superior a la humana?

¿Está un dron de guerra sujeto a criterios éticos? ¿Supondrá el control de los coches autónomos la pérdida de nuestra intimidad? ¿Tendremos inteligencia artificial aplicada a impartir la ley? Son sólo algunas de las preguntas que se hace José Ignacio Latorre en su libro ‘Ética para máquinas’, un texto que propone una reflexión sobre una ética para esas nuevas máquinas que, dice el autor, “nos superarán”. “Ellas tomarán decisiones por nosotros, nos gobernarán. Nuestra responsabilidad ahora es dejarles un buen legado: lo humano”.

Muchos otros científicos, seguro, no estarán de acuerdo con esta afirmación. Yo no soy uno de ellos, ni científico ni físico, ni experto. Nunca he pensado, como por ejemplo Mike Dillinger, que las máquinas nos vayan a gobernar. Serán lo que los humanos quieran que sean, y sólo el binomio máquina/humano será capaz de avanzar en la nueva era en la que sí pueda haber máquinas que superen en inteligencia a los seres biológicos. Es la teoría del mismo Ray Kurzweil, y que también defiende su discípulo José Luis Cordeiro.

José Ignacio Latorre, catedrático de Física Teórica en la Universidad de Barcelona y director del Centro de Ciencias de Benasque Pedro Pascual, es uno de los expertos más reconocidos en el campo de la física cuántica. Ha hecho aportaciones cruciales a la teoría cuántica de campos y el entrelazamiento. Y considera que todavía hay muchas personas que prefieren no pensar en este devenir incierto que nos trae el despunte de la inteligencia artificial (IA), “Ni ahora ni después procurarán entender lo que está sucediendo. Es una pena. Comprender es quizá el mayor reto que un humano puede experimentar”.

Ponerse la venda antes de tiempo puede generar muchas frustraciones, explican algunos expertos que no quieren preocuparse ahora en las etapas de desarrollo de la IA de los problemas éticos que ésta puede acarrear. Pero el manuscrito de Latorre es una oda a las cuestiones éticas, cuando ni tan siquiera ahora hay máquinas inteligentes, ni las habrá probablemente en cientos de años como en este mismo blog ha señalado por ejemplo Ramón López de Mántaras, director del Instituto de Inteligencia Artificial del CSIC. Y en esa búsqueda de soluciones ante tantas cuestiones éticas, el autor del libro señala que “las máquinas ya deciden por nosotros … y propician nuestro debilitamiento físico e intelectual”. Y relata, además, como “el gran peligro de la inteligencia artificial es que los humanos se deterioren en la valoración de sus principios. La despreocupación moral es un peligro tan real como el declive físico e intelectual que hemos sufrido”.

También habla Latorre en su libro de los futuros coches autónomos, que él denomina como ‘conductores artificiales’, de los que también hemos escrito en este Blog, y seguiremos haciéndolo, pero se hace algunas preguntas más, no se si ante el declive de los sistemas políticos y sus dirigentes. ¿Podríamos incluir la inteligencia artificial en Parlamentos, Gobiernos y Jueces? Se pregunta. Y contesta que si con ella se pudiera erradicar la corrupción, … Y en la cuestión ética opina que “en un mundo cuyo control esté en manos de inteligencias artificiales”, algo en lo que no creo, “las leyes deberán hilar muy fino y primar el bienestar general frente a cualquier consideración empresarial”.

Latorre, en algunas de las afirmaciones y opiniones que vierte en su libro está muy cerca de las teorías de científicos como Kurzweil y pseudocientíficos, según le tildan sus detractores, como José Luis Cordeiro. Dice que deberemos aprender a relacionarnos con robots que simulen emociones reales, a lo que define como un “tránsito inevitable”. Y yo me pregunto: ¿está Latorre de acuerdo con la teoría de Ray Kurzweil que señala que la ‘Singularidad’ está mucho más cerca? Recordemos, la Singularidad es ese momento en el que la inteligencia no biológica superará a la biológica.

No tengo duda”, dice José Ignacio Latorre, “que una inteligencia superior será pacífica”, ya que no precisará de violencia para sobrevivir. Su enorme potencia intelectual le permitirá conseguir recursos de forma eficiente. Aceptará la diversidad como un bien.  “Lo más honesto es decir que es imposible saber qué haría con su vida una inteligencia artificial que nos supere¿Qué sentido tendría para sí misma? “Debemos llegar a crear una inteligencia artificial avanzada dando pasos intermedios que defiendan el ideal de la empatíaLa idea es próxima a la banalidad del bien, aunque más amplia y menos utilitarista. Máquinas profundamente comprensivas, que priman su paciencia o su generosidad frente a las tareas directas que deben cumplir”. 

“La libertad es el bien más preciado para la mente humana. Es su esencia. ¿Lo será para una inteligencia artificial avanzada? Inteligencias artificiales sobrehumanas y libres: esa sí será la hora del relevo”, finaliza Latorre, en una clara coincidencia con las voces que antes hemos comentado y que ven, probablemente cientos de años antes de que ocurra, lo que puede ocurrir con máquinas que no vislumbraremos. Una sola reflexión antes de terminar esta crónica al libro. Un experto, del que no voy a dar por el momento el nombre, me dijo: “cualquiera que diga que sabe lo que va a pasar dentro de cinco años, es un iluminado y casi al cien por cien se equivocará”.

Juan Carlos F. Galindo

Juan Carlos F. Galindo

Tras dos décadas dedicado a la comunicación de Productos y Servicios, Innovación, Tecnología, I+D, Televisión y Patrocinios de una gran empresa, me embarco en este blog que dedicaré a mi pasión, la tendencia tecnológica que va a protagonizar la 4ª Revolución Industrial: la Inteligencia Artificial.

Continúa leyendo