Ventajas y riesgos de la Inteligencia Artificial

Expertos vaticinan que el desarrollo de la IA, el mayor reto tecnológico de la historia, dará a luz una nueva generación de robots autónomos capaces de atender nuestras necesidades. Pero ¿constituirán una amenaza?

 

Su preocupación tiene mucho que ver con el dinero. Los pesos pesados del sector tecnológico están apostando fuerte en este sentido. Google, por ejemplo, adquirió el año pasado DeepMind, una empresa especializada en el desarrollo de redes neurales en la que ya había invertido Musk. El gigante de las búsquedas trabaja en un sistema informático capaz de distinguir en un vídeo una cara humana de la de un perro, gente patinando o durmiendo, un gato... Y todo por sí solo y sin que nadie haya puesto etiquetas en el archivo previamente.

 

La idea es que vaya aprendiendo, por así decirlo, tras alimentarse con millones de grabaciones. IBM, por su parte, afina su superordenador Watson, que en 2011 derrotó a los campeones humanos del concurso estadounidense de preguntas y respuestas Jeopardy! Su intención es mejorar las funciones cognitivas del ingenio y comprobar sus capacidades para realizar diagnósticos médicos, análisis de la personalidad y traducciones en tiempo real. Los ingenieros de Facebook no se quedan atrás y han ideado un algoritmo que permite reconocer un rostro con éxito el 97 % de las veces, aunque haya sido mal captado.

 

Musk asegura que las cosas van demasiado rápido, y que por eso la IA es una tecnología que puede resultar tan peligrosa como los maletines nucleares. En el coro de los agoreros del apocalipsis artificial destaca la voz del filósofo británico Nick Bostrom, de la Universidad de Oxford, que compara nuestro destino con el de los caballos, cuando fueron sustituidos por los automóviles y los tractores. En 1915, había en EE. UU. unos veintiséis millones de estos equinos. En la década de los cincuenta, quedaban solo dos millones. Los caballos fueron sacrificados para venderse como comida para perros. Para Bostrom, la IA supone un riesgo existencial para la humanidad comparable con el impacto de un gran asteroide o el holocausto nuclear. Todo ello, por supuesto, siempre que podamos construir ordenadores pensantes. Pero ¿qué significa exactamente esto?

 

En realidad, el concepto de inteligencia artificial no es tan reciente como parece. Desde los tiempos de Alan Turing –al que se considera el padre de la misma– y la construcción de su dispositivo Bombe, que permitió descifrar los códigos de la máquina Enigma alemana, han pasado más de setenta años. En un momento dado del film The Imitation Game (Morten Tyldum, 2014), en el que Benedict Cumberbatch interpreta al célebre matemático, un detective le pregunta: “¿Podrán las máquinas algún día pensar como los humanos?”. A lo que él responde: “La mayoría de la gente piensa que no.

 

El problema es que está haciendo una pregunta estúpida. Desde luego que las máquinas no pueden pensar como las personas. Son diferentes, y piensan diferente. La cuestión es: por el hecho de que algo sea diferente, ¿significa que no puede pensar?”. El detective le interpela entonces por el título de su artículo, The Imitation Game. “Es un juego, un test para determinar si alguien es un ser humano o una máquina”, indica Turing. “Hay un tema general. Un juez pregunta, y a partir de las respuestas, decide si habla con una persona o una máquina”. La escena quizá sea inventada, pero su contenido es real. El test existe.

 

La IA causa furor gracias a la literatura y al cine. Pero ¿cuál es el grado real de progreso? Hace más de quince años, estuve en el Instituto de Robótica de Pittsburgh, en EE. UU., uno de los templos de esta disciplina. Por entonces, formaba parte de un equipo de TVE que recogía los últimos avances tecnocientíficos en una serie de divulgación llamada 2.Mil. Tengo que reconocerlo: me llevé un chasco morrocotudo por culpa de la imagen de la robótica que nos ha inculcado la ciencia ficción.

 

Los aparatos que tenían allí eran poco más que cacharros en manos de ingenieros en vaqueros, y parecían salidos de un garaje de frikis. Se averiaban a la menor ocasión. Me hablaron de Florence, una enfermera robot que iba a revolucionar la geriatría. En realidad, se trataba de una especie de tonel con cabeza a la que habían pegado ojos y labios de silicona para dibujar sonrisas.

 

Florence tenía una cámara de televisión incorporada y un monitor. Las pilas se le agotaban rápido. Y, desde luego, no entendía lo que le decíamos. Todo aquello que pronunciaba tenía que programarse con antelación, así que un ingeniero trabajó a destajo para que saliera al pasillo y nos diera un mensaje de bienvenida.

 

Había leído muchas cosas sobre lo que hacían en Pittsburgh, especialmente de Xavier, un robot que sabía por dónde iba, toda una revolución. Pero no era otra cosa que otro tonel con ruedas que se desplazaba por los pasillos del instituto gracias a un mapa que tenía en su memoria. Ante unas escaleras, se paraba para no matarse. Por lo visto, irrumpía en las dependencias para contar chistes verdes. Aquella mañana vi a Xavier mientras era llevado a rastras, una imagen que jamás olvidaré. ¡Estaba en las catacumbas de la robótica! Acudí a la oficina de Hans Moravec, uno de los visionarios más famosos, pero todo lo que decía resultaba difícil de creer.

 

Moravec estaba convencido de que en cincuenta años los androides desplazarían a los humanos. Durante más de una hora estuvo hablando sin parar sobre la evolución de estos dispositivos y su creciente inteligencia, gracias al avance de los microprocesadores y su capacidad de manejar cada vez más información. Fue una charla cautivadora. La evolución de las máquinas iba a ser imparable. “Ha llegado la hora de que nos marchemos”, concluía este científico nacido en Austria.

 

Moravec dejó el instituto para fundar una compañía de robots industriales con visión 3D. Antes, me había enseñado en su ordenador una imagen percibida por uno donde se veían sillas y mesas que tenían un aspecto pixelado. ¿Y cómo podría saber la máquina qué era qué? En aquel verano de 1999, Moravec contaba que estaba fascinado por un nuevo buscador de internet, el más inteligente y mejor diseñado. Fue la primera vez que oí hablar de Google.

 

Ahora, Google ha comprado una empresa de IA a Musk y ha desarrollado el primer coche autónomo, que ya ha recorrido 1,6 millones de kilómetros sin conductor, y el sistema que diferencia gatos de personas en YouTube. El mundo está literalmente invadido por cantidades inconcebibles de información, que circula por la Red, y la capacidad de computación aumenta sin cesar. Pero ¿de verdad tenemos razones para temer que una máquina llegue algún día a pensar como nosotros?

 

Ramón López de Mantarás, director del Instituto de Investigación en Inteligencia Artificial del CSIC, es uno de los más reconocidos expertos españoles en robótica e IA. “No”, responde a MUY. Y añade: “No sé qué pasará dentro de cientos de años, pero todo este tema del que se habla, la singularidad, la trascendencia, que habrá máquinas con consciencia y cualidades mejoradas con respecto a la inteligencia humana en cuestión de treinta o cuarenta años no tiene sentido... Nunca he visto un argumento científico que lo apoye”.

 

El punto de vista de López de Mantarás encaja con lo que sentí hace quince años, en mi frustrante visita a Pittsburgh. El mundo ha cambiado mucho desde entonces, pero lo cierto es que aún no se vislumbran las máquinas que acabarán siendo conscientes de sí mismas para desencadenar la catástrofe, como ocurre en las películas de la saga Terminator.

 

Discrepa así de gurús como el futurólogo Raymond Kurzweil, que hoy trabaja en la división de Ingeniería de Google. Al igual que Moravec, este está convencido de que durante este siglo los robots serán capaces de pasar el citado test de Turing, incluso antes de 2029. Pues bien, no sería la primera vez que se cumple una de sus predicciones.

Etiquetas: Inteligencia Artificialdronesinnovaciónrobotsrobóticatecnología

Continúa leyendo

CONTENIDOS SIMILARES

COMENTARIOS