La IA también tiene su protagonismo en el MWC19, aunque menos que el 5G

Hacer sombra al 5G en este Mobile World Congress es tarea difícil, por no decir complicada. Pero la inteligencia artificial ha encontrado su espacio y sus protagonistas. Telefónica, Microsoft y BMW son algunos de ellos, aunque hay más.

Un día tan sólo ha hecho falta de Mobile World Congress (MWC), más algunas previas de empresas que se encargaron de calentar el ambiente antes de empezarlo, para darse cuenta que el 5G, aunque todavía no es una realidad comercial, es el verdadero protagonista de este evento. Pero también entre tanto smartphone, redes, casos de uso y tecnología de quinta generación asoma la cabeza en este MWC la inteligencia artificial (IA). Y voy hablar de dos grandes compañías que este primer día han puesto encima de la mesa sus credenciales para liderar sus respectivos sectores partiendo de los beneficios que pueden aportar a los clientes los desarrollos en este terreno.

Por un lado Telefónica, que junto a Microsoft Corporation, ha anunciado una alianza estratégica para colaborar en proyectos de innovación y transformar el sector de las telecomunicaciones. El acuerdo parte del trabajo conjunto ya realizado tanto en el uso de los datos como en la Cuarta Plataforma de la operadorta española, y sobre la que se han desarrollado ya nuevos servicios como Aura, el asistente digital con inteligencia artificial de Telefónica. El nuevo acuerdo, dicen, “permitirá combinar las redes de última generación de Telefónica con la plataforma Microsoft Azure AI para diseñar los servicios que las telcos ofrecerán en el futuro”.  

 


Telefónica y Microsoft evaluarán desarrollar un ecosistema de aplicaciones, las Aura Living Apps, que no son otra cosa que aplicaciones construidas sobre Azure y que se ejecutarán en todos los dispositivos de la operadora en el hogar de sus clientes, como por ejemplo Movistar Home. Estas aplicaciones permitirán a los usuarios interactuar con los diferentes dispositivos para realizar tareas habituales de su día a día.  

También ambas compañías explorarán trabajar conjuntamente en la identificación de oportunidades usando inteligencia artificial y otras tecnologías disruptivas como blockchain, 5G o el edge computing para transformar los servicios y construir las redes del futuro. Y se creará un grupo de trabajo para estudiar la aplicación de la IA y el machine learning en la optimización de las redes, reducción de costes y, en consecuencia, impulsar la transformación de todo el sector. Juntas desarrollarán pruebas de concepto para demostrar cómo estas soluciones se pueden adaptar al aprovisionamiento predictivo de las redes, la demanda de capacidad y otros casos. 


La alianza de las dos compañías —y así lo resalto el propio Satya Nadella, CEO de Microsoft en la presentación de la misma junto al presidente de Telefónica, José María Álvarez Pallete—, se enmarca también en el compromiso compartido sobre la ética y la privacidad de los datos. Ambas se comprometen al uso ético y responsable de los datos de los clientes, tanto en su almacenamiento y como en su utilización.

Pero si Telefónica y Microsoft fueron protagonistas por el anuncio de esta alianza para impulsar los servicios basados en inteligencia artificial, BMW presentó un revolucionario sistema de interacción natural y multimodal con el vehículo y su entorno, del que fui testigo en primera persona con una recreación virtual del mismo. El sistema combina la tecnología más avanzada de comandos de voz, con un control gestual aumentado y reconocimiento de mirada, para permitir por primera vez una auténtica interacción multimodal. Las primeras funciones del Sistema de Interacción Natural de BMW estarán disponibles en el próximo BMW iNext, a partir de 2021. 

 

Mediante la detección precisa del movimiento de las manos y los dedos, la dirección del gesto -además del tipo de éste- también se registra por primera vez en un espacio de interacción ampliado que abarca todo el entorno operativo del conductor. Las instrucciones habladas se registran y procesan usando comprensión del lenguaje natural. Un algoritmo de aprendizaje inteligente, que se está refinando constantemente, combina e interpreta la información compleja para que el vehículo pueda responder en consonancia. Esto crea una experiencia interactiva multimodal orientada a los deseos del conductor. 

Con un mejor reconocimiento gestual y el alto nivel de conectividad del coche, el espacio de interacción ya no se limita al interior. Por primera vez, los ocupantes podrán interactuar con su entorno directo, como edificios o plazas de aparcamiento. Incluso las consultas complejas pueden ser respondidas rápida y fácilmente señalando con el dedo y emitiendo un comando de voz. "¿Qué hay en este edificio? ¿Cuánto tiempo está abierto ese negocio? ¿Cómo se llama este restaurante? ¿Puedo estacionar aquí? ¿Y cuánto cuesta?" 

 

Tuve la oportunidad, además de verlo y probarlo, de hablar con Christoph Grote, vicepresidente senior de BMW Group Electronic, quien nos explicó que "los clientes deberían poder comunicarse de una forma totalmente natural con su vehículo inteligente y conectado. No deberían tener que pensar qué estrategia operativa ha de emplear para conseguir lo que quiere. Deberían poder decidir libremente, y el coche debería seguir entendiéndolos. El Sistema de Interacción Natural de BMW es también un paso importante para el futuro de los vehículos autónomos, cuando los conceptos de diseño interior ya no se orienten únicamente al puesto del conductor y los ocupantes tengan más libertad".

Los avances en el reconocimiento y la evaluación de los comandos de voz, los gestos y la mirada, necesarios para la interacción natural entre el conductor y el vehículo, se logran mediante tecnologías mejoradas de sensores y análisis. Utilizando una señal de luz infrarroja, la cámara de gestos ahora puede capturar los movimientos de las manos y los dedos en tres dimensiones en todo el entorno operativo del conductor, y determinar un vector direccional preciso. La cámara de alta definición integrada en el panel de instrumentos también registra la dirección de la cabeza y de los ojos. La tecnología integrada en la cámara evalúa las imágenes y las utiliza para calcular los datos vectoriales necesarios, que luego se procesan en el vehículo. Para interpretar las instrucciones de voz de forma rápida y fiable, además de los gestos, la información transmitida por el conductor al vehículo de forma multimodal se combina y evalúa con ayuda de la inteligencia artificial. El algoritmo responsable de la interpretación de los datos en el automóvil se optimiza y refina continuamente mediante el aprendizaje automático y la evaluación de diferentes escenarios de funcionamiento. 

 

En el futuro, con la ayuda de la inteligencia artificial, este sistema seguirá progresando y la tecnología de sensores mejorada podrá tener en cuenta las emociones de los ocupantes e integrarlas en el Sistema de Interacción de forma significativa. De este modo, la interacción entre el conductor y el vehículo será aún más personalizada y adaptada a cualquier situación. Basándose en la experiencia, y en función de la situación y el estado de ánimo, el asistente inteligente podrá decidir si espera instrucciones o si hace sugerencias proactivas para la interacción. 

Juan Carlos F. Galindo

Juan Carlos F. Galindo

Tras dos décadas dedicado a la comunicación de Productos y Servicios, Innovación, Tecnología, I+D, Televisión y Patrocinios de una gran empresa, me embarco en este blog que dedicaré a mi pasión, la tendencia tecnológica que va a protagonizar la 4ª Revolución Industrial: la Inteligencia Artificial.

Continúa leyendo