La cámara de tu móvil utiliza inteligencia artificial y no lo sabías

Las cámaras de los smartphones cada vez son más sofisticadas.

Si te preguntas cómo de buena será la cámara del próximo móvil que te compres (y seguro que la del que tienes ahora ya es muy buena), sería prudente prestar atención a lo que el fabricante tiene que decir sobre la inteligencia artificial. Más allá del bombo y la fanfarronería, la tecnología ha permitido avances asombrosos en la fotografía en los últimos dos años, y no hay razón para pensar que el progreso se ralentizará.

Todavía queda mucho por innovar, sin duda. Pero los avances recientes más impresionantes en fotografía han tenido lugar a nivel de software en lugar de en el sensor o la lente de la propia cámara, y eso se debe en gran parte a que la inteligencia artificial les brinda a las cámaras una mejor comprensión de lo que están “mirando”.

Cámaras cada vez más inteligentes

Google Photos brindó una clara demostración de lo poderosa que sería una combinación de inteligencia artificial y fotografía cuando se lanzó la aplicación en 2015. Antes de eso, el buscador había estado usando el aprendizaje automático para categorizar imágenes en Google+ durante años, pero el lanzamiento de su aplicación Fotos incluía funciones de inteligencia artificial orientadas al consumidor que habrían sido inimaginables para la mayoría de los usuarios. Las bibliotecas desorganizadas de los usuarios de miles de fotos sin etiquetar se transformaron en enormes bases de datos de búsqueda de la noche a la mañana.

De repente, Google sabía cómo era tu gato

Google se basó en el trabajo anterior de una adquisición en 2013, cuando compró DNNresearch, y configuró una red neuronal profunda entrenada en datos que habían sido etiquetados por humanos. Esto se llama aprendizaje supervisado; el proceso implica entrenar a la inteligencia artificial en base a millones de imágenes para que pueda buscar pistas visuales a nivel de píxel para ayudar a identificar la categoría. Con el tiempo, el algoritmo mejora cada vez más a la hora de reconocer, por ejemplo, un panda, porque contiene los patrones utilizados para identificar pandas correctamente.

Lo que ocurre es que la cámara aprende dónde tienden a estar el pelo negro y el pelo blanco en relación el uno con el otro, y en qué se diferencia del de una vaca, por ejemplo. Con una mayor capacitación, es posible buscar términos más abstractos como "animal" o "desayuno", que pueden no tener indicadores visuales comunes pero que son inmediatamente obvios para los humanos, y la inteligencia artificial también reconoce porque lo ha “aprendido”.

Enseñar al algoritmo

Se necesita mucho tiempo y potencia de procesamiento para entrenar un algoritmo como este, pero una vez que los centros de datos han hecho lo suyo, se puede ejecutar en dispositivos móviles de baja potencia sin muchos problemas. El trabajo pesado ya se ha realizado, por lo que una vez que tus fotos se cargan en la nube, Google puede usar su modelo para analizar y etiquetar toda la biblioteca de tu teléfono. Aproximadamente un año después del lanzamiento de Google Photos, Apple anunció algo similar.

Continúa leyendo