Hola, amigos! Me llamo Wally. Voy a recorrer mundo. Podéis acompañarme, si queréis. Lo único que tenéis que hacer es encontrarme». En su momento, muchos aceptamos el desafío del mochilero más famoso de la historia y derrochamos horas en calcinarnos las pestañas tratando de encontrarle. HORAS.

Y allí estaba él. Quietecito. En medio de una horda de goblins glotones. Detrás de un mostrador, en un centro comercial abarrotado. Asomando en la esquina de un edificio, con aires victoriosos. Sabe dios dónde, en una playa llena de romanos.

Pues ya nada. Wally ha perdido su razón de ser. Se ponga como se ponga, no tiene dónde esconderse. Y la culpa es del robot There’s Waldo –Ahí está Waldo-, bautizado así como respuesta al nombre americano de los libros, Where’s Waldo.

Este medio androide bajonero -lo único antropomorfo que tiene es una mano de goma- ha sido desarrollado por la agencia creativa Redpepper y es capaz de encontrar a Wally en menos de 5 segundos. Y no creáis que es un prodigio de la computación, allá en las lejanas fronteras de la ciencia. Es producto de un breve entrenamiento del motor de aprendizaje automático de Google, AutoML, con un puñado de imágenes de Wally.

Concretamente 107, según explicó Matt Reed a The Verge: 62 cabezas distintas y 45 combinaciones de cuerpo y cabeza. «Pensaba que no serían suficientes datos para construir un modelo robusto, pero da predicciones sorprendentemente buenas incluso con Wallies que no estaban en el set de entrenamiento original».

Le bastan unos segundos para reconocer todas las caras sobre una la doble página y filtrar la de Wally. Una vez localizado, el brazo robótico pega un manotazo al libro -y a nuestro orgullo- en el punto exacto donde se encuestra el mochilero.

¿Es más lista que nosotros esta máquina? Buscando a Wally, sí. Sin embargo, su inteligencia no va más allá de esta tarea. No olvidemos que a la visión artificial le queda mucho camino por recorrer en el mundo real, sobre todo en lo relativo a imágenes en movimiento. Encontrar a Wally con machine learning es tan fácil, en parte, por que tenemos un conjunto limitado de libros con un conjunto limitado de Wallies que por mucho que se escondan, siempre aparecen relativamente de frente. ¿Como entrenamos al modelo para reconocer la vida que ocurre fuera del pequeño mundo de papel que habita Wally?

Atolondrar algoritmos

Los casos de aplicaciones de inteligencia artificial en este caso son miles. Pero también está de moda lo contrario: atolondrar a las máquinas. Nos pasa a los humanos cuando nos ponen en la disyuntiva de adivinar si lo que vemos es un culo o un codo? Nadie condenaría a un algoritmo por confundir lo uno con lo otro. Pero, ¿qué pasa cuando donde hay una tortuga de plástico, nuestra máquina ve un rifle?

El caso es real. Te lo contamos en EL PAÍS RETINA y el error no es casual. Los investigadores LabSix -un equipo formado por estudiantes del MIT- llevaron a cabo un experimento en el que explicaron cómo imprimir en 3D una tortuga de plástico cuyos patrones de diseño llevaban al algoritmo a ver un rifle. 

Los algoritmos pueden sufrir alucinaciones. Y el problema engorda cuando sus espejismos no son fruto del azar sino que se han provocado con inputs modificados para forzar el error, como la tortuga-rifle o la pelota-expresso. Los peligros del adversarial machine learning -aprendizaje automático conflictivo o antagónico- son algo más que advertencias de los cenizos y agoreros de la era digital. Hasta Google está midiendo las consecuencias que pueden tener estas tretas en una sociedad que se mueva al son del algoritmo. “La mayoría de los clasificadores de machine learning existentes son altamente vulnerables a ejemplos conflictivos”. 

“La gente no es muy consciente. Hay mucho hype alrededor de la inteligencia artificial y el machine learning, pero ya hay ciberguerra por debajo”, explica Alberto Robles, director general de Expert System en España

Fuente: El País