Traduzco de su home:
En el paso 1, el usuario toma una imagen con su móvil, que es utilizada como criterio de búsqueda para encontrar imágenes similares en una pequeña base de datos de imágenes utilizando técnicas CBIR (recuperación de contenido basado en imágenes).
En el paso 2 se extraen automáticamente palabras clave.
En el paso 3 las palabras clave obtenidas se mandan a Google para encontrar imágenes relacionadas con un texto.
En el paso 4 las técnicas CBIR se aplican una vez más para filtrar imágenes visualmente relevantes.
Osea: te pierdes por París, le haces una foto a la Torre Eiffel con el móvil, la mandas al servicio on-line, la cotejan en su base de datos con otras fotos de la Torre Eiffel, mandan las fotos a Google y Google te dice que te acaba de encontrar en la Ciudad de la Luz.
Me imagino que con la base de datos de QDQ, triangulando con los repetidores de señal de telefonía móvil, serían capaces de decirse hasta la baldosa que estás pisando.
De todas formas, habiendo GPS y Galileo, ¿no están complicando mucho el tema?
Se me antoja a mi que la idea, más que un servicio de localización («¿dónde estoy?») es más fácil pensarlo como un servicio de atención al turista: «y ese edificio tan gordo y tan majo que sobresale por ahí ¿qué será?». Enlazada con una enciclopedia digital (en línea, en la PDA o el propio móvil) ya tenemos el asistente virtual para el turista.
Mmm, voy a ver si lo patento ;)