A propósito del Humane AI Pin

(Soy yo, lo sabe quien ha leído alguna vez este blog, de paréntesis largos. Como este. Pero hoy me disculpo especialmente, porque se me ha ido la mano con ellos. Quizá algún día edite la entrada para eliminarlos o reducirlos (o no, más probablemente (sí, en esta casa anidamos paréntesis por encima de nuestras posibilidades)), pero tenía yo prisa por darle a publicar. Pues eso. Que mis disculpas.)

Esta es la semana que pasará a la historia de la electrónica de consumo como la de las críticas del Humane AI Pin, uno de esos cacharritos que se anuncian como una revolución. Yo no he pasado de la crítica de The Verge, «not even close» (vídeo aquí abajo), pero el titular de la de Engadget tampoco está mal: The Humane AI Pin is the solution to none of technology’s problems. No parece una gran revolución.

No sé en Engadget, pero en The Verge no dejan de preguntarse por las potencialidades revolucionarias de la cosa: un dispositivo con una cámara, un asistente de voz ligado a una IA generativa y multimodal (o sin la IA generativa, que hay muchas cosas a las que se les puede dar respuesta sin ChatGPT y similares) que es capaz (vale: debería serlo) de entenderte (algún día deberíamos definir qué entendemos por «entender») y explicarte qué tienes delante… sí debería ser una resolución. Una curiosidad que comparto y… no entiendo por qué no tenemos ya respondida de mejor manera.

Planteémonoslo. Lo que queremos es, si no lo leo mal, una manera mejor de interactuar con Google / Apple / Microsoft / Amazon / Facebook / otros, por un lado, y con nuestro entorno más cercano, por el otro. Y digo «mejor» porque ahora ya lo hacemos todos de la misma manera. Cierto es que es un peñazo sacar ese paralelepípedo presuntamente smart del bolsillo para añadir algo a la lista de tareas pendientes, o para ver la última notificación que nos ha disparado la aplicación de turno. Más cierto aún es que hacerle una foto al menú en checo y traducirlo, aunque sea la hostia, no es la experiencia de usuario más amigable del mundo. También parece, eso sí, que esas maneras de hacer funcionan (o funcionan mucho más que el dichoso Pin, al menos).

Pero… hoy en día la cantidad de gente que llevamos los auriculares puestos casi todo el santo día, o algo en la muñeca con una pantallita y conectado al móvil, y con una cierta frecuencia ambas cosas a la vez, somos multitud. Vamos, que tenemos otras maneras de recibir información del móvil, más a mano que el propio móvil.

Por otro lado, cuando hace unos meses salió la segunda versión de «las Raybans de Facebook» (hasta aquí comentamos el tema, aunque centrándonos en las utilidades olvidadas que debería tener un cacharro así para hacer el mundo más accesible a las personas con discapacidad visual) a casi todo el mundo le sorprendió lo amigable que podía ser llevar unas gafas con una cámara, lo relativamente poco que molesta a la gente del entorno esa cámara usada con moderación (un obturador físico, como el de algunas webcams, tampoco estaría de más, opino) y también era práctico (en esto se hizo menos énfasis del que a mí me parece adecuado) llevar un micro muy cerca de la boca… Vamos, que las dichosas gafas apuntan a una buena manera de ver lo que vemos y de escuchar lo que (les) decimos, a poder ser solo con nuestro permiso y respetando nuestra privacidad, pero no nos metamos en ese berenjenal ahora.

Y, por tanto, ¿por qué queremos sustituir al móvil cuando lo que queremos es sacarlo menos del bols(ill)o y ya llevamos múltiples dispositivos encima que parecen adecuados para ello? Si no necesitamos una grandísima resolución, la cámara del Humane AI Pin ya la podríamos tener en las gafas (y si nos hace falta más, entonces sí valdrá la pena sacar el móvil con sus trescientas ópticas), y su punto de vista sería mucho más cercano al nuestro. Podemos añadir que si el móvil ya sabe dónde estamos con muchísima precisión, con unas gafas, aun sin cámara, saber qué es lo que estamos mirando, cuando tienes una brújula y un sensor de orientación, se antoja bastante fácil. Y los micrófonos en las gafas deberían ser capaces no solo de escucharnos a nosotros, sino de ser direccionales y escuchar especialmente bien a la persona a la que estamos mirando. Y la interfaz sencilla para interactuar con el agente que sea la llevamos en la muñeca (mirad el vídeo para ver qué «solución» propone Humane, que no tengo el cuerpo para ponerme con eso). Esa misma cosa que llevamos en la muñeca nos puede mostrar visualmente informaciones breves, que se pueden complementar con audio en los auriculares…

La capa de software tampoco parece tan difícil si tienes a mano el asistente de Google, Alexa o Siri (hasta podemos aceptar en la lista a Bixby), o un modelo grande de lenguaje, a poder ser multimodal.

Y, sin embargo, nadie ha hecho un Humane AI Pin sin el Humane AI Pin, ni parece que nadie esté diciendo que «está en ello». Mí no entender.

(Estoy convencido de que como mínimo en Facebook, en Meta y en Apple hay gente que ha hecho el mismo proceso mental que yo… y ha descartado trabajar en ello por motivos de peso. Me encantaría conocerlos.)

Puestos a criticar a Apple…

Tira cómica anticipando en 2012 que Apple lanzaría un producto similar al Surface de Microsoft en 2015
Capacidad de anticipación

A no ser que viváis en Marte (y es probable que las sondas que dan vueltas por Marte también se hayan enterado) sabéis que ayer hubo sarao Apple y que uno de los anuncios es el iPad Pro, que con los accesorios de lápiz y teclado, recuerda un poco bastante al Suface Pro de Microsoft. La tira cómica de arriba, que anticipó el invento en 2012 (fuente), ha sido citada hasta el aburrimiento… Estaría bien, además de mostrarla ad infinitum, ir a la fuente y leer lo que escribió el autor a continuación: la versión tl;dr es «chicos, va acabar pasando, no me parece criticable, no os sorprendáis cuando pase». Amén y bravo por la capacidad predictiva. Cabe añadir, por otro lado, que si Microsoft, con todos sus problemas de imagen, ha ingresado 3600 millones de dólares durante el anterior curso fiscal gracias a la familia Surface (fuente), ¿por qué narices no iba Apple a intentar conquistar ese mercado? Aunque yo siga babeando ante el Surface Pro 3 (i5/4GB/128GB por €1100, teclado y lápiz incluidos), el iPad Pro me parece un producto razonable que tendrá la calidad a la que nos tiene acostumbrados Apple y siento una enorme curiosidad por saber lo que venderá (de la misma manera que querría saber cómo está funcionando el Watch, por otro lado).

Y por cada copia de la tira cómica he visto diez recordatorios de que Steve Jobs dijo que un lápiz era una señal de fracaso. O bien se equivocaba (un poco, al menos, sí, en mi modesta opinión) o bien es que los tiempos han cambiado y que un iPhone de hace años no es un iPad de 12.9″ de hoy en día (bastante hay de esto también). Mientras a mí no me retiren el derecho a añorar mi Palm III y su «stylus» con una lagrimita, aquí no ha pasado absolutamente nada.

No es el iPad Pro lo más sorprendente

Pero de lo que parece que nadie (o mucha menos gente, al menos) se está haciendo eco es de una innovación mucho más interesante y que, históricamente, supone un giro de 180 grados mucho más radical que imitar al menos en parte a Microsoft o decidir que los lápices no son el demonio…

De lo que se presentó ayer a mí lo que más me interesa (sorprender no, pero sólo porque el rumor llevaba días dando vueltas con insistencia considerable) es el 3D Touch que incorporan los nuevos iPhones: la capacidad de saber con precisión la fuerza con que estamos poniendo el dedo en la pantalla. Parece que en los nuevos iPhone se puede poner el dedo en un icono «sin hacer clic» e incluso hacer «clic con el botón derecho». Clic con el botón derecho. Apple, la compañía que no quería dos botones en sus ratones, ha inventado el «clic con el botón derecho» en el móvil.

De nuevo, cambiar de dirección no es ni bueno ni malo, hace muchos años que los ratones de Apple tienen botón derecho, los gestos de los trackpads soportan acciones con cuatro dedos y no tengo ninguna duda de que la tecnología funcionará fantásticamente (es más, me muero de ganas de probarla)… pero si esto no es un 180 en toda regla…

Réquiem por el teclado

Foto de dos teléfonos móviles que comparten formato: ambos tienen teclado QWERTY
Dos de mis cuatro últimos teléfonos: a la izquierda un Xperia Pro, a la derecha un N97

Una de las previsiones de moda para este 2013 es que será el año de la muerte de las Blackberries (o, de hecho, de su fabricante, RIM, que para el caso viene a ser lo mismo). De ser así (a pesar de no ser usuario, espero que no), con las Blackberries morirían, también, los últimos smartphones [populares] con teclado.

Entre el N97 y el Xperia Pro de la foto servidor ha sido usuario de otros dos terminales: un Dell Streak primero (el teléfono con que Dell se estrelló comercialmente de manera espectacular, a pesar de que a posteriori hemos visto que la «extravagancia» del megateléfono, de hecho, vende bastante, y que desde su lanzamiento hasta ahora los teléfonos no han hecho más que crecer…) y después un Galaxy Note (que espero recuperar del servicio técnico en breve: el Xperia Pro es sólo un ‘muleto’).

¿Por qué ‘no molan’ los teclados físicos? Porque nos gustan más las pantallas. Y los móviles delgados. Y los teclados o bien roban espacio a la pantalla (el modelo Blackberry) o bien engordan el cacharrito de turno (el modelo de Nokia y Sony).

¿Por qué ‘sí molan’? Porque lo que no son las pésimamente llamadas pantallas ‘táctiles’ es, precisamente, táctiles (táctil, del latín tactĭlis, según la RAE significa o bien «perteneciente o relativo al tacto» o bien «que posee cualidades perceptibles por el tacto, o que sugieren tal percepción». Y la pantalla nos percibe a nosotros, pero nosotros a ella… no. Sin la ayuda de la vista (o del oído, si hemos activado el lector de pantalla) no tenemos la más remota idea de si hemos pulsado la g, la h, la f, la t o vaya usted a saber qué tecla.

Tenéis, casi seguro, unas cuantas amigas que últimamente se han pasado de una Blackberry a un iPhone, a un SIII o al móvil de moda de turno. Se dividen, seguro, en dos grupos: las que lloran la pérdida del teclado y las que no. Las del primer grupo son los que usaban el teclado con frecuencia. Podéis hacer el estudio.

En 21st Century Gestures Clip Art Collection (un ensayo imprescindible, dicho sea de paso) Dan Hill habla del «cellphone wake», o «estela del móvil», comparando la estela que dejan los barcos a su paso y la que provocan (provocamos) los que caminan (caminamos) por la calle con la vista hundida en la pantallita del móvil, especialmente si se está «tecleando», entre el resto de transeúntes. Lo pensaba, el otro día, «condenado» al Xperia Pro desde el Note, caminando por la calle, cruzando WhatsApps… y dejando una estela mucho menor que la de costumbre porque, con el Pro y sus teclas físicas, puedo levantar la vista mientras tecleo (además de teclear considerablemente más deprisa), reduciendo la probabilidad de atropellar a nadie (y, de paso, de ser atropellado por algo).

Decía que entre el N97 y el Pro ha habido dos ‘phablets’ de 5″. Y que desde entonces hasta ahora las pantallas han pasado de unas 3.5″ que nos parecían enormes a que 4.3″ o 4.7″ no nos escandalicen. Entre otros motivos (el hecho de que cada vez nos llevemos menos el móvil a la oreja tiene que tener su peso: a nadie le gusta que parezca que le ha reducido la cabeza un jíbaro), porque cada vez metemos más los dedazos en la pantallita y la forma de compensar la falta de lo táctil es a base de tamaño…

Dudo mucho que el teclado físico en el móvil renazca de sus cenizas: Nokia hace eones que no lanza nada en el formato (y la homogeneidad de Windows Phone es aplastante) y Sony ya ha dicho que no tiene la intención de seguir por la vía del Pro. A los picateclas no nos queda otra que ponerle una vela a la Virgen de la Blackberry y rezar con devoción. Me temo, pues, que se acerca el momento de entonar el réquiem.

¿Opina Adobe que las revistas digitales se maquetarán en InDesign?

No me gustaría a mí ser el encargado de tomar las decisiones en Adobe por lo que respecta a plataformas de edición y publicación de revistas digitales. Estoy convencido de que, como mínimo, los ‘product managers‘ de Acrobat, InDesign, Dreamweaver y Fireworks reclaman el espacio como propio, y no hay suficiente balón como para repartir juego entre cuatro galácticos de semejante magnitud. Y si sólo con eso el problema ya sería mayúsculo, por poco seso que tenga, quien sea tendrá, además, que preocuparse por si hay en realidad suficiente mercado o se trata todo de un enorme ‘hype‘ y acabaremos publicando PDFs ‘de los de toda la vida’, sin interactividad ni inventos extraños de paginación/navegación (llámenme carca, pero yo sigo pensando que, con todas sus limitaciones, ese es el modelo más viable, como mínimo a corto y medio plazo).

En cualquier caso, la cuenta de resultados actual no se nutre de reflexión y algo hay que vender a Condé Nast y el resto de grandes editores. Y, como mínimo a ese mercado, Adobe hace tiempo que le está vendiendo la moto de que el ‘product manager’ que manda es el de InDesign (algo me dice que ayuda el hecho de que en las grandes revistas esa es la herramienta que quieren ver, porque esa es la herramienta que están usando y no hay fuerza más poderosa que la inercia). Las versiones iPad de las revistas de Condé Nast se han desarrollado, hasta ahora, en colaboración directa con el fabricante de software, intentando obtener una solución que Adobe pueda vender y que permita al grupo editorial mantener su posición y ser el primero en plantar una pica en este Flandes digital que se adivina tan potencialmente lucrativo.

En esa línea, el canal RSS de los ‘laboratorios’ de Adobe comunicaba ayer a última hora que la fase de ‘preview pública’ de la Adobe Digital Publishing Suite se cerraba… y dicha ‘suite’ pasa a ser un producto oficial y de pleno derecho del catálogo. Con página oficial y todo, naturalmente, en la que encontraréis la [poca] información adicional que dan. No es la ADPS un producto para el consumidor. Ni, presumiblemente, para el ‘prosumer’: el producto se ofrece en versiones ‘Professional’ y ‘Enterprise’ y para obtener un precio hay que hablar con un representante de la casa. Dudo mucho que se lo pueda permitir alguien que no esté ganando ya dinero en el sector editorial.

Volviendo al título de la entrada, lo único que podemos sacar en claro de todo esto es que, de momento, en Adobe gana el señor InDesign, puesto que la parte software de ADPS es una especie de plug-in (Folio Producer) que funciona sobre dicha herramienta. La parte potente de ADPS, en cualquier caso, es la de los servicios que ofrece Adobe a los editores: en primer lugar un ‘producer’ que tomará esos ‘folios’ creados con InDesign más el plugin y los preparará para los múltiples formatos de salida previsibles/previstos, después un servicio de distribución hacia las diferentes plataformas, a continuación servicios de comercio electrónico y analítica para poder monetizar y, finalmente, para los editores más potentes, un ‘viewer builder service’ para (o al menos eso es lo que leo yo) acabar de personalizar la experiencia de usuario del lector a la medida de lo que desee la publicación.

Mi [modesta y poco informada] opinión al respecto es que la vía InDesign no es el futuro en un universo de múltiples resoluciones y tasas de aspecto: quien produce está acostumbrado a un mundo de absolutos (el del papel) y hay un gran valor en ser continuista con las herramientas, pero la cosa que quieren producir se parece, más que a ninguna otra, a una web muy sofisticada y no puedo evitar pensar que ese campo lo acabarán ocupando los diseñadores web que, haberlos haylos, ya han aprendido a lidiar con un mundo en que todo es relativo, a aceptar las limitaciones del medio y a aprovechar las potencialidades de la interactividad. Y que en Adobe la ‘facción Dreamweaver’ sigue trabajando con ello en mente (véase, en los mismos Labs de Adobe, el prototipo de CSS Regions presentado también recientemente). Pero eso sólo es mi opinión… y sólo el tiempo decidirá quién acierta y con qué herramientas acabaremos jugando.