Vengo yo de dar un paseo escuchando el penúltimo episodio de The Vergecast, en el que se habla de la review que han hecho de las Ray-Ban Meta (vídeo arriba, review completa aquí) que, si me diera la nómina, serían las que me convertirían en un glasshole (muy de acuerdo con los comentarios en el vídeo de que la cámara necesita una manera de taparla físicamente, que plantean toda una serie de dudas sobre privacidad y, sobre todo, lo que se dice en el podcast de que limitar las gafas al ecosistema de Meta es excesivo y una decisión que espero que acabe demostrándose inútil).
(Por cierto, en el podcast también se habla de la nueva ley californiana del derecho a reparar, y vale muchísimo la pena la conversación.)
En cualquier caso, también he echado en falta (en las reviews que he leído, pero también en la presentación de Meta) es cualquier referencia a las personas con discapacidad visual. ¿Quién no querría poder usar las esperadas capacidades de IA de las gafas para que te describiesen lo que tienes delante, te leyeran una etiqueta, un menú o un libro (la IA o las múltiples aplicaciones móviles que ya ayudan con estas cosas en el móvil, un formato que se me antoja) o, en caso de que aplicaciones e IA se queden cortas, conectarte con alguien para que pueda ver lo que la cámara tiene delante y echarte una mano con lo que sea que estás haciendo? (Y si la vida de la batería del cacharro es corta, que inevitablemente lo es, también creo que ningún ciego tendría ningún problema en que de la patilla pudiese colgar un cable USB delgadito a una batería USB externa…)
En fin, Zuckerberg, que el cacharrito mola, pero que estás perdiendo una oportunidad de oro de hacer algo realmente bueno, por una vez.