Smart glasses y… accesibilidad

Vengo yo de dar un paseo escuchando el penúltimo episodio de The Vergecast, en el que se habla de la review que han hecho de las Ray-Ban Meta (vídeo arriba, review completa aquí) que, si me diera la nómina, serían las que me convertirían en un glasshole (muy de acuerdo con los comentarios en el vídeo de que la cámara necesita una manera de taparla físicamente, que plantean toda una serie de dudas sobre privacidad y, sobre todo, lo que se dice en el podcast de que limitar las gafas al ecosistema de Meta es excesivo y una decisión que espero que acabe demostrándose inútil).

(Por cierto, en el podcast también se habla de la nueva ley californiana del derecho a reparar, y vale muchísimo la pena la conversación.)

En cualquier caso, también he echado en falta (en las reviews que he leído, pero también en la presentación de Meta) es cualquier referencia a las personas con discapacidad visual. ¿Quién no querría poder usar las esperadas capacidades de IA de las gafas para que te describiesen lo que tienes delante, te leyeran una etiqueta, un menú o un libro (la IA o las múltiples aplicaciones móviles que ya ayudan con estas cosas en el móvil, un formato que se me antoja) o, en caso de que aplicaciones e IA se queden cortas, conectarte con alguien para que pueda ver lo que la cámara tiene delante y echarte una mano con lo que sea que estás haciendo? (Y si la vida de la batería del cacharro es corta, que inevitablemente lo es, también creo que ningún ciego tendría ningún problema en que de la patilla pudiese colgar un cable USB delgadito a una batería USB externa…)

En fin, Zuckerberg, que el cacharrito mola, pero que estás perdiendo una oportunidad de oro de hacer algo realmente bueno, por una vez.

Elige colores accesibles con Contrast-A

Captura de pantalla parcial de la aplicación Contrast-A comentada en la entrada
El rojo sobre negro no es muy visible si se sufre de protanopia o deuteranopia...

«Color pickers» (o herramientas para elegir paletas de color, si se quiere huir del anglicismo) los hay a patadas. Pero yo no conocía ninguno que prestara especial atención a la accesibilidad. Es por ello que me parece especialmente interesante Contrast-A, que además de ofrecer las características habituales te da, para las combinaciones seleccionadas, una ratio de contraste, una simulación de cómo verá la combinación quien sufra de diferentes tipos de daltonismo e indica si la combinación pasa las guías WCAG 1.0 (que hablan de brillo y color) y 2.0 (que se refieren a la luminancia). (Funciona sobre Adobe Air, o sea que es multiplataforma: Windows, Mac y Linux)

Usa el móvil sin mirar con eyes-free

[youtube]http://www.youtube.com/watch?v=Mu5FCQmtdJU[/youtube]

Mi principal problema con los móviles de pantalla «táctil» (nótese el uso de las comillas) es que inhabilitan el sentido del tacto, con lo que se vuelve difícil, muy difícil, darle a un botón de una aplicación de un iPhone (por ejemplo) si no miras la pantallita. Algo imposible para los ciegos, pero que a los que vemos más o menos bien también nos supone un problema: ¿qué pasa si quiero hacer ‘fast forward’ en el reproductor que tengo en el bolsillo de la chaqueta? Si el reproductor tiene botones, al tercer intento memorizaré dónde está el botón apropiado, pero si se trata de un iPod «Touch» (de nuevo, por ejemplo) no me quedará más remedio que sacarlo del bolsillo, mirar, darle al dichoso botón y volver a guardar el dispositivo…

Pero, como podéis ver en el vídeo, no se trata de un problema insoluble: desde Google han sacado eyes-free para Android, que se compone, por un lado, de un motor texto-a-voz (imprecindible para los visualmente impedidos si quieren enterarse, por ejemplo, del contenido del último SMS recibido) pero también de un ‘shell’ que, como explican en el vídeo, convierte la pantalla táctil en una botonera que no hace falta mirar para usar (para ver otro ejemplo de uso, consultad este otro vídeo)…

Evidentemente, nada impide que el resto de plataformas móviles (Apple y su iPhone, pero también Palm con el Pre, Blackberry o Windows Mobile) implementen soluciones equivalentes o incluso mejores. De hecho, esperemos que lo hagan, y que la competencia redunde en beneficio tanto para los que no pueden ver como para todos los demás. Pero, de momento, en mi muy particular marcador, apunto un punto muy positivo para Google.

(Colleja, eso sí, también para Google, por no subtitular el vídeo que abre esta entrada. Que la accesibilidad no es solo atender a los visualmente impedidos…)

Teleweb: la web, en el móvil…

[youtube]http://www.youtube.com/watch?v=7a-joiEZm10[/youtube]

…pero no a través de la pantalla. Uno tiene una cierta sensibilidad y simpatía por los que tienen dificultades de visión, pero no creo que esa simpatía vaya a redundar en que la web se les vuelva accesible de golpe. Mucho me temo que si «solo» se tratase de los ciegos y de los «visually impaired», nadie iba a mover un dedo. Es por eso que me parecen especialmente interesantes aplicaciones como la demostrada en el vídeo (para más información, Proyecto HearSay) que son de interés para todos, porque todos podemos necesitar acceder a la web en unas condiciones diferentes a las que el diseñador de la web cree habituales. Por ejemplo, mis amigos tienden a pensar que me paso el día conectado (¿por qué será? :-P) y más de una vez y más de dos me he encontrado haciendo de lector de pantallas para alguien que necesitaba una comparativa de precios de electrónica de consumo, unos horarios de cine o las pistas abiertas en una estación de esquí (tres ejemplos verídicos, lo prometo). Alguno de esos amigos lo podría haber solventado con un móvil capaz de navegar por la web, pero en otras ocasiones el ‘preguntante’ estaba conduciendo y podía hablar gracias a las maravillas del bluetooth, pero no consultar una web en una pantalla. En un mundo de aplicaciones web e información contextual, me da a mí que una web accesible y una buena interfaz de audio iban a aumentar el volumen de negocio para los que se den cuenta. Y esa sí es una buena razón para hacer una web accesible, desde el punto de vista del propietario…

WordPress, ‘titles’, ‘alts’ y ‘captions’…

La interfaz de WordPress avisa que usará el mismo texto para la 'leyenda' de la imagen
¿Debe usarse la 'leyenda' como 'texto alternativo'?

…o títulos, leyendas y textos alternativos, si somos más respetuosos con el idioma. Cuenta WordPress desde hace un tiempo con una interfaz ‘muy apañá’ para subir imágenes a nuestras entradas. Y aún así, cada vez que la uso la maldigo un poco… Y es que esa insistencia en usar un único campo para leyenda (o pie de foto) y texto alternativo de una imagen es bastante contraproducente.

  • Dice el W3C que el atributo title puede anotar diversos elementos (entre ellos, los a y los img). Los agentes de usuario visuales (también conocidos como navegadores) los pueden mostrar, por ejemplo, como «tool tips» si nos paramos con el ratón sobre el elemento en cuestión, mientras que los auditivos (los lectores de pantalla) podrían leer en voz alta el contenido del atributo al pasar por él. Aunque solo es una sugerencia.
  • También cuenta el W3C que el atributo alt debe especificarse para los elementos img y area (y es opcional en input y applet). El atributo da un texto alternativo a la imagen (o applet o…) a usar cuando el agente de usuario no puede mostrarla (como es el caso con los lectores de pantalla o los dispositivos que transforman texto en braille). Para hacernos una idea, si nos estuviesen «contando la página por teléfono» sería lo que querríamos que nos dijesen al llegar a la imagen.
  • Finalmente, según el DRAE, entre otras cosas la leyenda es el texto que acompaña a un plano, a un grabado, a un cuadro, etc. Vamos, el texto que ponen bajo la foto los diarios…

Uno entiende que WordPress exija un ‘título’ para las imágenes: de alguna forma hay que guardarlas en la base de datos. No entiende tanto que coloque ese título como elemento title de las imágenes por defecto y sin preguntar. Pero directamente no le cuadra nada que texto alternativo y leyenda sean una misma cosa: en la mayoría de casos nadie pondría como leyenda la descripción del contenido de la imagen. Cuando el blogger poco familiarizado con temas de accesibilidad (¿podemos suponer que la inmensa mayoría?) sube una imagen, piensa en el pie de imagen… y acaba castigando al que debe usar un lector de pantalla con un texto duplicado y que, de regalo, le deja en muchos casos sin la más remota idea de qué hay en la imagen. Para los que nos preocupamos algo más del tema (no tanto como deberíamos, pero lo tenemos en mente), la herramienta nos obliga luego a buscar en la entrada y poner las cosas como corresponde, haciéndonos perder un minuto innecesariamente. WordPress, además, presume de su atención a los estándares web o sea que, aprovechando que se acerca verisón nueva, ¿por qué no darle un repaso al tema?