[youtube]http://www.youtube.com/watch?v=Mu5FCQmtdJU[/youtube]
Mi principal problema con los móviles de pantalla «táctil» (nótese el uso de las comillas) es que inhabilitan el sentido del tacto, con lo que se vuelve difícil, muy difícil, darle a un botón de una aplicación de un iPhone (por ejemplo) si no miras la pantallita. Algo imposible para los ciegos, pero que a los que vemos más o menos bien también nos supone un problema: ¿qué pasa si quiero hacer ‘fast forward’ en el reproductor que tengo en el bolsillo de la chaqueta? Si el reproductor tiene botones, al tercer intento memorizaré dónde está el botón apropiado, pero si se trata de un iPod «Touch» (de nuevo, por ejemplo) no me quedará más remedio que sacarlo del bolsillo, mirar, darle al dichoso botón y volver a guardar el dispositivo…
Pero, como podéis ver en el vídeo, no se trata de un problema insoluble: desde Google han sacado eyes-free para Android, que se compone, por un lado, de un motor texto-a-voz (imprecindible para los visualmente impedidos si quieren enterarse, por ejemplo, del contenido del último SMS recibido) pero también de un ‘shell’ que, como explican en el vídeo, convierte la pantalla táctil en una botonera que no hace falta mirar para usar (para ver otro ejemplo de uso, consultad este otro vídeo)…
Evidentemente, nada impide que el resto de plataformas móviles (Apple y su iPhone, pero también Palm con el Pre, Blackberry o Windows Mobile) implementen soluciones equivalentes o incluso mejores. De hecho, esperemos que lo hagan, y que la competencia redunde en beneficio tanto para los que no pueden ver como para todos los demás. Pero, de momento, en mi muy particular marcador, apunto un punto muy positivo para Google.
(Colleja, eso sí, también para Google, por no subtitular el vídeo que abre esta entrada. Que la accesibilidad no es solo atender a los visualmente impedidos…)