Categoría: cacharritos

  • La ‘nueva’ cámara de Android

    Por si queda alguien que aún no se haya enterado, la nueva aplicación de cámara de Google para Android es una noticia interesante. Primero, porque la aplicación (enlace a Google Play) funciona ahora sobre cualquier móvil o tableta Android 4.4. Que no es para nada una versión de Android muy extendida, pero sí es bastante más cobertura que la que tenía la aplicación hasta ahora… De golpe las panorámicas ‘a la Streetview’ pasan a estar al alcance de bastantes más móviles, algo que no deja de estar bien (la aplicación ha perdido algunas opciones de configuración, como el balance de blancos, por el camino, por cierto :-().

    Pero la novedad realmente noticiosa está explicada con detalle en Lens Blur in the new Google Camera app, en el blog de investigación de Google. Como probablemente sepáis, una de las ventajas más relevantes de cargar con una cámara grande es que estas suelen tener sensores más grandes y estos suelen tener la capacidad de reducir la profundidad de campo: el primer plano queda enfocado mientras que el fondo se desenfoca, algo que hace que ese objeto en primer plano destaque mucho más y no se pierda entre el fondo. Los sensores de las cámaras de los móviles son (con muy contadas excepciones) minúsculos, con lo que cuando haces una foto, el primer plano queda enfocado, lo que hay inmediatamente detrás queda enfocado, y el árbol que hay a quinientos metros de distancia también queda perfectamente enfocado. Eso, a veces, está bien, pero muchas otras veces, no.

    Lo que hace Google es (después de activar el modo lens blur), primero, pedirte un poco de trabajo extra (después de tomar la foto la aplicación te pide que muevas la cámara un poco de una determinada forma) y, después, aplica un poco de magia (llámale magia, llámale algoritmos de visión por ordenador) para construir un mapa de profundidad que permite, a posteriori, centrar el foco allí donde queramos, con la intensidad que deseemos. Mola.

    Claro que las fotos de demostración de cualquier cosa suelen estar tomadas en condiciones ideales. ¿Qué pasa si tomas fotos ‘de verdad’, con iluminación nada optima, con el sensor más bien mediocre del Nexus 4, y mi pulso? Veamos una primera foto sin el efecto aplicado:

    Foto de un salero sobre una foto. Toda la imagen está enfocada, restando importancia al salero, que es el objeto que se quería fotografiar
    Es una foto del salero. O lo quería ser. Porque con todo esa profundidad de foco, es difícil saber qué se quería fotografiar

    (Las fotos que genera la aplicación cuando se activa el desenfoque son 1024×768 y las tenéis a resolución completa: clic para verlas a tamaño completo.)

    Démosle un 50% (más o menos) de efecto:

    Foto de un salero sobre una foto. El fondo se ha difuminado mucho, con lo que queda claro que el protagonista de la foto es el salero
    Esto ya es otra cosa…

    Y si le damos a tope…

    Foto de un salero sobre una foto. Se ha difuminado de forma extrema, de forma que hasta partes del salero están desenfocadas
    El efecto aplicado al máximo. Obsérvese cómo la cabeza del salero está enfocada… pero la sal del salero, no o.O

    Claro que ese salero no deja de ser un objeto sencillo, y a lo mejor no presenta un gran reto. Vayámonos a un ejemplo realmente difícil. De nuevo, primero sin el efecto aplicado:

    Foto de una planta. Toda la imagen está enfocada, con lo que se resta importancia a la planta, que se pierde en un fondo complejo
    Un caso bastante más complejo. Estaría bien poder perder ese horrible fondo, pero… ¿sobrevivirá el algoritmo?

    Y ahora con aproximadamente el 50%:

    Foto de una planta. Desenfoque aplicado aproximadamente al 50%. El efecto no es perfecto, pero muy tolerable. El fondo se ha difuminado casi completamente
    Bastante bien, ¿no?

    Eso sí, en condiciones así abusar del efecto va a provocar efectos secundarios no deseados:

    Foto de una planta. El efecto se ha aplicado al máximo. El algoritmo falla, y aplica efectos a partes de la planta que no debería y resulta extraño. La foto es perfectamente reconocible, pero hay cosas extrañas
    Al límite. El algoritmo no hace milagros. Pero casi…

    Y, hablando de efectos secundarios, no podían tardar en llegar unos cuantos hacks explotando el trabajo de Google (como debe ser :-)):

    Nada mal, ¿no?

  • Mobile is dead

    Y lo dice nada más y nada menos que Matias Duarte, el máximo responsable del look and feel de Android… La cosa, claro, no puede limitarse al sound bite:

    Creo que ‘móvil’, como concepto, de hecho está muerto. Se ha acabado ‘móvil’.

    ‘Móvil’ era una distinción significativa para lo que hacía la gente, primero, cuando era extremadamente limitado, cuando el ancho de banda estaba limitado, cuando la capacidad de proceso estaba limitada… Quiero decir, la pantalla era minúscula. Ahora mismo, básicamente casi cualquier tipo de experiencia que puedas imaginar, incluso juegos 3D inmersivos, películas a framerate completo, a toda resolución… Sí, distinguimos las diferencias cualitativas entre la pantalla grande y la pequeña, pero para la mayoría de gente prácticamente cualquier experiencia que puedas imaginar puede expresarse de manera significativa a cualquier tamaño de pantalla. Así que esa distinción, esa idea de que ‘móvil’ es una categoría especial por sus limitaciones…

    Y lo dice en este vídeo, que aunque algo largo, merece bastante la pena si te interesa lo más mínimo el tema de user experience (la cita está hacia hacia el minuto 11):

    Vía The Verge

  • Ley de Moore…

    …el coste del hardware capaz de operar teóricamente a unos modestos mil millones de operaciones de coma flotante por segundo es de 16 centavos, actualmente, pero habría costado 82 dólares en 2003, quince millones de dólares en 1984 y unos alucinantes 1.1 billones de dólares en 1961 […] y, naturalmente, en 1961 1.1 billones de dólares era un montón de dinero: algo más de 8 billones en dinero de hoy y no muy lejos del tamaño de toda la economía de aquellos tiempos.

    (Del programa del sábado pasado de More or Less, de la BBC, un programa de radio/podcast absolutamente recomendable.)

  • El futuro hace veinte años…

    Cada vez que leo algo sobre cómo va a ser el futuro me pregunto cómo verá la historia la predicción. Y siempre me ha parecido que volver sobre lo que se escribió hace unas décadas sería un buen ejercicio para contextualizar lo que hacemos, decimos y pensamos hoy. Y es un ejercicio fácil, además, o sea que…. ¿por qué no?

    Echemos una ojeada al número de julio/agosto 1993 de Wired (fuente)…


    Temas eternos

    La privacidad es un tema de moda y reciente… o no. Por eso en Privacy is my life hablaban con Janlori Goldman, de la ACLU, precisamente sobre el tema. Según Goldman, la protección de la privacidad era el tema de los 90, y el artículo contiene citas que no parecen tener 20 años:

    En nuestra cultura del nanosegundo, en que los gobiernos estado cruzan referencias de sus bases de datos de matrículas y las compañías de las tarjetas de crédito venden tu dirección al mejor postor…

    Una encuesta de Harris de 1990 sobre la privacidad encontró que el 79% de los entrevistados estaban «muy preocupados» porque algún aspecto de sus vidas privadas se vea atacado a diario. «Si una industria o gobierno no trata esos miedos, asegurando la privacidad del público, acabará perdiendo,» dice Goldman. Si un negocio no es capaz de convencer al consumidor de que tiene protecciones para la privacidad, los consumiodres, simplemente, se llevarán el negocio a otra parte, dice Goldman. «Todo se reduce a la cuenta de beneficios… la privacidad es buena para el negocio,» dice.

    Por otro lado, Richard Stallman (quién si no) hablaba de propiedad intelectual en un artículo titulado Copywrong, que comenzaba (en 1993, muchísimo antes de Napster)…

    A los magnates de las compañías discográficas no les gusta la cinta digital ni otros medios digitales capaces de hacer copias perfectas de grabaciones musicales, porque temen que los consumidores copien la música ellos mismos y dejen de comprar música pregrabada.

    El tema: la legislación que pasaba por el congreso estadounidense en aquellas fechas para limitar las capacidades de los dispositivos de consumo y compensar a los artistas por la copia privada. Plus ça change…

    Y claro, lo de Stuxnet y demás ciberguerra también es un tema moderno… 1993 al habla:

    Hoy, cuando casi cada detalle de la vida moderna lo controlan los ordenadores y sistemas basados en las telecomunicaciones, nuestra infraestructura tiene un vientre vulnerable: el software. Intenta pensar en algo importante que no dependa de un sistema de software de algún tipo.

    Los Estados Unidos estan horriblemente preparados para la i-guerra. Cuando Clifford Stoll, en El huevo del cuco, monitorizó la penetración soviética de bases de datos clasificadas no encontró ninguna agencia gubernamental –incluídas CIA, FBI, NSA y DIA– encargadas de proteger o impedir esos ataques.

    (La cita es de Soft Kill.)

    Tecnologías e interfaces

    Los 80 fueron una era de interacción entre humanos y máquinas –PCs, portátiles, teléfonos de coche, Game Boys. Los 90 serán una era de interacción persona-persona y máquina-máquina.

    Make the Machine Invisible

    Predicciones

    Dicen que toda predicción tecnológica exagera a corto plazo y se queda corta a largo…

    Mototola afirma que para el año 2000 veinte millones de trabajadores estadounidenses andarán por ahí con algún tipo de terminal de datos inalámbrico. El mercado de dispositivos interactivos debería valer cinco mil millones de dólares para entonces, dice Motorola.

    (Flux)

    Cacharritos

    En su Fetish del mes (la sección que yo habría llamado Cacharritos), la versión CD-ROM del Oxford English Dictionary a $895, una estación de trabajo DEC con un chip a Alpha a 200 megahercios por $69,995 (no es broma) o una grabadora de CDs de Tandy (1x) por $3,995.

  • Hoy en día ya no se lanzan así ordenadores…

    https://www.youtube.com/watch?v=rfTIrJu7NbE#t=2772s

    23 de julio, 1985