Lo de Chrome

A estas alturas ya habréis visto la noticia (en el Guardian o en el New York Times, por ejemplo): como resultado de un juicio antimonopolio en el que Google ha perdido (le quedan apelaciones, pero está perdiendo claramente), el departamento de Justicia de los Estados Unidos propone, como medida para romper el monopolio, que Google se deshaga de Chrome. ¿Es esto un problema para Google? Tiene la pinta de que bastante… pero eso es un problema para Google, y las prácticas de Google justifican que se le imponga un castigo severo. ¿Es un problema para los miles de millones de personas que usamos la web a diario (y un buen porrón más que usan tecnologías web sin saberlo)? Al menos potencialmente, . Lo explica, muy apañadamente, Stephanie Stimac en este vídeo de hace menos de tres meses (no son ni veinte minutos y vale bastante la pena):

https://bsky.app/profile/seaotta.bsky.social/post/3lbc4f2iifk2g

Stephanie trabaja en Igalia, una cooperativa (¡gallega!) que hemos citado en alguna ocasión por aquí, a la que hemos tenido en Despacho 42 y que, entre otras cosas, es la segunda contribuidora prácticamente cada año al código de Chromium por detrás de Google (luego Chrome y la multitud de otros navegadores que se basan en Chromium, como Edge, el navegador de Samsung o Vivaldi, entre muchos otros), al de Webkit por detrás de Apple (luego Safari, pero también muchas pantallitas que ves cada día, incluyendo las de la Playstation, las de muchos ascensores y hasta la de la Thermomix (en serio)) y al de Firefox por detrás de Mozilla… luego todos los navegadores web viables a día de hoy. Si usas algo digital con una pantalla, casi seguro que estás usando código suyo. Y conocen el ecosistema web, y sus debilidades, como nadie.

La cuestión es que, ahora mismo, a pesar de la existencia de Igalia (y una infinitud de desarrolladores individuales que contribuyen a esos proyectos de código abierto), Chromium y Chrome (y Samsung Internet, Vivaldi, o Edge) no se sostienen sin Google, porque más del 80% del desarrollo de Chromium y sus componentes lo hacen profesionales en la nómina de Google/Alphabet.

De la misma forma, Safari (y todos los dispositivos que usan Webkit para su interfaz (¡la Thermomix!)) no se sostiene sin Apple, y ya veremos qué hace Apple con Webkit y Safari si desaparece el caramelo de los 20 000 millones anuales que Google paga a Apple para ser su proveedor de búsqueda por defecto.

Y Firefox no se sostiene sin Mozilla y los 500 millones anuales que Google le paga, de nuevo, para ser el proveedor de búsqueda por defecto.

En cualquier caso, volvamos a la venta de Chrome. Una primera cosa sería establecer el valor justo de venta. Aquí, una potencial interpretación:

How much would Chrome cost? Conservatively: Revenue: Match the $26 billion Google paid yearly to search affiliatesCost: <2000 engineers at an average cost of $500k = $1bilProfit: 25 billion per yearValuation at a P/E ratio of 20: $500 billionDid I get any math wrong?Who could finance this?

Daniel Ehrenberg (@littledan.dev) 2024-11-20T00:58:10.418Z

A pesar de la brutalidad de la valoración (ahora mismo hay menos de veinte compañías en todo el mundo que coticen en bolsa y valgan más de quinientos mil millones (aquí un listado)), si Google paga hoy esos veintiséis mil millones al año (que los paga) a Apple, Mozilla y otro puñado de empresas por establecer su buscador como buscador por defecto, es fácil asumir que Google valora los ingresos obtenidos de Chrome en bastante más de esos veintiséis mil millones anuales, y la valoración, por tanto, al menos según ese criterio, no es exagerada. ¿De qué, si no, iba Google a patearse esa cantidad de dinero en su navegador? Nadie ha confundido a Google con una ONG (o nadie debería hacerlo, como mínimo). (Y estimar que Google invierte entre quinientos y mil millones al año en Chrome no parece exagerado. En serio.)

Pero no parece probable que al departamento de Justicia y al juez les vaya a parecer bien que esa nueva compañía independiente viviese exclusivamente de los pagos de Google, ni que Google siga con sus tratos con Apple, Mozilla y el resto de compañías. Y, en ese caso, la valoración de la compañía pasa, me da a mí, de esos lujuriosos quinientos mil millones que es prácticamente imposible que nadie pueda pagar a, potencialmente, menos de lo necesario para sostener Chrome. Y Firefox deja de ser sostenible a la velocidad de la luz sin los millones de Google. Y Apple puede permitirse la pasta que se deja cada año en Webkit y Safari perfectamente, pero… ¿para qué? Apple tampoco es famosa por comportarse como una ONG, precisamente (y, aunque no me guste, así es como funcionan las cosas ahora mismo). Y si, de la noche a la mañana, buena parte de los y las currantes que se dedican profesionalmente a desarrollar y mantener los navegadores que usamos (que tienen millones de líneas de código en las que seguro que hay vulnerabilidades y bugs que alguien va a descubrir algún día, y cuyo mantenimiento, por ende, es esencial), entonces… ¿qué?

Que sí, que suena apocalíptico y no tiene por qué pasar así, como ya dice Stephanie Stimac en el vídeo, pero estas cosas es mejor considerarlas antes que después.

El politiqueo de los navegadores web

(Disculpad el tono amargo de la entrada. No he sido capaz de escribirla de otra forma.)

No os perdáis el último episodio del pódcast de Igalia (aquí arriba incrustado, y en vuestro reproductor de pódcast favorito buscando ‘Igalia’), dando un repaso a toda la política que hay detrás de los navegadores web, que ahora mismo dependen todos del dinero de los anuncios de Google: Chrome, obviamente, y con Chrome todos los navegadores basados en Chromium (con Microsoft Edge y Samsung Internet a la cabeza, pero básicamente, todo lo que no sea Safari ni Firefox, es Chromium y, por tanto, la mayor parte del desarrollo que hay detrás lo paga Google), pero también Safari (Apple tiene toda la pasta del mundo, pero la millonada que Google le paga a Apple para mantener Google como motor de búsqueda por defecto en su navegador) y, no nos engañemos, Firefox: diría que lo hemos dicho en algún momento por aquí, pero Mozilla vive casi exclusivamente de la subvención de Google… Casi añoraríamos los tiempos en que Microsoft tenía su propio motor, porque a pesar de que no son precisamente unas angelitas de la caridad, como mínimo había una parte del ecosistema que no dependía de una única empresa. (De los tiempos en que Opera era una compañía con una mínima capacidad para la independencia a base del dinero que le daba Opera Mini ya no se acuerda absolutamente nadie (bueno, un puñado de nerds que, en el fondo, no pasan de error de redondeo), de Netscape no me hagáis hablar, que pienso en Andreesen y me sube la presión, y siempre nos quedará el W3C… pero el poder real que ostenta es el que es, y se parece mucho a cero.)

¿Y cómo nos afecta a todos ese politiqueo? Pues como resultado, el programita con el que más interactúas en tu vida, y que sabe más de ti que absolutamente nadie, está controlado en buena parte (no toda, no, queda algún resquicio para la esperanza) por una empresa que se dedica a la venta de publicidad, con una cierta intervención de una empresa que a toda costa quiere defender su bosque cerrado, todos los fosos que lo defienden y los pingües beneficios que genera, y que solo ha permitido determinadas capacidades en el mundo de los navegadores cuando ha sentido la presión de los políticos por atacar el poder de las grandes tecnológicas, más una fundación no demasiado bien gestionada, me temo, y con las manos atadas por su absoluta dependencia económica.

Y demos gracias por la existencia de Mozilla y Firefox, y de esa empresa imposible que es Igalia (aquí hablamos más con uno de sus miembros), y un buen puñado de nerds más (a los que uno imagina casi en una cierta aldea gala). Y toda la admiración por las personas que trabajan desarrollando los navegadores, que suelen ser unos cracks bienintencionados, por lo que yo sé, por cierto, incluidos e incluidas las que trabajan directamente para Mordor.

(Como decía al principio, disculpas por la bilis.)


PS 2024/1/20 Después del «ataque de furia» de hace un par de días, un poco de optimismo (moderado). Si anteayer hablábamos de la concentración de poder que hay en el mundo de los navegadores, pero decíamos que los y las profesionales que se dedican a ello se dejan la piel por los estándares y el avance de la web, hoy podemos escuchar a una de esas profesionales, Jen Simmons (aquí arriba tenéis incrustado el reproductor, pero siempre tenéis el hogar del episodio, donde encontraréis la transcripción completa), contándonos cómo Safari se ha dado mucha caña últimamente (decíamos anteayer que la cosa coincide, especialmente por lo que respecta a determinadas características —las relativas a las aplicaciones web progresivas o PWAs, por ejemplo— con la creciente amenaza de que los gobiernos regulen contra Apple, pero sea cual sea el motivo, hay que reconocer el esfuerzo del equipo de Safari), y de la existencia de esfuerzos como Interop, un cónclave de los diferentes equipos de desarrollo de los grandes navegadores donde se marcan objetivos para mejor la interoperabilidad a lo largo del siguiente año (el «marcador» de cómo se avanza en lo marcado el año pasado). Que es de ley reconocer que, pese a la amenaza de la concentración de poder, estamos viviendo una verdadera época dorada del desarrollo de los navegadores… sin una guerra de los navegadores.

Y aprovecho para «subir» desde los comentarios este aporte: https://github.com/alexpdp7/…/programming/a_plan_against_the_current_web.md.

Google, su índice y los sitios «mobile friendly»

Nota breve, hoy. Tenemos a «media» internet (la parte que hace webs y se preocupa por su posicionamiento en Google) revolucionada por el anuncio de que va a comenzar a tener en cuenta si una web se ve bien en dispositivos en sus resultados. El anuncio es de 26 de febrero y avisan que la cosa se pondrá en marcha el 21 de abril. A medida que se acerca la fecha, los webmasters sin versión responsive se ponen nerviosos e incluso los que la tienen echan humo por la presión que mete Google…

Algunas puntualizaciones:

  • La noticia no es que Google añada un factor a su algoritmo. Esto, al fin y al cabo, lo hacen con una cierta frecuencia. El algoritmo de Google tiene más ingredientes que la receta de CocaCola y, además, cambia bastantes veces al año. De hecho, os podéis jugar lo que queráis a que ese factor ya es parte del algoritmo. El 21 de abril, como mucho, le darán más relevancia.
  • La noticia es que Google avise con tanta claridad y antelación, algo que, con esta intensidad, diría que no ha hecho nunca.
  • ¿Por qué? Google cambia su algoritmo para seguir siendo el mejor o, como mínimo, parecerlo. Y eso, al fin y al cabo, es lo mejor para sus usuarios y para los usuarios, en general (si estoy buscando desde el móvil, yo también prefiero que la web a la que me vayan a llevar se vea bien en el móvil). Google anuncia cambios en el algoritmo para ejercer presión sobre los webmasters. A Google, que obtiene más del 90% de sus ingresos de vender publicidad en sitios web, le interesa que, desde cualquier dispositivo, el usuario navegue, cuanto más mejor. Cuando el usuario «consulta una web» desde una app Google pierde la oportunidad de vender un anuncio. Cada app de medio de comunicación es un montón de dinero que Google deja de ingresar. Y eso duele en la cuenta de explotación. Y van a hacer todo lo posible por que, al menos para los sitios «de contenido», la web móvil plante batalla a las apps (que, para la categoría «de contenido», apenas le suponen ingresos a Google a través de su tienda de aplicaciones para Android).
  • Webmasters del mundo hartos del yugo de Google, la única solución que os queda es hacer todo lo posible por «repartir juego» y que el indexador de Google pierda al menos parte de su relevancia en favor de los Bings y DuckDuckGos del mundo. Eso sí… si pensáis que Bing y DuckDuckGo no cambian su algoritmo con frecuencia, preparaos para llevaros una profunda decepción. La única manera de luchar contra la ley de Campbell es cambiar la receta con frecuencia. Al menos mientras haya SEOs. Y podemos estar de acuerdo todos en que mientras haya buscadores y la gente los use habrá SEOs…
  • (Y si la solución iba a ser el social media, recordad que los Facebooks del mundo también tienen sus algoritmos de ordenación.)
  • Conspiranoicos del mundo: hay, desde luego un motivo excelente para sospechar de Google: que uno de los factores para ordenar la relevancia de una página sea «contiene publicidad AdSense». Nadie ha demostrado que eso sea así. Si fuese así, Google estaría jugando con fuego, se merecería arder y, dicho sea de paso, yo me apuntaría encantado a rociar gasolina.

Ale. Suficiente por hoy. Y suerte que he dicho que iba a ser una «nota breve»…

La ‘nueva’ cámara de Android

Por si queda alguien que aún no se haya enterado, la nueva aplicación de cámara de Google para Android es una noticia interesante. Primero, porque la aplicación (enlace a Google Play) funciona ahora sobre cualquier móvil o tableta Android 4.4. Que no es para nada una versión de Android muy extendida, pero sí es bastante más cobertura que la que tenía la aplicación hasta ahora… De golpe las panorámicas ‘a la Streetview’ pasan a estar al alcance de bastantes más móviles, algo que no deja de estar bien (la aplicación ha perdido algunas opciones de configuración, como el balance de blancos, por el camino, por cierto :-().

Pero la novedad realmente noticiosa está explicada con detalle en Lens Blur in the new Google Camera app, en el blog de investigación de Google. Como probablemente sepáis, una de las ventajas más relevantes de cargar con una cámara grande es que estas suelen tener sensores más grandes y estos suelen tener la capacidad de reducir la profundidad de campo: el primer plano queda enfocado mientras que el fondo se desenfoca, algo que hace que ese objeto en primer plano destaque mucho más y no se pierda entre el fondo. Los sensores de las cámaras de los móviles son (con muy contadas excepciones) minúsculos, con lo que cuando haces una foto, el primer plano queda enfocado, lo que hay inmediatamente detrás queda enfocado, y el árbol que hay a quinientos metros de distancia también queda perfectamente enfocado. Eso, a veces, está bien, pero muchas otras veces, no.

Lo que hace Google es (después de activar el modo lens blur), primero, pedirte un poco de trabajo extra (después de tomar la foto la aplicación te pide que muevas la cámara un poco de una determinada forma) y, después, aplica un poco de magia (llámale magia, llámale algoritmos de visión por ordenador) para construir un mapa de profundidad que permite, a posteriori, centrar el foco allí donde queramos, con la intensidad que deseemos. Mola.

Claro que las fotos de demostración de cualquier cosa suelen estar tomadas en condiciones ideales. ¿Qué pasa si tomas fotos ‘de verdad’, con iluminación nada optima, con el sensor más bien mediocre del Nexus 4, y mi pulso? Veamos una primera foto sin el efecto aplicado:

Foto de un salero sobre una foto. Toda la imagen está enfocada, restando importancia al salero, que es el objeto que se quería fotografiar
Es una foto del salero. O lo quería ser. Porque con todo esa profundidad de foco, es difícil saber qué se quería fotografiar

(Las fotos que genera la aplicación cuando se activa el desenfoque son 1024×768 y las tenéis a resolución completa: clic para verlas a tamaño completo.)

Démosle un 50% (más o menos) de efecto:

Foto de un salero sobre una foto. El fondo se ha difuminado mucho, con lo que queda claro que el protagonista de la foto es el salero
Esto ya es otra cosa…

Y si le damos a tope…

Foto de un salero sobre una foto. Se ha difuminado de forma extrema, de forma que hasta partes del salero están desenfocadas
El efecto aplicado al máximo. Obsérvese cómo la cabeza del salero está enfocada… pero la sal del salero, no o.O

Claro que ese salero no deja de ser un objeto sencillo, y a lo mejor no presenta un gran reto. Vayámonos a un ejemplo realmente difícil. De nuevo, primero sin el efecto aplicado:

Foto de una planta. Toda la imagen está enfocada, con lo que se resta importancia a la planta, que se pierde en un fondo complejo
Un caso bastante más complejo. Estaría bien poder perder ese horrible fondo, pero… ¿sobrevivirá el algoritmo?

Y ahora con aproximadamente el 50%:

Foto de una planta. Desenfoque aplicado aproximadamente al 50%. El efecto no es perfecto, pero muy tolerable. El fondo se ha difuminado casi completamente
Bastante bien, ¿no?

Eso sí, en condiciones así abusar del efecto va a provocar efectos secundarios no deseados:

Foto de una planta. El efecto se ha aplicado al máximo. El algoritmo falla, y aplica efectos a partes de la planta que no debería y resulta extraño. La foto es perfectamente reconocible, pero hay cosas extrañas
Al límite. El algoritmo no hace milagros. Pero casi…

Y, hablando de efectos secundarios, no podían tardar en llegar unos cuantos hacks explotando el trabajo de Google (como debe ser :-)):

Nada mal, ¿no?

Mis problemas temporales con feedly

En la lista de ítems guardados de feedly aparecen primero unos de hoy, a continuación unos del 18 de marzo (hace nueve días), luego dos más de hoy, a continuación dos de ayer y luego unos del día 25 de marzo (antesdeayer)
¿Algo se ha movido a la velocidad de la luz?

Que nadie me entienda mal: estoy seguro al 99% de que el problema de la secuencia temporal que veis en la imagen es culpa de las fechas de los RSS en cuestión y/o de los bots de Google Reader y su API, no de feedly. Pero ese problema con los tiempos hace que de vez en cuando los ítems se muevan solos y, sobre todo, que de vez en cuando cosas por leídas que ni siquiera se me han presentado.

También sé quedarse cuenta y alterarse por ello es demostrar un nivel de obsesión poco saludable , pero llevo una semana con la mosca detrás de la oreja y, si no se lo cuento a alguien, reviento ;-).

(Una vez dicho eso, creo que seré capaz de sobrevivir la muerte de Reader. Seguiremos informando.)