Lo que la web podría haber sido. O no.

Descubrí hace unos días (no recuerdo ya cómo) esta antigua entrevista con Robert Cailliau (realizada en algún momento de finales de los 90) en la extinta revista Computing Now de la IEEE.

(¿Que quién es Robert Cailliau? Con Tim Berners Lee, uno de los papás de la web. No tan importante como «tito Tim», pero probablemente la historia le haya ninguneado un poco.)

(Que una revista del IEEE deba consultarse en archive.org, y no en su URL original, es, efectivamente, un poco triste (parece que 2017 aún estaban en su sitio, comentan por aquí).)

En cualquier caso, la entrevista no tiene desperdicio, y merece la pena seguir el enlace y leerla completa, pero como de costumbre, copio-traduzco-y-pego algunos fragmentos que me han parecido especialmente destacables…

Sentía que necesitábamos poder hacer algo más que producir algo y luego imprimirlo en papel; necesitábamos poder navegar por él. Había existido un proyecto llamado CERNDOC [está hablando de 1987 u 88], que era un sistema completamente basado en VM, CMS e IBM. Era una especie de sistema jerárquico en el que se podía buscar documentación, sacar un documento y luego tal vez imprimirlo. Pero sentía que todo debería haberse basado en hipertexto, o que al menos deberíamos investigar qué se podía hacer con él. Pensaba que tal vez incluso podríamos hacer cosas en la red, pero no había pensado en Internet.

Cailliau comenta, también, la importancia de Hypercard como inspiración para pensar que se debería poder enlazar de cualquier página a cualquier página, y no solo navegar en árbol, como [creo que] hacía CERNDOC, que se había puesto en marcha en el CERN en el 84 y que, obviamente, también inspiró a Berners-Lee. Y también hace hincapié en que en los setenta había trabajado en sistemas de documentación estructurada.

También estaba trabajando con el sistema de control del sincrotrón de protones, el más pequeño, pero más complejo, de nuestros aceleradores de partículas, y allí, en la década de 1970, establecimos un sistema de computadoras que hablaban entre sí. Los programas en realidad se enviaban a sí mismos a través de la red, y yo escribí un intérprete de «bytecode» para el código móvil.

Esta historia no se ha contado mucho, pero teníamos todo eso, y la documentación también estaba ahí. Teníamos nuestra propia red de control de procesos; teníamos nuestro propio lenguaje interpretativo. Tuvimos todo, y esto fue en 1973-74.

Todo se hizo en computadoras Norsk Data. Eran una pequeña empresa noruega —la última empresa informática independiente de Europa, creo— y después de eso no hubo nada excepto en los EE. UU. Y, por supuesto, desde la perspectiva de EE. UU., si no se hace en los EE. UU. no existe en la informática, ¿verdad?

En los setenta. Un intérprete de «bytecode». Para que luego nos creamos que Flash o los applets de Java eran una novedad…

Al mismo tiempo, Tim Berners-Lee tenía ideas muy similares, pero también conocía Internet, de la que yo no sabía nada. Un amigo común, Mike Sendall (quien además era el jefe de Tim) dijo: «Mira, vosotros sabéis lo que estáis haciendo. ¿Por qué no os sentáis y habláis?» Entonces leí la propuesta de Tim.

[Su propuesta] no tenía nombre, pero decía esencialmente lo mismo. También se basaba en hipertexto, y estaba planeada para que fuera accesible a todos los formatos, etc. Había dos diferencias principales: usaba Internet y tenía algo funcionando que mostrar. Así que básicamente me rendí y me uní a él de inmediato. Era obvio que no servía de nada intentar hacer otra cosa que seguir adelante con su propuesta.

Así que escribimos una propuesta común para conseguir recursos y atención de gerencia, y para convertirlo en un proyecto interdivisional (estábamos en dos divisiones diferentes, y una división del CERN tiene alrededor de doscientas a trescientas personas) y esa propuesta de proyecto se llamó World Wide Web. Eso fue en mayo de 1990.

Un navegador podría no haber sido [solo] un navegador…

Luego trabajamos duro y Tim sacó la versión de NeXTStep bastante rápido. La versión NeXTStep era navegador y editor, que era lo mismo; no había diferencia entre autor y lector.

Entrevistador— Tim me lo había dicho. Que realmente tenía la intención de que la implementación fuera tanto un editor como un navegador, pero de alguna manera se perdió por el camino. ¿Esa era la intención?

Sí, y creo que, mirando atrás, el mayor error cometido en todo el proyecto fue el lanzamiento público del navegador en modo de línea. Dio a los «hackers» de Internet acceso inmediato, pero solo desde el punto de vista del navegador pasivo, sin capacidad de edición. La versión de NeXTStep era mucho más potente. Y era mucho más elegante. Fue bastante deprimente tener que dar un paso atrás y decir: «¿Tengo que portar esto a un PC?»

Me voy a permitir estar en desacuerdo con Cailliau (ole yo): la complejidad que le habría sumado eso al navegador/editor no habría sido problema en el CERN, ni en muchos otros de los primeros entornos en los que circuló la web, pero a la larga habría frenado el avance de la web de manera brutal. ¿Habríamos roto la regla que dice que el 90% de personas ve contenido sin editar, el 9% edita y comenta, y solo el 1% crea? Quizá la habríamos movido algo, pero al precio de frenar la evolución… Quién sabe qué habría pasado. Quizá hoy en día navegaríamos hipertexto con algún heredero de Gopher, por ejemplo, y no en la web, para alegría de alguno que me sé yo.

Y si no lo llegan a portar a un PC… quién sabe si hoy en día conoceríamos hoy el término «world wide web».

Luego viene el tema de los gráficos…

También tenía gráficos, por supuesto. Podías mostrar PostScript.

Entrevistador: ¿Podías mostrar PostScript directamente?

Por supuesto. Se diseñó como un programa para mostrar gráficos. Y mostraba una ventana diferente con cada clic. No te perdías tan fácilmente.

Entrevistador: Entonces era integral. ¿Y mostraba GIFs?

No. No mostraba mapas de bits, los mapas de bits no son escalables, ¿verdad? No puedes hacer nada con ellos. Son una tontería. Los mapas de bits no son gráficos; son el resultado de la visualización de gráficos. No puede expresar gráficos en puntos y un mapa de bits no tiene métrica. No tiene sentido.

Entrevistador: ¿Querías gráficos vectoriales?

Bueno, quieres que esté en unidades, en unidades de distancia medibles, porque los píxeles son diferentes en cada pantalla y en cada impresora. Cuando quieres hacer matemáticas creando mapas de bits a partir de fórmulas, terminas con algo absolutamente horrible, dependiendo de cómo las trates. La mayoría de las veces, incluso en la pantalla, termina siendo horrible.

¿Tiene buena parte de razón en su discusión bitmap-vectorial? Desde luego. Si la web no hubiese comenzado a mostrar formatos bitmap muy pronto, ¿habría llegado muy lejos? Probablemente no. Hete aquí otro caso en que la fuerza bruta de la ley de Moore derrota a la elegancia sin despeinarse.

De lo de que los gráficos se mostraran en ventanas aparte, una por gráfico… tiene su lógica si vives en el mundo de las publicaciones científicas (y más las de la época), pero tampoco parece una idea brillante fuera de su entorno…

Entrevistador: ¿Había algo como marcadores o un historial de lugares visitados?

¿Por qué iba a necesitar algo así? Cada vez que haces clic, tienes una nueva ventana. Si encuentras una ventana interesante, la vinculas a tu página de inicio. Tu página de inicio, que es un HTML en tu máquina, eso es lo que realmente significa una página de inicio, funcionaba como su página de «marcadores». Dado que tu página de inicio seguía ahí, junto con la página interesante recién encontrada, pondrías el cursor allí, harías clic y arrastrarías el enlace. Y ya está. Si necesitas más de una página para los marcadores, simplemente creas nuevas páginas HTML locales.

Dos apuntes más. Arrastrar enlaces. Drag and drop, sí. La web original iba a ser WYSIWYG. Que parece un sueño pero, visto lo visto a mí me hace pensar que la cosa habría evolucionado mucho más lentamente. El HTML y el CSS, por mucho que lo odiemos, ha hecho la web lo que es, y el WYSIWYG tiene muchos riesgos, a medida que los diseños se vuelven más sofisticados. Si WordPerfect se hubiese impuesto a Word todos seríamos más felices. Creedme.

Y el otro apunte. Lo que sugiere Cailliau, de mantener una «home» así, puede hacerse, hoy en día, con relativa facilidad. Conozco a un ser humano que lo hace, incluso. Uno. No es el mismo que habría preferido un hipertexto basado en Gopher, pero es probable que también acabe leyendo esto. Los «bookmarks» seguramente no tienen hoy mucho sentido: el autocompletar de la barra de URLs resuelve la papeleta con frecuencia, y si no, buscas en Google y seguramente sea más fácil que gestionar bookmarks. Pero la URL y la barra de direcciones, de nuevo, son parte fundamental de lo que ha convertido la web en lo que es hoy.

Lograr que la administración del CERN aceptara que la biblioteca de código básica debía ser de dominio público fue uno de mis logros. Sentía que era importante distribuir la biblioteca básica libremente, para ponerla a disposición de todos sin ningún compromiso, para que pudiera explotar. …

Quizá el apunte más importante de la entrevista. Alguien debería darle muchos premios a Cailliau por hacer el código abierto desde el principio. Y seguimos con más filosofía de cómo debería ser la web…

Sin embargo, HTML también es defectuoso, porque es demasiado simple. Por ejemplo, para las matemáticas no hay posibilidad de elevar algo a una potencia y no hay gráficos en HTML. Es de suponer que esto cambiará con la introducción de XML, del que espero mucho.

De nuevo, me permito estar en desacuerdo. Las limitaciones de HTML han sido una pieza fundamental de su éxito. Que XHTML (estricto, entendido como un dialecto de XML) no llegara nunca a gran cosa no demuestra nada, pero va en esa línea. Sigamos…

El desarrollo de HTML no era una prioridad y, por supuesto, agregarle cosas indiscriminadamente no es bueno. Soy muy inflexible sobre esto: quiero mantener la estructura separada de la presentación. Odio cuando un sitio fuerza, por ejemplo, el tamaño de fuente a Times 7.0 en contra de todo lo que intento, con el resultado de que simplemente no puedo leerlo. Luego tengo que descargar el HTML y quitar las etiquetas si quiero leerlo. Las hojas de estilo nos ayudan más o menos, pero aún no están completamente implementadas.

Por cierto, teníamos una forma burda de hojas de estilo en el primer navegador porque las usaba todo el tiempo para demostraciones. Usaba tres estilos: uno para proyectar desde la pantalla, otro para imprimir y otro para editar. ¡Sin cambios en los archivos HTML!

Amén. Afortunadamente las hojas de estilo tardaron en llegar (y aún les queda), pero lo que nos han hecho ganar es espectacular.

Otro fragmento que me encanta es sobre el caótico crecimiento de la web…

Entrevistador: ¿Entonces fue una explosión descontrolada, una especie de reacción en cadena?

Sí, y eso es algo muy positivo. Había todas estas personas que veían un bien común y un objetivo común, y pasaban sus fines de semana y noches en ello. Hicieron algo que creo que al final fue muy útil. El otro extremo habría sido hacer esto muy corporativo y controlado, y eso no habría funcionado en absoluto. Así que habría preferido estar un poco alejado de la anarquía extrema que realmente sucedió, pero definitivamente me alegro de que nos mantuviéramos alejados de la forma propietaria, corporativa o institucional.

Realmente creo que ninguna empresa de telecomunicaciones, ninguna empresa de software, ninguna empresa de hardware podría haber creado esto. Solo una multitud tan dispersa, intuitiva, joven y entusiasta podría haber hecho esto, con todas las desventajas de eso también.

Entrevistador: Entonces estás diciendo que la Web es realmente hija de Internet.

Oh, absolutamente, sí, aunque es hija no solo de Internet, sino de una cultura de redes primitiva. Podría haber sucedido en otra red abierta, pero no había ninguna otra.

Podría levantarme y aplaudir. O hacer un mural con ello. A poder ser, delante de las sedes de las grandes empresas que tanto controlan la web hoy en día :-S.

Y ahora, sobre la llegada de la gran revolución, Mosaic…

Luego, por supuesto, vino algo que puede verse como positivo o negativo según la perspectiva: el lanzamiento de Mosaic. Tuvimos grandes problemas conceptualmente con Mosaic porque era una especie de Volkswagen Escarabajo del transporte. Todo el mundo puede permitírselo, no se necesita tiempo para instalarlo, hace algo que es nuevo, pero no acaba de ser transporte. Las analogías son todas falsas, pero entiendes lo que quiero decir.

Entrevistador: Pero el Escarabajo fue muy popular.

Correcto, y Mosaic también. Estaba bien, pero era monoventana. Ventana única, sin edición, que se hizo popular por dos cosas: era mucho más fácil de instalar que cualquiera de los otros, mejores navegadores basados ​​en X Window que le precedieron, porque llegó como un gran «blob» para máquinas Unix. Su segunda característica, muy atractiva, era que se acercaba a lo que la gente conocía: imágenes en línea.

Personalmente, no quería que las imágenes estuvieran en línea [en la misma ventana que el documento]. Es una molestia porque no puedes mantener la imagen a la vista. Por ejemplo, cuando lees un artículo de física, quieres ver los diagramas mientras examinas el texto. No querrás perder esa imagen y no querrás que se pierda de vista. Pero todos los navegadores actuales hacen eso, es como una presentación de la página impresa independiente de la plataforma.

Como apunta el propio Cailliau, Mosaic, con sus limitaciones, fue lo que popularizó la web. Y sin él, vaya usted a saber si la web habría dejado de ser una herramienta para académicos. LaTeX es un gran procesador de documentos… pero fueron WordPerfect y Word los que consiguieron que dejáramos atrás la máquina de escribir.

En fin. Podría seguir, pero ya me he pasado de las dos mil palabras… En cualquier caso, si os interesa la historia de la web, y los puntos de vista, tanto los brillantes como los más discutibles, de uno de sus creadores, no os perdáis la entrevista.

Un par de episodios de podcast

Servidor es un intenso oyente de podcasts, y dos de los que más está disfrutando últimamente (ambos descubiertos durante la pandemia) son Command Line Heroes y el Internet History Podcast. Para los interesados en la culturilla de la informática e internet, muy recomendables.

Internet History Podcast es un «monstruo» de doscientos episodios (me faltan unos cincuenta para acabar la cole (dejaremos como ejercicio para el lector calcular una cota inferior para el ritmo al que voy)) que se publicaron desde 2014 a 2019, con entrevistas a personajes relevantes de la historia de internet y la web, sobre todo, aunque también se «cuelan» algunos otros temas que, aunque algo alejados del título del podcast, no dejan de tener su interés. Se trata de entrevistas de una profundidad considerable: un episodio típico dura algo más de una hora y el presentador, Brian McCullough, hace los deberes a conciencia antes de cada entrevista (de hecho, el proyecto culminó con la edición de un libro, How The Internet Happened, que me tengo que comprar (y leer) un día de estos. Los episodios memorables son numerosos. Se habla con algunos de los fundadores y primeros ingenieros de los primeros servicios en línea, de Mosaic, Netscape, Real Networks, o Internet Explorer, con los creadores de algunos de los primeros motores de búsqueda y servidores de anuncios, con testigos de las primeras iniciativas de medios que se lanzaron a la web, de gigantes como Time o AOL (y de la fusión de ambas), de los inicios del comercio electrónico, de la música en la red (con entrevistas con el «papá» del «emepetrés» y con el desarrollador del mítico WinAmp)… No os deberíais perder la historia de «el hombre que pudo ser Bill Gates» (el creador de CP/M), tampoco, y no pararía, pero lo que me ha llevado a esta entrada es la entrevista con Don Melton, que es el primer desarrollador que contrató Apple para poner en marcha Safari. Es como escuchar una entrevista con un secundario de Halt and Catch Fire (sobre la que escribí con Cristina Fort en el blog del trabajo) y, si os interesa lo más mínimo la historia de la web, vale mucho la pena:

(Otro episodio absolutamente Halt and Catch Fire es la entrevista con Rod Canion, de Compaq… la empresa que inspiró la primera temporada de la serie.)

Command Line Heroes es mucho más pequeño (arrancó en 2018 y está a punto de llegar a los cincuenta episodios). Se trata de un formato con mucha más producción, con episodios de media horita que repasan diferentes temas que, además van variando temporada a temporada. Comenzaron con las guerras de los sistemas operativos, después llegaron unos cuantos episodios que confieso que no me llamaron mucho, pero después recuperaron mi atención con una temporada dedicada a diferentes lenguajes de programación y ahora estoy en plena cuarta temporada, dedicada a la evolución de los ordenadores, desde los mainframes a las consolas y los móviles. Y me gustaría destacar el último episodio que he escuchado, dedicado a los miniordenadores (que, si no tenéis una cierta edad, seguramente no sean lo que os podría venir a la cabeza al escuchar la palabra) y que, inevitablemente, enlaza con el libro The Soul of a New Machine, sobre la creación del primer «mini» de treinta y dos bits de Data General, allá por 1981. Me temo que no he encontrado una versión incrustable, o sea que lo podréis escuchar aquí.


Ah, y no me podía ir sin mi cuña publicitaria ^_^.

El año más musical

Llevaba mucho tiempo sin hacer una entrada de inicio de año repasando la música del año anterior :-S. Aprovechando que 2020 pasará a mi historia particular como el año más musical (al menos de los últimos dieciséis)…

Gráfica de barras de reproducciones por año desde 2005 hasta la actualidad. El máximo estaba en 2010, con unas 18000. Desde 2012 a 2019 había unas 15000 anuales. En 2020, casi 30000.
Cualquiera diría que pasó algo extraño en 2020…
Gráfica de barras de reproducciones por mes. Enero, 1378; febrero, 1699. De marzo a diciembre el mínimo es diciembre, con 2312, y el máximo agosto con 3250.
Cualquiera diría que ese algo comenzó en marzo. Más detalles, aquí.

(Según mi perfil de last.fm, eso sale a casi 91 días enteros escuchando oyendo música, casi una cuarta parte del año. Seis horas al día de nada.)

Pocas novedades en mi «top 15» (entre paréntesis, la posición el año anterior), con una sola verdadera irrupción, la de Fontaines D.C.:

ArtistaReproducciones
1. The Rolling Stones (4)353
2 Four Tet (6)328
3 Leonard Cohen (21)306
4 Medeski, Martin and Wood (5)306
5 Portishead (-)300
6 Boards of Canada (2)298
7 Sara Valenzuela (11)291
8 ILE (28)286
9 Mogwai (18)286
10 Morphine (14)279
11 Svper (44)279
12 Songhoy Blues (25)273
13 The Chemical Brothers (9)272
14 Fontaines D.C. (-)267
15 Massive Attack (10)265

La lista entera sería un poco larga: 3238 artistas diferentes, los 78 primeros con al menos 100 reproducciones, y hasta 443 han llegado a las diez reproducciones. Viva la «cola larga».

Por debajo del 15 de la lista encontraríamos algún descubrimiento más de este año eso sí: Angelica Garcia (en el 17), Dorothy (en el 23), Tamikrest (en el 42) o KOTA The Friend (en el 54), por ejemplo.

En cuanto a estilos, lo de costumbre (tenemos una edad)…

La electrónica, el indie y el rock predominan, aunque también destacan como estilos más escuchados "indie rock", ambient, alternativa o jazz

En fin… Por una vez, y sin que sirva de precedente, espero escuchar menos música este 2021…

Software is eating photography…

…de hecho se ha comido ya una buena parte (de las últimas cien fotos que habéis hecho, al menos noventa las habéis hecho con el móvil, y ha habido tanto software entre vuestro clic y lo que habéis subido a Instagram / enviado por WhatsApp que daría para varios libros) y, por otro lado, nunca se acabará de comer la fotografía química (eso de llamar analógico a todo lo que no es digital siempre se me ha hecho especialmente raro en el caso de la fotografía «de toda la vida», aunque es cierto que no es un abuso de notación especialmente significativo).

En cualquier caso, lo de la fotografía computacional es un tema apasionante por lo tecnológico, por lo cultural, por sus implicaciones éticas… y pocas maneras mejores de aprender un poco sobre el tema que escuchar la entrevista que le hacen en Vergecast a Marc Levoy, el profe de Stanford que se convirtió en el responsable de la cámara (apartado software, claro) de los Google Pixel y que ahora ha fichado por Adobe.

Solo me permitiré apuntar dos cosas…

La primera de ellas, que las implicaciones éticas llegaron mucho antes del digital. Primero, con el encuadre de la foto (¿habéis visto alguna vez las fotos de una manifestación en dos diarios con puntos de vista diferentes?) y después en los laboratorios (al fin y al cabo toda la botonera de Photoshop son iconos de lo que se hacía en los laboratorios mucho antes de que nadie soñara con el digital). Antes de seguir con la crítica y la reflexión —no solo lícita sino absolutamente necesaria— sobre la manipulación de las imágenes fotográficas, uno debería reflexionar sobre si lo que le preocupa es la manipulación, quién manipula, la democratización de la manipulación, su automatización, o exactamente qué. Si vas a tener un discurso sobre el tema, que tenga un mínimo de solidez.

El segundo apunte, que ahora que Levoy ha llegado a Adobe, es hora de que esa aplicación de cámara que va a ayudar a desarrollar nos permita no solo archivos tipo «raw», sino PPSDs (portable PSDs, o Portable PhotoShop Documents), con los diferentes capturas que ha hecho la «cámara» y el historial de manipulaciones que le han hecho antes de mostrarte el resultado por pantalla.


PS 20200912 Lectura complementaria extremadamente recomendable: Your Phone Wasn’t Built for the Apocalypse. Why the orange sky looks gray, de Ian Bogost en The Atlantic.

La asimetría del valor de Facebook

Este tuit me ha hecho buscar un artículo de revista académica que vi referenciado hace un tiempo. En serio. Pero, de momento, volvamos al tuit. Facebook busca gente para hacer un experimento que implica desactivar su cuenta en Facebook y en Instagram durante unas semanas. Si os fijáis en las imágenes, Facebook está dispuesta a pagar al menos diez dólares a la semana por ello. ¿Os parece mucho? ¿Poco? Resulta ser que no es fácil convencer al usuario medio de Facebook de que lo abandone. Ni barato, si lo que pretendes es pagarle por ello. Y esto nos lleva el artículo, «How much is social media worth? Estimating the value of Facebook by paying users to stop using it», de Jay Corrigan et al. (2018). En el artículo Corrigan & Co plantean un experimento muy interesante: ¿cuánto te tengo que pagar para que no accedas a Facebook? La respuesta os dejará helados. O no. Pero es curiosa, como mínimo :-).

Corrigan & Co procedieron a una subasta para encontrar el precio medio que hay que pagar para conseguirlo. Los detalles metodológicos los encontraréis en el artículo, pero sobre unos 1200 participantes, el valor medio (y hay que decir que la desviación estándar es muy alta) de desactivar Facebook durante un año es de… más… de… mil dólares, o aproximadamente veinte dólares a la semana, en términos del experimento del tuit.

Por el otro lado… ¿cuánto vale cada usuario para Facebook? Si nos fiamos de estos datos, Facebook ingresa aproximadamente treinta dólares por usuario al año (y ese número está creciendo de una manera brutal). De nuevo, si aceptamos esos treinta dólares como media, la desviación tiene que ser enorme y, por lo tanto, hay que proceder con extremo cuidado. Pero aun así, si el usuario medio percibe que el valor que le da Facebook es de mil dólares al año, y aceptamos que el valor de ese usuario medio para Facebook es de treinta dólares anuales, estamos ante una relación salvajemente asimétrica. Y uno tiende a pensar que, en condiciones así, Facebook tendría que meter la pata mucho más todavía de lo que lo está haciendo para dejar de ser un enorme negocio.