Lo que la web podría haber sido. O no.

Descubrí hace unos días (no recuerdo ya cómo) esta antigua entrevista con Robert Cailliau (realizada en algún momento de finales de los 90) en la extinta revista Computing Now de la IEEE.

(¿Que quién es Robert Cailliau? Con Tim Berners Lee, uno de los papás de la web. No tan importante como «tito Tim», pero probablemente la historia le haya ninguneado un poco.)

(Que una revista del IEEE deba consultarse en archive.org, y no en su URL original, es, efectivamente, un poco triste (parece que 2017 aún estaban en su sitio, comentan por aquí).)

En cualquier caso, la entrevista no tiene desperdicio, y merece la pena seguir el enlace y leerla completa, pero como de costumbre, copio-traduzco-y-pego algunos fragmentos que me han parecido especialmente destacables…

Sentía que necesitábamos poder hacer algo más que producir algo y luego imprimirlo en papel; necesitábamos poder navegar por él. Había existido un proyecto llamado CERNDOC [está hablando de 1987 u 88], que era un sistema completamente basado en VM, CMS e IBM. Era una especie de sistema jerárquico en el que se podía buscar documentación, sacar un documento y luego tal vez imprimirlo. Pero sentía que todo debería haberse basado en hipertexto, o que al menos deberíamos investigar qué se podía hacer con él. Pensaba que tal vez incluso podríamos hacer cosas en la red, pero no había pensado en Internet.

Cailliau comenta, también, la importancia de Hypercard como inspiración para pensar que se debería poder enlazar de cualquier página a cualquier página, y no solo navegar en árbol, como [creo que] hacía CERNDOC, que se había puesto en marcha en el CERN en el 84 y que, obviamente, también inspiró a Berners-Lee. Y también hace hincapié en que en los setenta había trabajado en sistemas de documentación estructurada.

También estaba trabajando con el sistema de control del sincrotrón de protones, el más pequeño, pero más complejo, de nuestros aceleradores de partículas, y allí, en la década de 1970, establecimos un sistema de computadoras que hablaban entre sí. Los programas en realidad se enviaban a sí mismos a través de la red, y yo escribí un intérprete de «bytecode» para el código móvil.

Esta historia no se ha contado mucho, pero teníamos todo eso, y la documentación también estaba ahí. Teníamos nuestra propia red de control de procesos; teníamos nuestro propio lenguaje interpretativo. Tuvimos todo, y esto fue en 1973-74.

Todo se hizo en computadoras Norsk Data. Eran una pequeña empresa noruega —la última empresa informática independiente de Europa, creo— y después de eso no hubo nada excepto en los EE. UU. Y, por supuesto, desde la perspectiva de EE. UU., si no se hace en los EE. UU. no existe en la informática, ¿verdad?

En los setenta. Un intérprete de «bytecode». Para que luego nos creamos que Flash o los applets de Java eran una novedad…

Al mismo tiempo, Tim Berners-Lee tenía ideas muy similares, pero también conocía Internet, de la que yo no sabía nada. Un amigo común, Mike Sendall (quien además era el jefe de Tim) dijo: «Mira, vosotros sabéis lo que estáis haciendo. ¿Por qué no os sentáis y habláis?» Entonces leí la propuesta de Tim.

[Su propuesta] no tenía nombre, pero decía esencialmente lo mismo. También se basaba en hipertexto, y estaba planeada para que fuera accesible a todos los formatos, etc. Había dos diferencias principales: usaba Internet y tenía algo funcionando que mostrar. Así que básicamente me rendí y me uní a él de inmediato. Era obvio que no servía de nada intentar hacer otra cosa que seguir adelante con su propuesta.

Así que escribimos una propuesta común para conseguir recursos y atención de gerencia, y para convertirlo en un proyecto interdivisional (estábamos en dos divisiones diferentes, y una división del CERN tiene alrededor de doscientas a trescientas personas) y esa propuesta de proyecto se llamó World Wide Web. Eso fue en mayo de 1990.

Un navegador podría no haber sido [solo] un navegador…

Luego trabajamos duro y Tim sacó la versión de NeXTStep bastante rápido. La versión NeXTStep era navegador y editor, que era lo mismo; no había diferencia entre autor y lector.

Entrevistador— Tim me lo había dicho. Que realmente tenía la intención de que la implementación fuera tanto un editor como un navegador, pero de alguna manera se perdió por el camino. ¿Esa era la intención?

Sí, y creo que, mirando atrás, el mayor error cometido en todo el proyecto fue el lanzamiento público del navegador en modo de línea. Dio a los «hackers» de Internet acceso inmediato, pero solo desde el punto de vista del navegador pasivo, sin capacidad de edición. La versión de NeXTStep era mucho más potente. Y era mucho más elegante. Fue bastante deprimente tener que dar un paso atrás y decir: «¿Tengo que portar esto a un PC?»

Me voy a permitir estar en desacuerdo con Cailliau (ole yo): la complejidad que le habría sumado eso al navegador/editor no habría sido problema en el CERN, ni en muchos otros de los primeros entornos en los que circuló la web, pero a la larga habría frenado el avance de la web de manera brutal. ¿Habríamos roto la regla que dice que el 90% de personas ve contenido sin editar, el 9% edita y comenta, y solo el 1% crea? Quizá la habríamos movido algo, pero al precio de frenar la evolución… Quién sabe qué habría pasado. Quizá hoy en día navegaríamos hipertexto con algún heredero de Gopher, por ejemplo, y no en la web, para alegría de alguno que me sé yo.

Y si no lo llegan a portar a un PC… quién sabe si hoy en día conoceríamos hoy el término «world wide web».

Luego viene el tema de los gráficos…

También tenía gráficos, por supuesto. Podías mostrar PostScript.

Entrevistador: ¿Podías mostrar PostScript directamente?

Por supuesto. Se diseñó como un programa para mostrar gráficos. Y mostraba una ventana diferente con cada clic. No te perdías tan fácilmente.

Entrevistador: Entonces era integral. ¿Y mostraba GIFs?

No. No mostraba mapas de bits, los mapas de bits no son escalables, ¿verdad? No puedes hacer nada con ellos. Son una tontería. Los mapas de bits no son gráficos; son el resultado de la visualización de gráficos. No puede expresar gráficos en puntos y un mapa de bits no tiene métrica. No tiene sentido.

Entrevistador: ¿Querías gráficos vectoriales?

Bueno, quieres que esté en unidades, en unidades de distancia medibles, porque los píxeles son diferentes en cada pantalla y en cada impresora. Cuando quieres hacer matemáticas creando mapas de bits a partir de fórmulas, terminas con algo absolutamente horrible, dependiendo de cómo las trates. La mayoría de las veces, incluso en la pantalla, termina siendo horrible.

¿Tiene buena parte de razón en su discusión bitmap-vectorial? Desde luego. Si la web no hubiese comenzado a mostrar formatos bitmap muy pronto, ¿habría llegado muy lejos? Probablemente no. Hete aquí otro caso en que la fuerza bruta de la ley de Moore derrota a la elegancia sin despeinarse.

De lo de que los gráficos se mostraran en ventanas aparte, una por gráfico… tiene su lógica si vives en el mundo de las publicaciones científicas (y más las de la época), pero tampoco parece una idea brillante fuera de su entorno…

Entrevistador: ¿Había algo como marcadores o un historial de lugares visitados?

¿Por qué iba a necesitar algo así? Cada vez que haces clic, tienes una nueva ventana. Si encuentras una ventana interesante, la vinculas a tu página de inicio. Tu página de inicio, que es un HTML en tu máquina, eso es lo que realmente significa una página de inicio, funcionaba como su página de «marcadores». Dado que tu página de inicio seguía ahí, junto con la página interesante recién encontrada, pondrías el cursor allí, harías clic y arrastrarías el enlace. Y ya está. Si necesitas más de una página para los marcadores, simplemente creas nuevas páginas HTML locales.

Dos apuntes más. Arrastrar enlaces. Drag and drop, sí. La web original iba a ser WYSIWYG. Que parece un sueño pero, visto lo visto a mí me hace pensar que la cosa habría evolucionado mucho más lentamente. El HTML y el CSS, por mucho que lo odiemos, ha hecho la web lo que es, y el WYSIWYG tiene muchos riesgos, a medida que los diseños se vuelven más sofisticados. Si WordPerfect se hubiese impuesto a Word todos seríamos más felices. Creedme.

Y el otro apunte. Lo que sugiere Cailliau, de mantener una «home» así, puede hacerse, hoy en día, con relativa facilidad. Conozco a un ser humano que lo hace, incluso. Uno. No es el mismo que habría preferido un hipertexto basado en Gopher, pero es probable que también acabe leyendo esto. Los «bookmarks» seguramente no tienen hoy mucho sentido: el autocompletar de la barra de URLs resuelve la papeleta con frecuencia, y si no, buscas en Google y seguramente sea más fácil que gestionar bookmarks. Pero la URL y la barra de direcciones, de nuevo, son parte fundamental de lo que ha convertido la web en lo que es hoy.

Lograr que la administración del CERN aceptara que la biblioteca de código básica debía ser de dominio público fue uno de mis logros. Sentía que era importante distribuir la biblioteca básica libremente, para ponerla a disposición de todos sin ningún compromiso, para que pudiera explotar. …

Quizá el apunte más importante de la entrevista. Alguien debería darle muchos premios a Cailliau por hacer el código abierto desde el principio. Y seguimos con más filosofía de cómo debería ser la web…

Sin embargo, HTML también es defectuoso, porque es demasiado simple. Por ejemplo, para las matemáticas no hay posibilidad de elevar algo a una potencia y no hay gráficos en HTML. Es de suponer que esto cambiará con la introducción de XML, del que espero mucho.

De nuevo, me permito estar en desacuerdo. Las limitaciones de HTML han sido una pieza fundamental de su éxito. Que XHTML (estricto, entendido como un dialecto de XML) no llegara nunca a gran cosa no demuestra nada, pero va en esa línea. Sigamos…

El desarrollo de HTML no era una prioridad y, por supuesto, agregarle cosas indiscriminadamente no es bueno. Soy muy inflexible sobre esto: quiero mantener la estructura separada de la presentación. Odio cuando un sitio fuerza, por ejemplo, el tamaño de fuente a Times 7.0 en contra de todo lo que intento, con el resultado de que simplemente no puedo leerlo. Luego tengo que descargar el HTML y quitar las etiquetas si quiero leerlo. Las hojas de estilo nos ayudan más o menos, pero aún no están completamente implementadas.

Por cierto, teníamos una forma burda de hojas de estilo en el primer navegador porque las usaba todo el tiempo para demostraciones. Usaba tres estilos: uno para proyectar desde la pantalla, otro para imprimir y otro para editar. ¡Sin cambios en los archivos HTML!

Amén. Afortunadamente las hojas de estilo tardaron en llegar (y aún les queda), pero lo que nos han hecho ganar es espectacular.

Otro fragmento que me encanta es sobre el caótico crecimiento de la web…

Entrevistador: ¿Entonces fue una explosión descontrolada, una especie de reacción en cadena?

Sí, y eso es algo muy positivo. Había todas estas personas que veían un bien común y un objetivo común, y pasaban sus fines de semana y noches en ello. Hicieron algo que creo que al final fue muy útil. El otro extremo habría sido hacer esto muy corporativo y controlado, y eso no habría funcionado en absoluto. Así que habría preferido estar un poco alejado de la anarquía extrema que realmente sucedió, pero definitivamente me alegro de que nos mantuviéramos alejados de la forma propietaria, corporativa o institucional.

Realmente creo que ninguna empresa de telecomunicaciones, ninguna empresa de software, ninguna empresa de hardware podría haber creado esto. Solo una multitud tan dispersa, intuitiva, joven y entusiasta podría haber hecho esto, con todas las desventajas de eso también.

Entrevistador: Entonces estás diciendo que la Web es realmente hija de Internet.

Oh, absolutamente, sí, aunque es hija no solo de Internet, sino de una cultura de redes primitiva. Podría haber sucedido en otra red abierta, pero no había ninguna otra.

Podría levantarme y aplaudir. O hacer un mural con ello. A poder ser, delante de las sedes de las grandes empresas que tanto controlan la web hoy en día :-S.

Y ahora, sobre la llegada de la gran revolución, Mosaic…

Luego, por supuesto, vino algo que puede verse como positivo o negativo según la perspectiva: el lanzamiento de Mosaic. Tuvimos grandes problemas conceptualmente con Mosaic porque era una especie de Volkswagen Escarabajo del transporte. Todo el mundo puede permitírselo, no se necesita tiempo para instalarlo, hace algo que es nuevo, pero no acaba de ser transporte. Las analogías son todas falsas, pero entiendes lo que quiero decir.

Entrevistador: Pero el Escarabajo fue muy popular.

Correcto, y Mosaic también. Estaba bien, pero era monoventana. Ventana única, sin edición, que se hizo popular por dos cosas: era mucho más fácil de instalar que cualquiera de los otros, mejores navegadores basados ​​en X Window que le precedieron, porque llegó como un gran «blob» para máquinas Unix. Su segunda característica, muy atractiva, era que se acercaba a lo que la gente conocía: imágenes en línea.

Personalmente, no quería que las imágenes estuvieran en línea [en la misma ventana que el documento]. Es una molestia porque no puedes mantener la imagen a la vista. Por ejemplo, cuando lees un artículo de física, quieres ver los diagramas mientras examinas el texto. No querrás perder esa imagen y no querrás que se pierda de vista. Pero todos los navegadores actuales hacen eso, es como una presentación de la página impresa independiente de la plataforma.

Como apunta el propio Cailliau, Mosaic, con sus limitaciones, fue lo que popularizó la web. Y sin él, vaya usted a saber si la web habría dejado de ser una herramienta para académicos. LaTeX es un gran procesador de documentos… pero fueron WordPerfect y Word los que consiguieron que dejáramos atrás la máquina de escribir.

En fin. Podría seguir, pero ya me he pasado de las dos mil palabras… En cualquier caso, si os interesa la historia de la web, y los puntos de vista, tanto los brillantes como los más discutibles, de uno de sus creadores, no os perdáis la entrevista.

Un par de episodios de podcast

Servidor es un intenso oyente de podcasts, y dos de los que más está disfrutando últimamente (ambos descubiertos durante la pandemia) son Command Line Heroes y el Internet History Podcast. Para los interesados en la culturilla de la informática e internet, muy recomendables.

Internet History Podcast es un «monstruo» de doscientos episodios (me faltan unos cincuenta para acabar la cole (dejaremos como ejercicio para el lector calcular una cota inferior para el ritmo al que voy)) que se publicaron desde 2014 a 2019, con entrevistas a personajes relevantes de la historia de internet y la web, sobre todo, aunque también se «cuelan» algunos otros temas que, aunque algo alejados del título del podcast, no dejan de tener su interés. Se trata de entrevistas de una profundidad considerable: un episodio típico dura algo más de una hora y el presentador, Brian McCullough, hace los deberes a conciencia antes de cada entrevista (de hecho, el proyecto culminó con la edición de un libro, How The Internet Happened, que me tengo que comprar (y leer) un día de estos. Los episodios memorables son numerosos. Se habla con algunos de los fundadores y primeros ingenieros de los primeros servicios en línea, de Mosaic, Netscape, Real Networks, o Internet Explorer, con los creadores de algunos de los primeros motores de búsqueda y servidores de anuncios, con testigos de las primeras iniciativas de medios que se lanzaron a la web, de gigantes como Time o AOL (y de la fusión de ambas), de los inicios del comercio electrónico, de la música en la red (con entrevistas con el «papá» del «emepetrés» y con el desarrollador del mítico WinAmp)… No os deberíais perder la historia de «el hombre que pudo ser Bill Gates» (el creador de CP/M), tampoco, y no pararía, pero lo que me ha llevado a esta entrada es la entrevista con Don Melton, que es el primer desarrollador que contrató Apple para poner en marcha Safari. Es como escuchar una entrevista con un secundario de Halt and Catch Fire (sobre la que escribí con Cristina Fort en el blog del trabajo) y, si os interesa lo más mínimo la historia de la web, vale mucho la pena:

(Otro episodio absolutamente Halt and Catch Fire es la entrevista con Rod Canion, de Compaq… la empresa que inspiró la primera temporada de la serie.)

Command Line Heroes es mucho más pequeño (arrancó en 2018 y está a punto de llegar a los cincuenta episodios). Se trata de un formato con mucha más producción, con episodios de media horita que repasan diferentes temas que, además van variando temporada a temporada. Comenzaron con las guerras de los sistemas operativos, después llegaron unos cuantos episodios que confieso que no me llamaron mucho, pero después recuperaron mi atención con una temporada dedicada a diferentes lenguajes de programación y ahora estoy en plena cuarta temporada, dedicada a la evolución de los ordenadores, desde los mainframes a las consolas y los móviles. Y me gustaría destacar el último episodio que he escuchado, dedicado a los miniordenadores (que, si no tenéis una cierta edad, seguramente no sean lo que os podría venir a la cabeza al escuchar la palabra) y que, inevitablemente, enlaza con el libro The Soul of a New Machine, sobre la creación del primer «mini» de treinta y dos bits de Data General, allá por 1981. Me temo que no he encontrado una versión incrustable, o sea que lo podréis escuchar aquí.


Ah, y no me podía ir sin mi cuña publicitaria ^_^.

La asimetría del valor de Facebook

Este tuit me ha hecho buscar un artículo de revista académica que vi referenciado hace un tiempo. En serio. Pero, de momento, volvamos al tuit. Facebook busca gente para hacer un experimento que implica desactivar su cuenta en Facebook y en Instagram durante unas semanas. Si os fijáis en las imágenes, Facebook está dispuesta a pagar al menos diez dólares a la semana por ello. ¿Os parece mucho? ¿Poco? Resulta ser que no es fácil convencer al usuario medio de Facebook de que lo abandone. Ni barato, si lo que pretendes es pagarle por ello. Y esto nos lleva el artículo, «How much is social media worth? Estimating the value of Facebook by paying users to stop using it», de Jay Corrigan et al. (2018). En el artículo Corrigan & Co plantean un experimento muy interesante: ¿cuánto te tengo que pagar para que no accedas a Facebook? La respuesta os dejará helados. O no. Pero es curiosa, como mínimo :-).

Corrigan & Co procedieron a una subasta para encontrar el precio medio que hay que pagar para conseguirlo. Los detalles metodológicos los encontraréis en el artículo, pero sobre unos 1200 participantes, el valor medio (y hay que decir que la desviación estándar es muy alta) de desactivar Facebook durante un año es de… más… de… mil dólares, o aproximadamente veinte dólares a la semana, en términos del experimento del tuit.

Por el otro lado… ¿cuánto vale cada usuario para Facebook? Si nos fiamos de estos datos, Facebook ingresa aproximadamente treinta dólares por usuario al año (y ese número está creciendo de una manera brutal). De nuevo, si aceptamos esos treinta dólares como media, la desviación tiene que ser enorme y, por lo tanto, hay que proceder con extremo cuidado. Pero aun así, si el usuario medio percibe que el valor que le da Facebook es de mil dólares al año, y aceptamos que el valor de ese usuario medio para Facebook es de treinta dólares anuales, estamos ante una relación salvajemente asimétrica. Y uno tiende a pensar que, en condiciones así, Facebook tendría que meter la pata mucho más todavía de lo que lo está haciendo para dejar de ser un enorme negocio.

Lo social como herramienta de retención para los Spotifys y Netflix del mundo

(Creo que jamás había puesto un nombre tan largo a un tuit post. Se aceptan recomendaciones de mejora.)

Cuando Benedict Evans escribe es buena idea leerle. Lo último viene a colación de la última quinout de Apple y habla de servicios y fosos (o de servicios como fosos, de hecho, y es que el concepto de que el ecosistema que está montando Apple es un foso que la protege de que los usuarios la abandonen se está poniendo muy de moda y es una perspectiva muy razonable (por cierto: los competidores de Apple no lo hacen porque no están en disposición de hacerlo)).

Ese apunte inicial que he destacado en Twitter hace un rato a mí me parece muy interesante (mientras no se demuestre lo contrario, queda poco por diferenciar en el mercado móvil), pero después Evans dice algo en lo que me voy a permitir el lujo de llevarle un poco la contraria (qué atrevido y imprudente es el desconocimiento). Analiza el lanzamiento (finalmente) de la plataforma de vídeo bajo demanda de Cupertino desde el punto de vista del foso y decide que poco puede funcionar como tal:

But music is a streamed subscription now, so you lose very little by switching between Apple Music and Spotify. Unlike music, the subscription TV platforms, Apple TV Plus included, have exclusive content, but if you cancel them you’re not losing anything you ever felt you owned, any more than you were if you cancelled HBO or AMC, and you can always turn it on again. There’s no lock-in. These platforms have to keep you month by month with each new show – unlike iTunes, they’re not locking you in with what you already committed to.

Y yo diría que eso es cierto ahora, pero como apuntaba hace unos días (qué ilusión me hace enlazar una entrada de obm de hace menos de un mes (sí, podría ser que esta entrada sea básicamente efecto de esa ilusión)) yo diría que la curación de contenidos y lo social pueden convertirse en una fantástica herramienta de retención para los grandes del mercado: si tengo en Spotify multitud de discos y canciones anotados, por mí o, aún mejor, por un experto en la materia, mucho más barata va a tener que ser la plataforma Y para que servidor deje atrás todo ese patrimonio…

Cierto es que en música es mucho, muchísimo más fácil que esto funcione porque apenas hay diferenciación en los catálogos de los servicios (¡y que dure la cosa así!), pero qué no daría yo por un Netflix (o un Filmin, o…) con un catálogo de ciencia ficción, fantasía y terror en que las películas viniesen acompañadas de la introducción o los comentarios de un Jordi Sánchez Navarro, por ejemplo… Si los catálogos de sindicación de series y películas que todavía no pertenecen a Disney se volcaran (de una puñetera vez) a las plataformas bajo demanda y decidieran que no se ofrecen en exclusiva a una de las plataformas dada la fragmentación y lo relativamente poco que les iban a pagar las plataformas por la exclusividad, los mejores anotadores iban a ser un factor diferencial de órdago, opino. Y si la plataforma Z me dejase sincronizar la reproducción del episodio de turno para verlo a la vez que mis colegas y poderlo comentar en una segunda pantalla con mis colegas, pues…

En fin. Cosas mías.

«Trust and safety» en Vergecast

En los últimos meses el Vergecast se ha convertido en uno de mis podcasts de referencia en cuanto a tecnología. Dedican un episodio a la semana repasar la actualidad tecnológica y es extremadamente recomendable. Cada semana hay un segundo episodio en el que Nilay Patel (un tipo con mucho criterio) entrevista a una figura relevante de la industria. Con la cercanía de las elecciones estadounidenses del año que viene la intersección de política y tecnología, un tema absolutamente inevitable en la actualidad. La semana pasada entrevistaba a Alex Stamos, actualmente director del Observatorio de Internet de la Universidad de Stanford y ex «chief security officer» en Facebook y, antes de eso, en Yahoo. La entrevista es muy interesante y gira en gran parte alrededor del concepto de «trust and safety» del título de la entrada, que es el nombre del equipo de Facebook que tiene la muy poco envidiable misión de prevenir, detectar y atajar los abusos que se dan en su plataforma. El tema es de una importancia vital. Tanto como para tomar apuntes. Y aquí abajo van mis apuntes. Absolutamente parciales y sesgados, pero ahí los dejo (y que quede claro que mis apuntes y mis opiniones no tienen por qué tener mucho en común, aun a pesar del sesgo). Espero que sirvan de acicate como para dedicarle el tiempo a bajarse el podcast y escucharlo.

Sobre las «meme wars» en las elecciones: la responsabilidad es de las plataformas tecnológicas y estas han tomado medidas. En 2016 este trabajo no correspondía a nadie y ahora es una amenaza que se tiene en cuenta en Google, Twitter y Facebook.

Todo lo que los rusos hicieron en Estados Unidos en 2016 lo habían hecho durante mucho tiempo en Ucrania.


El movimiento de Facebook hacia una plataforma más privada plantea preguntas fascinantes sobre lo que queremos de las redes sociales. Si se mueven hacia mensajería de grupos con menos amplificación, se reduce la amplificación «uno-a-muchísimos» de cuentas sociales con muchísimos seguidores de 2016. Pero la comunicación en chats privados se vuelve invisible.

Cuando das privacidad a todo el mundo también se la das a «los malos». A la larga, eso es bueno para las redes sociales porque reduce su responsabilidad, pero el daño puede continuar sucediendo.

En las elecciones en India tanto el partido en el poder como la oposición tenías sus granjas de «trolls». En lugar de lanzar un mensaje a un millón de personas, decenas de miles de personas reenviaron sus mensajes a sus amigos. La misma amplificación con algo más de trabajo y mucho más difícil de estudiar por el cifrado. El movimiento hacia el cifrado es en general positivo pero tiene sus efectos secundarios.

Opciones para parar este tipo de mensajes sin romper el cifrado de extremo a extremo sin puertas traseras. Por ejemplo, procesar el mensaje en el dispositivo antes de ser cifrado y enviado y al menos alertar al remitente, de manera respetuosa con la privacidad y la libertad del usuario. O reconocer imágenes en el dispositivo del receptor del mensaje y alertar del potencial contenido de la imagen antes de mostrarla. Las compañías adquirirían un papel más paternalista, con los problemas que esto puede suponer.

Hay una componente cínica en el cifrar las comunicaciones. A las plataformas se les pide cifrado y que no sepan qué se dicen sus usuarios y, a la vez, que protejan a esos mismos usuarios. Ambas cosas son incompatibles. Facebook, históricamente, ha intentado situarse en una posición intermedia y no ha funcionado: se les puede criticar desde los dos lados y ahora Zuck ha decidido lanzarse hacia uno de los extremos con la privacidad y el cifrado, reduciendo la moderación de contenido, que le era un problema, porque una vez que comienzas a moderar se abre un problema sin fin.

Como sociedad no hemos decidido el punto hasta el que queremos mantener segura a la gente en línea y cuánto queremos controlas sus acciones para tal efecto y quién se encarga de ello.

Se oyen voces pro control del discurso con un volumen que nunca habíamos oído en la era «pre tech». Lo que ha hecho el sector tecnológico es permitir conversaciones sobre ese control del discurso que no habrían sido aceptables en los doscientos años anteriores.

¿Las reglas se van a elaborar de manera democrática o las elaborarán actores privados? En el entorno estadounidense el gobierno no puede encargarse gracias a / por culpa de la primera enmienda. Todos los demás gobiernos angloparlantes están considerando regulaciones del discurso en línea ridículas. Australia se ha adelantado pero en el Reino Unido se están gestando cosas. Facebook no puede considerar principalmente el caso estadounidense por la distribución de sus usuarios. Y globalmente lo que pasa es más legislación pro privacidad como la RGPD.


El entrevistador pregunta si tendría sentido ofrecer el equipo de «trust and safety» como servicio «à la AWS» para start ups para poner estos servicios al alcance de compañías que no tienen la escala de Facebook («trust and safety» sería el equipo encargado de mitigar los abusos en línea en una plataforma, y es bastante diferente de lo que se considera tradicionalmente «seguridad»). Esto permitiría que surgiesen nuevas redes sociales sin tener que desarrollar un equipo encargado de estos problemas, algo potencialmente imposible. Según Stamos esto es algo que actualmente solo se puede aprender desde el rol de aprendiz en el equipo de una empresa como Facebook. Como el equipo antifraude de Paypal, son cosas que no se pueden aprender en un entorno académico tradicional. Es racional esperar que esto se convierta en una industria de la misma manera que AWS convirtió su experiencia en una industria. Twitter sería la frontera: por debajo de su escala no puedes atacar estos problemas sin subcontratar. Y, por ejemplo, en Alemania ya ha surgido alguna empresa dedicada asesorar sobre el cumplimiento de la legislación del país.

A los responsables de producto se les mide por el crecimiento, y no por si han generado una enorme cantidad de riesgo al hacer crecer su producto.

Quizá debería mirarse a la industria financiera post crisis de 2008 y su gestión del riesgo y cómo se ha llevado esa responsabilidad hacia los responsables de los productos.

Es razonable que una empresa pequeña no tenga un responsable de «trust and safety», pero es necesario que la gente de producto y de ingeniería sean conscientes de los temas asociados. Estas cosas deben considerarse y tratarse desde el inicio, no mitigarse como se pueda (o no) a posteriori. Son temas mucho más difíciles de predecir y anticipar que los tradicionales de seguridad porque son muco más específicos del funcionamiento del producto, los usuarios y sus costumbres. Va a haber más trabajo en detección y respuesta que en prevención. Pero eso no significa que no se deba anticipar y prever la necesidad. No deberías enterarte de los problemas de tu producto o servicio por la prensa.


Uno de los grandes problemas de Twitter es que es muy difícil definir qué es una cuenta falsa, dado que es perfectamente razonable que una cuenta sea anónima. En su defensa debe decirse que son mucho más transparentes con sus acciones que Facebook y Google (siendo Google la menos transparente con diferencia). Si se habla del problema chino en particular, también hay que tener en cuenta que tanto Facebook como Twitter han abandonado la esperanza de tener una buena posición en el mercado chino, mientras que Google lo está intentando con ahínco. Facebook ha añadido más recursos humanos al problema de la moderación que el total de trabajadores de Twitter.

La posición de YouTube es extremadamente opaca y la menos razonada. El poder del algoritmo de recomendación de YouTube es el mayor de todos y, por tanto, también lo debería ser su responsabilidad.

La solución de todos estos problemas pasa por los usuarios, en cualquier caso. La centralización de los medios de información del siglo XX (y los sistemas anteriores) se ha acabado. Cada vez que ha habido un cambio en esa organización la sociedad se ha tomado un tiempo en interiorizar el nuevo status quo y ha pasado por un pánico moral, y es natural que a nosotros nos toque lo mismo. Eso no elimina la responsabilidad de las empresas pero al final les toca a los individuos. La ruptura del oligopolio de la información tiene muchísimos efectos beneficiosos, pero también los negativos y en consecuencia nos exige más responsabilidad. Los trabajos académicos sobre el campo apuntan a que las nuevas generaciones son algo menos vulnerables a fenómenos como las fake news y por tanto hay espacio para el optimismo y suponer que estamos en el proceso de interiorización del cambio.

En cualquier caso, empresas como Facebook y Twitter han pasado a tener poderes casi de estado, pero sin la «accountability» y la necesidad de transparencia. En Estados Unidos, dada la primera enmienda, deben ocuparse de los problemas de los límites del discurso, y eso plantea una serie de problemas de muy difícil solución. Facebook toma más decisiones de moderación de contenidos en una hora que todo el sistema judicial federal de Estados Unidos en un año.