Un par de episodios de podcast

Servidor es un intenso oyente de podcasts, y dos de los que más está disfrutando últimamente (ambos descubiertos durante la pandemia) son Command Line Heroes y el Internet History Podcast. Para los interesados en la culturilla de la informática e internet, muy recomendables.

Internet History Podcast es un «monstruo» de doscientos episodios (me faltan unos cincuenta para acabar la cole (dejaremos como ejercicio para el lector calcular una cota inferior para el ritmo al que voy)) que se publicaron desde 2014 a 2019, con entrevistas a personajes relevantes de la historia de internet y la web, sobre todo, aunque también se «cuelan» algunos otros temas que, aunque algo alejados del título del podcast, no dejan de tener su interés. Se trata de entrevistas de una profundidad considerable: un episodio típico dura algo más de una hora y el presentador, Brian McCullough, hace los deberes a conciencia antes de cada entrevista (de hecho, el proyecto culminó con la edición de un libro, How The Internet Happened, que me tengo que comprar (y leer) un día de estos. Los episodios memorables son numerosos. Se habla con algunos de los fundadores y primeros ingenieros de los primeros servicios en línea, de Mosaic, Netscape, Real Networks, o Internet Explorer, con los creadores de algunos de los primeros motores de búsqueda y servidores de anuncios, con testigos de las primeras iniciativas de medios que se lanzaron a la web, de gigantes como Time o AOL (y de la fusión de ambas), de los inicios del comercio electrónico, de la música en la red (con entrevistas con el «papá» del «emepetrés» y con el desarrollador del mítico WinAmp)… No os deberíais perder la historia de «el hombre que pudo ser Bill Gates» (el creador de CP/M), tampoco, y no pararía, pero lo que me ha llevado a esta entrada es la entrevista con Don Melton, que es el primer desarrollador que contrató Apple para poner en marcha Safari. Es como escuchar una entrevista con un secundario de Halt and Catch Fire (sobre la que escribí con Cristina Fort en el blog del trabajo) y, si os interesa lo más mínimo la historia de la web, vale mucho la pena:

(Otro episodio absolutamente Halt and Catch Fire es la entrevista con Rod Canion, de Compaq… la empresa que inspiró la primera temporada de la serie.)

Command Line Heroes es mucho más pequeño (arrancó en 2018 y está a punto de llegar a los cincuenta episodios). Se trata de un formato con mucha más producción, con episodios de media horita que repasan diferentes temas que, además van variando temporada a temporada. Comenzaron con las guerras de los sistemas operativos, después llegaron unos cuantos episodios que confieso que no me llamaron mucho, pero después recuperaron mi atención con una temporada dedicada a diferentes lenguajes de programación y ahora estoy en plena cuarta temporada, dedicada a la evolución de los ordenadores, desde los mainframes a las consolas y los móviles. Y me gustaría destacar el último episodio que he escuchado, dedicado a los miniordenadores (que, si no tenéis una cierta edad, seguramente no sean lo que os podría venir a la cabeza al escuchar la palabra) y que, inevitablemente, enlaza con el libro The Soul of a New Machine, sobre la creación del primer «mini» de treinta y dos bits de Data General, allá por 1981. Me temo que no he encontrado una versión incrustable, o sea que lo podréis escuchar aquí.


Ah, y no me podía ir sin mi cuña publicitaria ^_^.

La asimetría del valor de Facebook

Este tuit me ha hecho buscar un artículo de revista académica que vi referenciado hace un tiempo. En serio. Pero, de momento, volvamos al tuit. Facebook busca gente para hacer un experimento que implica desactivar su cuenta en Facebook y en Instagram durante unas semanas. Si os fijáis en las imágenes, Facebook está dispuesta a pagar al menos diez dólares a la semana por ello. ¿Os parece mucho? ¿Poco? Resulta ser que no es fácil convencer al usuario medio de Facebook de que lo abandone. Ni barato, si lo que pretendes es pagarle por ello. Y esto nos lleva el artículo, «How much is social media worth? Estimating the value of Facebook by paying users to stop using it», de Jay Corrigan et al. (2018). En el artículo Corrigan & Co plantean un experimento muy interesante: ¿cuánto te tengo que pagar para que no accedas a Facebook? La respuesta os dejará helados. O no. Pero es curiosa, como mínimo :-).

Corrigan & Co procedieron a una subasta para encontrar el precio medio que hay que pagar para conseguirlo. Los detalles metodológicos los encontraréis en el artículo, pero sobre unos 1200 participantes, el valor medio (y hay que decir que la desviación estándar es muy alta) de desactivar Facebook durante un año es de… más… de… mil dólares, o aproximadamente veinte dólares a la semana, en términos del experimento del tuit.

Por el otro lado… ¿cuánto vale cada usuario para Facebook? Si nos fiamos de estos datos, Facebook ingresa aproximadamente treinta dólares por usuario al año (y ese número está creciendo de una manera brutal). De nuevo, si aceptamos esos treinta dólares como media, la desviación tiene que ser enorme y, por lo tanto, hay que proceder con extremo cuidado. Pero aun así, si el usuario medio percibe que el valor que le da Facebook es de mil dólares al año, y aceptamos que el valor de ese usuario medio para Facebook es de treinta dólares anuales, estamos ante una relación salvajemente asimétrica. Y uno tiende a pensar que, en condiciones así, Facebook tendría que meter la pata mucho más todavía de lo que lo está haciendo para dejar de ser un enorme negocio.

Lo social como herramienta de retención para los Spotifys y Netflix del mundo

(Creo que jamás había puesto un nombre tan largo a un tuit post. Se aceptan recomendaciones de mejora.)

Cuando Benedict Evans escribe es buena idea leerle. Lo último viene a colación de la última quinout de Apple y habla de servicios y fosos (o de servicios como fosos, de hecho, y es que el concepto de que el ecosistema que está montando Apple es un foso que la protege de que los usuarios la abandonen se está poniendo muy de moda y es una perspectiva muy razonable (por cierto: los competidores de Apple no lo hacen porque no están en disposición de hacerlo)).

Ese apunte inicial que he destacado en Twitter hace un rato a mí me parece muy interesante (mientras no se demuestre lo contrario, queda poco por diferenciar en el mercado móvil), pero después Evans dice algo en lo que me voy a permitir el lujo de llevarle un poco la contraria (qué atrevido y imprudente es el desconocimiento). Analiza el lanzamiento (finalmente) de la plataforma de vídeo bajo demanda de Cupertino desde el punto de vista del foso y decide que poco puede funcionar como tal:

But music is a streamed subscription now, so you lose very little by switching between Apple Music and Spotify. Unlike music, the subscription TV platforms, Apple TV Plus included, have exclusive content, but if you cancel them you’re not losing anything you ever felt you owned, any more than you were if you cancelled HBO or AMC, and you can always turn it on again. There’s no lock-in. These platforms have to keep you month by month with each new show – unlike iTunes, they’re not locking you in with what you already committed to.

Y yo diría que eso es cierto ahora, pero como apuntaba hace unos días (qué ilusión me hace enlazar una entrada de obm de hace menos de un mes (sí, podría ser que esta entrada sea básicamente efecto de esa ilusión)) yo diría que la curación de contenidos y lo social pueden convertirse en una fantástica herramienta de retención para los grandes del mercado: si tengo en Spotify multitud de discos y canciones anotados, por mí o, aún mejor, por un experto en la materia, mucho más barata va a tener que ser la plataforma Y para que servidor deje atrás todo ese patrimonio…

Cierto es que en música es mucho, muchísimo más fácil que esto funcione porque apenas hay diferenciación en los catálogos de los servicios (¡y que dure la cosa así!), pero qué no daría yo por un Netflix (o un Filmin, o…) con un catálogo de ciencia ficción, fantasía y terror en que las películas viniesen acompañadas de la introducción o los comentarios de un Jordi Sánchez Navarro, por ejemplo… Si los catálogos de sindicación de series y películas que todavía no pertenecen a Disney se volcaran (de una puñetera vez) a las plataformas bajo demanda y decidieran que no se ofrecen en exclusiva a una de las plataformas dada la fragmentación y lo relativamente poco que les iban a pagar las plataformas por la exclusividad, los mejores anotadores iban a ser un factor diferencial de órdago, opino. Y si la plataforma Z me dejase sincronizar la reproducción del episodio de turno para verlo a la vez que mis colegas y poderlo comentar en una segunda pantalla con mis colegas, pues…

En fin. Cosas mías.

«Trust and safety» en Vergecast

En los últimos meses el Vergecast se ha convertido en uno de mis podcasts de referencia en cuanto a tecnología. Dedican un episodio a la semana repasar la actualidad tecnológica y es extremadamente recomendable. Cada semana hay un segundo episodio en el que Nilay Patel (un tipo con mucho criterio) entrevista a una figura relevante de la industria. Con la cercanía de las elecciones estadounidenses del año que viene la intersección de política y tecnología, un tema absolutamente inevitable en la actualidad. La semana pasada entrevistaba a Alex Stamos, actualmente director del Observatorio de Internet de la Universidad de Stanford y ex «chief security officer» en Facebook y, antes de eso, en Yahoo. La entrevista es muy interesante y gira en gran parte alrededor del concepto de «trust and safety» del título de la entrada, que es el nombre del equipo de Facebook que tiene la muy poco envidiable misión de prevenir, detectar y atajar los abusos que se dan en su plataforma. El tema es de una importancia vital. Tanto como para tomar apuntes. Y aquí abajo van mis apuntes. Absolutamente parciales y sesgados, pero ahí los dejo (y que quede claro que mis apuntes y mis opiniones no tienen por qué tener mucho en común, aun a pesar del sesgo). Espero que sirvan de acicate como para dedicarle el tiempo a bajarse el podcast y escucharlo.

Sobre las «meme wars» en las elecciones: la responsabilidad es de las plataformas tecnológicas y estas han tomado medidas. En 2016 este trabajo no correspondía a nadie y ahora es una amenaza que se tiene en cuenta en Google, Twitter y Facebook.

Todo lo que los rusos hicieron en Estados Unidos en 2016 lo habían hecho durante mucho tiempo en Ucrania.


El movimiento de Facebook hacia una plataforma más privada plantea preguntas fascinantes sobre lo que queremos de las redes sociales. Si se mueven hacia mensajería de grupos con menos amplificación, se reduce la amplificación «uno-a-muchísimos» de cuentas sociales con muchísimos seguidores de 2016. Pero la comunicación en chats privados se vuelve invisible.

Cuando das privacidad a todo el mundo también se la das a «los malos». A la larga, eso es bueno para las redes sociales porque reduce su responsabilidad, pero el daño puede continuar sucediendo.

En las elecciones en India tanto el partido en el poder como la oposición tenías sus granjas de «trolls». En lugar de lanzar un mensaje a un millón de personas, decenas de miles de personas reenviaron sus mensajes a sus amigos. La misma amplificación con algo más de trabajo y mucho más difícil de estudiar por el cifrado. El movimiento hacia el cifrado es en general positivo pero tiene sus efectos secundarios.

Opciones para parar este tipo de mensajes sin romper el cifrado de extremo a extremo sin puertas traseras. Por ejemplo, procesar el mensaje en el dispositivo antes de ser cifrado y enviado y al menos alertar al remitente, de manera respetuosa con la privacidad y la libertad del usuario. O reconocer imágenes en el dispositivo del receptor del mensaje y alertar del potencial contenido de la imagen antes de mostrarla. Las compañías adquirirían un papel más paternalista, con los problemas que esto puede suponer.

Hay una componente cínica en el cifrar las comunicaciones. A las plataformas se les pide cifrado y que no sepan qué se dicen sus usuarios y, a la vez, que protejan a esos mismos usuarios. Ambas cosas son incompatibles. Facebook, históricamente, ha intentado situarse en una posición intermedia y no ha funcionado: se les puede criticar desde los dos lados y ahora Zuck ha decidido lanzarse hacia uno de los extremos con la privacidad y el cifrado, reduciendo la moderación de contenido, que le era un problema, porque una vez que comienzas a moderar se abre un problema sin fin.

Como sociedad no hemos decidido el punto hasta el que queremos mantener segura a la gente en línea y cuánto queremos controlas sus acciones para tal efecto y quién se encarga de ello.

Se oyen voces pro control del discurso con un volumen que nunca habíamos oído en la era «pre tech». Lo que ha hecho el sector tecnológico es permitir conversaciones sobre ese control del discurso que no habrían sido aceptables en los doscientos años anteriores.

¿Las reglas se van a elaborar de manera democrática o las elaborarán actores privados? En el entorno estadounidense el gobierno no puede encargarse gracias a / por culpa de la primera enmienda. Todos los demás gobiernos angloparlantes están considerando regulaciones del discurso en línea ridículas. Australia se ha adelantado pero en el Reino Unido se están gestando cosas. Facebook no puede considerar principalmente el caso estadounidense por la distribución de sus usuarios. Y globalmente lo que pasa es más legislación pro privacidad como la RGPD.


El entrevistador pregunta si tendría sentido ofrecer el equipo de «trust and safety» como servicio «à la AWS» para start ups para poner estos servicios al alcance de compañías que no tienen la escala de Facebook («trust and safety» sería el equipo encargado de mitigar los abusos en línea en una plataforma, y es bastante diferente de lo que se considera tradicionalmente «seguridad»). Esto permitiría que surgiesen nuevas redes sociales sin tener que desarrollar un equipo encargado de estos problemas, algo potencialmente imposible. Según Stamos esto es algo que actualmente solo se puede aprender desde el rol de aprendiz en el equipo de una empresa como Facebook. Como el equipo antifraude de Paypal, son cosas que no se pueden aprender en un entorno académico tradicional. Es racional esperar que esto se convierta en una industria de la misma manera que AWS convirtió su experiencia en una industria. Twitter sería la frontera: por debajo de su escala no puedes atacar estos problemas sin subcontratar. Y, por ejemplo, en Alemania ya ha surgido alguna empresa dedicada asesorar sobre el cumplimiento de la legislación del país.

A los responsables de producto se les mide por el crecimiento, y no por si han generado una enorme cantidad de riesgo al hacer crecer su producto.

Quizá debería mirarse a la industria financiera post crisis de 2008 y su gestión del riesgo y cómo se ha llevado esa responsabilidad hacia los responsables de los productos.

Es razonable que una empresa pequeña no tenga un responsable de «trust and safety», pero es necesario que la gente de producto y de ingeniería sean conscientes de los temas asociados. Estas cosas deben considerarse y tratarse desde el inicio, no mitigarse como se pueda (o no) a posteriori. Son temas mucho más difíciles de predecir y anticipar que los tradicionales de seguridad porque son muco más específicos del funcionamiento del producto, los usuarios y sus costumbres. Va a haber más trabajo en detección y respuesta que en prevención. Pero eso no significa que no se deba anticipar y prever la necesidad. No deberías enterarte de los problemas de tu producto o servicio por la prensa.


Uno de los grandes problemas de Twitter es que es muy difícil definir qué es una cuenta falsa, dado que es perfectamente razonable que una cuenta sea anónima. En su defensa debe decirse que son mucho más transparentes con sus acciones que Facebook y Google (siendo Google la menos transparente con diferencia). Si se habla del problema chino en particular, también hay que tener en cuenta que tanto Facebook como Twitter han abandonado la esperanza de tener una buena posición en el mercado chino, mientras que Google lo está intentando con ahínco. Facebook ha añadido más recursos humanos al problema de la moderación que el total de trabajadores de Twitter.

La posición de YouTube es extremadamente opaca y la menos razonada. El poder del algoritmo de recomendación de YouTube es el mayor de todos y, por tanto, también lo debería ser su responsabilidad.

La solución de todos estos problemas pasa por los usuarios, en cualquier caso. La centralización de los medios de información del siglo XX (y los sistemas anteriores) se ha acabado. Cada vez que ha habido un cambio en esa organización la sociedad se ha tomado un tiempo en interiorizar el nuevo status quo y ha pasado por un pánico moral, y es natural que a nosotros nos toque lo mismo. Eso no elimina la responsabilidad de las empresas pero al final les toca a los individuos. La ruptura del oligopolio de la información tiene muchísimos efectos beneficiosos, pero también los negativos y en consecuencia nos exige más responsabilidad. Los trabajos académicos sobre el campo apuntan a que las nuevas generaciones son algo menos vulnerables a fenómenos como las fake news y por tanto hay espacio para el optimismo y suponer que estamos en el proceso de interiorización del cambio.

En cualquier caso, empresas como Facebook y Twitter han pasado a tener poderes casi de estado, pero sin la «accountability» y la necesidad de transparencia. En Estados Unidos, dada la primera enmienda, deben ocuparse de los problemas de los límites del discurso, y eso plantea una serie de problemas de muy difícil solución. Facebook toma más decisiones de moderación de contenidos en una hora que todo el sistema judicial federal de Estados Unidos en un año.

¿Por qué se publican artículos científicos?

En una excelente entrevista que le hacen en Computerphile a Tony DeRose, jefe de investigación en Pixar y doctor en informática por la Universidad de California en Berkeley, le plantean esa pregunta. Me encantaría pensar que todos los académicos darían, honestamente, la misma respuesta…

…Hemos tomado la filosofía de publicar todo aquello de lo que estamos orgullosos y es publicable en el campo. Hay unas cuantas razones para ello. Una es que exponernos a la disciplina de la publicación y la revisión entre pares mejora nuestro trabajo porque hay otras personas que lo leen y lo critican cuidadosamente