Chat Control, enésimo intento

Recojo aquí mis notas de leer Chat Control Must Be Stopped, Act Now! Por poco que leas inglés, mejor acceder a la fuente que quedarte con mi resumen. Y si quieres tomarte la molestia de contactar con tus representantes de la UE, aquí tienes una herramienta.

Qué es Chat Control

Una propuesta de legislación europea que pone en riesgo la privacidad de todos en nombre de una presunta protección de los derechos de la infancia (algo que nos preocupa a todos, naturalmente) que va a resultar, en el mejor de los casos, muy poco efectiva. La cosa es especialmente importante ahora mismo, porque este viernes (doce de septiembre) se «pasa de fase» en el proceso, para llegar a un voto que tendrá lugar el catorce de octubre (y, al menos de momento, España se muestra a favor de aprobar Chat Control).

Chat Control haría que todos los proveedores de mensajería (WhatsApp, Telegram y compañía), correo electrónico, redes sociales, hostings y un largo etcétera monitorizasen todas nuestras comunicaciones y ficheros a la caza de material en que se abusa de la infancia. Si se pone en marcha Chat Control, acabaremos con la protección de nuestras comunicaciones y daremos un paso adelante en la vigilancia masiva por parte de los estados, poniendo en riesgo las garantías de la democracia y pasando de regulaciones como la famosa RGPD.

Por qué no funcionaría Chat Control para proteger los derechos de la infancia

Como siempre, mejor ir a las fuentes que leer mi resumen: aquí tenéis el Joint statement on the future of the CSA Regulation de EDRI, una organización para la protección de los derechos humanos, con un montón de otras organizaciones dedicadas a los derechos digitales, los derechos humanos y, sobre todo, organizaciones dedicadas a la protección y los derechos de la infancia, que defienden que hay muchas otras iniciativas que serían mucho más efectivas, como invertir en trabajo social, dar más y mejor ayuda a las víctimas, dar líneas de contacto y soporte, trabajar en prevención y educación, dar más recursos a las fuerzas del orden y trabajar en la seguridad de las TIC. También se señala que hay informes que dicen que la tasa de error de las herramientas de monitorizado que se pondrían en marcha es mucho más alta de lo que uno pensaría, y que vamos a bloquear los servicios existentes con toneladas de falsos positivos, entre otros problemas, y a generar enormes bases de datos de información extremadamente sensible que van a ser una diana jugosísima para muchísimo cibercriminal a la caza de personas a las que extorsionar (sin hablar de los malos usos que puedan hacer de esas bases de datos personas que están dentro de las organizaciones que administren esas bases de datos, claro).

(Insisto de nuevo: mucho mejor leer las fuentes que mi resumen.)

Qué puedo hacer

Ruido, básicamente. Afortunadamente, no será la primera vez que el ruido para propuestas. Como decía antes, esta herramienta ayuda a redactar un mensaje que enviar a tus representantes políticos en la UE. Y dar difusión al tema también ayuda. Seguramente poco, pero ayuda. Después, tener estas cosas en cuenta a la hora de votar, pues igual también es una idea…

En fin. Crucemos los dedos.

Cualquier tiempo pasado fue mejor. O no

Ojo: pataleta.

All of these small decisions used to be made one at a time for humans: A newspaper editor decided which stories to put on the front page, and a magazine photo editor selected photographs to publish; a film programmer picked out which films to play in a theater's season; an independent radio station DJ assembled playlists of songs that fit their own mood and the particular vibe of a day or a place. While the decisions were of course subject to various...
...social and economic forces, the person in charge of them ensured a basic level of quality, or even safety, that can be missing from the Internet's accelerated feeds.

Filtwerworld: How algorithms flattened culture

A ver, José Luis (José Luis se llama Kyle Chayka, en este caso). Ya me he comprado tu libro. Y lo he comenzado a leer, con ganas, porque te compro, de salida, la tesis. No me puedes salir ahora con argumentos que no se aguantan de ninguna de las maneras, cuando apenas hemos comenzado el dichoso libro. No puedes. Vale. Sí puedes. Ya lo he visto. Pero no deberías, José Luis. Y no te hace falta, además, hostia. Y hieres la sensibilidad de los posibles lectores con neurona encendida. Que haberlos, haylos (supongo: mi neurona está, en los mejores momentos, en modo ahorro de energía).

¿Tenemos que irnos siempre al dichoso «cualquier tiempo pasado fue mejor» para criticar cosas que han surgido [relativamente] recientemente [y merecen ser criticadas, claro que sí, con furia, incluso]? Que sí, que los algoritmos de recomendación, o se hacen con extremo esmero y, además, se alimentan con mimo, o el aplanamiento cultural es su resultado más natural. Weapons of math destruction, como decía Cathy O’Neil. Que estamos de acuerdo. Pero no, eso no quiere decir qur todo lo que había antes fuera maravilloso. Había cosas maravillosas, y debemos defenderlas, mimarlas, estudiarlas y reproducirlas (casi mejor evolucionarlas, sí es posible). Pero también había mucha mierda, José Luis. Que ese diario que te parecía (y probablemente era) un horror de extrema [inserte la lectora aquí el lado político que no le guste]… lo editaba alguien que, mal que nos pese reconocerlo, era una persona. Que esa radiofórmula infame que aplanaba culturas antes de que nacieras, José Luis, la programaba una personita. Que, por acelerar un poco y no hacer eterno este párrafo, Joseph Goebbels no es el nombre de un algoritmo, y ni siquiera fue el primero en jugar a ese deleznable juego. Todo eso ya estaba ahí. Y «algoritmo de recomendación caca, selección humana siempre bien» (nótese el énfasis en «siempre») es un razonamiento de patio de colegio. Y, José Luis, tu «nunca mal», al fin y al cabo, es un «siempre bien», no me vengas con.

Abuf. Fin de la pataleta. Por el momento.