Por qué Google no nos está volviendo estúpidos… ni inteligentes

Le robo el título (y la inmensa mayoría del contenido de esta entrada) a Chad Wellmon, un estudioso de la Ilustración de la Universidad de Virginia, que publicaba hace unos meses Why Google Isn’t Making Us Stupid… or Smart en The Hedgehog Review, uno de los journals de su universidad, dándole un poco de necesaria caña a tecnodistópicos como Nicholas Carr y su popular (y ya casi un clásico, que es de 2008) artículo Is Google Making Us Stupid? que, si bien contiene puntos interesantes, no aguanta el análisis de un académico serio ni el primer asalto del combate.

Siempre me han fascinado las falacias de tecnoutópicos y tecnodistópicos, los unos siempre a punto de olvidar, por ejemplo, la historia y los puntos negativos de lo que tenemos actualmente, y los otros dispuestos a olvidar la historia (sí, también) y los puntos positivos… Como el artículo, para ser de una revista académica, es bastante interesante, os recomiendo encarecidamente su lectura en su versión original (también tenéis el texto subrayado por mí, si queréis, cortesía de Diigo). Una vez acabado de leer, y viendo que el subrayado tenía una cierta coherencia, me he animado a traducirlo para los que seáis más bien alérgicos a la lengua de Shakespeare. Son tres mil y pico palabras (aseguro que el original es bastante más largo), pero su lectura no debería ser demasiado pesada y, os lo aseguro, contiene unas cuantas joyitas de valor :-).

[…]

Para entender cómo nuestras vidas están ya profundamente formadas por la tecnología, debemos tener en cuenta la información no sólo en términos abstractos de terabytes y zettabytes, sino también en términos más culturales. ¿Cómo las tecnologías a las que han dado forma los seres humanos para interactuar con el mundo acaban, a su vez, dándonos forma a nosotros? ¿Qué nos hacen estas tecnologías, que son de nuestra propia creación y elementos irreductibles de nuestro propio ser? La tarea analítica yace en identificar y adoptar formas de acción humana particulares de nuestra era digital, sin reducir la tecnología a una mera extensión mecánica de lo humano, a una mera herramienta. En pocas palabras, preguntar si Google nos hace estúpidos, como algunos críticos culturales han hecho recientemente, es la pregunta equivocada. Asume distinciones entre los seres humanos y la tecnología que ya no son, si es que alguna vez lo fueron, sostenibles.

Dos narrativas

[…] Por un lado, hay quienes afirman que los esfuerzos de digitalización de Google, el poder de las redes sociales de Facebook y la era del big data en general están finalmente haciendo realidad el viejo sueño de unificar todo el conocimiento. […] Estas afirmaciones utópicas se relacionan con visiones similares sobre un futuro transhumanista en el que la tecnología superará los que fueron los límites históricos de la humanidad: físicos, intelectuales y psicológicos. El sueño es de una era posthumana.

Por otro lado, observadores menos optimistas interpretan la llegada de la digitalización y del big data como augurios de una edad de la sobrecarga informacional. […] A muchos les preocupa que los hipervínculos de la web que nos lanzan de una página a otra, los blogs que reducen largos artículos a una más consumible línea o dos y los tweets que condensan pensamientos a 140 caracteres han creado una cultura de la distracción. Las mismas tecnologías que nos ayudan a gestionar toda esta información socavan nuestra capacidad para leer con ninguna profundidad o cuidado. […] Como dice Nicholas Carr, «lo que la Red parece estar haciendo es minar mi capacidad de concentración y contemplación. Mi mente espera ahora absorber información tal y como la Red la distribuye: en un rapidísimo flujo de partículas en movimiento». […] Para Carr y muchos otros como él, el verdadero conocimiento es profundo y su profundidad es proporcional a la intensidad de nuestra atención. En nuestro mundo digital que alienta la cantidad sobre la calidad, Google nos está volviendo estúpidos.

[…] Ambas narrativas, sin embargo, cometen dos errores básicos.

En primer lugar, imaginan que nuestra era de la información no tiene precedentes, pero las explosiones de la información y las declaraciones utópicas y apocalípticas que las acompañan son una vieja preocupación. La aparición de toda nueva tecnología de la información trae consigo nuevos métodos y modos de almacenar y transmitir cada vez más información, y estas tecnologías afectan profundamente la forma en que los humanos interactúamos con el mundo. […]

En segundo lugar, ambas narrativas cometen un error conceptual fundamental al aislar los efectos causales de la tecnología. Las tecnologías, sea el libro impreso, sea Google, no nos hacen ilimitadamente libres o ni incansablemente estúpidos. […] Las afirmaciones simples respecto a los efectos de la tecnología ocultan supuestos básicos, para bien o para mal, sobre la tecnología como causa independiente que eclipsa el resto de causas. Asumen que los efectos de la tecnología puede ser fácilmente aislados y abstraídos de su contexto social e histórico.

[…]

En este sentido, la tecnología no es ni un diluvio abstracto de datos ni un simple apéndice mecánico subordinado a las intenciones humanas, sino la manera misma en que el ser humano participa en el mundo. Celebrar la Web, o cualquier otra tecnología, como inherentemente edificante o embrutecedora es ignorar su dimensión más humana. […] Del mismo modo, sugerir que Google nos está volviendo estúpidos es ignorar el hecho histórico de que con el tiempo las tecnologías han tenido un efecto en nuestra forma de pensar, pero de maneras mucho más complejos y en absoluto reducible a afirmaciones simples.

[…] Las tecnologías digitales hacen la Web accesible haciéndola parecer mucho más pequeña y manejable de lo que imaginamos que es. La Web no existe. En este sentido, la historia de la sobrecarga informacional es instructiva menos por lo que nos enseña acerca de la cantidad de información que por lo qie nos enseña acerca de cómo las tecnologías que diseñamos para interactuar con el mundo nos dan forma a nosotros a su vez. […]

[…] Carr y otros críticos de las formas con que interactúamos con nuestras tecnologías digitales tienen buenas razones para estar preocupados, pero, como espero demostrar, por razones bastante diferentes de las que podrían pensar. La cuestión central no se refiere a modos particulares de acomodar las nuevas tecnologías, sino a nuestra propia concepción de la relación entre el ser humano y la tecnología.

Demasiados libros

Como la historiadora Ann Blair ha demostrado recientemente, nuestras preocupaciones contemporáneas sobre la sobrecarga informacional resuenan con las reclamaciones históricas sobre «demasiados libros.» […] Eclesiastés 12:12, «De hacer libros no hay fin» […] Séneca, «la abundancia de libros es una distracción» […] Leibniz, la «horrible masa de libros sigue creciendo». […]

Las quejas sobre exceso de libros experimentaron una mayor urgencia en el transcurso del siglo XVIII, cuando explotó el mercado del libro, especialmente en Inglaterra, Francia y Alemania. Mientras que hoy en día nos imaginamos a nosotros mismos engullidos por una avalancha de datos digitales, a finales del siglo XVIII los lectores alemanes, por ejemplo, se imaginaban infestados por una plaga de libros [Bücherseuche]. […]

[…] En 1702 el jurista y filósofo Christian Thomasius expuso algunas de las preocupaciones normativas que ganarían tracción a lo largo del siglo. Describió la escritura y el negocio de los libros como una especie de enfermedad epidémica que ha afligido Europa durante mucho tiempo, y es más apropiada para llenar los almacenes de los libreros que las bibliotecas de los eruditos. Cualquiera podría entender que esto es resultado del deseo de escribir libros que aflige a las personas actualmente. Hasta ahora nadie sino los sabios, o al menos los que deben ser considerados así, se entrometía con este tema, pero hoy en día no hay nada más común, se extiende a través de todas las profesiones, de modo que ahora casi hasta los zapateros remendones, y las mujeres que apenas pueden leer, tienen la ambición de ser impresos, y puede que los veamos llevando sus libros de puerta en puerta, como un vendedor ambulante hace con sus cajas de peines, pasadores y cordones.

El surgimiento de un mercado de libros impresos rebajó el listón de entrada para los autores y poco a poco comenzó a hacer los filtros y las limitaciones tradicionales de la producción de libros cada vez más inadecuados. La percepción de un exceso de libros fue motivada por un supuesto más básico acerca de quién debería o no escribirlos.

[…] En su escrito de 1975, Llamada a mi Nación: Sobre la Plaga de Libros Alemanes, el librero y editor alemán Johann Georg Heinzmann lamentaba que ningún país ha impreso tanto como los alemanes. Para Heinzmann, los lectores alemanes de finales del siglo XVIII sufrían bajo un «reinado de los libros» en el que eran peones involuntarios de ideas que no eran las suyas. Dando a esta ansiedad cultural un marco filosófico, y ganando a Carr por más de dos siglos, Immanuel Kant se quejaba de que tal superabundancia de libros animaba a la gente a «leer mucho» y «superficialmente». La lectura extensiva no sólo fomentaba malos hábitos de lectura, sino que también causaba una condición patológica más general, la Belesenheit [la calidad de ser muy leído], ya que exponía a los lectores a un gran «desperdicio» [Verderb] de los libros. Cultivaba el pensamiento acrítico.

[…]

De manera no tan diferente a los lectores contemporáneos con sus herramientas digitales, los lectores alemanes del siglo XVIII tenían una gama de tecnologías y métodos a su disposición para hacer frente a la proliferación de libros —diccionarios, bibliografías, revistas, tomar notas, enciclopedias, anotaciones en los márgenes, «commonplace books«, notas al pie. Estas tecnologías hicieron las cantidades crecientes de impresión más manejables ayudando a los lectores a seleccionar, resumir y organizar un almacén cada vez mayor de información. La enorme gama de tecnologías demuestra que los seres humanos suelen tratar la sobrecarga informacional a través de soluciones creativas y a veces sorprendentes que desdibujan la línea entre los humanos y la tecnología.

[…] Una tecnología de búsqueda relacionada, la concordancia bíblica —las primeras se remontan a 1247— indexaba cada palabra de la Biblia y facilitaba su uso más amplio en los sermones y, después de sus traducciones a la lengua vernácula, a un público aún más amplio. Del mismo modo, los índices se hicieron cada vez más populares y grandes argumentos de venta de textos impresos en el siglo XVI.

[…] Para principios del siglo XVIII había incluso una ciencia dedicada a la organización y la contabilidad de todas estas tecnologías y libros: la historia literaria. […]

[…]

Mientras muchos lectores abrumados daban la bienvenida a estas técnicas y tecnologías, algunos, sobre todo a finales del siglo XVIII, comenzaron a quejarse de que conducían a una forma de conocimiento derivativa, de segunda mano. […] J.G. Herder, se mofaba de los franceses por sus intentos de hacer frente a tal proliferación de libros con enciclopedias: Ahora se crean enciclopedias, hasta Diderot y D’Alembert se han rebajado a ello. Y ese libro que es un triunfo para los franceses es para nosotros la primera señal de su decadencia. No tienen nada que escribir y, por tanto, crean abregés, vocabularios, esprits, enciclopedias— las obras originales desaparecen.

Haciéndose eco de las preocupaciones contemporáneas acerca de cómo nuestra dependencia de Google y la Wikipedia podrían llevar a formas superficiales de conocimiento, Herder se preocupaba de que estas tecnologías reducían el conocimiento a unidades discretas de información. […]

A mediados del siglo XVIII la palabra «erudito» —utilizada anteriormente para describir de forma positiva a una persona educada— se convirtió en sinónimo de diletante, alguien que simplemente ojeaba, agregaba y acumulaba montones de información, pero que nunca aprendía mucho de ello. En suma, enciclopedias y similares habían reducido el proyecto de la Ilustración, afirmaban los críticos, a mera gestión de la información. Estaba en juego la definición de «verdadero» conocimiento. […]

Como sugiere esta breve historia de tecnologías de la información de la Ilustración, afirmar que una tecnología en particular tiene un efecto único, ya sea positivo o negativo, es reducir a la vez histórica y conceptualmente el complejo nexo causal dentro del que los seres humanos y las tecnologías interactúan y se dan forma mutuamente. Loss reciente y generalmente bien recibidos argumentos de Carr preguntándose si Google nos vuelve estúpidos, por ejemplo, se basan en un paralelo histórico que se dibuja con la era de la impresión. Afirma que la invención de la imprenta causó una forma de lectura más intensa y, por extrapolación, la imprenta causó una forma más reflexiva de pensamiento —las palabras sobre la página centraban al lector.

Históricamente hablando, esto es tecnodeterminismo hiperbólico. Carr supone que las tecnologías simplemente «determinan nuestra situación», independientemente de los seres humanos, mientras que esas mismas tecnologías, métodos y medios de comunicación emergen de situaciones históricas particulares con su propio complejo de factores. […]

Argumentos como los de Carr […] también tienden a ignorar el hecho de que, históricamente, la imprenta facilitó una serie de hábitos y estilos de lectura. Francis Bacon, propenso a condenar los libros impresos, hablaba de al menos tres formas de leer libros: «Algunos libros son para ser probados, otros para ser engullidos, y algunos pocos para ser masticados y digeridos.» Como bastantes académicos han demostrado últimamente, diferentes formas de lectura coexistieron en la era de la imprenta. […] Incluso la forma de lectura intensiva considerada hoy una práctica moribunda, la lectura de novelas, fue ridiculizada a menudo en el siglo XVIII como un debilitamiento de la memoria que conduce a la «distracción habitual», como afirmó Kant. Se consideraba especialmente peligroso para las mujeres que, según Kant, ya eran propensas a formas inferiores de pensamiento. […]

[…] Tales reducciones omiten el hecho de que Google y la tecnología de la imprenta no operan independientemente de los humanos que los diseñan, interactúan con ellos y constantemente los modifican, al igual que los seres humanos no existen independientemente de las tecnologías. Al centrarse en la capacidad de la tecnología para determinar el ser humano (insistiendo en que Google nos vuelve estúpidos, que la impresión nos convierte en lectores más profundos), corremos el riesgo de perder de vista cuán profundamente nuestra propia agencia está envuelta de tecnología. […] Enfatizar un vínculo causal simple y directo entre la tecnología y una forma particular de pensar es aislar la tecnología de las formas de vida con que está ligada.

[…]

La nota al pie: de Kant a Google

Hoy en día las herramientas más comunes para organizar el conocimiento son algoritmos y estructuras de datos. A menudo imaginamos que no tienen precedente. Pero los motores de búsqueda de Google se aprovechan de una tecnología bastante antigua: la cosa más académica y aparentemente inútil, la nota al pie. […] Resulta que [los] enlaces digitales tienen un antecedente revelador histórico y conceptual en la nota al pie de la Ilustración.

El moderno hipervínculo y la nota al pie de la Ilustración comparten una lógica que se basa en suposiciones acerca de la naturaleza basada en texto del conocimiento. Ambos asumen que los documentos, los textos impresos del siglo XVIII o los digitalizados del siglo XXI, son la base del conocimiento. […]

[…] La lógica citacional de la Ilustración es fundamentalmente autorreferencial y recursiva —es decir, los criterios de juicio vienen siempre dados por el propio sistema de textos y no algo externo, como autoridad divina o eclesiástica. El valor y la autoridad de un texto se establecen por el hecho de que otros textos apuntan a él. Cuantas más notas al pie apuntan a un texto en particular, este adquiere mayor autoridad por el hecho de que otros textos le apuntan.

[…]

[…] La autoridad, relevancia y valor de un texto se sostenían —tanto conceptual como visualmente— por una serie de notas que apuntaban a otros textos. Como nuestros hipervínculos contemporáneos, estas citas interrumpían el flujo de la lectura —a menudo marcadas con un gran asterisco o un «consulte la página 516.» Tal vez más importante, sin embargo, es que todas estas notas al pie y citas no apuntaban a un único texto inspirado divinamente o autorizado, sino a una red mucho más amplia de textos. Las notas al pie y citas eran las fibras que conectaban y coordinaban una gran cantidad de textos impresos. […]

La Lógica Citacional de Google

Los fundadores de Google, Larry Page y Sergey Brin, modelaron su revolucionario motor de búsqueda en la lógica citacional de la nota al pie y por lo tanto traspusieron muchos de sus supuestos sobre el conocimiento y la tecnología a un medio digital. Google «organiza la información del mundo,» como dice su lema, modelando la estructura de hipervínculos inherente a la web basada en documentos. […]

Page y Brin partieron de la idea de que la web «se basaba libremente en la premisa de la citación y anotación —al fin y al cabo, ¿qué es un enlace, sino una citación, y qué es el texto que describe ese vínculo, sino una nota?» El propio Page veía esta lógica citacional como la clave para modelar la estructura propia de la Web. La cita académica moderna es simplemente la práctica de señalar el trabajo de los demás, de forma muy similar a la nota al pie. […]

[…]

El Yo Algorítmico

[…] Al resaltar las analogías entre Google y la cultura de la imprenta de la Ilustración he tratado de resistirme al alarmismo y la visión utópica que tienden a enmarcar las discusiones actuales sobre la cultura digital, en primer lugar por poner en un marco histórico estas preocupaciones y, en segundo, demostrando que la tecnología debe ser entendida en conexión profundida y corpórea con lo humano. Considerada en estos términos, la cuestión de si Google nos está volviendo estúpidos o inteligentes podría dar paso a preguntas más complejas y productivas. […]

[…] Cada vez que hacemos clic, escribimos un término de búsqueda o actualizamos nuestro estado en Facebook, la red cambia un poco. «Puede que Google no nos esté volviendo estúpidos, pero nosotros lo estamos volviendo (y a Facebook) más inteligente», porque toda la información con que alimentamos a ambos cada día. […]

Pensando más en términos de una ecología o medio ambiente digital y menos en una dicotomía de ser humano versus tecnología, podemos entender la Web, como James Hendler, Tim Berners-Lee y colegas han dicho recientemente, no sólo como una máquina aislada «para ser diseñada para mejorar su rendimiento «, sino como un «fenómeno con el que nos relacionamos». Escriben «en la escala micro, la Web es una infraestructura de lenguajes y protocolos artificiales; es una obra de ingeniería. Sin embargo, es la interacción de los seres humanos que crean, enlazan y consumen información la que genera el comportamiento de la Web como propiedades emergentes en la escala macro».

[…]

Por otro lado, los seres humanos individuales son agentes centrales en las operaciones de Google porque crean hipervínculos. Columnistas como Paul Krugman y Peggy Noonan toman decisiones sobre qué enlazar o no en sus columnas. Del mismo modo, a medida que hacemos clic de un enlace a otro (o elegimos no hacer clic), también decidimos y juzgamos sobre el valor de un enlace, y por tanto del documento que lo hospeda.

Como los algoritmos aumentan la escala de las operaciones procesando millones de enlaces, sin embargo, ocultan este elemento más humano de la Web. Todas esas decisiones de enlazar desde una página particular a la siguiente, de hacer clic de un enlace a otro implica no sólo un algoritmo alimentado por enlaces, sino por cientos de millones de seres humanos que interactúan con Google cada minuto. Estas son las interacciones humanas que tienen un impacto en la Web en el nivel macro, y quedan ocultas por las promesas de la caja de búsqueda de Google.

Sólo en este nivel macro de análisis podemos entender el hecho de que los algoritmos de búsqueda de Google no funcionan en una absoluta pureza mecánica, libre de interferencia externa. Sólo si entendemos la web y nuestras tecnologías de búsqueda y filtrado como elementos de una ecología digital podemos dar sentido a las propiedades emergentes de las complejas interacciones entre humanos y tecnología: engañar al sistema de Google a través de estrategias de optimización de búsqueda, las decisiones de empleados de Google (no algoritmos) de censurar ciertas páginas web y dar privilegios a otras (¿nunca han notado el predominio relativamente reciente de las páginas de Wikipedia en las búsquedas de Google?). La Web no es sólo una tecnología, sino una ecología de interacción hombre-tecnología. Es una cultura dinámica con sus propias normas y prácticas.

Las nuevas tecnologías, ya sea la enciclopedia impresa o la Wikipedia, no son máquinas abstractas que nos vuelven estúpidos o inteligentes por sí mismas. Como hemos visto con las tecnologías de lectura de la Ilustración, el conocimiento surge de complejos procesos de selección, distinción y juicio: de las interacciones irreducibles de los seres humanos y la tecnología. Debemos resistirnos a la falsa promesa que la caja vacía debajo del logotipo de Google ha venido a representar, sea esta acceso inmediato al conocimiento puro o una vida de distracción e información superficial. Se trata de un ardid. El conocimiento es difícil de ganar, diseñado, creado y organizado por los seres humanos y sus tecnologías. Los algoritmos de búsqueda de Google son sólo la más reciente de una larga historia de tecnologías que los seres humanos han desarrollado para organizar, evaluar y participar en su mundo.

Una de libros electrónicos y precios…

Interrumpo mi silencio bloguero (anda uno corto de ideas estos días) para recuperar algunas cosas que han salido de un tuit de ayer por la noche… Este tuit:

Los libros motivo del tuit salen directamente de la lista de recomendaciones que me hace Amazon.es en función de lo que ya he comprado (me da que soy un bicho raro: yo compro libros digitales):

El catálogo de Amazon me recomienda el libro "Las ventajas del deseo: Cómo sacar partido de la irracionalidad en nuestras relaciones personales y laborales", de Dan Ariely, por €13,29 en castellano y por €4,48 en inglés
Adivinad cuál de los dos va a caer…

Al cabo de un rato me retuiteaba @antonello y sus once mil followers (y lo goloso del tema, quiero pensar) han hecho que el tuit ande por encima de los 500 600 retuits (mis tuits normalmente acumulan entre uno y cero retuits…) y un buen puñado de menciones y respuestas. Algunos de ellos son lo suficientemente interesantes como para dejarlos aquí y que no se los lleve Twitter el viento…

La editorial española (Ariel) está usando el mismo canal de distribución que la anglosajona… Es probable que el régimen fiscal que afecte a Ariel sea muy diferente que el de la editorial anglosajona, pero estamos hablando de un ‘premium’ del 196%… (y sí, hay que tener otros criterios en cuenta, desde luego, como que la tirada en castellano será mucho más limitada que la inglesa o que el libro es algo más novedad en castellano que en inglés, pero, aún así… ¿un 196% más caro?).

No es el caso de Dan Ariely, cuya nómina en Duke, por un lado, no debe ser nada despreciable y que, por otro, después del exitazo de su anterior libro, se debe haber llevado un adelanto por este de seis cifras… Aún así, sí, es interesante pensar cómo se reparten el pastel editoriales y autores (y el resto de implicados en el proceso), pero es un análisis para el que carecemos de datos (y, además, me parece lícito que Ariel ‘subvencione’ con un ‘best seller’ casi garantizado un buen montón de libros con los que seguramente pierden dinero, que una editorial seria no es exactamente el mejor de los negocios). Aún así… ¿un 196% más caro?

Otra de las que duelen: el curro del traductor (en este caso, traductora: Elisenda Julibert González, y hay que apuntar un tanto a favor de la editorial Ariel por hacerla constar en los títulos) tampoco es lo que encarece el libro hasta estos extremos (aún suponiendo y deseando que la compensación de Julibert González haya sido la adecuada).

Primero, reconocer que iniciativas como las de B de Books nos hacen ver que la industria editorial española se da cuenta de que hay que experimentar y buscar dónde están los precios que hacen que el libro sea un negocio. Apunta Marta en otro tuit que, aún así, también se descargan sin pagar copias de su libro. Desafortunadamente, sí, siempre va a haber quien se descargue el libro sin pagar un duro por él, independientemente del precio. No se trata de acabar del todo con ello (más que nada, porque es imposible), sino de llevar a la inmensa mayoría a un modelo en que autores y editores se lleven su justa compensación. Y B de Books, insisto, es un paso enorme en esa dirección que merece el aplauso de todos.

No hay mal que por bien no venga :-).

Para nada simple. En absoluto. Si no, nos habríamos metido todos en el negocio editorial. Y no es el caso. Nacho también apunta que hay que pagar al traductor. Pero, insisto, el coste de traducción no es el núcleo del problema y la adquisición de los derechos de la obra, en primer lugar, tiene en cuenta la tirada esperada del libro (si no, Ariel se habría hundido hace ya mucho tiempo) y, en segundo, es muy inferior a lo que habrá cobrado en este caso el autor por los derechos de explotación en lengua inglesa.

En fin. Esta entrada no tendrá el enorme eco del tuit, pero aún así me parecía interesante dejarla aquí guardada con algunos de los apuntes surgidos que me han parecido más interesantes. Antes de cerrar querría provechar para dejar claro que Ariel, en particular, es una de esas editoriales que vienen trabajando desde hace mucho en difundir conocimiento y que su tarea me parece encomiable: que no comparta su política de precios no quiere decir que no me parezca una buenísima editorial.

Steve Albini, sobre la «piratería»

Steve Albini es uno de los personajes míticos e indescriptibles del mundo de la música. Entre sus créditos se encuentra haber trabajado como ingeniero en discos de los Pixies, las Breeders, Boss Hog, Urge Overkill, Jon Spencer Blues Explosion, Fugazi, Nirvana, Mogwai, Godspeed You! Black Emperor o Jarvis Cocker (entre muchos otros). Es todo un espectáculo verlo con su banda actual, Shellac, y hace unos días hizo un «ask me anything» (una especie de «entrevista crowdsourced») en Reddit en la que, entre otras muchas cosas, le preguntaban, cómo no, por la piratería. Su opinión me interesa especialmente porque se trata de un tipo que se gana la vida principalmente haciendo discos:

Rechazo el término «piratería». Es gente que escucha música y la comparte con otras personas, y es bueno para los músicos, ya que amplía la audiencia para la música. A la industria discográfica no le gusta el intercambio de música , porque lo ven como una pérdida de ventas, pero eso es una tontería. Las ventas han disminuido porque los discos físicos ya no son el medio de distribución para la música pop que atrae a las masas, y esperar que las personas traten archivos informáticos como objetos físicos a inventariar y comprar de forma individual es absurdo.

La tendencia a la baja en las ventas ha afectado el negocio de la grabación, obviamente, pero no para nosotros particularmente, porque nunca buscamos nuestra clientela en la industria discográfica convencional. Las bandas siempre van a querer grabarse y siempre habrá un mercado de discos bien hechos entre los amantes serios de la música. Señalaré el éxito de la etiqueta de Chicago Numero Group como ejemplo.

Nunca más volverá a haber una industria de la grabación para mercados masivos, y a mí me está bien, porque esa industria no trabaja para el beneficio de los músicos o el público, las únicas clases de gente que me importan.

La distribución gratuita de la música ha creado un enorme crecimiento en la audiencia para la música en vivo, que es donde la mayoría de las bandas pasan la mayor parte de su tiempo y energía, de todos modos. Los precios de las entradas han aumentado hasta el punto de que incluso bandas itinerantes a nivel de club pueden llegar a ingresos de clase media, si no pierden la cabeza, y toda banda tiene ahora acceso a una audiencia en todo el mundo sin coste de adquisición. Y eso es fantástico.

Además, los lugares mal atendidos por el negocio de la música de la vieja escuela (las ciudades pequeñas o aisladas, el tercer mundo y los países de habla no inglesa) ahora tienen acceso a todo en vez de a una pequeña muestra controlada por la retrógrada industria local. Cuando mi banda recorrió Europa del Este hace un par de años llenamos a pesar de no haber vendido, literalmente, ningún disco en la mayoría de esos países. Gracias internets.

Por cierto, que hace unos días Isma me pasaba otra referencia muy interesante y con un punto de vista muchísimo más negativo (pero bien informado), sobre el tema, Meet The New Boss, Worse Than The Old Boss?, que también debe leerse con atención como parte del debate sobre el tema (David Lowery, su autor, tiene un currículo nada despreciable, después de haber fundado Camper Van Beethoven y Cracker y haberse interesado por la industria desde bastantes puntos).

Lockdown. La guerra que se aproxima contra la computación de propósito general (Cory Doctorow)

Nota. No es la primera vez que tiramos de Cory Doctorow por aquí. Hace seis años y pico tuve el gusto de entrevistarlo para Mosaic. Hace tres y medio le citaba extensamente. Y hace poco más de un año hacía básicamente lo mismo que hoy: tomarme la licencia de traducir uno de sus artículos.

Y hoy hago lo mismo, efectivamente. Ayer Doctorow publicaba en Boing Boing Lockdown, un resumen de la conferencia que dio hace unas semanas en el Chaos Computer Congress. En el día y pico que ha pasado desde entonces he visto a bastante gente cuyo criterio respeto enlazarlo y recomendar su lectura. Y he hecho lo propio. Y como en el caso de ‘El verdadero coste de gratis’, he creído que valía la pena llevarlo al castellano, para facilitar la lectura del texto para aquellos a los que el inglés les provoque una cierta dificultad. Como de costumbre en estos casos, siempre es mucho más recomendable leer el original que mi traducción (en este caso, además, faltan unos cuantos enlaces y algunos <em> aquí y allá, que han sido cuatro mil quinientas palabras de traducción y ahora mismo estoy en modo ‘publicar ahora, editar más adelante’), pero si os sentís más cómodos en castellano que en inglés… de nada :-)

Sólo me falta el ‘disclaimer’ de que las opiniones del autor son eso: del autor, y no mías. Puedo estar bastante de acuerdo con él, naturalmente, pero los que me conocen saben que mi religión me prohibe estar completamente de acuerdo con nadie :-P.


Este artículo se basa en un discurso ante el Chaos Computer Congress en Berlín, en diciembre de 2011.

Los ordenadores de propósito general son asombrosos. Son tan asombrosos que nuestra sociedad aún no acaba de entenderlos: para qué sirven, cómo adaptarse a ellos y cómo lidiar con ellos. Esto nos lleva a algo sobre lo que probablemente estés harto de leer: el copyright.

Pero ten paciencia, porque hoy se trata de algo más importante. La forma que han tomado las guerras del copyright nos da pistas sobre un próximo combate sobre el destino del mismísimo ordenador de propósito general.

En el principio había software empaquetado y sneakernet1. Teníamos disquetes en bolsas, en cajas de cartón, colgando de ganchos en las tiendas, y se vendían como dulces o revistas. Eran muy susceptibles de ser duplicados y se duplicaron, deprisa y mucho, para gran disgusto de la gente que hacía y vendía software.

Y así apareció la gestión de derechos digitales (DRM, del inglés Digital Rights Management) en su forma más primitiva: llamémoslo DRM 0.96. Se introdujeron artefactos cuya existencia comprobaba el software —defectos deliberados, «mochilas», sectores ocultos— y protocolos desafío-respuesta que requerían de la posesión de manuales grandes e incómodos de manejar que eran difíciles de copiar.

Esto fracasó por dos razones. En primer lugar, resultaron impopulares comercialmente, ya que reducían la utilidad del software para los compradores legítimos. Los compradores honestos odiaban la no funcionalidad de sus copias de seguridad, odiaban la pérdida de los escasos puertos del ordenador a manos de las «mochilas» de autenticación y les irritaban las molestias de tener que cargar con grandes manuales si querían ejecutar su software. En segundo lugar, no detuvo a los piratas, para los que resultaba trivial parchear el software y eludir la autenticación. Las personas que usaban el software sin pagar por ello quedaron indemnes.

Por lo general, la forma en que esto ocurría es que un programador, en posesión de tecnología y experiencia de sofisticación equivalente a la del propio proveedor de software, hacía ingeniería inversa del software y distribuía las versiones ‘craqueadas’. Si bien esto suena muy especializado, en realidad no lo es. Averiguar qué está haciendo el programa cabezota y saltarse los defectos de los soportes eran competencias básicas para los informáticos, especialmente en la época de los frágiles disquetes y los primeros días del desarrollo de software, tosco pero eficaz. Con la proliferación de las redes las estrategias anticopia cada vez se volvían más frágiles: con servicios en línea, grupos de noticias USENET y listas de correo, la experiencia de personas que averiguaban cómo derrotar estos sistemas de autenticación podía empaquetarse en software en forma de pequeños ‘cracks’. Cuando la capacidad de las redes creció se hizo posible distribuir las imágenes de disco craqueadas o los propios ejecutables.

Esto nos llevó al DRM 1.0. Para 1996 había quedado claro para todos los que se movían por los pasillos del poder que algo importante iba a suceder. Estaba a punto de llegar la economía de la información, fuera eso lo que narices fuese. Supusieron que significaba una economía en que la información se compraría y vendería. Las tecnologías de la información mejoran la eficiencia, así que ¡imagina los mercados que tendría una economía de la información! Se podría comprar un libro para un día, vender el derecho a ver la película por un euro y después alquilar el botón de pausa a un céntimo por segundo. Se podría vender películas a un precio en un país, a otro precio en otro y así sucesivamente. Las fantasías de aquellos días eran como una aburrida adaptación de ciencia ficción del Libro de los Números del Antiguo Testamento, una tediosa enumeración de todas las permutaciones de cosas que la gente hace con la información… y lo que se podría cobrar por cada una.

Desafortunadamente para ellos, nada de esto sería posible a menos que pudiesen controlar cómo las personas utilizan sus ordenadores y los archivos que les transferimos. Al fin y al cabo, era fácil hablar de vender a alguien una canción para descargar a su reproductor de MP3, pero no tanto hablar del derecho a transferir música desde el reproductor a otro dispositivo. Pero ¿cómo demonios ibas a impedirlo una vez que les has dado el archivo? Para hacerlo había que encontrar la manera de impedir que los ordenadores ejecutasen ciertos programas e inspeccionar determinados archivos y procesos. Por ejemplo, podría cifrarse el archivo y después obligar al usuario a ejecutar un programa que sólo abriese el archivo bajo determinadas circunstancias.

Pero, como se dice en Internet, ahora tienes dos problemas.

Ahora también tienes que impedir que el usuario guarde el archivo una vez ha sido decodificado —algo que debe suceder en algún momento— y debes impedir que el usuario determine dónde almacena sus claves el programa de desbloqueo, algo que permitiría descifrar permanentemente el soporte y deshacerse por completo del estúpido reproductor.

Ahora tiene tres problemas: hay que impedir que los usuarios que encuentren la manera de descifrar la compartan con otros usuarios. Ahora tienes cuatro problemas, porque hay que impedir que los usuarios que encuentren la manera de extraer los secretos de los programas de desbloqueo expliquen a otros usuarios cómo hacerlo también. ¡Y ahora tienes cinco problemas, porque hay que evitar que los usuarios que encuentren la manera de extraer estos secretos se los cuenten a otros usuarios!

Eso es un montón de problemas. Pero para 1996 teníamos una solución. Teníamos el Tratado del Copyright de la OMPI, aprobado por la Organización Mundial de la Propiedad Intelectual de Naciones Unidas. Esto creó leyes que ilegalizaban extraer secretos de los programas de desbloqueo, y creó leyes que ilegalizaban extraer contenidos (como canciones o películas) de los programas de desbloqueo mientras funcionaban. Creó leyes que ilegalizaron explicar a la gente cómo extraer los secretos de los programas de desbloqueo, y creó leyes que ilegalizaron albergar obras con derechos de autor o esos secretos. Asimismo, se estableció un proceso útil y optimizado para permitirte quitar cosas de Internet sin tener que pelear con abogados, jueces y toda esa basura.

Y con eso, la copia ilegal se acabó para siempre, la economía de la información se transformó en una hermosa flor que trajo prosperidad al mundo entero y, como se dice en los portaaviones, «Misión Cumplida».

No es así como termina la historia, por supuesto, porque básicamente cualquiera capaz de entender los ordenadores y las redes entendió que estas leyes crearían más problemas de los que podrían resolver. Al fin y al cabo, estas leyes ilegalizaban mirar dentro del ordenador mientras este ejecuta ciertos programas. Hicieron ilegal contar a la gente lo que encontrases al mirar dentro del ordenador y facilitaron el censurar material en Internet sin tener que probar que había sucedido algo malo.

En breve, hicieron exigencias poco realistas a la realidad y la realidad no cumplió. La copia no hizo otra cosa que volverse más fácil después de la aprobación de estas leyes: la copia no va a hacer otra cosa que volverse más fácil. Ahora mismo es tan difícil como va a ser nunca. Tus nietos te mirarán y te dirán «Cuéntamelo otra vez, abuelito, lo difícil que era copiar cosas en el año 2012, cuando no había discos del tamaño de una uña capaces de almacenar todas las canciones existentes, todas las películas de la historia, cada palabra que se ha dicho alguna vez, cada fotografía jamás tomada, todo, y transferirlo en un período tan corto de tiempo que ni te das cuenta que lo estabas haciendo.»

La realidad se impone. Al igual que la señora de la canción de cuna que se traga una araña para atrapar una mosca, y tiene que tragarse un pájaro para capturar a la araña, y un gato para atrapar al ave, lo mismo pasa con estas normas, que tienen un atractivo general amplio, pero son desastrosas en la implementación. Cada norma engendra otra nueva, con el fin de apuntalar sus propios fracasos.

Es tentador dejar la historia aquí y concluir que el problema es que los legisladores son o bien tontos o bien malvados, o tal vez malvadamente tontos. No es un lugar muy satisfactorio al que ir, porque es fundamentalmente un consejo de la desesperación: sugiere que nuestros problemas no pueden resolverse mientras la estupidez y la maldad estén presentes en los pasillos del poder, que viene a querer decir que nunca serán resueltos. Pero tengo otra teoría sobre lo que ha ocurrido.

No es que los legisladores no comprendan las tecnologías de la información, ya que debería ser posible ser una persona no experta y aún así hacer una buena ley. Los diputados y senadores y demás son elegidos para representar a demarcaciones y personas, no disciplinas y temas. No tenemos un diputado de la bioquímica, y no tenemos un senador del estado global de la planificación urbana. Y sin embargo, los expertos en política, no en disciplinas técnicas, todavía se las arreglan para crear buenas leyes que tienen sentido. Esto es porque la gobernanza se basa en una heurística: reglas generales sobre cómo equilibrar la participación de expertos de los diferentes aspectos de un problema.

Por desgracia, las tecnologías de la información confunden esta heurística —se la cargan completamente— en un aspecto importante.

Las pruebas importantes para comprobar si un reglamento es adecuado para un propósito son, primero, si va a funcionar, y después, mientras hace su trabajo, si tendrá efectos sobre cualquier otra cosa. Si quisiera que el Congreso, el Senado o la UE regulasen sobre la rueda, es poco probable que lo lograse. Si me presentase, señalase que los ladrones de bancos siempre escapan en vehículos con ruedas, y preguntase «¿No podemos hacer algo al respecto?», la respuesta sería «No». Esto se debe a que no sabemos cómo hacer que una rueda siga siendo útil para las aplicaciones legítimas de las ruedas, pero inútil para las malas. Todos somos capaces de ver que los beneficios generales de las ruedas son tan profundos que sería una tontería arriesgarse a cambiar en un intento estúpido por impedir los atracos. Aunque hubiese una epidemia de atracos —incluso si la sociedad estuviera a punto de hundirse por los atracos— nadie pensaría que las ruedas son el lugar adecuado para comenzar a resolver el problema.

Sin embargo, si me presentase ante el mismo organismo para decir que tengo pruebas absolutas de que los teléfonos de manos libres hacen más peligrosos los coches, y pidiese una ley para prohibir los teléfonos de manos libres en los coches, el regulador podría decir: «Sí, lo entiendo, podemos hacerlo.»

Podemos estar en desacuerdo sobre si es o no una buena idea, o si mis pruebas tienen sentido, pero muy pocos de nosotros dirían que si sacamos los teléfonos de manos libres de los coches, estos dejan de ser coches.

Entendemos que los coches siguen siendo coches, incluso si les quitamos algunas características. Los coches tienen un propósito específico, al menos en comparación con las ruedas, y todo lo que consigue añadir un teléfono manos libres es sumar una característica más a una tecnología ya especializada. Hay una norma heurística para esto: las tecnologías de propósito específico son complejas, y se puede eliminar algunas de sus características sin cometer un acto de violencia fundamental que desfigure su utilidad subyacente.

Esta regla sirve bien al regulador, en general, pero el ordenador de propósito general y la red de propósito general, el PC e Internet, la dejan sin efecto. Si piensas en un programa informático como una característica, una computadora en que se ejecuta una hoja de cálculo tiene característica de hoja de cálculo, y una que ejecuta World of Warcraft tiene una característica de juego de rol en línea masivamente multijugador. La heurística te llevaría a pensar que una computadora incapaz de ejecutar hojas de cálculo o juegos no representaría más ataque a la informática que la prohibición de los móviles en los coches para los coches.

Y, si se piensa en los protocolos y sitios web como características de la red, decir «arreglar Internet para que no funcione BitTorrent», o «arreglar Internet para que el dominio thepiratebay.org no resuelva» se parece mucho a «cambiar el sonido de la señal de ocupado», o «eliminar la pizzería de la esquina de la red telefónica,» y no parece un ataque a los principios fundamentales de la interconexión de redes.

Esa regla funciona para coches, casas y para cualquier otra área importante de la legislación tecnológica. No darse cuenta de que falla para Internet no te convierte en malvado, y no te hace un ignorante absoluto. Simplemente te hace parte de esa inmensa mayoría del mundo para quien las ideas como ‘Turing completo’ o el principio end-to-end no tienen sentido.

Así, nuestros reguladores se lanzan, aprueban alegremente estas leyes y estas pasan a formar parte de la realidad de nuestro mundo tecnológico. Aparecen, de pronto, números que no se nos permite escribir en Internet, programas que no se nos permite publicar, y todo lo que hace falta para hacer desaparecer material legítimo de Internet es la mera acusación de violación de la propiedad intelectual. No logra el objetivo de la legislación, ya que no impide que la gente viole los derechos de autor, pero tiene una especie de similitud superficial con hacer valer los derechos de autor, satisface el silogismo de seguridad: «hay que hacer algo, estoy haciendo algo, algo se ha hecho». Como resultado, se puede culpar de cualquier fracaso que aparezca a la idea de que la regulación no va lo suficientemente lejos, en vez de la idea de que era defectuosa desde el principio.

Este tipo de semejanza superficial y divergencia subyacente ocurre en otros contextos de la ingeniería. Tengo un amigo, que había sido alto ejecutivo de una gran compañía de productos envasados, que me contó lo que ocurrió cuando el departamento de marketing explicó a los ingenieros que habían tenido una gran idea para un detergente: ¡de ahora en adelante iban a hacer un detergente que rejuveneciese la ropa con cada lavado!

Después de que los ingenieros hubiesen intentado, sin éxito, transmitir el concepto de entropía al departamento de marketing, llegaron a otra solución: desarrollarían un detergente que usase enzimas para atacar los cabos sueltos de las fibras, los que hay en las fibras rotas que hacen que tu ropa parezca vieja. Así que cada vez que lavases la ropa con el detergente, parecería más nueva. Desafortunadamente, eso sería porque el detergente se comería la ropa. Usarlo haría, literalmente, que la ropa se disolviese en la lavadora.

Esto es, no hay ni que decirlo, lo contrario de rejuvenecer la ropa. En su lugar, la envejecerías artificialmente cada vez que la lavases y, como usuario, cuanto más usases la «solución», más drásticas tendrían que ser las medidas para mantener la ropa nueva. Eventualmente, tendrías que comprar ropa nueva porque la vieja se desintegraría.

Hoy contamos con departamentos de marketing que dicen cosas como «no necesitamos computadoras, necesitamos dispositivos. Hazme un equipo que no ejecute todos los programas, sólo un determinado programa que realice esta tarea específica, como el streaming de audio, o enrutar paquetes, o ejecutar juegos de Xbox, y asegúrate de que no ejecute programas que no he autorizado que podrían socavar nuestras ganancias.»

En la superficie, parece una idea razonable: un programa que realiza una tarea específica. Después de todo, podemos poner un motor eléctrico a una licuadora, y podemos instalar un motor en el lavaplatos, y no nos preocupamos de si es posible ejecutar un programa de lavado en una licuadora. Pero eso no es lo que hacemos al convertir un ordenador en un dispositivo. No creamos un ordenador que sólo ejecute la aplicación «dispositivo», cogemos un equipo que puede ejecutar todos los programas y, a continuación, utilizamos una combinación de rootkits, spyware y firmas de código para impedir que el usuario sepa qué procesos se están ejecutando, instale su propio software y finalice los procesos que no desee. En otras palabras, un dispositivo no es un ordenador sin determinadas funcionalidades: es una computadora completamente funcional con spyware de fábrica.

No sabemos cómo construir un ordenador de propósito general capaz de ejecutar cualquier programa excepto cierto programa que no nos gusta, está prohibido por ley, o que nos hace perder dinero. La aproximación más cercana que tenemos es un ordenador con spyware: un equipo en el que terceras personas establecen políticas sin conocimiento del usuario, o por encima de las objeciones del propietario. La gestión de derechos digitales siempre converge a malware.

En un incidente famoso —un regalo para los que compartimos esta hipótesis— Sony cargó instaladores encubiertos de rootkits en 6 millones de CDs de audio, que ejecutaban programas en secreto que monitorizaban los intentos de leer los archivos de sonido de los CDs y los impedían. También ocultó la existencia del rootkit, obligando al sistema operativo del ordenador a mentir sobre los procesos que se estaban ejecutando y los archivos presentes en el disco. Pero ese no es el único ejemplo. La 3DS de Nintendo actualiza su firmware de forma oportunista, y realiza un control de integridad para asegurarse de que no se ha alterado el firmware antiguo de ninguna manera. Si detecta signos de manipulación, se convierte a sí misma en un ladrillo.

Los activistas de derechos humanos han dado la alarma por U-EFI, el nuevo gestor de arranque para PC, que limita al ordenador para que sólo ejecute sistemas operativos «firmados», haciendo notar que es probable que los gobiernos represivos retengan las firmas de los sistemas operativos a menos que estos permitan operaciones de vigilancia encubierta.

En el lado de la red, los intentos de construir una red que no pueda utilizarse para la infracción de derechos de autor siempre convergen con las medidas de vigilancia que conocemos de los gobiernos represivos. Considérese SOPA, la Stop Piracy Online Act (Ley para Detener la Piratería en Línea) de EE.UU., que prohíbe herramientas inocuas tales como DNSSec, una suite de seguridad que autentica información de nombres de dominio, porque podría ser utilizada para burlar las medidas de bloqueo de DNS. Bloquea Tor, una herramienta de anonimato en línea patrocinada por el Laboratorio de Investigación Naval de EE.UU. y utilizada por disidentes bajo regímenes opresivos, porque puede utilizarse para eludir las medidas de bloqueo IP.

De hecho, la Motion Picture Association of America, una de las defensoras de SOPA, hizo circular un memorando citando investigaciones alegando que SOPA podría funcionar, ya que utiliza las mismas medidas que se utilizan en Siria, China y Uzbekistán. ¡Argumentaba que debido a que estas medidas son eficaces en esos países, también funcionarán en los Estados Unidos!

Puede parecer que SOPA es el final de una larga lucha por los derechos de autor e Internet, y puede parecer que si derrotamos a SOPA, estaremos en el camino correcto para asegurar la libertad de los PCs y las redes. Pero, como decía al principio de esta charla, esto no va de derechos de autor.

Las guerras de los derechos de autor son sólo la versión beta de una larga guerra que hace tiempo que se ve venir contra la computación. La industria del entretenimiento ha sido sólo la primera en tomar las armas, y tendemos a pensar en ellos como especialmente exitosos. Después de todo, aquí está SOPA, temblando sobre el filo de la aprobación, lista para romper Internet en un nivel fundamental, todo en nombre de la preservación de la música ‘top 40’, los reality shows y las películas de Ashton Kutcher.

Pero la realidad es que la legislación de derechos de autor llega hasta donde llega precisamente porque los políticos no se la toman en serio. Esta es la razón por la que, por un lado, en Canadá legislatura tras legislatura se ha presentado un proyecto de ley de derechos de autor horrible tras otro pero, por otro lado, legislatura tras legislatura no ha llegado a votar la ley. Es por eso que a la SOPA, un proyecto de ley compuesto de pura estupidez y compuesto molécula a molécula de una especie de «Estupidina 250» que normalmente sólo se encuentra en el corazón de estrellas recién nacidas, se le aplazaron sus urgentes sesiones a mitad del parón navideño: para que los legisladores pudiesen enzarzarse en un debate nacional sobre un tema importante, el seguro de desempleo.

Es por eso que a la Organización Mundial de la Propiedad Intelectual se la engaña una y otra vez para la promulgación de propuestas de derechos de autor enloquecidas e ignorantes: porque cuando las naciones del mundo envían a sus misiones de la ONU a Ginebra, envían a los expertos en agua, no a expertos en derechos de autor. Envían expertos en salud, no expertos en derechos de autor. Envían expertos en agricultura, no expertos en derechos de autor porque, sencillamente, el copyright no es tan importante.

El parlamento de Canadá no votó las leyes de propiedad intelectual porque, de todas las cosas que Canadá tiene que hacer, arreglar los derechos de autor está muy por debajo de las emergencias de salud en las reservas de las Primeras Naciones, la explotación del petróleo de Alberta, interceder en resentimientos sectarios entre francófonos y anglófonos, resolver las crisis de recursos en las pesquerías de la nación y mil otras cuestiones. La trivialidad de los derechos de autor nos dice que cuando otros sectores de la economía comiencen a mostrar su preocupación por Internet y los PCs, los derechos de autor se revelarán como una escaramuza menor, no una guerra.

¿Por qué podrían llegar otros sectores a albergar rencores contra los ordenadores como los que ya tiene el negocio del entretenimiento? El mundo en que vivimos está hecho de ordenadores. Ya no tenemos coches, tenemos ordenadores en que nos subimos. Ya no tenemos aviones, tenemos cajas Solaris volantes conectadas a carretadas de sistemas de control industriales. Una impresora 3D no es un dispositivo, es un periférico, y sólo funciona conectada a un ordenador. Una radio ya no es un cristal: se trata de un ordenador de propósito general, ejecutando software. Las quejas por las copias no autorizadas de las Confesiones de una Guidette de Snooki son triviales en comparación con las llamadas a la acción que nuestra realidad bordada de ordenadores va a crear en breve.

Considérese la radio. La legislación de la radio hasta la actualidad se basa en la idea de que las propiedades de una radio se fijan en el momento de su fabricación y no pueden ser alteradas con facilidad. No puedes simplemente accionar un interruptor en el monitor del bebé e interferir con otras señales. Sin embargo, las poderosos radios definidas por software (SDR, Software Defined Radios) pueden cambiar de monitor de bebé a despachador de emergencias o servicio de controlador de tráfico aéreo, sólo cargando y ejecutando diferentes programas informáticos. Esta es la razón por la que la Comisión Federal de Comunicaciones (FCC) consideró lo que pasaría al desplegar SDRs en el campo, y pidió opiniones sobre si se debe exigir que todas los radios definidas por software deban formar parte de máquinas de «computación confiable». En última instancia, la pregunta es si todos los PC deberían estar bloqueados de manera que sus programas puedan estar estrictamente regulados por las autoridades centrales.

Incluso eso no es más que una sombra de lo que está por venir. Después de todo, este ha sido el año en que se produjo el debut de archivos de origen de forma para la conversión de rifles AR-15 a completamente automáticos. Este ha sido el año de la financiación colectiva de hardware de código abierto para la secuenciación genética. Y mientras que la impresión 3D dará lugar a un montón de quejas triviales, habrá jueces del sur de Estados Unidos y mulás de Irán que perderán la cabeza por si hay quien imprime juguetes sexuales en sus jurisdicciones. La trayectoria de la impresión 3D planteará problemas reales, desde laboratorios de metanfetaminas de estado sólido a cuchillos de cerámica.

No hace falta un escritor de ciencia ficción para entender por qué los reguladores podrían tener nervios por el firmware modificable por el usuario de los coches autoconducidos, o la limitación de la interoperabilidad de los controladores de aviación, o el tipo de cosas que se podría hacer con ensambladores y secuenciadores bológicos. Imaginad lo que sucederá el día en que Monsanto decida que es realmente importante asegurarse de que las computadoras no puedan ejecutar programas que hagan que periféricos especializados produzcan organismos a medida que literalmente se coman tu almuerzo.

Independientemente de si piensas que estos son problemas reales o temores histéricos, son, sin embargo, la moneda política de lobbies y grupos de interés mucho más influyentes que Hollywood y el gran contenido. Cada uno de ellos llegará al mismo lugar: «¿No nos puede usted hacer un ordenador de propósito general que ejecute todos los programas, con excepción de los que nos asustan e irritan? ¿No nos puede hacer una Internet que transmita cualquier mensaje sobre cualquier protocolo entre dos puntos cualesquiera, a menos que nos moleste?»

Habrá programas que se ejecuten en ordenadores de uso general, y periféricos, que incluso me asustarán a mí. Así que puedo creer que los que abogan por la limitación de los ordenadores de propósito general se encontrarán con una audiencia receptiva. Sin embargo, tal y como vimos con las guerras del copyright, la prohibición de ciertas instrucciones, protocolos o mensajes será totalmente ineficaz como medio de prevención y remedio. Como hemos visto en las guerras del copyright, todos los intentos de control del PC covergerán a rootkits, y todos los intentos de control de Internet convergerán con vigilancia y censura. Esto es importante porque nos hemos pasado la última década enviando a nuestros mejores jugadores a luchar contra lo que pensábamos que era el último malo al final del juego, pero resulta que sólo era un guardián de fin de nivel. La apuesta sólo va seguir subiendo.

Como miembro de la generación del walkman, he hecho las paces con el hecho de que me hará falta un audífono mucho antes de morir. Pero no va a ser un audífono: será un ordenador. Así que cuando me meto en un coche, un ordenador en el que me introduzco, con el audífono, un ordenador que introduzco dentro de mi cuerpo, quiero saber que esas tecnologías no se han diseñado para ocultarme secretos, ni para impedir que finalice procesos en ejecución en contra de mis intereses.

El año pasado, el Distrito Escolar de Lower Merion, en un suburbio de clase media acomodada, de Filadelfia, se encontró en medio de una gran cantidad de problemas. Lo cogieron distribuyendo, a sus alumnos, portátiles con rootkits que permitían la vigilancia encubierta a distancia a través de la cámara del ordenador y la conexión a la red. Fotografiaron a estudiantes miles de veces, en casa y en la escuela, despiertos y dormidos, vestidos y desnudos. Mientras tanto, la última generación de tecnología de intercepción legal encubierta puede operar cámaras, micrófonos, GPS y transceptores en PCs, tabletas y dispositivos móviles.

No hemos perdido todavía, pero tenemos que ganar la guerra de los derechos de autor en primer lugar, si queremos mantener Internet y el PC libres y abiertos. La libertad del futuro nos obliga a tener la capacidad de controlar nuestros dispositivos y establecer políticas significativas para ellos, de examinar y poner fin a los procesos de software que se ejecutan en ellos, y de mantenerlos como empleados honestos a nuestra voluntad, no como traidores y espías empleados por delincuentes, matones y fanáticos del control.


1 Con ‘sneakernet’ nos referimos la transferencia de ficheros electrónicos de un ordenador a otro físicamente, a través de soportes físicos. Del inglés ‘sneakers’, calzado deportivo.

Una de podcasts

Cuando no tengas contenido para el blog, tira de listas de recomendaciones. He dicho. Dicho lo cual, si alguien me hubiese anunciado hace un par de años que me iba a aficionar al formato podcast, no le habría hecho caso ni durante un segundo. Sirva de demostración de mis capacidades como futurista. Y sirva también de homenaje al iPod, el cacharrito que dio nombre a un medio…

Y es que en el podcasting, efectivamente, es el dispositivo el que posibilita la existencia de un medio (seguramente no sea medio la palabra más adecuada) nuevo. En mi caso, eso sí, no fue el iPod el que trajo la revolución (y mira que tuve un Touch de primera generación), sino el Dell Streak que compré hace un año aproximadamente. En cualquier caso, el podcasting funciona gracias a los dispositivos categoría iPod: portátiles y con la capacidad de encargarse solos (o con la ayuda invisible del ordenador) de descargarse los programas y gestionar la cola.

Un medio (tercera vez que uso la dichosa palabra que no me convence, prometo que la última) que chupa de la radio (lo que habría dado yo por podcasts a mediados de los 90, cuando los sábados y los domingos se paraban al principio de la tarde porque en Radio 3 de 4 a 6 era la hora de De cuatro a tres con Paco Pérez Bryan, por ejemplo, y veréis que la mayoría de ‘mis’ podcasts son básicamente radio reempaquetada) pero que en ocasiones va más allá. Nada mejor que poder escuchar tus programas favoritos cuando te da la gana, donde te da la gana, sin preocuparte de si hay cobertura ni de la distancia te separa de la emisora y… con la posibilidad de saltarte los trozos que no te gustan.

En cualquier caso, vamos a por las recomendaciones, que era a lo que íbamos…

Los de Radio 3

La emisora favorita de esta casa, desde hace un par de décadas…

  • Siglo 21 (RSS). Podríamos hablar durante horas de Siglo 21. Por un lado, de su muy poco común capacidad, en el panorama FM actual, de pinchar música nueva con un cierto criterio. Por otro, de parecer a veces el órgano oficial de un par de festivales (radicados en la costa mediterránea) e ignorar todos los demás. Además, el ejemplo perfecto de que el botón de avance rápido le hacía falta a la radio. Sobre todo cuando un bloque de una hora contiene siempre del orden de diez minutos que no te interesan en absoluto. En FM, esos diez minutos son una [pequeña] tortura. En podcast sólo representan la ínfima molestia de saltártelos.
  • Rock Reaktor (RSS). Viva la asincronía. El programa de rock duro (energético como pocos) va en directo a las dos de la madrugada de los lunes. Y no son horas. En podcast, suele sonar una tarde de día laborable, en el metro, volviendo a casa de la oficina :-).
  • Cuando los elefantes sueñan con la música (RSS). Música brasileña y jazz, siempre a ritmos moderados. Delicioso y relajante. Advertencia: ingerido en grandes cantidades puede provocar empalago.

(A partir de ahora nos pasamos al inglés, advierto.)

Los de WFMU

Decíamos que hace tiempo que nos hemos dejado de preocupar de si nos alcanzan las ondas de las emisoras (WFMU ‘vive’ a caballo de Nueva York y Nueva Jersey, en Estados Unidos) y de los horarios (la tarde-noche de la costa este americana coincide con la madrugada de por aquí). Demos gracias. Con intensidad.

  • Downtown Soulville with Mr. Fine Wine (RSS). Mr. Fine Wine tiene una voz que podría haber sonado perfectamente en la radio de la escena de la oreja de Reservoir Dogs. Y dedica una hora a la semana a pinchar 45s de soul. Qué más se puede pedir.
  • Mudd Up! with DJ/Rupture (RSS). Rupture es un DJ con un programa ecléctico en grado sumo, que suele tirar de electrónica sofisticada pero que con una cierta frecuencia se lanza de cabeza a la world music (especialidad ‘chumba chumba’), en algunas ocasiones buscando el Magreb y en otras Sudamérica. Prefiero, de largo, su faceta electrónica más convencional (aunque tampoco es ‘mainstream’, precisamente), pero se deja escuchar siempre.

Los de deportes

Sé que suena raro, pero consumo deporte vía podcast (mi deporte favorito es el fútbol americano, además, ganas de llamar la atención…).

  • Una diferencia notable entre los deportes yanquis y los de aquí es que allí se pueden escuchar entrevistas a estrellas del deporte en horario muy matutino. Tan matutino como a las siete de la mañana, pongamos por caso. Best of Mike and Mike (RSS) es el resumen diario del programa matinal de la ESPN, que va de las 6 a las 10 de la mañana (en la costa este). La radio deportiva americana suele ser un festival de gritos, pero Mike & Mike (Greenberg y Golic) son una de las excepciones que confirman la regla. Dependiendo del momento del año, la cosa se inclina más por el fútbol (americano), el baloncesto (NBA) o el béisbol, aunque el fútbol suele ser el rey.
  • The B.S. Report with Bill Simmons (RSS). Bill Simmons es un exponente de la tradición yanqui del ‘periodista deportivo’, un columnista que escribe a destajo (desde que hay web, la columna típica del género se cuenta en miles de palabras, no en centenares), partiendo del deporte pero tocando una buena diversidad de temas. Los tres que consumo habitualmente son Peter King, de Sports Illustrated (que no sólo es la revista de fotos de bañadores que publican anualmente), Gregg Easterbrook y el propio Bill Simmons, al que ESPN le ha concedido su propia plataforma para albergar este tipo de periodismo, Grantland, que presume de tener como ‘consulting editors’ nada más y nada menos que a Dave Eggers y Malcolm Gladwell. En el podcast (que tiene unos números astronómicos, con centenares de miles de descargas de cada programa) habla de fútbol, béisbol y baloncesto, pero también de televisión y ‘pop culture’ en general.

Los divulgativos

Una vez cerrado el paréntesis friqui-deportivo, un poco de divulgación científica:

  • The Infinite Monkey Cage (RSS) es una de esas cosas que sólo pueden nacer en Gran Bretaña y en el seno de la BBC: un programa científico de humor (o de humor científico, que nunca me ha quedado claro), llevado por el físico de partículas Brian Cox (colabora en el acelerador de partículas del CERN y es miembro de la Orden del Imperio Británico) y el cómico Robin Ince. Confieso que se me escapa con una cierta frecuencia, a veces por el nivel del idioma y a veces por el nivel de la discusión, pero es un hartón de reir y lo defenderé como el mejor programa de radio que haya oído nunca tanto como sea necesario. Su mayor problema, que sólo hacen una docena de programas al año.
  • More or Less: Behind the Stats es, a su vez, un programa la mar de entretenido (en serio) sobre estadística (y estadísticas) que conduce Tim Hartford, periodista y economista (y aún así buen comunicador científico, difícil de creer, lo sé) y autor de libros como El economista camuflado y Adáptate. Muy recomendable.
  • Science Weekly (RSS), del también británico diario The Guardian es un programa bastante más convencional (léase: a veces puede resultar aburrido, aunque pasa con poca frecuencia) que repasa la actualidad científica de la semana.

¿Sugerencias?

La gracia de mis entradas de listas de recursos en el blog es, sobre todo, preguntar a los lectores por sus gustos. Hay miles de podcasts por el mundo. ¿Cuáles son vuestros imprescindibles y debería probar de todas todas?