La ética de las inteligencias artificiales… y de las naturales

Diría que Aral Balkan no pensaba en lo mismo que yo cuando respondió esto al tuit con la pieza de la BBC, pero eso no va a evitar que lo utilice como introducción de esta entrada. Y es que la pregunta es esencial… y me parece extrañamente ausente del debate creciente sobre el tema.

En primer lugar, aceptar la evidencia: aunque la explosión de noticias en los medios sobre el advenimiento de las inteligencias artificiales salidas directamente de un guión de Hollywood es un tanto exagerada, sí es cierto que cada vez hay más algoritmos que controlan nuestras vidas, y que muchos de ellos carecen de la más mínima transparencia exigible. Si uno quiere leer una historia de miedo verdaderamente aterradora, Machine Bias, publicada a finales de mayo pasado por Propublica, es un excelente lugar por el que comenzar (y si uno sospecha del sesgo humano al hablar de los sesgos de la inteligencia artificial, también podéis leer la pieza a partir de la pieza Inspecting Algorithms for Bias, del MIT Technology Review, un medio absolutamente limpio de sospechas de ludismo). Resumiendo lo de Propublica: analizan los resultados de un software que se está usando en Estados Unidos para asistir en la toma de decisiones judiciales… y resulta ser que es bastante fácil y natural acusar de racista al algoritmo. Y es muy difícil leer la pieza sin escandalizarse bastante. Sin negar la utilidad de usar algoritmos para ayudarnos a tomar decisiones, es absolutamente imprescindible que estos cumplan unos mínimos. En este sentido, a mí personalmente me atrae el Statement on Algorithmic Transparency and Accountability (PDF) de los comités estadounidense y europeo de políticas de la ACM, que establece siete principios para la transparencia y responsabilidad algorítmicas (conciencia, acceso y rectificación, responsabilidad, explicación, origen de datos, auditabilidad y validación y testeo) pero, en cualquier caso, hay mucho trabajo por hacer y corre prisa (y si a alguien le apetece leer más sobre el tema, me permito apuntarle a esta lista de lecturas).

Y una vez dicho esto… ¿qué es lo que echo en falta en el debate? Lo de siempre. Cada vez que criticamos (muchas veces con razón) el fin del mundo que nos trae la innovación tecnológica de turno tendemos, bien a olvidarnos de cómo era la realidad anterior, bien a idealizarla directamente. Y si hablamos de sesgo algorítmico… ¿no deberíamos ligar la conversación a la ya existente sobre los sesgos humanos y preguntarnos, como decía Aral Balkan en su tuit, cómo llevamos la ética los humanos, al tiempo que hablamos de la ética de los algoritmos?

La pregunta me lleva al fantástico libro de Daniel Kahneman Pensar rápido, pensar despacio (que este mes cumple seis añitos ya), y que contiene una colección de sesgos profundamente humanos que no tienen desperdicio y que nos deberían escandalizar también bastante, incluyendo un estudio sobre la correlación entre las decisiones judiciales sobre libertades condicionales y el hambre de los jueces (el 65% de libertades condicionales se concedían justo después de comer: si alguna vez os tienen que conceder —o no— la condicional, haced todo lo posible para no pillar al juez con hambre). Si queréis más ejemplos, a por el libro, que no os defraudará. Y supongo que no hará falta que ponga ningún ejemplo de la capacidad humana para el racismo…

En cualquier caso, y dando por aceptado que estamos muy pero que muy lejos de podernos fiar de las decisiones tomadas de forma algorítmica (si es que alguna vez llegamos a ese punto, que personalmente lo dudo muchísimo)… mi pregunta sin responder es: una vez encontrado un sesgo en un proceso de toma de decisiones, ¿es más fácil corregirlo si el proceso es algorítmico o humano? Y no tengo respuesta.

La controversia del Do Not Track

Ese tuit, de hace unos días, de Miquel Peguera (por poco que os interese el tema del derecho e internet, no dejéis de seguirle en Twitter ni de leer su blog, Responsabilidad en Internet: se trata de uno de los pocos especialistas del campo que se esfuerzan por resultar comprensibles conservando el rigor y sin caer en la demagogia), es una recomendación de las que conviene no ignorar… Como de costumbre, lo mejor es seguir el enlace y leer con atención pero, por si acaso, ahí va mi resumen y mi opinión al respecto.

The Sabotage of Do Not Track es un texto del profesor de la New York Law School James Grimmelmann (que hace unos meses publicó en Ars Technica el imprescindible artículo Death of a data haven: cypherpunks, WikiLeaks, and the world’s smallest nation). En él se hace eco de la controversia surgida últimamente alrededor de la iniciativa ‘do not track’.

En los últimos años ha ido surgiendo una inquietud (bastante razonable, en general) por los datos que se recogen de nosotros cuando navegamos por la red un buen montón de compañías (casi todas dedicadas, de una u otra forma, a la publicidad) y el uso que posteriormente hacen de ellos.

Captura de pantalla que ilustra la gran cantidad de sitios que envían datos nuestros a empresas como Google o Facebook
Basta instalar una herramienta como Collusion para comprobar que los grandes de internet conocen un puen pedazo de nuestro recorrido por la web (también para darse cuenta de que no lo saben todo, desde luego)

Una de las propuestas surgidas para proteger al público de los malos usos de esa recogida de datos es Do Not Track, que haría que los navegadores enviasen (si se desea) una señal universal “no me monitorices” a las empresas dedicadas a este seguimiento. Hacer caso o no de esa señal es, de momento, tan solo una cuestión de buena etiqueta por parte de esas empresas, pero los Estados Unidos ya están trabajando en que, como mínimo, decir que cumples con ‘do not track’ y no hacerlo represente una mala práctica comercial y, con un poco de suerte, tanto los Estados Unidos como la Unión Europea seguirán trabajando en esa línea.

De momento Firefox, Internet Explorer y Safari han comenzado a implementar ‘do not track’ (en donottrack.us encontraréis cómo activarlo en cada navegador) y, poco a poco, algunos grandes recopiladores de datos se van apuntando a hacer caso (en ese curioso equilibrio eterno de la industria publicitaria, de regularse un poco motu proprio para evitar una regulación seguramente más rigurosa por parte de “la autoridad competente”).

El problema ha saltado con el anuncio, por parte de Microsoft, de que pretende dejar activado por defecto “do not track” en el inminente Internet Explorer 10 (nótese que no han sido ni Mozilla —no podemos obviar su relación con Google, aunque no creo que eso sea un factor— ni Opera ni Apple los que han dado ese paso, sino los de Redmond, que andan un poco a la greña con un par de empresas que sacan un buen provecho de esos seguimientos: Google y Facebook). Y ahí se ha armado. Porque, desde luego, una cosa es que un usuario más o menos sofisticado active “do not track” en el navegador (al fin y al cabo ese usuario muy probablemente no sea, de salida, el más rentable para las empresas de publicidad) pero otra muy diferente es que todo hijo de vecino que se compre una tableta con Windows 8, por poner un caso, tenga el dichoso ‘do not track’ activado de salida… Y no han tardado en dejarse oir las voces de grandes jugadores de la industria (Grimmelman recoge las de Google y también las de Yahoo! y Adobe, dos compañías que también se nutren de la tarta económica de la publicidad) que argumentan que si ‘do not track’ está activado por defecto en Explorer, “no pueden” saber si esa es una decisión informada del usuario y que, por tanto, no se sentirían obligados a hacer caso a la petición.

El asunto, desde luego, es complejo. Microsoft ha enarbolado la bandera de la defensa de los derechos del consumidor. Y eso es encomiable. Pero uno no puede evitar pensar que el interés que tiene en hacerlo va “un poco” más allá del altruismo puro. Los anunciantes, por su lado, obviamente barren para casa (¿quién no lo haría?) descaradamente, pero algunos de sus argumentos tienen su ‘aquel’: una decisión tomada por un fabricante no es una decisión tomada por el usuario (naturalmente, el acuerdo tácito del usuario de dejarse monitorizar es tanto o más discutible). Y puestos a ver publicidad, prefiero que sea de algo que me interesa… Personalmente opino que una iniciativa como ‘do not track’ merece sobrevivir y que, a la larga, las regulaciones del mercado provenientes del legislador iban a ser más duras (o al menos quiero creerlo) y que más vale que las partes envainen sus espadas y se sienten a negociar. Pero, para saber qué pasará, la única solución que queda es esperar y permanecer atentos…

Publicidad por comportamiento y ética

Cada vez somos más los que nos hemos asustado un poco al ver que en determinados sitios los banners de publicidad están muy al corriente de productos que nos interesan. En mi caso, después de buscar monitores 1920×1200, de golpe la web comenzó a insistir en ‘perseguirme’ con anuncios de uno de los monitores que había mirado con más insistencia (se trataba de un Lenovo ThinkVision L2440p en acuista.com que acabé comprando, por cierto, y del que estoy la mar de contento) y ‘productos relacionados’.

Anuncio de un servidor de almacenamiento en acuista.com
Lo de 'producto relacionado', claro, a veces no acaba de funcionar. Echemos la culpa a Bayes...

La cuestión es que si bien la cosa me resultaba un poco intrusiva (un poco bastante, de hecho), se trataba de publicidad muy relevante y efectiva que, además, imagino que reportaba un CPC bastante interesante a las webs que visito y que me gustaría que rentabilizasen esa visita. Puestos a ver publicidad (y la publicidad mueve la web, recordemos), casi mejor así…

Los anuncios mostraban, además una ‘i’ de información que me provocaba un cierto repelús: ¿sería verdaderamente información? Y lo cierto es que sí, que hacer clic proporciona bastante información:

La página de información de Criteo me muestra productos cuya página he vistado y relacionados en acuista.com y me ofrece la posibilidad de limpiar lo que saben sobre mí y hacer un 'opt out' de sus servicios
Al menos, son claros...

La sorpresa positiva es que en la página de información me encontré con un informe simple y claro con lo que sabe Criteo (la compañía publicitaria en concreto) y la posibilidad de desactivar los banners de Acuista o, incluso, de desactivar la personalización de publicidad de Criteo completamente. Un clic más de hecho, me lleva a la página de información de la Network Advertising Initiative, con más información:

Captura de pantalla que muestra una serie de empresas de publicidad, si tienen una cookie o no en mi ordenador, y si quiero hacer 'opt out' de cada una de ellas
'Creepy' pero transparentes

Ese informe (que debería estar disponnible para cualquiera que visite networkadvertising.org/managing/opt_out.asp) es mucho más de lo que habría esperado yo de la industria publicitaria en la web. Sirva esta entrada, pues, para felicitar a los que han animado esta iniciativa autoreguladora, que me parece un excelente paso adelante (aunque los anuncios siguen pareciéndome bastante ‘creepy’, ahora me siento un poco más tranquilo y espero que la industria sea capaz de seguir autoimponienndo un [mínimo] criterio ético).