La ética de las inteligencias artificiales… y de las naturales

Diría que Aral Balkan no pensaba en lo mismo que yo cuando respondió esto al tuit con la pieza de la BBC, pero eso no va a evitar que lo utilice como introducción de esta entrada. Y es que la pregunta es esencial… y me parece extrañamente ausente del debate creciente sobre el tema.

En primer lugar, aceptar la evidencia: aunque la explosión de noticias en los medios sobre el advenimiento de las inteligencias artificiales salidas directamente de un guión de Hollywood es un tanto exagerada, sí es cierto que cada vez hay más algoritmos que controlan nuestras vidas, y que muchos de ellos carecen de la más mínima transparencia exigible. Si uno quiere leer una historia de miedo verdaderamente aterradora, Machine Bias, publicada a finales de mayo pasado por Propublica, es un excelente lugar por el que comenzar (y si uno sospecha del sesgo humano al hablar de los sesgos de la inteligencia artificial, también podéis leer la pieza a partir de la pieza Inspecting Algorithms for Bias, del MIT Technology Review, un medio absolutamente limpio de sospechas de ludismo). Resumiendo lo de Propublica: analizan los resultados de un software que se está usando en Estados Unidos para asistir en la toma de decisiones judiciales… y resulta ser que es bastante fácil y natural acusar de racista al algoritmo. Y es muy difícil leer la pieza sin escandalizarse bastante. Sin negar la utilidad de usar algoritmos para ayudarnos a tomar decisiones, es absolutamente imprescindible que estos cumplan unos mínimos. En este sentido, a mí personalmente me atrae el Statement on Algorithmic Transparency and Accountability (PDF) de los comités estadounidense y europeo de políticas de la ACM, que establece siete principios para la transparencia y responsabilidad algorítmicas (conciencia, acceso y rectificación, responsabilidad, explicación, origen de datos, auditabilidad y validación y testeo) pero, en cualquier caso, hay mucho trabajo por hacer y corre prisa (y si a alguien le apetece leer más sobre el tema, me permito apuntarle a esta lista de lecturas).

Y una vez dicho esto… ¿qué es lo que echo en falta en el debate? Lo de siempre. Cada vez que criticamos (muchas veces con razón) el fin del mundo que nos trae la innovación tecnológica de turno tendemos, bien a olvidarnos de cómo era la realidad anterior, bien a idealizarla directamente. Y si hablamos de sesgo algorítmico… ¿no deberíamos ligar la conversación a la ya existente sobre los sesgos humanos y preguntarnos, como decía Aral Balkan en su tuit, cómo llevamos la ética los humanos, al tiempo que hablamos de la ética de los algoritmos?

La pregunta me lleva al fantástico libro de Daniel Kahneman Pensar rápido, pensar despacio (que este mes cumple seis añitos ya), y que contiene una colección de sesgos profundamente humanos que no tienen desperdicio y que nos deberían escandalizar también bastante, incluyendo un estudio sobre la correlación entre las decisiones judiciales sobre libertades condicionales y el hambre de los jueces (el 65% de libertades condicionales se concedían justo después de comer: si alguna vez os tienen que conceder —o no— la condicional, haced todo lo posible para no pillar al juez con hambre). Si queréis más ejemplos, a por el libro, que no os defraudará. Y supongo que no hará falta que ponga ningún ejemplo de la capacidad humana para el racismo…

En cualquier caso, y dando por aceptado que estamos muy pero que muy lejos de podernos fiar de las decisiones tomadas de forma algorítmica (si es que alguna vez llegamos a ese punto, que personalmente lo dudo muchísimo)… mi pregunta sin responder es: una vez encontrado un sesgo en un proceso de toma de decisiones, ¿es más fácil corregirlo si el proceso es algorítmico o humano? Y no tengo respuesta.

Compute-to-pay

Para la aún inexistente categoría en este blog de “ideas de negocio que muy probablemente no funcionarían en la práctica”…

La cosa comenzó hace unas semanas. Haciendo bueno el dicho de que “todo lo que se puede hacer en JavaScript acabará implementándose en JavaScript”, han comenzado a aparecer bibliotecas en dicho lenguaje para minar Bitcoin (y otras cibermonedas, imagino) en el navegador. El advenimiento de WebASM (que promete que puedes escribir software que corre en el navegador pagando un coste sobre el rendimiento de apenas un 5 o 10% (jamás estuvimos tan cerca del “escribe el programa una vez y que ejecute en cualquier cosa”)) debería hacer que, además, esto fuera más o menos factible a muy gran escala (alguien estimaba hace unas semanas que un sitio del volumen de The Pirate Bay podría generar unos 12,000 dólares al mes (seguro que ingresan mucho más por publicidad)). Y la estimación la hacían, claro, porque alguien habíaa pillado al sitio de torrentes minando con los ordenadores de sus visitantes sin avisar (desde entonces han explicado lo que hicieron y sus motivos; vamos a ser buenos y suponer que no lo han hecho exclusivamente porque les habían pillado). Desde entonces, obviamente, ya han surgido quienes hacen lo mismo pero de manera más transparente.

El problema que se intenta resolver es el de siempre: monetizar una web es más difícil que transmutar el plomo en oro. ¿Podría un minado así funcionar para monetizar sitios de contenidos como alternativa a la publicidad? Los cálculos que daban los $12,000 al mes para The Pirate Bay vendrían a significar que un céntimo de dólar “cuesta” la friolera de 78750 segundos (casi 22 horas) de permanencia en el sitio… Este sitio, en sus buenos viejos tiempos, llegó a tener unas cincuenta mil visitas al mes (y eso, hoy en día, seguirían siendo unos números más que apañados, creo). Si nos vamos a 100 segundos por visita (una cantidad ciertamente muy generosa, pero vamos a tirar alto) estaríamos a un céntimo por 788 visitas o €0.63 al mes, equivalente a un CPM de 1.2 céntimos.

¿Es ese un buen CPM para un sitio web? Vaaserquenó. ¿Podemos pintar una situación mejor? Supongamos que hacemos un “benchmark” en un segundo al cargar la página y descartamos los ordenadores de rendimiento medio y bajo (a los que les servimos un anuncio convencional), con lo que para un subconjunto de nuestras visitas el minado-como-pago se fuera, pongamos por caso, a los 3 céntimos por mil visitas de cien segundos y que estamos en un sitio en el que el tiempo por visita es muy alto y que mejoramos la eficiencia de la biblioteca… ¿quizá 5, a lo mejor 6 céntimos de CPM? Me da a mí la impresión de que de momento el compute-to-pay no es una opción razonable para casi nadie… pero que a lo mejor sitios como Wikipedia o Pocket (sobre todo ahora que este último pertenece a la fundación Mozilla y, por tanto, socialmente es tan aceptable como Wikipedia) podrían comenzar a apuntarse al esquema. Yo me apuntaría (y por poco que me insistieran, estaría dispuesto a dejar el navegador en su página unos minutos al día) :-).

Cómo declarar una “miniquiebra” en GMail

No todo el mundo es tan desastre como yo gestionando su buzón de correo electrónico como yo, pero tampoco voy a ser el único… ¿Os ha pasado alguna vez que el ‘inbox’ de GMail se os dispara? Páginas y páginas de correo que es imposible que limpiéis nunca. Y, de regalo, un poco de ansiedad cada vez que veis el número de mensajes por leer o la cantidad de mensajes acumulados…

Una solución (parcial y bestia, pero solución) es aceptar que los correos que llevan ahí más de cuatro meses (pongamos por ejemplo) no los vais a llegar a limpiar nunca, y que es mejor archivarlos como buenamente podamos. Y, por tanto, se plantea la pregunta: ¿es posible hacerlo simple y rápidamente? Afortunadamente, la respuesta es que sí, gracias a esos grandes desconocidos que son los operadores de búsqueda de GMail. Y, en especial, el older_than, al que podemos especificar parámetros como 100d si queremos los mensajes de más de 100 días o 4m si lo que queremos son cuatro meses. Si lo combinamos con in:inbox podremos seleccionar, de una sola tacada, todos esos mensajes que hemos aceptado que no limpiaremos de manera sistemática y que nos estresan en el “inbox”:

Mi buzón, después de aplicar la búsqueda older_than:4m in:inbox
La palabra clave es, desde luego, muchas

Una gracia adicional es que si le damos a el “checkbox” de seleccionar todas las entradas GMail selecciona todas las que aparecen en la primera pantalla… pero nos ofrece también la posibilidad de seleccionar todas las que cumplen el criterio de búsqueda:

Después de dar al cuadro para seleccionar todas las conversaciones, GMail nos pregunta si queremos seleccionar no solo las que salen en pantalla, sino todas las que siguen el criterio de búsqueda
Sí. Todas.

Una vez hecho esto, diversas opciones:

  1. Archivar directamente, marcando o no como leídos los mensajes (se puede ser más bestia aún y borrar, claro, pero ante la duda, yo soy un poco más conservador).
  2. Mi opción: etiquetar con un “archivados”, marcar como leídos (o no, de nuevo, a gusto del lector) y archivar.
  3. Añadir niveles de sofisticación: siempre podemos añadir, por ejemplo, un older_than:4m in:inbox label:unread, por ejemplo, para seleccionar los mensajes no leídos y aplicarles a estos una determinada etiqueta (y otra a los label:read, si se quiere) antes de archivarlos. Las posibilidades son casi ilimitadas…

Y, ahora, a intentar mantener el buzón en mejores condiciones.

Porque se ha hecho así toda la vida

Jueves. Madrugón para llegar al aeropuerto. Cruce de neuronas mientras esperas para embarcar. Idea y, como vivimos en los tiempos en que vivimos, en vez de consultar a expertos o buscar en internet, tuiteas…

Tres retuits, siete corazoncitos, seis réplicas. Puedo prometer y prometo que esos no son mis números habituales en Twitter. La cosa, claramente, suscita un cierto interés.

También puedodebo prometer que conozco a algún que otro experto en el tema de la logística a quien preguntar en caso de duda pero, cabezón que es uno, me pongo a buscar por internet y encuentro, sin mucha dificultad, un artículo (de hace nada más y nada menos que diez años), Loading an Airliner Is Rocket Science que exclica que, efectivamente, no voy mal encaminado: a pesar de que la inmensa mayoría de líneas aéreas con que he volado embarca con alguna variedad del método “clase business primero, después el resto del avión de atrás hacia adelante”, hace años que se hace investigación sobre el tema (quién se lo habría imaginado, cualquiera diría que es un asunto en el que potencialmente se pueden ganar millones de euros optimizando recursos) y una de las propuestas más eficientes es el método Wilma que consiste, oh sorpresa, en embarcar ventanas, después asientos del medio y finalmente pasillos. Como me apuntan en las respuestas, hasta hay un episodio de Mythbusters sobre el tema:

Por si nos os apetece seguir el enlace: algo más de 24 minutos con el método de toda la vida, quince con un par de variantes del Wilma y (como confirma la investigación que cita el artículo del Times) casi un minuto menos si embarca primero business y luego el resto sin asiento asignado (el caos aparente, aunque nos parezca terrible, es muy eficiente en muchas ocasiones). Nueve minutos no parecerán tantos, pero si multiplicamos por, pongamos, ciento cincuenta personas por avión, son más de veinte horas persona perdidas cada vez que embarcamos. Y, especialmente en trayectos cortos (estilo Barcelona Baleares), para ciertas líneas aéreas sería la posibilidad de sacarle un vuelo más al día a algún avión. Y eso es una pasta.

¿Por qué seguimos empeñados en hacerlo de una manera claramente no óptima? Los humanos somos cabezones como nadie, incluso ante la evidencia de que estamos malgastando, no sólo recursos de las líneas aéreas, sino, lo que es mucho más importante, nuestro propio tiempo. Y las cosas se hacen, naturalmente, como se han hecho toda la vida. Así nos luce.

Privacidad: lo que pienso y lo que hago no siempre coinciden…

…o me encanta tener razón. Hace casi un mes tuiteaba

en respuesta a

Y es que me “encantan” las encuestas en que se pregunta a la gente por estas cosas (y las opiniones de la sociedad son tremendamente importantes, naturalmente)… pero ignoran lo que hace la gente en la práctica.

Y hoy me encuentro con este episodio del podcast Note to Self:

El podcast habla de la “paradoja de la privacidad”. Se queda un poco corto, para mi gusto (hacer clic en el reproductor os llevará a la fuente, y servidor no es muy fan de Note to Self), pero me descubre el término. Llego a él tarde, tardísimo: se acuñó, si no me equivocó, en 2006, en un artículo homónimo en First Monday, cuando nos preocupaba mucho más MySpace (¿os acordáis?) que Facebook. La paradoja de la privacidad explica (o intenta explicar, mejor) cómo es perfectamente compatible pensar que proteger nuestra privacidad es importante con el irla cediendo poco a poco a cambio de pequeñas recompensas inmediatas a través de actualizaciones de estado en Facebook o similares.

(Lo más curioso, de salida, de leerse el artículo, es lo actual que sigue sonando. Nos encanta pensar que vivimos en un mundo absolutamente diferente al que habitábamos hace diez años. Y lo es. Pero parece que nosotros seguimos siendo los mismos… (De hecho, ya en 2000 teníamos libros anunciando la muerte de la privacidad en el siglo XXI))

En cualquier caso, una buena lectura académica sobre el tema es el artículo Privacy attitudes and privacy behaviour: A review of current research on the privacy paradox phenomenon. Si no estáis en una universidad, <irony>estos chicos tan majos de Elsevier</irony> os pedirán que os dejéis 36 dólares de nada para leerlo; afortunadamente yo sí estoy en una universidad y aún no nos han arrebatado el derecho de cita, o sea que os destaco algún fragmento…

Acquisti (2004) claims that “[p]eople may not be able to act as economically rational agents when it comes to personal privacy.” He argues that privacy-related decisions are affected by incomplete information, bounded rationality and psychological biases, such as confirmation bias, hyperbolic discounting and others.

Sí, Acquisti es el mismo Acquisti del podcast y la investigación sobre el tema es anterior al término “paradoja de la privacidad”. La cita del artículo en cuestión es Acquisti, Alessandro. “Privacy in electronic commerce and the economics of immediate gratification.” Proceedings of the 5th ACM conference on Electronic commerce. ACM, 2004. En Google Scholar.

Si queréis algo más reciente…

Beresford et al. (2012) conducted a field experiment, in which subjects were asked to buy a DVD from one of two competing stores. The two stores were almost identical. The first store asked for income and date of birth, whilst the second store asked for favourite colour and year of birth. Obviously, the information requested by the first store is significantly more sensitive. Nevertheless, when the price was the same subjects bought from both stores equally often. When the price was set to be 1 Euro less in the first store, almost all participants chose the cheaper store, although it was asking more sensitive information. A post-experimental questionnaire tested if subjects were unconcerned about privacy issues. 75% of participants indicated that they had a strong interest in data protection and 95% said that they were interested in the protection of their personal information.

Beresford, Alastair R., Dorothea Kübler, and Sören Preibusch. “Unwillingness to pay for privacy: A field experiment.” Economics Letters 117.1 (2012): 25-27. En Google Scholar.

Los artículos que dan evidencias a favor de la existencia de la paradoja son numerosos, pero alguno hay que dice que en determinadas circunstancias los usuarios están dispuestos a rascarse un poco el bolsillo para proteger su privacidad:

Egelman et al. (2012) performed two experiments with smartphone users and found that when choosing among applications with similar functionality, privacy-conscious participants were willing to pay a premium of $1.50 over an initial price of $0.49. However, this occurred only when users were presented the requested permissions of each application side-by-side.

Egelman, Serge, Adrienne Porter Felt, and David Wagner. “Choice architecture and smartphone privacy: There’sa price for that.” The economics of information security and privacy. Springer Berlin Heidelberg, 2013. 211-236. En Google Scholar.

En fin. Que la próxima vez que alguien defienda su propio interés por proteger su privacidad, o que afirme que la gente, en general, está interesada en ello… tomáoslo con un cierto escepticismo.