Can we teach robots ethics? From BBC: https://t.co/NTntEzl9hl
— CRISP (@CrispSurv) 15 de octubre de 2017
Depends… can we teach humans ethics? https://t.co/X11ibOsJKc
— Aral Balkan (@aral) 15 de octubre de 2017
Diría que Aral Balkan no pensaba en lo mismo que yo cuando respondió esto al tuit con la pieza de la BBC, pero eso no va a evitar que lo utilice como introducción de esta entrada. Y es que la pregunta es esencial… y me parece extrañamente ausente del debate creciente sobre el tema.
En primer lugar, aceptar la evidencia: aunque la explosión de noticias en los medios sobre el advenimiento de las inteligencias artificiales salidas directamente de un guión de Hollywood es un tanto exagerada, sí es cierto que cada vez hay más algoritmos que controlan nuestras vidas, y que muchos de ellos carecen de la más mínima transparencia exigible. Si uno quiere leer una historia de miedo verdaderamente aterradora, Machine Bias, publicada a finales de mayo pasado por Propublica, es un excelente lugar por el que comenzar (y si uno sospecha del sesgo humano al hablar de los sesgos de la inteligencia artificial, también podéis leer la pieza a partir de la pieza Inspecting Algorithms for Bias, del MIT Technology Review, un medio absolutamente limpio de sospechas de ludismo). Resumiendo lo de Propublica: analizan los resultados de un software que se está usando en Estados Unidos para asistir en la toma de decisiones judiciales… y resulta ser que es bastante fácil y natural acusar de racista al algoritmo. Y es muy difícil leer la pieza sin escandalizarse bastante. Sin negar la utilidad de usar algoritmos para ayudarnos a tomar decisiones, es absolutamente imprescindible que estos cumplan unos mínimos. En este sentido, a mí personalmente me atrae el Statement on Algorithmic Transparency and Accountability (PDF) de los comités estadounidense y europeo de políticas de la ACM, que establece siete principios para la transparencia y responsabilidad algorítmicas (conciencia, acceso y rectificación, responsabilidad, explicación, origen de datos, auditabilidad y validación y testeo) pero, en cualquier caso, hay mucho trabajo por hacer y corre prisa (y si a alguien le apetece leer más sobre el tema, me permito apuntarle a esta lista de lecturas).
Y una vez dicho esto… ¿qué es lo que echo en falta en el debate? Lo de siempre. Cada vez que criticamos (muchas veces con razón) el fin del mundo que nos trae la innovación tecnológica de turno tendemos, bien a olvidarnos de cómo era la realidad anterior, bien a idealizarla directamente. Y si hablamos de sesgo algorítmico… ¿no deberíamos ligar la conversación a la ya existente sobre los sesgos humanos y preguntarnos, como decía Aral Balkan en su tuit, cómo llevamos la ética los humanos, al tiempo que hablamos de la ética de los algoritmos?
La pregunta me lleva al fantástico libro de Daniel Kahneman Pensar rápido, pensar despacio (que este mes cumple seis añitos ya), y que contiene una colección de sesgos profundamente humanos que no tienen desperdicio y que nos deberían escandalizar también bastante, incluyendo un estudio sobre la correlación entre las decisiones judiciales sobre libertades condicionales y el hambre de los jueces (el 65% de libertades condicionales se concedían justo después de comer: si alguna vez os tienen que conceder —o no— la condicional, haced todo lo posible para no pillar al juez con hambre). Si queréis más ejemplos, a por el libro, que no os defraudará. Y supongo que no hará falta que ponga ningún ejemplo de la capacidad humana para el racismo…
En cualquier caso, y dando por aceptado que estamos muy pero que muy lejos de podernos fiar de las decisiones tomadas de forma algorítmica (si es que alguna vez llegamos a ese punto, que personalmente lo dudo muchísimo)… mi pregunta sin responder es: una vez encontrado un sesgo en un proceso de toma de decisiones, ¿es más fácil corregirlo si el proceso es algorítmico o humano? Y no tengo respuesta.