Los ejemplos son las conclusiones

[Ahí va otro aforismo en la línea de este otro].

Me recomienda Medium muy encarecidamente la lectura de Optimization over Explanation y yo a mis lectores. Trata el asunto de la responsabilidad dizque ética de los algoritmos de inteligencia artificial. Nos cuenta cómo la legislación en general y la GDPR en particular ha hecho énfasis en la explicabilidad de los modelos: según la GDPR, los sujetos de esos algoritmos tendríamos el derecho a que se nos explicasen las decisiones que toman en defensa de nosequé bien jurídico, que nunca he tenido claro y que se suele ilustrar examinando una serie de casos en los que salen aparentemente perjudicados los miembros de unas cuantas minorías cuya agregación son todos menos yo y unos poquitos más que se parecen a mí.

Para el autor, la expicabilidad se queda corta: le resulta insuficiente, ineficiente e ineficaz. Como alternativa, sugiere un control sobre dos cosas:

  • aquello que los algoritmos optimizan y
  • los resultados de los modelos, por ver si se ajustan o no convenientemente a lo esperado.

Y el artículo es lógicamente consistente porque los dos ejemplos que trata, a saber, de conducción de coches autónomos y de diagnóstico médico, de manera nada sorprendente se ajustan a su tesis como el proverbial guante.

Pero reto a mis lectores a releer el artículo enlazado cuestionándolo desde la perspectiva de otros ejemplos más próximos como:

  • Modelos para la concesión de créditos, hipotecas o similares.
  • Modelos para la estimación de primas en seguros (vida y no vida).
  • Modelos de recomendación de productos.
  • Cualquiera de los últimos en los que hayan trabajado.

¿Se lee de otra manera?