«Algoritmos» y acatarrantes definiciones de «justicia»

Lee Justicia: los límites de la inteligencia artificial… y humana y cuando acabes, te propongo un pequeño experimento probabilístico. Por referencia, reproduzco aquí los criterios de justicia del artículo que glosa el que enlazo:

Centrémonos en (B), sabiendo que, por simetría, lo que cuento se aplica también a (C).

Supongamos que tenemos dos grupos, cada uno de ellos de

n <- 1000000

personas para estar en las asíntotas que aman los frecuentistas. Estos grupos tienen distribuciones distintas de un factor de riesgo,

p.group.1 <- rbeta(n, 3, 2)
p.group.2 <- rbeta(n, 2, 3)

y se observan

y.group.1 <- sapply(p.group.1, function(p) rbinom(1, 1, p))
y.group.2 <- sapply(p.group.2, function(p) rbinom(1, 1, p))

Construimos un modelo perfecto, que a cada sujeto le asigne exactamente su probabilidad. Ese es el score.

Por otro lado, la clase negativa a la que se refiere (B) son los sujetos para los que y = 0. Para ser justo, debería suceder que

mean(p.group.1[y.group.1 == 0])
mean(p.group.2[y.group.2 == 0])

fuesen iguales.

Vosotros mismos.

Nota: Después de escrito lo anterior he dado con un ejemplo todavía más simple e ilustrativo. Si nadie lo adelanta antes en los comentarios, va mañana.

3 comentarios sobre “«Algoritmos» y acatarrantes definiciones de «justicia»

  1. Jose Luis Cañadas Reche 26 febrero, 2020 23:13

    Muy bueno, pero dicen. «El problema es ahora garantizar que el algoritmo es «justo». ¿En qué sentido? Bueno, si aplicamos el algoritmo a dos o más clases de personas, separadas por atributos que no tienen que ver con lo que se decide, debería tratarlas a todas por igual. »
    Y en tu ejemplo, justo lo que distingue un grupo del otro es su p. No sé si me estoy perdiendo algo.

  2. Carlos J. Gil Bellosta 27 febrero, 2020 1:45

    Bueno, igual he cometido el pecado inverso al de la mayoría: leer el original (el artículo original) y no el comentario (de NadaEsGratis). Pero en el original, y reproduzco los párrafos de la definición de justicia, dice lo que dice. En mi caso, además, el factor de riesgo se distribuye como una beta y hay solapamiento entre las distribuciones de los dos grupos. El algoritmo, p = p, trata igual a personas con la misma p, vengan del grupo que vengan. Estoy absolutamente dentro de las hipótesis tanto del artículo como, leyéndolo despacio, de NadaEsGratis.

Los comentarios están desabilitados.