«Algoritmos» y acatarrantes definiciones de «justicia»

Lee Justicia: los límites de la inteligencia artificial… y humana y cuando acabes, te propongo un pequeño experimento probabilístico. Por referencia, reproduzco aquí los criterios de justicia del artículo que glosa el que enlazo:

Centrémonos en (B), sabiendo que, por simetría, lo que cuento se aplica también a (C).

Supongamos que tenemos dos grupos, cada uno de ellos de

n <- 1000000

personas para estar en las asíntotas que aman los frecuentistas. Estos grupos tienen distribuciones distintas de un factor de riesgo,

p.group.1 <- rbeta(n, 3, 2)
p.group.2 <- rbeta(n, 2, 3)

y se observan

y.group.1 <- sapply(p.group.1, function(p) rbinom(1, 1, p))
y.group.2 <- sapply(p.group.2, function(p) rbinom(1, 1, p))

Construimos un modelo perfecto, que a cada sujeto le asigne exactamente su probabilidad. Ese es el score.

Por otro lado, la clase negativa a la que se refiere (B) son los sujetos para los que y = 0. Para ser justo, debería suceder que

mean(p.group.1[y.group.1 == 0])
mean(p.group.2[y.group.2 == 0])

fuesen iguales.

Vosotros mismos.

Nota: Después de escrito lo anterior he dado con un ejemplo todavía más simple e ilustrativo. Si nadie lo adelanta antes en los comentarios, va mañana.

3 comentarios sobre “«Algoritmos» y acatarrantes definiciones de «justicia»

  1. Jose Luis Cañadas Reche 26 febrero, 2020 23:13

    Muy bueno, pero dicen. «El problema es ahora garantizar que el algoritmo es «justo». ¿En qué sentido? Bueno, si aplicamos el algoritmo a dos o más clases de personas, separadas por atributos que no tienen que ver con lo que se decide, debería tratarlas a todas por igual. »
    Y en tu ejemplo, justo lo que distingue un grupo del otro es su p. No sé si me estoy perdiendo algo.

  2. Carlos J. Gil Bellosta 27 febrero, 2020 1:45

    Bueno, igual he cometido el pecado inverso al de la mayoría: leer el original (el artículo original) y no el comentario (de NadaEsGratis). Pero en el original, y reproduzco los párrafos de la definición de justicia, dice lo que dice. En mi caso, además, el factor de riesgo se distribuye como una beta y hay solapamiento entre las distribuciones de los dos grupos. El algoritmo, p = p, trata igual a personas con la misma p, vengan del grupo que vengan. Estoy absolutamente dentro de las hipótesis tanto del artículo como, leyéndolo despacio, de NadaEsGratis.

Comenta

Your email address will not be published.

Puedes usar estas etiquetas y atributos de HTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.