GLMs con prioris (casi) a voluntad

Esto que cuento hoy puede ser muy útil: cómo mejorar los GLMs mediante la introducción de prioris (casi) a voluntad sobre los coeficientes. Usando el paquete arm de R, claro.

De momento y porque aún tengo sucios los datos sobre los que me gustaría aplicar el modelo, extraeré un ejemplo de la ayuda de la función principal del paquete, bayesglm.

Primero, preparo unos datos:

n <- 100
x1 <- rnorm (n)
x2 <- rbinom (n, 1, .5)
b0 <- 1
b1 <- 1.5
b2 <- 2
y <- rbinom (n, 1, invlogit(b0+b1*x1+b2*x2))

Comenzamos con un glm de toda la vida.

M1 <- glm (y ~ x1 + x2, family=binomial(link="logit"))
display (M1)
# glm(formula = y ~ x1 + x2, family = binomial(link = "logit"))
# coef.est coef.se
# (Intercept) 0.79     0.36   
# x1          1.23     0.33   
# x2          2.04     0.64   
# ---
#   n = 100, k = 3
# residual deviance = 77.5, null deviance = 107.9 (difference = 30.4)

El resultado es el mismo que usando bayesglm con una priori plana y totalmente ininiformativa:

M2 <- bayesglm (y ~ x1 + x2, family=binomial(link="logit"),
                prior.scale=Inf, prior.df=Inf)
display (M2)  
# bayesglm(formula = y ~ x1 + x2, family = binomial(link = "logit"), 
#          prior.scale = Inf, prior.df = Inf)
# coef.est coef.se
# (Intercept) 0.79     0.36   
# x1          1.23     0.33   
# x2          2.03     0.64   
# ---
#   n = 100, k = 3
# residual deviance = 77.5, null deviance = 107.9 (difference = 30.4)

La cosa cambia cuando usamos la distribución a priori por defecto de bayesglm,

M3 <- bayesglm (y ~ x1 + x2, family=binomial(link="logit"))
display (M3)
# bayesglm(formula = y ~ x1 + x2, family = binomial(link = "logit"))
# coef.est coef.se
# (Intercept) 0.80     0.35   
# x1          1.12     0.30   
# x2          1.84     0.59   
# ---
#   n = 100, k = 3
# residual deviance = 77.7, null deviance = 107.9 (difference = 30.2)

que es una Cauchy con escala 2.5, i.e.,

M4 <- bayesglm (y ~ x1 + x2, family=binomial(link="logit"),
                prior.scale=2.5, prior.df=1)
display (M4)
# bayesglm(formula = y ~ x1 + x2, family = binomial(link = "logit"), 
#          prior.scale = 2.5, prior.df = 1)
# coef.est coef.se
# (Intercept) 0.80     0.35   
# x1          1.12     0.30   
# x2          1.84     0.59   
# ---
#   n = 100, k = 3
# residual deviance = 77.7, null deviance = 107.9 (difference = 30.2)

Nótese que la priori es una t, que degenera en una normal cuando los grados de libertad son muchos, como en

M6 <- bayesglm (y ~ x1 + x2, family=binomial(link="logit"),
                prior.scale=2.5, prior.df=Inf)

Además de la escala y, en cierta medida, la anchura de las colas, también se puede indicar el centro de las prioris (con prior.mean), tanto de manera global como individualmente para cada una de ellas:

M9 <- bayesglm(y ~ x1 + x2, family=binomial(link="logit"),
               prior.scale=2.5, prior.df=7,
               prior.mean = c(b1, b2))
display(M9)
# bayesglm(formula = y ~ x1 + x2, family = binomial(link = "logit"), 
#          prior.mean = c(b1, b2), prior.scale = 2.5, prior.df = 7)
# coef.est coef.se
# (Intercept) 0.79     0.35   
# x1          1.26     0.32   
# x2          2.04     0.62   
# ---
#   n = 100, k = 3
# residual deviance = 77.5, null deviance = 107.9 (difference = 30.4)

¿No es hoy el cielo más azul?