probabilidad

El principio de mediocridad como instrumento para estimar duraciones

Esta entrada trata de explicar cómo utilizar el llamado principio de mediocridad para la estimación de la duración de cosas cuando apenas se sabe nada al respecto. En ese sentido, extiende y fundamente lo que puede leerse aquí. Planteamiento Consideremos el conjunto $A$ de todos los pares de números (reales, que todo hay que decirlo) $0 < a < b$. En todo lo que sigue, $b$ se interpretará como la duración total de algo (la existencia de la especie humana, el número de semanas que una obra teatral estará en cartel, etc.

Probabilidades subjetivas: una redefinición "profesional"

Hace un tiempo reproduje en estas páginas (aquí) la definición de probabilidad (en su variante subjetivísima) que dizque Sam Savage aprendió de su padre. La reproduzco aquí: He [L.J. Savage] encouraged me from a young age to think of the probability of an event as the amount I would pay for a gamble that would pay $100 if the event occurred. Pero, ¿cómo hacen los pros? ¿Cómo hacen realmente los que se ganan la vida haciendo estimaciones probabilísticas subjetivas?

Monty Hall, reformulado

Considérese el siguiente juego: Hay tres sobres indistinguibles sobre una mesa. Uno de ellos contiene un premio. Puedes elegir o bien uno de ellos o bien dos de ellos al azar. Convénzase uno de que es mejor elegir dos sobres que uno: tienes una probabilidad de ganar el premio de 2/3 contra la de 1/3 si eliges solo uno. Convénzase uno de que el problema de Monty Hall en su formulación habitual es solo una reformulación artificiosa y engañosa del juego anterior.

Dos cuestiones sobre la naturaleza de la probabilidad planteadas por Keynes en 1921 pero que siguen hoy igual de vigentes

I. A Treatise on Probability, la obra de Keynes (sí, el famoso) de 1921, es un libro muy extraño que se puede leer de muchas maneras. Puede servir, si se hace poco caritativamente, para denunciar el lastimoso estado en el que se encontraba la probabilidad antes de la axiomatización de Kolmogorov, 12 años depués de su publicación. O también, si se hace más cuidadosamente, para rescatar una serie de consideraciones que aun hoy muchos hacen mal en ignorar.

Aún más sobre propagación de errores (y rv)

[Menos mal que se me ha ocurrido buscar en mi propio blog sobre el asunto y descubrir —no lo recordaba— que ya había tratado el asunto previamente en entradas como esta, esta o esta.] El problema de la propagación de errores lo cuentan muy bien Iñaki Úcar y sus coautores aquí. Por resumirlo: tienes una cantidad, $latex X$ conocida solo aproximadamente —en concreto, con cierto error— e interesa conocer y acotar el error de una expresión $latex f(X)$.

Cournot sobre el "efecto Roseto", 120 años antes de tal

Esta entrada abunda sobre una de la semana pasada sobre el llamado efecto Roseto. El Cournot al que alude el titulo es el Cournot famoso (1801-1877) al que, a pesar de ser más conocido por sus aportaciones a la economía, debemos una Exposition de la théorie des chances et des probabilités de 1843. En su párrafo 114 critica explícitamente el tipo de conclusiones a las que llegan los descuidados exégetas del asunto Roseto y que Stigler comenta así:

Nuevo vídeo en YouTube: "¿Se pueden estimar probabilidades pequeñas con pocas observaciones?"

Acabo de subir un nuevo vídeo a Youtube, en el que discuto dos problemas: uno, general, que es el que indica su título; y otro más concreto que es su motivación última: si es posible asegurar que la combinación de vacunas es segura a través de un estudio realizado con 600 sujetos, tal como el realizado por el ISCIII recientemente. En él se hace referencia a una vieja entrada en el blog del autor, esta.

Sobre las probabilidades de eventos que ocurren una única vez

La probabilidad se predica de eventos de muy distintas características. Existe un arco entero de casos en cuyos extremos opuestos podemos encontrar los eventos: Obtener cara al lanzar esta moneda. Que X gane las elecciones que ocurrirán en un mes. La principal diferencia, por si alguien lo lo ha advertido, es que el primer tipo de evento puede repetirse cuantas veces se desee mientras que esas elecciones ocurrirán una única vez.

¿La teoría de la probabilidad no extiende la lógica?

Después de haber estado un tiempo —hasta tener que interrumpirlo para convertirme en un elemento socialmente productivo— leyendo sobre cómo la teoría de la probabilidad extiende la lógica (Jaynes, Hacking y compañía), he incurrido en Probability theory does not extend logic. Se trata de un ensayito recomendable pero sobre el que advierto a sus posibles lectores que decae rápidamente de mucho al fango. De él extraigo una interpretación muy heterodoxa de la probabilidad condicional expresada en términos de la lógica de predicados.

La falacia de la conjunción desaforada

La falacia, para aquellos que no la conozcan, está descrita aquí. El ejemplo más citado al respecto es el de Linda: Linda tiene 31 años de edad, soltera, inteligente y muy brillante. Se especializó en filosofía. Como estudiante, estaba profundamente preocupada por los problemas de discriminación y justicia social, participando también en manifestaciones anti-nucleares. ¿Que es más probable? Linda es una cajera de banco. Linda es una cajera de banco y es activista de movimientos feministas.

Nuevo vídeo en YouTube: ¿son las probabilidades "subjetivas"? ¿Existe el azar?

El vídeo es y su objetivo es refutar cierta visión muy extraña de la probabilidad que se oye sostener a cierto tipo de personas de vez en cuando, la de que es un fenómeno subjetivo, acompañado frecuentemente por la todavía más extravagante afirmación de que el azar no existe (salvo, tal vez, en el nivel subatómico). Y una vez refutada, el en el vídeo vuelvo a probar una versión alternativa de la afirmación anterior, tal vez más ajustada a la realidad tal cual la veo.

Un argumento para usar la normal: la maximización de la entropía

Llegaré a la normal. Antes, algo sobre la entropía. Nos interesa saber y medir el grado de concentración de una distribución. Por ejemplo, si X es una variable aleatoria con función de densidad $latex f(x)$ y $latex x_1, \dots, x_n$ es una muestra de X, entonces, la expresión $$ \frac{1}{n} \sum_i f(x_i)$$ da una idea de la concentración vs dispersión de X: Si es grande, muchos de los $latex x_i$ procederán de lugares donde $latex f$ es grande; en un caso discreto, que tal vez ayude a mejorar la intuición sobre la cosa, habría muchos valores repetidos.

Sobre sumas de cuadrados de normales con varianzas desiguales

En mi entrada anterior mencioné cómo la suma de cuadrados de normales, aun cuando tengan varianzas desiguales, sigue siendo aproximadamente $latex \chi^2$. Es el resultado que subyace, por ejemplo, a la aproximación de Welch que usa R por defecto en t.test. Puede verse una discusión teórica sobre el asunto así como enlaces a la literatura relevante aquí. Esta entrada es un complemento a la anterior que tiene lo que a la otra le faltan: gráficos.