La paradoja de Berkson

Queremos calentar unas empanadas en el horno y, ¡oh desgracia!, no funciona. Pueden pasar dos cosas (independientes entre sí):

  • El horno está estropeado (A)
  • El horno está desenchufado (B)

Hemos observado el evento A \cup B y nos preocupa mucho P(A | A \cup B), es decir, que tengamos que llamar al técnico y comernos frías las empanadas a la vista de que el horno no responde.

Sin embargo, observamos rápidamente B: que habíamos desenchufado el horno. Luego, de repente, nos encontramos ante el cálculo de P(A | B, A \cup B). Dicho de otra manera, evaluar la probabilidad de que el horno esté estropeado a la vista de que:

  • El horno está o bien estropeado o bien desenchufado
  • El horno está desenchufado

Obviamente, P(A|B,A \cup B) \leq P(A|A\cup B). De otra manera, la probabilidad de que no funcione por avería es menor una vez que hemos constatado que no estaba enchufado.

La desigualdad anterior (que se cumple siempre) se conoce como paradoja de Berkson y se puede leer más sobre ella (incluida una demostración malísima) aquí.

Es paradoja porque en algunos contextos parece contraintituivo. En efecto, al ser independientes los dos eventos, P(A|B) =  P(A). Pero al condicionar por A \cup B, se obtiene la desigualdad anterior.