Combinación de probabilidades

Hace unos días alguien me pasó una fórmula que tiene una pinta no muy distinta de

p = \frac{p_1 p_2 \cdots p_N}{p_1 p_2 \cdots p_N + (1 - p_1)(1 - p_2) \cdots (1 - p_N)}

alegando que era una aplicación de métodos bayesianos (para estimar la probabilidad de algo combinando distintos indicios). Pero no está en mi libro (¿y en el tuyo?). El hilo (y varios correos) me condujeron a esto y de ahí, a través de referencias de referencias, a Combining Probabilities. Donde todo está muy bien explicado.

La fórmula anterior es correcta, según ella, si se dan varias circunstancias. La primera, es la independencia entre los eventos cuya probabilidad es p_i que, bueno, casi es obligatorio dar por buena. Porque la alternativa es el quilombo.

Pero la segunda es más seria y antibayesiana. Según el enlace anterior, la condición es que haya simetría entre el sí y el no, entre la ocurrencia o la no ocurrencia del evento. Es decir, que las probabilidades a priori del evento y del no evento sean iguales a 1/2 y se cancelen mutuamente.

¡Feliz coincidencia!