"Frente a la aspiración de una representación precisa, debemos considerar las limitaciones conceptuales, matemáticas y computacionales"
La cita que da título a la entrada procede —con mi ¿mala? traducción— del artículo Philosophy and the practice of Bayesian statistics que, en realidad, trata de otra cosa. Pero que resume muy bien algo que mucha gente tiende a ignorar: mucho del corpus de lo que actualmente llamamos positivamente estadística está condicionado por las circunstancias conceptuales, matemáticas y, muy especialmente, computacionales del momento en el que fueron concebidos.
Un ejemplo: hace cien años, aún se discutía cómo calcular la $\sigma$ de una muestra. Los calculadores preferían estimar
$$\sigma \sim \frac{1}{n} \sqrt{\frac{\pi}{2}} \sum_i |x_i - \bar{x}|$$
a lo que hacemos hoy en día,
$$\sigma \sim \sqrt{\frac{1}{n} \sum_i (x_i - \bar{x})^2}$$
por el simple motivo de que había que realizar menos operaciones (recuérdese: los calculadores de entonces eran personas que calculaban) tal como nos recuerda Fisher en su artículo On the Mathematical Foundations of Theoretical Statistics de 1921:
Es un fenómeno del que han dado cuenta muchos autores (p.e., Efron en su Computer Age Statistical Inference: Algorithms, Evidence, and Data Science) y parece una obviedad abundar sobre ello.
Sin embargo, la persistencia de métodos viejunos en la estadística académica y, casi por extensión, en la estadística no académica que realizan muchos estadísticos con todavía excesivas adherencias académicas, nos hace sospechar que ese conocimiento que presumo arriba no se ha perfeccionado en resultados concretos y, particularmente, en el concomitante cambio curricular y cultural.