¿Qué es "seguro"?

Esta entrada es un resumen junto con una traducción libre de un capitulito excelente del libro Probability Theory, The Logic of Science de E.T. Jaynes que lleva por título What is safe?.

Uno de los principales mensajes prácticos de este trabajo [el libro] es el [de subrayar] el gran efecto de la información a priori en las conclusiones que uno debería extraer de un conjunto de datos. Actualmente, asuntos muy discutidos, como los riesgos medioambientales o la toxicidad de un aditivo nutricional, no pueden ser juzgados racionalmente mirando únicamente a los datos e ignorando la información a priori que los científicos tienen sobre el fenómeno.

Un error común cometido al juzgar los efectos de la radiactividad o el de la toxicidad de una sustancia es asumir un modelo lineal sin un umbral (es decir, sin un nivel de dosis por debajo del cual no hay efecto negativo). Probablemente no lo haya para venenos acumulativos como los iones de metales pesados (mercurio, plomo), que se eliminan muy despacio, si es que se eliminan. Pero para prácticamente cualquier tipo de sustancia orgánica (como la sacarina o el ciclamato), la existencia de un proceso metabólico implica que debería existir un umbral por debajo de cual la sustancia se descompone, se elimina o es alterada químicamente tan rápidamente que no causa perjuicios. Si esto no fuese cierto, la raza humana no habría podido sobrevivir, habida cuenta de todas las cosas que hemos comido.

De hecho, cada bocado de comida que comemos contiene muchos miles de millones de tipos de moléculas complejas cuya estructura y efectos fisiológicos nunca han sido estudiados y muchos millones de los cuales serían tóxicos o mortales en dosis elevadas. Sin duda, ingerimos diariamente miles de sustancias que son más peligrosas que la sacarina; pero lo hacemos en dosis que son seguras porque están muy por debajo de los umbrales de toxicidad.

Por lo tanto, el objetivo de la inferencia debería ser no solo la pendiente de la curva de respuesta sino, por encima de todo, decidir si hay evidencia de un umbral y, de haberlo, estimar su magnitud. Por ejemplo, decirnos que un sustituto del azúcar podría producir un aumento de la incidencia del cáncer apenas detectable en dosis mil veces superiores a la que uno podría jamás encontrar en situaciones normales no es un argumento contra el uso de dicho sustituto; de hecho, el que haya que ingerir kilodosis para detectar efectos perniciosos es un evidencia concluyente no de su peligro sino de todo lo contrario.

Los efectos de las kilodosis son irrelevantes porque no tomamos kilodosis. En el caso del azúcar y sus sustitutos, la pregunta importante sería: ¿Cuáles son los umbrales de toxicidad comparados con las dosis normales?

Analizar datos en términos de un modelo que no contempla la posibilidad de umbrales es un prejuicio y puede conducir a conclusiones erróneas, independientemente de la calidad de los datos. Si aspiramos a detectar cualquier fenómeno, deberíamos usar un modelo que admita la posibilidad de que exista.

Enfatizamos este asunto en el prefacio porque conclusiones erróneas de esta naturaleza no solo generan ineficiencia económica, sino que crean riesgos para la seguridad y salud públicas. La sociedad tiene recursos limitados para lidiar con esos problemas, de modo que todo esfuerzo invertido en luchar contra peligros imaginarios significa que habrá peligros reales desatendidos. Todavía peor, el error es incorregible mediante la mayor parte de los procedimientos de análisis de datos actuales; una premisa falsa dentro de un modelo que no se cuestiona nunca no puede ser eliminada con nuevos datos. El uso de modelos que representan correctamente la información a priori que tienen los científicos acerca del mecanismo en cuestión puede prevenir esos errores en el futuro.

Un corolario del argumento del párrafo anterior: los nuevos datos que nos empeñamos en analizar en términos de las ideas antiguas (es decir, los modelos viejos que no cuestionamos) no nos pueden hacer abandonar las viejas ideas. Independientemente de los datos que obtengamos y analicemos, seguiremos repitiendo los mismos errores e ignorando los patrones cruciales que los experimentos podrían mostrarnos. Esto es a lo que puede conducirnos el ignorar información a priori.

Datos viejos analizados a la luz de ideas nuevas pueden darnos una visión completamente distinta de un fenómeno.

Cuando los datos están mutilados (o, usando el eufemismo habitual, “filtrados”) por su procesamiento de acuerdo con hipótesis falsas, hay información importante que puede destruirse irremisiblemente.