¿Cómo se escribía "verosimilitud" en francés en 1774?

Lo cuento luego, después del (por mí traducido) contexto:

La incertidumbre del conocimiento humano puede serla sobre los sucesos o de las causas de los sucesos; si se nos asegura, por ejemplo, que una urna encierra bolas blancas y negras en una proporción dada y se pregunta por el color de una bola extraída al azar, el suceso es incierto, pero la causa de la que depende la probabilidad de su existencia, es decir, la proporción de bolas blancas y negras, es conocida.

Organicemos un referéndum para determinar qué causa las mareas

Hasta hace un par de días no me había tratado de formar una opinión adulta sobre las causas de las mareas. Supongo que durante la EGB leí en algún sitio que era cosa de la gravedad y la luna y ahí lo dejé estar.

Hasta que leí esto. Que da cuenta de la discusión de un político muy antipático (es del UKIP, ¡uh, uh, uh!) con un tal Paul Nightingale, de profesión científico, acerca de la materia. Según el primero, son producto (entiendo que fundamentalmente) del sol; según el segundo, de la luna.

Encuestas electorales: una propuesta

No estoy muy al tanto de la regulación que afecta a la confección de encuestas electorales. Me consta la existencia de algunas normas, como la prohibición de publicarlas durante los últimos días de la campaña. No sé si fiarme de mi memoria a la hora de añadir alguna relativa a cuestiones técnicas, como la de que vayan acompañadas de una ficha metodológica.

Pero, y aunque sea alérgico a la regulación en general, me atrevo a apuntar una modificación que podría tener sus méritos. Está basada en algunas experiencias anteriores. Por ejemplo, la que sugiere este artículo del NYT. En él se cuenta cómo el periódico hizo llegar a cuatro grupos de expertos los datos brutos de una encuesta electoral en Florida. Los resultados obtenidos por esos grupos se resumen en la siguiente tabla:

¿Importa más la causalidad hoy en día?

Según este artículo, que explora la proporción de palabras relacionadas con la causalidad a lo largo de los dos últimos siglos, parece que sí (para el inglés).

Hice alguna búsqueda muy superficial en los n-gramas de Google y en español estoy obteniendo, precisamente, la tendencia contraria.

A ver si consigo el texto completo del artículo y, si encuentro un momento, trato de replicar lo que pueda. Y si alguien se me adelanta y me ahorra el trabajo, ¡tanto mejor!

Lo que va del 4.4% al 70%

Dice El País transcribiéndonos (¡gracias!) la nota de prensa del INE sobre la encuesta trimestral de coste laboral (ETCL) del segundo trimestre de 2016:

Solo el 4,4% de las compañías señala que si no contrata es porque el coste es elevado

Lo cual es cierto (por más que el solo aporte un matiz opinativo como tal discutible).

Pero una comparación con el titular,

El 93,8% de las empresas españolas dice que no necesita más trabajadores

Votos en la ONU con R

Inspirado por esto he generado

votos_onu

usando

library(unvotes)
library(reshape2)
library(gplots)

dat <- un_votes
levels(dat$vote) <- c("0", "-1", "1")
dat$vote <- as.numeric(as.character(dat$vote))
dat <- dcast(dat, rcid ~ country, value.var = "vote")
dat$rcid <- NULL
dat <- as.matrix(dat)
res <- cov(dat, use = "pairwise.complete.obs")

heatmap(res)

Se me olvidaba: el gráfico se refiere a los votos de los distintos países en la ONU.

Tal vez alguien quiera poner la lupa en algún país concreto. O explorar esos grupos de países que se ven tan bien avenidos. O, usando otros conjuntos de datos alternativos contenidos en el paquete unvotes, hacer un estudio por años o por temas concretos. O…

Tres metaprincipios estadísticos que se quedan en dos que se quedan en uno

Son:

  1. El principio de la información: la clave de un método estadístico no está basado en la filosofía subyacente o el razonamiento matemático, sino más bien la información que nos permite utilizar.
  2. El problema de la atribución, según el cual, el mérito de un análisis estadístico se lo lleva el procedimiento utilizado (por poner un ejemplo moderno, xgboost) y no quien lo aplicó.
  3. Y otro más que no acabo de entender del todo; o tal vez sí pero que no veo como encajar aquí.

Esos dos principios, tal vez a causa de mi actual estado epistemológico, los dejaría solo en el primero. Tenedlo en cuenta.

Un curso de 15 horas de introducción a la programación

Hoy comienzo a enseñar un curso de introducción a la programación para recién graduados que comenzarán un máster de matemáticas aplicadas con incursiones en la llamada ciencia de datos. Serán 4 sesiones con el siguiente contenido:

  • Sesión 1, programación imperativa: variables, condicionales y bucles.
  • Sesión 2, programación orientada a objetos.
  • Sesión 3, colecciones: listas, tuplas, conjuntos, diccionarios, etc.
  • Sesión 4, programación funcional: map, reduce, fold, foldLeft, scan, filter, etc.

Los lenguajes a utilizar serán R y Python (via Jupyter). No me he atrevido a añadir Scala (como ejemplo de cómo deben hacerse las cosas, además de ser un lenguaje, para variar, tipado y no interpretado) por falta de tiempo.

Hamilton al rescate de Metropolis-Hastings

El algoritmo de Metropolis-Hastings se usa para muestrear una variable aleatoria con función de densidad $p$. Permite crear una sucesión de puntos $x_i$ que se distribuye según $p$.

Funciona de al siguiente manera: a partir de un punto $x_i$ se buscan candidatos a $x_{i+1}$ de la forma $x_i + \epsilon$, donde $\epsilon$ es, muy habitualmente, $N(0, \delta)$ y $\delta$ es pequeño. De otra manera, puntos próximos a $x_i$. Un candidato se acepta (y se convierte en $x_{i+1}$) o se rechaza (y toca probar con otro) según los valores de $p(x_i)$ y $p(x_i + \epsilon)$: