Sorpresas en las sumas infinitas (VIII) Revisitando 1+2+3+4+…=-1/12 (?)

Students Need the Best Evidence, Not the Most Ancient Evidence

.

John Denker

¿Es la ‘suma’ de la serie 1+2+3+4+5+6+… igual a -1/12? Este resultado aparentemente desafía a cualquier intuición. ¿Es cierto que se trata de un resultado matemático serio? Y ¿cómo entenderlo, si es posible?

Adelanto ya las respuestas a esas dos preguntas. Sí, es un resultado serio. Y aunque sea sorprendente, éste resultado no está en contradicción con la respuesta alternativa 1+2+3+4+… = ∞ (¿cómo es ésto posible?). Y sí, se puede entender el resultado con un planteamiento elemental, que yo he aprendido de un magnifico post en el blog de Terence Tao, y que no he visto en ningún otro lugar. Esto es lo que quiero comentar hoy, para ir cerrando esta serie de posts dedicada a las sorpresas con las series infinitas.

El planteamiento que propone Tao no es el que recurre a la función zeta ζ de Riemann, que se condensa en dos relaciones para esa función, a saber, 1+2+3+4+5+6+… = ζ(-1) y ζ(-1)=-1/12. Tras esas relaciones se esconde la prolongación analítica de una función de variable compleja, un proceso nada elemental y poco intuitivo. El sentido de la igualdad 1+2+3+4+5+6+… = ζ(-1) es a lo sumo indirecto (por más que tal igualdad tenga cierto sentido), en contraste con la relación ζ(-1)=-1/12 cuyo sentido es directo. Trasladar la suma de la serie 1+2+3+4+5+6+… al valor de la función zeta de Riemann en s=-1 es una manera de dar un sentido al valor de esa ‘suma’, aunque no sea un proceso que se preste bien —salvo mero acto de fe para quien no conozca la prolongación analítica de las funciones de variable compleja— a dar una imagen razonablemente comprensible.

Las manipulaciones ‘directas’, como las que se hacen en el video de Numberphile —que comentamos en un post anterior— para concluir la relación 1+2+3+4+5+6+…=-1/12 no admiten ninguna justificación suficientemente aceptable y tales manipulaciones dejarán al lector un poco inquisitivo con la sospecha acertada de que incluso bordeen lo abiertamente incorrecto, por lo que sería mejor no considerarlas ‘demostraciones’ en ningún sentido.

Dentro de la idea general de que los estudiantes no necesitan la evidencia más antigua, sino la mejor evidencia, y comparando con el enfoque basado en la función zeta de Riemann me parece muy preferible escoger el argumento propuesto por Tao para probar esa relación. Este argumento, que no es demasiado conocido, es a la vez más elemental y accesible simplemente con los conocimientos básicos de análisis real. Y matemáticamente es tan impecable como el basado en la función zeta. Además de permitirnos entender el problema desde un punto de vista más amplio, este planteamiento ‘elemental’, nos enseña de paso mucho sobre el ‘sentido’ en Matemáticas.

La exposición requiere apartarse algo, pero no demasiado, de la idea tradicional de suma de series en el sentido de Cauchy, vía la secuencia de las sumas parciales. Recordémoslo brevemente. Una suma de un número finito de sumandos tiene un sentido inambiguo y tiene varias propiedades bien conocidas: añadir un sumando 0 deja la suma invariante, la suma es independiente del orden en que se vayan sumando los términos y son admisibles cualesquiera asociaciones de esos términos. Pero la extensión a un número infinito de sumandos requiere dar al símbolo a0+a1+a2+a3+… un sentido que no está dictado por el propio símbolo y que tendremos que asignar nosotros. La manera tradicional de hacerlo es considerar esa ‘suma’ como un límite de sumas finitas iteradas. Se considera así una sucesión de sumas parciales s0:=a0,  s1:=a0+a1,  s2:=a0+a1+a2 …,  sN:=a0+a1+a2+… + aN, cada una de las cuales está definida de manera inambigua al ser una suma de un número finito de términos, y se considera el comportamiento de esta sucesión de sumas parciales cuando N crece sin límite. Si esta sucesión es convergente a un valor a, se dice que la suma S de la serie a0+a1+a2+a3+… es S=a. Esta es la definición de Cauchy de suma de una serie convergente.

El enfoque que voy a exponer para la ‘suma’ de series como 1+2+3+4+5+6+…, a las que ninguno de los métodos presentados en los posts  anteriores ha permitido dar sentido, se apoya en dos ideas básicas: desarrollos asintóticos y sumas suavizadas. Ambas ideas son imprescindibles en este enfoque, y ambas pueden exponerse a un nivel elemental, que elude por completo la necesidad de recurrir al esquema basado en la función zeta de Riemann; conviene saber no obstante que los resultados que se obtienen en este enfoque elemental coinciden por completo con los que resultan del enfoque con la función zeta (lo cual, claro está, no es ninguna casualidad; se puede demostrar la relación existente entre ambos).

El telón de fondo sobre el que se desarrolla este enfoque se caracteriza por apartarse muy poco (diríamos, sólo lo mínimamente necesario) de la idea tradicional que emplea la secuencia de sumas parciales. Ese ‘poco’ consiste en reemplazar esas sumas parciales por sus versiones suavizadas, aunque algo esencial se mantiene: las sumas parciales suavizadas siguen siendo sumas finitas. Pero en vez de centrar la atención exclusivamente en el límite de la secuencia de sumas parciales suavizadas, se considera ahora, desde un punto de vista un poco más amplio, la estructura de la dependencia que esas sumas tienen en N; esa dependencia contiene más información que la que transporta el mero valor del límite cuando N→∞. El contexto matemático que corresponde al estudio de esta estructura es el de los desarrollos asintóticos, del que daremos solamente una descripción superficial.

En una cáscara de nuez: como ‘suma’ de una serie, posiblemente no convergente, debemos entender el término constante del desarrollo asintótico de las sumas parciales (suavizadas) en función de N.

Para que el tweet anterior adquiera sentido, es necesario discutir separada y sucesivamente los dos ‘ingredientes’ que se necesitan: Primero, comentar qué significa la frase ‘el término constante del desarrollo asintótico de las sumas parciales’ y después comentar qué son las sumas suavizadas y porqué tales sumas son interesantes en nuestro problema.

Desarrollos asintóticos

Solamente un primer contacto con los desarrollos asintóticos, sin entrar en detalles.

Para funciones f(N) y g(N) de una variable discreta N=0, 1, 2, … se introducen tres criterios de comparación cuando N→∞, que tratan de recoger la información esencial sobre como varían f y g comparativamente ‘en el infinito’, ignorando los detalles inesenciales. Son las ideas de asintóticamente acotada, asintóticamente menor y asintóticamente igual en donde ‘asintóticamente’ debe sobreentenderse aquí siempre como ‘asintóticamente cuando N→∞’.

Se dice que f(N) está asintóticamente acotada por g(N) (en módulo) y se escribe f(N)=O(g(N)) si el cociente |f(N)|/|g(N)| se mantiene acotado en un cierto entorno del infinito (esto es, para cualquier N mayor que un cierto valor N0).

Se dice que f(N) es asintóticamente menor que g(N) y se escribe f(N)=o(g(N)) si se tiene limN→∞ |f(N)|/|g(N)|=0. En estas condiciones, se dice también que g(N) es asintóticamente mayor que f(N). Por ejemplo, N = o(N2) o también 1/N = o(1).

Se dice que f(N) es asintóticamente igual a g(N) y se escribe f(N) ∼ g(N) si se tiene limN→∞ |f(N)|/|g(N)|=1. Por ejemplo, N3 + 106 N2 + 1012 ∼ N3.

Estas notaciones fueron propuestas por P.Bachmann a finales del S. XIX y popularizadas después por E.Landau y otros. El uso del signo = en ellas se debe a la tradición, aunque sería mas preciso emplear el signo de pertenencia, por ejemplo, decir que f(N) ∈ O(g(N)) y entender O(g(N)) como una clase, la de todas las funciones que están asintóticamente acotadas por g(N).

Se llama escala asintótica (en N→∞) a una secuencia de funciones de N, cada una de las cuales es asintóticamente menor que todas las que la preceden en la secuencia. Esta secuencia puede constar de un número finito o infinito de funciones. No hay ninguna escala asintótica ‘universal’ que sirva ‘urbi et orbe’; una que incluye suficientes funciones de comparación para hacer análisis asintótico significativo de la mayor parte de las funciones es: 2N, …, Ns, …, N3, N2, N, log N, 1, 1/N, 1/N2, …, 1/Ns, …, 2-N.

Una expresión como f(N) = N2 + 5 N – 2 log N + 2 – 1/N – (1/2)1/N2 obtenida como una combinación lineal formal de funciones de esa escala asintótica, cada una afectada por un coeficiente numérico independiente de N, proporciona el desarrollo asintótico de la función f(N) en esa escala. Se dice que el término dominante de ese desarrollo es, entre todas las funciones de la escala que intervienen con un coeficiente no nulo, aquella que es asintóticamente mayor que todas las restantes; en el ejemplo anterior, el término dominante es N2.

Los desarrollos asintóticos satisfacen la relación básica de linealidad: si f(N), g(N) son dos funciones cada una con un desarrollo asintótico dado relativo a la misma escala asintótica, el desarrollo asintótico de α f(N) + β g(N) es la combinación lineal ‘obvia’ de los desarrollos asintóticos de f y de g.

En un desarrollo asintótico pueden agruparse varios términos, según la finalidad buscada; tras esa agrupación el desarrollo colapsado sigue siendo correcto y, aunque contiene menos información que el desarrollo ‘completo’, puede seguir siendo útil para la finalidad que se pretenda. Por ejemplo, ya que cada una de las funciones 1/N, 1/N2, 1/N3, … es de orden asintótico menor que las que anteceden, es evidente que asintóticamente, cualquier expresión a1/N + a2/N2+ a3/N3 + … para coeficientes independientes de N pero por lo demás cualesquiera a1, a2, a3, … (que podrían formar parte del desarrollo asintótico completo de una cierta función) puede describirse correcta y alternativamente como o(1), o como O(1/N), o como a1/N + o(1/N), o como a1/N + a2/N2 + o(1/N2). Todas estas expresiones son correctas, pero la información que contienen no es equivalente, y va siendo más o menos detallada conforme dejamos explicitados menos o más términos a la vez que reducimos o ampliamos el residuo que se deja sin precisar completamente.

En particular, es claro que en un desarrollo que use la escala asintótica que dimos antes, cualquier combinación lineal de las funciones 1/N, 1/N2, …, 1/Ns, …, 2-N tiende a 0 cuando N→∞, y puede colapsarse de manera conjunta bajo la forma O(1/N), que indica que se trata de términos que colectivamente tienden a 0 cuando N→∞.

Por el contrario, si en el desarrollo asintótico de cierta función f(N) están presentes alguna de las funciones 2N, …, Ns, …, N3, N2, N, log N, entonces evidentemente |f(N)|→∞ cuando N→∞.

Volvamos ahora a la suma parcial sN, que es una función de la variable N, y que como tal admitirá una expresión como una cierta combinación lineal de cierto conjunto de funciones de una escala asintótica. Veamos algunos ejemplos.

La serie convergente 1+1/2+1/4+1/8+ … + 1/2n + … es una progresión geométrica de razón 1/2. Es inmediato dar una expresión exacta para la suma parcial N-ésima de esa serie:  sN:=1+1/2+1/4+1/8+ … + 1/2N-1 = 2 – 2/2N. Visto como desarrollo asintótico, el término constante 2 es el dominante, y el término, 2/2N es asintóticamente menor que 2 y cuando N crece sin límite tiende a 0 (muy rápidamente, de hecho) lo que basta para concluir que la sucesión sn es convergente, y que su límite vale 2. Así pues, para la suma de esa serie se tiene 1+1/2+1/4+1/8+ … + 1/2n + … = 2, que recupera el valor para esa suma que ya era conocido.

Vemos que, en este caso, que la serie sea convergente se traduce en que el término dominante del desarrollo asintótico de las sumas parciales es el término constante —que va con la función 1 de la escala— y que coincide con el límite de la sucesión de sumas parciales.

El ejemplo anterior corresponde a un resultado general: si en términos de la escala asintótica dada antes, el desarrollo asintótico de las sumas parciales sN de una cierta serie contiene solamente las funciones 1, 1/N, 1/N2, …, 1/Ns, …, 2-N, entonces la serie es convergente, y su suma, que es el límite cuando N→∞ de la secuencia sN, coincide con el término constante del desarrollo asintótico, que es el dominante en ese desarrollo.

Este enfoque nos proporciona un nuevo punto de vista: podemos ver las  series convergentes como aquellas en las que el desarrollo asintótico de la expresión de la suma parcial N-ésima no tiene ningún término que sea asintóticamente mayor que el término constante.

Lo interesante de esta manera de plantearlo es que las series que no sean convergentes también tienen una secuencia bien definida de sumas parciales sN, que tendrán su propio desarrollo asintótico en términos de una escala asintótica adecuada. Al no ser convergente, el desarrollo asintótico de esas sumas parciales sN contendrá términos diferente de los 1, 1/N, 1/N2, …, 1/Ns, …, 2-N.,  por ejemplo alguno de los 2N, …, Ns, …, N3, N2, N, log N.

Ahora interviene la linealidad de los desarrollos asintóticos: Si tenemos dos series diferentes, de términos generales an y bn, la suma parcial N-ésima de la serie α an + β bn tendrá como desarrollo asintótico la combinación lineal, con coeficientes α y β de los desarrollos asintóticos de las sumas parciales de las series an y bn. En particular, el término constante de ese desarrollo asintótico será la correspondiente combinación lineal de los términos constantes de las sumas parciales de cada una de las series. Como esta exigencia de linealidad con respecto a la serie ha sido, desde el principio de nuestra exploración, la exigencia básica que debe satisfacer la suma de una serie, vemos que podemos dar un nuevo sentido de ‘suma’ que ahora, en principio, podría ser aplicable a series no convergentes:

Podemos considerar como ‘suma’ de una serie an al término constante del desarrollo asintótico en términos de N de las sumas parciales sN de la serie, incluso si ese término constante no es el término dominante.

En las series convergentes el término constante del desarrollo asintótico de las sumas parciales sN de la serie es siempre el término dominante, y ese término coincide con la suma de la serie (en el sentido de Cauchy). Pero si la serie no es convergente, entonces este método de definir la ‘suma’ va bastante más allá y permite asignar ‘suma’ a series divergentes a las que diferentes métodos de sumación que hemos descrito en los posts anteriores no permiten hacerlo.

¿Qué valor de la suma de la serie obtendríamos con este procedimiento para la serie 1+2+3+4+…+n+…? La suma parcial ordinaria N-ésima vale sN:= 1+2+3+4+…+N = (N+1)N/2 = N2/2 + N/2 (se trata de la suma de los términos de una progresión aritmética) en la que el término dominante es N2/2, que crece sin límite cuando N tiende a infinito, y en la que el término constante es 0. ¿Significa eso que debemos tomar 0 como ‘suma’ de esa serie, en el sentido recién definido? Antes de dar una respuesta, debemos presentar la segunda idea necesaria en este enfoque, la de suma suavizada, lo que introducirá una interesante e inesperada sorpresa en relación con esta pregunta.

Lo que sí conviene tener bien presente es que en la relación 1+2+3+4+…+N = (N+1)N/2 = N2/2 + N/2 el miembro izquierdo solo tiene sentido si N es un entero positivo, mientras que el miembro derecho es un polinomio en N, que tiene perfecto sentido para cualquier valor real de N, visto como variable.

Nota histórica:

La formalización de la idea de desarrollo asintótico se debe a Poincaré (y a otros) comenzando a finales del S. XIX en relación con la solución de problemas de mecánica celeste. De hecho, es notable la cita de Poincaré

Hay un cierta incomprensión entre los geómetras y los astrónomos en relación con el sentido del término convergencia. Los geómetras [los matemáticos], a quienes concierne el absoluto rigor y no preocupa la longitud de los cálculos inextricables que conciben como posibles sin intentar llevarles a cabo de manera explícita, dirían que una serie es convergente cuando la suma de sus términos tiende a un límite definido, incluso si los primeros términos decrecen muy lentamente. Por el contrario, los astrónomos suelen decir que una serie converge cuando, por ejemplo, los primeros 20 términos decrecen muy rápidamente, incluso aunque los restantes crezcan para siempre.

Tomenos un ejemplo simple, considerando las dos series con término general Σ 1000n/n! y Σ n!/ 1000n. Los geómetras dirán que la primera serie converge, e incluso que converge rápidamente. […] Por el contrario, los astrónomos consideran la primera serie como divergente […] y la segunda serie como convergente. Las dos reglas son legítimas: la primera en las investigaciones teóricas; la segunda en las aplicaciones numéricas […]

Henri Poincaré, en el segundo volumen de Les Métodes Nouvelles de la Mécanique Céleste’, (1893)

Poincaré propone reconciliar ambos puntos de vista aclarando el papel que las series divergentes pueden jugar como aproximaciones de ciertas funciones: el ejemplo paradigmático es la vieja serie de Stirling. En estas observaciones de Poincaré se encuentra el origen de la teoría moderna de las expansiones asintóticas.

Sumas suavizadas

Pasamos a describir el segundo ingrediente importante de este enfoque del problema: las sumas suavizadas (smoothed sums).

En la definición tradicional de las sumas parciales asociadas a la sucesión a0, a1, … aN… , en la suma sN, intervienen los elementos a0, a1, … aN, todos con el mismo peso igual a 1, y todos los sucesivos no intervienen (o, lo que es lo mismo, lo hacen con peso 0). En consecuencia, cada suma parcial es una suma finita de N+1 sumandos, lo que queda adecuadamente presentado en la siguiente tabla:En nuestra investigación sobre la posibilidad de asignar ‘suma’ a otras series que no fueran convergentes, la siguiente etapa fue introducir la sumación de Cesàro, en la cual se efectuaba un promedio adicional sobre la secuencia de sumas parciales sN, para obtener una nueva secuencia, que en su momento llamamos ‘sumas parciales de segundo orden’ y denotamos σN. Basta expandir cada σN expresandola en términos de los elementos a0, a1, … de la serie para comprobar que cada σN sigue siendo una expresión lineal de los mismos elementos a0, a1, … aN, pero ahora con pesos diferentes y decrecientes, como muestra la tabla siguiente:(tambien podemos imaginar, por supuesto, que en cada σN todos los am posteriores al aN intervienen con peso 0).

El que mediante la sumación de Cesàro se pudiera ampliar el conjunto de series ‘sumables’ nos sugiere explorar la posibilidad de ampliar el conjunto de series ‘sumables’ mediante cierta modificación en el conjunto de los pesos con los que intervienen los a0, a1, … en cada σN.

Una manera sistemática de implementar esta idea es ver que tanto las sumas parciales ordinarias como las de Cesàro se pueden imaginar como asociadas a sendas funciones de una variable real, genéricamente denotada η(x), definida en la semirecta positiva, con soporte en el intervalo [0,1] y que sirve para establecer los pesos que en las dos tablas anteriores aparecen resaltados en rojo.  Los pesos de a0, a1, … aN en la suma parcial σN asociada a una función η(x) son los valores de la función η(x) en x=0, x=1/(N+1), … x= N/(N+1), que junto con x=1 son un conjunto de N+2 puntos equiespaciados en el intervalo [0,1].Cuando se escoge como función η(x) la función característica del intervalo [0,1] este esquema produce las sumas parciales ordinarias:

mientras que si se toma como función η(x) la dada en la figura siguiente

lo que resulta para las σN son, directamente, lo que antes habíamos llamado las sumas parciales de segundo orden de Cesàro. Las dos figuras siguientes ilustran el proceso que da lugar a los pesos que aparecen en las sumas parciales σN para N=25, 50 en los dos casos de las sumas tradicionales y las de Cesàro.

¿Qué nos enseñan, en este contexto, estas dos elecciones? La función η(x) ordinaria presenta una discontinuidad de salto en x=1. La de Cesàro es continua, y es su primera derivada la que presenta una discontinuidad en x=1.

En su momento vimos que el procedimiento de Cesàro permitía asignar suma a todas las series convergentes y además a algunas divergentes. ¿Acaso tiene esta última propiedad alguna relación con el hecho de que la η(x) de Cesàro sea algo más ‘suave’ que la ordinaria? A primera vista no se percibe que pueda existir alguna relación. Pero la hay. Aquí me limito a constatarlo, y el lector interesado puede referirse al post de Tao (hay una descripción comentada en mis notas). Lo que ocurre es que las sumas parciales tradicionales, con su truncación abrupta, exhiben artefactos que se deben a la discretización —que surgen al aproximar una suma discreta por un polinomio—, artefactos que comienzan a desaparecer o a ser menos importantes conforme se va tomando una función de suavizado más suave, proceso del que la función de suavizado asociada a las sumas de Cesàro puede verse como el primer paso.

Esta simple observación sugiere considerar unas ‘sumas parciales suavizadas‘, construidas en términos de una ‘función de suavizado‘ η(x), a la que debemos exigir en cualquier caso que sea acotada, de soporte compacto en [0,1] y con η(0)=1. Aparte, esa función puede tener diferentes grados de regularidad; es posible ir escogiendo progresivamente funciones de suavizado más y más suaves, llegando hasta la posibilidad de que las funciones sean de clase C, esto es, continuas y con derivadas continuas de cualquier orden en toda la recta real positiva.

El ejemplo estandar de tales funciones, que existen para variable real, es la ‘gaussiana compacta‘ definida como η(x)=exp(x2/(1-x2)) en el intervalo [0,1] y nula para x>1, cuya gráfica es:

Las dos gráficas siguientes ilustran el proceso que da lugar a los pesos que aparecen en las sumas parciales σN asociadas a esa función de suavización ‘gaussiana compacta’ para N=25, 50 y para N=100, 200.

La segunda de estas dos figuras muestra claramente que cuando N es muy grande, el patrón de los pesos con los que intervienen los elementos a0, a1, … se va ‘pareciendo’ al que tenían en el caso ‘tradicional’, lo que al menos de manera heurística justifica que sigamos considerando a esa suma suavizada como la ‘suma’ a0+a1+ ….

Pero, claramente, la suma suavizada no es la que suma que pretendíamos estudiar, y no sólo esto, sino que la función de suavización puede escogerse de una infinidad de maneras, incluso exigiéndola que sea suave, esto es, de clase C. El lector inteligente estará en este momento a punto de perder la paciencia. Parecería que estamos embarcados en una huída hacia adelante. Pero, como en tantas otras ocasiones, aquí también las apariencias engañan. ¿En qué sentido?

El resultado crucial es doble. En primer lugar, los desarrollos asintóticos de las sumas suavizadas tienden a hacerse más simples cuanto más suave sea la función de suavización. Se trata de una tendencia. Por ejemplo, comparemos los desarrollos asintóticos de las sumas parciales asociadas a la serie 1+2+3+4+… empleando:

Sumas tradicionales: sN = N2/2 + N / 2.

Sumas suavizadas con función de clase C: σN = c1 N2 – 1/12 + O(1/N).

Hay tres aspectos que marcan la diferencia entre estos desarrollos. En las sumas suavizadas el término dominante sigue siendo N2, y va afectado por un coeficiente c1 que depende de la función de suavizado. El término en N ha desaparecido. Aparece un resto O(1/N), que tiende a 0 cuando N→∞ y que no estaba presente en las sumas tradicionales. Pero lo esencial es que hay un término constante, que vale precisamente -1/12 y que es, y esto es lo realmente inesperado, independiente de la función de suavizado.

Este resultado es muy destacado. En primer lugar, vemos que siendo positivos todos los términos de la serie, sus sumas parciales suavizadas son también positivas, y el término dominante en el desarrollo asintótico c1 N2 también lo es. Naturalmente esto corresponde a que el valor +∞ es indudablemente un valor razonable para asignar a la suma de esa serie que es divergente. No hay ninguna contradicción con que el término constante en ese desarrollo, que es asintóticamente menor que el dominante, sea negativo y valga -1/12. Lo que es auténticamente notable es que ese valor sea el mismo para cualquier elección de una función de suavizado que sea de clase C.

Si extendemos a las sumas parciales suavizadas la idea de considerar como suma de una serie el término constante en el desarrollo asintótico de las sumas parciales suavizadas, incluso en aquellos casos en los que el término constante no sea el dominante, esto nos conduce a que, para cualquier función suave η(x) que satisfaga las condiciones requeridas a una función de suavización, la ‘suma’ de la serie 1+2+3+4+…, entendida como el valor del término constante en el desarrollo asintótico de las sumas parciales suavizadas, es igual a -1/12.

Por tanto, vemos que el valor constante 0 que aparece en el desarrollo asintótico de las sumas tradicionales es realmente una excepción, un artefacto del uso de unas sumas parciales tradicionales cuyo patrón presenta una discontinuidad brusca. Si reemplazamos ese patrón por el asociado a cualquier función de suavización suave (que sea ella continua y que tenga todas las derivadas continuas), entonces el término constante vale siempre -1/12, sea cual sea la función de suavización.

En otras palabras, la sumación parcial con una función que no sea suave crea artefactos que oscurecen la estructura asintótica de las sumas parciales suavizadas.

Solo he arañado la superficie de este asunto. Quedan muchas preguntas. En primer lugar, ¿porqué -1/12? Realmente ese valor es -B2/2 que viene del segundo número de Bernoulli B2=1/6 y que, en última instancia proviene del uso de la fórmula de Euler-MacLaurin para relacionar las sumas discretas (suavizadas) con integrales de las ‘mismas’ funciones vistas ahora como función de una variable real. La fórmula de Euler-MacLaurin es la herramienta básica para encontrar los desarrollos asintóticos análogos al que he dado antes. El post de Tao expone los detalles y las pruebas pertinentes para las series de potencias 1s + 2s + 3s + 4s+ …, y aquí puede encontrarse una exposición más expandida del problema, desde las fórmulas clásicas de Faulhaber-Bernoulli para las sumas de potencias hasta el análisis de cómo las sumas suavizadas permiten llegar a los resultados análogos al expuesto en este post para esas series de potencias.

En otras palabras, mientras que la relación 1+2+3+4+5+… = -1/12 escrita así y sin ningún caveat es bastante engañosa (y genera una justificada incredulidad o incluso rechazo), si se entiende en términos asintóticos como 1+2+3+4+5+…+N = c N2 – 1/12 + O(1/N)
el asunto queda bastante más claro: la igualdad se refiere ahora al comportamiento asintótico de la suma suavizada con la función de suavización (a veces también llamada de cutoff) η y el coeficiente c dependerá de esa función, pero el término constante, que es el que se considera como ‘suma de la serie’ no depende de η.

Llegamos a la pregunta final: ¿tiene sentido reemplazar sin más la serie divergente 1+2+3 +4+5 + … por el valor – 1/12? La respuesta es que en general, todo depende del contexto y de la cantidad que realmente estemos intentando calcular. En aquellos casos en los que, por el planteamiento del problema, lo que se pretenda significar sea realmente, la diferencia entre dos cantidades infinitas simbolizada por (1+ 2 +3 +4 +5 + …) – ∫0 x dx (y esto ocurre especialmente en cálculos de teoría cuántica de campos), entonces la respuesta debe ser . Esto se describe a veces de una manera que parece una tontería, (pero que dista mucho de serlo) diciendo que en un problema dado, el término dominante c N2 del desarrollo asintótico de la suma parcial suavizada puede ‘ignorarse’ frente al término constante.

Debemos ver pues la cuestión en la siguiente óptica. Si se entiende la relación anterior como involucrando a una serie convencional (1+ 2 +3 +4 +5 + …) y a la versión ‘continua’ de esa suma, que sería la integral ∫0 x dx, consideradas ambas aisladamente y de manera independiente, cada uno de los dos términos en esa relación es infinito, y su diferencia parecería ser por tanto indeterminada. Pero si entendemos esa relación en el contexto de las sumas suavizadas, entonces lo que la relación nos dice, escrito sin ningún sobreentendido, es que la diferencia entre la serie ‘suavizada’ y la integral de la función ‘suavizada’ es un valor finito unívocamente definido, e independiente de la función de suavizado. Este es el caso cuando se aplica esta relación, por ejemplo, en el cálculo de la fuerza de Casimir.

Espero poder, en breve, cerrar esta serie comentando con algo más de detalle, las crípticas observaciones previas. Pero dado el desconsiderado lapso temporal 😦 que ha separado esta entrada de la precedente, tampoco puedo prometer mucho 🙂

Publicado en Matemáticas, Mecánica Cuántica | Etiquetado , , , | 1 Comentario

Contra la estupidez …

Pues los dioses perciben los hechos futuros;
los hombres, los ya ocurridos;
los sabios, los que se aproximan.

.

Filóstrato, Vida de Apolonio de Tiana, VIII, 7

Y si es verdad que los sabios perciben los hechos que se avecinan, habremos de concluir que el brillante texto que enlazo a continuación, escrito en 1988 por Carlo M. Cipolla, estuvo escrito por un sabio. El texto no ha perdido actualidad sino seguramente todo lo contrario. Y es que el intento (inalcanzable) de entender la estupidez ha sido un tema de interés a lo largo de la historia. Ya Erasmo satiriza sobre el asunto en su ‘Elogio de la estupidez’. Para Oscar Wilde, en ‘El crítico como artista’, ‘no hay pecados aparte de la estupidez’, y Schiller, en su obra ‘La doncella de Orleans’, escribe una frase que luego popularizó Isaac Asimov en su novela ‘Los propios dioses’ y que también menciona Cipolla en su trabajo, reconociendo que ‘contra la estupidez, hasta los propios dioses luchan en vano’. Y un aforismo antiguo, popular y repetido aconseja que  ‘nunca atribuyas a la maldad lo que puede ser explicado por la estupidez’.

Como descanso de cierre de curso, les dejo el texto publicado como ‘Allegro ma non troppo: Las Leyes fundamentales de la Estupidez Humana’ por Carlo M. Cipolla. Se lee en un rato, nos hará sonreir y enarcar las cejas y al tiempo nos puede hacer reflexionar, ya que un fino y certero análisis subyace a su estilo aparentemente superficial, desenfadado y algo sarcástico. Que lo disfruten.

 

Publicado en Sociedad | Etiquetado , , | 2 comentarios

La puerta en el tiempo: el grabado que Escher no hizo.

Hay grabados que Maurits Cornelis Escher proyectó pero no llegó a concluir. Uno de ellos trataba sobre una puerta en el tiempo; al parecer, Escher lamentaba mucho no haber terminado ese grabado en particular.

No es posible siquiera imaginar el grabado final que podría haber resultado del desarrollo de ese proyecto. Pero tenemos cierta información de primera mano sobre lo que Escher había pensado para su composición, lo que indica que estuvo realmente interesado y había reflexionado bastante sobre la idea.

Los pasajes mágicos han sido tradicionales en el acervo literario mundial: hay muchos cuentos sobre puertas encantadas, marcos aparentemente inútiles que, al ser franqueados, dan paso a un espacio totalmente distinto. Vienen rápidamente a la mente el agujero del conejo blanco en Alicia, o la Puerta de las estrellas en 2001, pero hay muchos más. El grabado ‘Night Reading‘ del polaco Jacek Yerka en 2013 representa bien la idea de que esa puerta suele estar en los libros.

Night Reading, Fuente: página web de Jacek Yerka

El 4 de junio de 1963 Johan Adolf Sparenberg, un profesor en Groningen que había hecho su tesis sobre el problema de Riemann-Hilbert, visitó a Escher para proponerle un diseño, inspirado matemáticamente por la estructura de las superficies de Riemann de las funciones analíticas multivaluadas. En ese diseño, la puerta podría ser en el tiempo, conectando dos mundos en dos épocas diferentes. Sparenberg sugirió a Escher un boceto para esa ‘Puerta mágica‘: para establecer la línea del horizonte sirve el mar, en el que se ven una ballena y un barco, y en la tierra hay algunos animales y un árbol cuyas ramas parecen contornear un círculo. Una niña se dispone a atravesar ese círculo, dentro del que se ve otro paisaje: suaves colinas, una casa y un avión volando. Hay una conexión simbólica entre pasado y presente a través de unos cables telegráficos, con sus viejos postes, que persisten a lo largo del salto en el tiempo y conectan ambos mundos.

El 18 de junio de 1963 Escher responde a Sparenberg en una carta, actualmente conservada en la Fundación Escher. En ella dice:

La idea es tan fascinante que espero tener la paz, la quietud y la concentración para trabajar tu plan en forma gráfica.

Con objeto de ser más claro llamaré a tus “dos espacios” Pr (al presente) y Pa (al pasado). Fue sólo tras un examen minucioso de tu dibujo que la clave se me reveló y entonces descubrí que Pr podía ser no sólo un vacío en Pa sino un contorno que cubriera parte de Pa.

[… Pero] el área dedicada a Pa es mucho mayor que la dedicada a Pr. ¿Es acaso el pasado más importante que el presente? Ya que aquí se muestran como “momentos” me parecería más lógico y estéticamente más adecuado que desde el punto de vista de la composición el espacio dedicado a ambos tiempos fuera el mismo.

Para lograr tal equivalencia te mando un diagrama […]

En el centro dos áreas se hallan cerca una de otra; la de la izquierda es la del pasado (Pa), rodeada del presente (Pr) y la de la derecha es el presente (Pr) rodeada del pasado (Pa).
Cuando pienso en el flujo del tiempo me doy cuenta de que se mueve del pasado, vía el presente, rumbo al futuro. Si dejamos el futuro fuera de nuestra consideración (pues resulta totalmente desconocido y por tanto no puede describirse) hay una corriente que va del Pasado (Pa) al Presente (Pr). Sólo los historiadores y los arqueólogos tienen pensamientos que se mueven en dirección contraria; tal vez yo deba imaginar así también el flujo del tiempo.

Pero la corriente lógica del Pasado (Pa) a Presente (Pr) puede ilustrarse mediante una serie en perspectiva de criaturas prehistóricas en vuelo que disminuyen hacia el horizonte y que conservan su apariencia (en su dominio del Pasado (Pa)) hasta que llegan a la frontera del Presente (Pr). En el momento en que cruzan la frontera se transforman, por decir algo, en aviones que corresponden al dominio del presente.

Existe una ventaja más en cuanto a que las dos corrientes pueden representarse de tal modo que aquella a la izquierda del horizonte que sale del Pasado (Pa) aumenta en tamaño en cuanto se dirige hacia el Presente (Pr); y el área a la derecha del Pasado (Pa) se aleja y se reduce del área del Presente (Pr).

En resumen, en el esbozo que imaginó Escher coexisten el presente y el pasado que comparten una especie de frontera mágica. El mundo del presente rodea al del pasado y viceversa, gracias a la sinuosidad de la frontera. La marcha del pasado al presente (flecha de arriba) se representaría como animales prehistóricos que según van haciéndose más pequeños se convierten en aviones al traspasar la frontera. La inversa (flecha de abajo) podrían ser historiadores y arqueólogos que van en la dirección contraria …

Solo podemos lamentar que Escher no llegara a realizar ese grabado. Aunque bien mirado, hay varios otros de sus dibujos en los que están representados, de otras maneras, esos “pasajes” entre realidades distintas; quizás el más espectacular es el ‘Espejo mágico‘ que juega también con el paso de dos a tres dimensiones.

Hay otro grabado del húngaro Istvan Orosz, que mediante un truco de espejos traduce esta idea de la puerta mágica entre dos mundos en distintas épocas; la idea está muy bien ejecutada aunque no recoge el esquema compositivo completo del proyecto de Escher, pero a través de la referencia a Giovanni Arnolfini tras la puerta nos retrotrae eficazmente a un pasado que no es lo que existe tras la puerta en el presente:

Fuente: Página web de Istvan Orosz

Pero si bien Escher no lo concluyó, al menos hay otro artista que hizo un intento de seguir fielmente las ideas sobre la composición que Escher había elaborado y comentado a Sparenberg: John Edward Spencer King, un artista inglés, principalmente escultor, afincado en México y fallecido en 2005. Debemos a Hernán Lara Zavala una narración muy detallada de cómo Spencer se vió implicado en ese proyecto inconcluso. Desgraciadamente la (única) reproducción que yo he localizado de los dos diseños de Spencer, que parecen sugestivos en su concepción y que probablemente no pasaron de ser unos bocetos, es en la versión on-line del artículo en el número especial de la revista Diagonales dedicado al tiempo, publicado en 1987. La imagen del diseño de Spencer no tiene gradación de grises, lo que no permite más que imaginar lo que Spencer quería plasmar. Vean uno de ellos y el texto con que Hernán lo describe:

En la esquina superior, se ve un grupo de pterodáctilos en pleno vuelo a luz del día. Tan pronto penetran en la noche se convierten en aviones y se pierden en el horizonte. Cuando los aviones atraviesan la siguiente línea del horizonte sufren otra metamorfosis como pterodáctilos que surgen del día vuelan sobre el mar y entran a un presente nocturno de free-ways adoptando una vez más la forma de aviones jet. En el área del día se ve a los dinosaurios en la tierra y algunos otros animales nadando en las aguas oscuras; en el ámbito de la noche encontramos lo que parece ser una pequeña ciudad sobre un monte y un mundo de carreteras y meandros de asfalto.

En el área de la noche tachonada de estrellas, se ven dos barcos cuyos reflejos se hunden en el agua; con ello Spencer ilustra el mundo superior e inferior y evoca otra imagen usada antes por él en su trabajo La Torre de Shakespeare en donde la barca de Cleopatra se disuelve en el Nilo a través de su reflejo en tanto la mente de la heroína se disuelve pensando en el río Tíber.

¿Llegaremos a ver alguna vez un grabado así, acabado? Quizás sea mejor que tan solo lo debamos imaginar.

Y permítanme cerrar este post escuchando Scarborough Fair / Canticle, en la versión en directo grabada por Paul Simon y Art Garfunkel, acompañados por Andy Williams. Scarborough Fair es una canción tradicional inglesa, que se rastrea en el pasado hasta el S. XVI, con un texto algo enigmático y un atractivo intemporal. A esa balada, Simon y Garfunkel superpusieron, sinuosamente, un cántico antibelicista (estábamos en 1968). Pero escuchénla, que merece la pena. Reproduzco más abajo la letra que creo completa, aunque en esta versión la primera estrofa del Canticle se desplaza al lugar de la segunda, que se omite (aquí la versión completa, la publicada en el disco):

Are you going to Scarborough Fair
Parsley, sage, rosemary and thyme
Remember me to one who lives there
She once was a true love of mine

Tell her to make me a cambric shirt
      (On the side of a hill in the deep forest green)
Parsley, sage, rosemary, and thyme
      (Tracing a sparrow on snow-crested ground)
Without no seams nor needle work
      (Blankets and bedclothes the child of the mountain)
Then she’ll be a true love of mine
      (Sleeps unaware of the clarion call)

Tell her to find me an acre of land
      (On the side of a hill, a sprinkling of leaves)
Parsley, sage, rosemary and thyme
      (Washes the grave with silvery tears)
Between the salt water and the sea strand
      (A soldier cleans and polishes a gun)
She’ll be a true love of mine

Tell her to reap it with a sickle of leather
      (War bellows blazing in scarlet battalions)
Parsley, sage, rosemary and thyme
      (General order their soldiers to kill)
And gather it all in a bunch of heather
      (And to fight for a cause they’ve long ago forgotten)
Then she’ll be a true love of mine

Are you going to Scarborough Fair
Parsley, sage, rosemary and thyme
Remember me to one who lives there
She once was a true love of mine

Y es que Canticle, yuxtapuesta a la balada tradicional, es una versión modificada de ‘The side of a Hill‘, otra canción anterior de Paul Simon, cuyo elíptico texto usa una imaginería que parece referirse a la Guerra de Independencia de EEUU, mientras que el no menos elíptico texto de Scarborough Fair es probablemente una referencia intemporal a la pérdida del ser querido, a quien no se podrá recuperar, lo que se traduce en la letra mediante la exigencia de tareas evidentemente imposibles: hacer una camisa sin costuras (ignorando el curioso doble negativo), encontrar una finca entre el mar y la playa, …

Seguramente es esa ambigüedad del doble texto la que le da buena parte de su fuerza; quizás otra es la escala diatónica dórica de la vieja canción inglesa que Simon y Garfunkel respetaron escrupulosamente. La coexistencia de dos canciones en una sola coloca a Scarborough Fair / Canticle en un nivel comparable al del grabado de Escher: al igual que Escher pretendía que en su grabado coexistieran el pasado y el presente, Simon y Garfunkel supieron superponer, sinuosamente, la canción tradicional con otro cántico antibelicista, para dar al conjunto un nuevo sentido.

Cuídense y ¡ Salud !

Publicado en Uncategorized | Etiquetado , , , , , , , | 4 comentarios

La evolución de la pandemia: ¿qué nos dicen los modelos?

“De aquí a una década, podremos estar mucho mejor preparados para una epidemia letal si estamos dispuestos a poner en preparación para la epidemia una fracción de lo que gastamos en presupuestos de defensa y nuevos sistemas de armas.”

Bill Gates, Enero 2018.

En estos tiempos de confinamiento, y ya que la obra está escrita precisamente para un día como hoy y además es oportuna, mientras leen pueden tener de fondo sonoro esta magnífica versión de la Troisième Leçon de Ténèbres, de François Couperin, interpretada por Montserrat Figueras y Maria Cristina Kiehr.

Hace unas semanas, un colega y amigo me hizo llegar las transparencias de una presentación que Jim Yorke había dado en Maryland unos días antes: ‘Coronavirus: Transmision Dynamics and Control’. Jim Yorke es uno de los referentes mundiales en investigación en Caos, y fue él quien propuso en 1975 el uso moderno del término Caos en su influyente artículo con Li ‘Period 3 implies chaos’. Las transparencias se ofrecían para su distribución pública y estudiaban el efecto de medidas de contención basadas en el distanciamiento social. En esa charla se empleaba una variante discreta simple del modelo SIR que describe la propagación de epidemias, un modelo básico y robusto de propagación de epidemias.

En los días siguientes se comenzó a ver como prioritaria en nuestro país la necesidad de aplanar la curva para evitar la previsible sobrecarga en el sistema hospitalario que un pico de infectados demasiado intenso causaría, precisamente una de las consecuencias beneficiosas de las medidas que Yorke señalaba. Y entonces llegaron las primeras medidas establecidas desde el Gobierno, un confinamiento parcial de menor duración que las que proponía Yorke.

Me entretuve un día en elaborar unos cuadernos de Mathematica para replicar y explorar lo que Yorke proponía; esta entrada presenta los resultados de esa exploración: los patrones cualitativos de evolución de una epidemia como la que nos asola, junto con simulaciones con los resultados esperables de las medidas de distanciamiento social y de contención de la epidemia que se siguen de ese modelo, muy simple pero adecuado para una aproximación de orden cero.

Según han ido pasando los días, la evolución de la epidemia, y la lectura de artículos o entrevistas más informadas de epidemiólogos parecen indicar que, tomadas cum grano salis esas simulaciones no están tan descaminadas. Lo que conozco de la modelización de la dinámica de poblaciones a través de sistemas dinámicos es suficiente para saber que una característica de las variantes simples de esos modelos es que, aunque no sean nada precisos, ni literalmente ni incluso en grandes detalles, su validez y aplicabilidad cualitativas son extraordinariamente robustas y en cierto sentido inescapables. A esos modelos podría aplicarse, parafraseada, la repetidamente citada frase que Minkowski escribió en el trabajo en el que introducía la interpretación geométrica de la Relatividad: ‘Estas concepciones son radicales y provienen de la experiencia. En ello estriba su fuerza

Me centraré pues en traducir las respuestas que da ese modelo a unas cuantas preguntas. Que desgraciadamente no pueden aliviar en nada el daño y dolor incalculable que está situación está causando, y que hace solo muy poco tiempo eramos incapaces de imaginar que se pudiera convertir en realidad.

Como esta entrada es bastante larga, indico aquí el esquema de los apartados, para que quien tenga interés especial en un apartado concreto pueda hacer scroll hasta allí directamente. Lo más interesante, creo, son las gráficas que muestran como depende la evolución del número inicial de susceptibles (6), y las de los efectos de cambiar los parámetros de las medidas de distanciamiento (10 a 13).

  • 1. ¿Es exponencial la evolución de una epidemia?
  • 2. Lo que es nuevo para el CoVid19
  • 3. El modelo SIR de propagación de epidemias.
  • 4. Viendo las evoluciones predichas por los modelos
  • 5. La evolución ‘laissez faire, laissez passer‘ o BoJo v.0
  • 6. ¿Cómo depende la evolución de una epidemia de cuantos susceptibles haya inicialmente?
  • 7. La letalidad de la epidemia y la saturación del sistema hospitalario
  • 8. ‘Aplanar’ la curva
  • 9. ¿Como modelar esa estrategia de control?
  • 10. Intervenir muy pronto o menos pronto
  • 11. Intervenir con poca intensidad o con mucha
  • 12. ¿Qué nos dice este modelo simple sobre la evolución previsible tras 2 + 2 ‘semanas’ de distanciamiento?
  • 13. Medidas adicionales, ¿de qué tipo?
  • 14. Conclusiones

1. ¿Es exponencial la evolución de una epidemia?

La propagación de una epidemia del estilo de la actualmente causada por el CoVid19 está caracterizada, sobre todo, por un valor, denotado R0, y llamado índice reproductivo que determina, en promedio sobre grandes poblaciones, a cuantas personas en total infecta quien ha sido infectado.

Desde los primeros datos sobre la evolución de la epidemia en China, hemos sabido que el valor R0 para el CoVid19 parece estar entre 2 y 3, y que el tiempo en que un infectado resulta infeccioso para otras personas está entre 4 y 12 días, así que su orden de magnitud es de una semana, que tomaremos para el modelo simple como el intervalo de tiempo en que un enfermo puede infectar a otros, y también como el intervalo de tiempo en que un enfermo supera la enfermedad.

La primera observación importante es que lo robusto en las predicciones del modelo son las tendencias y no los detalles. Ese modelo que emplea hipótesis simplificadoras como asimilar los tiempos en los que un infectado es infeccioso con el de incubación y el de evolución de la enfermedad, pero resulta predecir, grosso modo, las mismas tendencias que si tuviéramos en cuenta que esos tiempos son diferentes entre sí (que desde luego lo son) o si fueran realmente la mitad o el doble de una semana. Un modelo con muchos más parámetros, que epidemiológicamente es imprescindible, lo presentaba aquí el viernes pasado Iván Rivera. Del modelo de juguete que se discute aquí solo podemos tener confianza en que recoja tendencias. Eso es, ahora, lo único que nos concierne.

Por ‘semana’ aquí entenderemos pues ese cierto periodo de tiempo, cuya duración podría ser la de una semana real de 7 días, o quizás un poco diferente, pero no demasiado diferente (pero en muchas ocasiones omitiré las comillas; deberá sobreentenderse que casi siempre semana se referirá a ese periodo de tiempo, no precisamente a siete días). Supongamos que inicialmente, en la ‘semana 1’, tenemos un solo enfermo en un grupo grande e interconectado de población, por ejemplo en una ciudad. Si suponemos que R0 vale 2, y nos quedamos en el nivel de análisis más simple, resulta que por cada infectado que haya la primera ‘semana’ habrá dos la segunda, cuatro enfermos la tercera ‘semana’, ocho la cuarta, …. El mecanismo es el mismo que el del crecimiento del número de los granos de trigo que pedía al rey el inventor del ajedrez en la vieja leyenda. En otras palabras, parece que estamos ante un crecimiento exponencial del número de enfermos. Esta idea la hemos escuchado hasta la saciedad.

Parece claro. Pero ¿es así o no? Pues NO. La evolución real de cualquier epidemia, a largo plazo, e incluso sin ninguna intervención, no PUEDE ser exponencial. En sí mismo, esto es una total obviedad; si no fuera así, toda la humanidad, o un continente o una ciudad hubieran sucumbido a la primera epidemia de un virus o bacteria que fuera a la vez nuevo y suficientemente letal: a la Peste Negra en Europa a mediados del S. XIV, a la gran peste de Londres en 1666, a la gripe del 18 incorrectamente llamada gripe española, de extensión mundial, etc. Y ahora mismo, el contagio acabaría llegando a todos los habitantes de una ciudad como Madrid tan solo 23 ‘semanas’ después de que hubiera un único infectado inicial. Es manifiesto que tal cosa no ocurre. Así que la dinámica de una tal epidemia, en toda su extensión temporal, no es exponencial.

¿Porqué la evolución real no puede seguir el crecimiento exponencial que la propia definición del índice reproductivo sugiere?

La explicación en cápsula: el crecimiento ‘natural’ de una tal epidemia es exactamente exponencial solo si la totalidad de la población es susceptible de ser infectada, lo que significa que no haya ninguna persona inmune. El crecimiento real de la epidemia se va separando del crecimiento exponencial conforme hay infectados que se recuperan, pasando entonces a ser inmunes.

Lo que significa que el crecimiento solo es muy aproximadamente exponencial en las primeras fases de la epidemia y solo para epidemias para las que nadie en la población tenga inmunidad previa.

Esto establece una distinción muy relevante entre la epidemia de un virus nuevo, como CoVid19, con la propagación de virus ‘antiguos’ como los de las varias mutaciones del virus de la gripe o el del sarampión. Y quizás no se ha insistido lo suficiente en esa diferencia, que ha llevado a mucha gente a pensar que lo que se nos venía encima era solo como una gripe ordinaria, cuando la situación es totalmente diferente.

En una enfermedad ‘antigua’ como la gripe ordinaria cuyo R0 está en torno a 1.3, actualmente una fracción importante de la población resulta ser inmune, bien por haberla sufrido antes o por haber sido vacunado. Así una parte de los contactos potencialmente infectantes que pueda tener un infectado con otras personas a las que podría transmitir la enfermedad lo serán con personas que ya son inmunes, y esos contactos no serán efectivos para transmitir la enfermedad. En términos cuantitativos, si el 40% de la población es previamente inmune, y la fracción de población susceptible de ser infectada es por tanto del 60%, el número medio de contagios producidos por cada enfermo de gripe en esa situación no será igual al valor ‘desnudo’ de R0=1.3 sino que se habrá reducido a R = 1.3 * 0.6 = 0.78. Los epidemiólogos llaman a tal valor R ‘índice reproductivo efectivo‘, que en la evolución de la epidemia se va reduciendo desde su valor ‘desnudo’ R0 según la fracción de personas inmunes va creciendo.

Queda claro en este ejemplo que la propagación de una enfermedad para la que ya hay inmunidad en una gran parte de la población nunca va a conducir a un crecimiento exponencial, ni siquiera inicialmente, ya que aunque R0 sea mayor que 1, si hay suficiente población inmune, el índice reproductivo efectivo será menor que 1. Y esta misma explicación sirve para entender porqué no hay epidemias ‘explosivas’ de otros virus ‘antiguos’ cuyo R0 es muchísimo más alto, por ejemplo el del sarampión cuyo R0 es de alrededor de 18. La cuestión es que cuando una fracción bastante importante de la población es ya inmune, eso hace que haya solo contagios ocasionales, sin crecimiento explosivo en un momento dado.

2. Lo que es nuevo para el CoVid19

El caso del CoVid19, al ser un virus nuevo, es sustancialmente diferente: no hay población previamente inmune, y el 100% de la población es inicialmente susceptible de ser infectada. Partiendo de un número inicial muy pequeño de enfermos, la propagación comenzará siendo exponencial, ya que todos los contactos infectantes de esos enfermos derivarán en infectar a personas sanas. Conforme el número de enfermos aumenta y un porcentaje de estos enfermos ‘superan’ la enfermedad y se recuperan, estos recuperados pasan a ser inmunes (al menos a corto plazo, tampoco se conoce exactamente el nivel de inmunidad que da el CoVid19 a largo plazo tras sufrir la infección). No todos los contactos potencialmente infectantes que vaya a tener cada infectado, que son los determinados en promedio por el R0 ‘desnudo’, van a ser efectivos para propagar la enfermedad: solo lo serán los contactos con la fracción de la población aún susceptible de enfermar, que va disminuyendo conforme va habiendo más inmunes.

Esto significa que el número medio efectivo de contagios causados por cada infectado irá siendo progresivamente menor, con lo que el crecimiento que inicialmente fue exponencial se irá ralentizando con respecto a la exponencial, e incluso sin ninguna intervención, llegará un momento en el que el crecimiento se detiene y su dirección se revierte, disminuyendo el número neto de infectados hasta acabar haciéndose muy pequeño.

El cambio de tendencia de crecimiento a decrecimiento ocurre cuando la fracción de susceptibles de ser infectados ha disminuido por debajo de un cierto valor crítico (la mitad de la población si R0=2). Lo que se conoce como ‘inmunidad colectiva’ o inmunidad de grupo.

La misma situación que ocurre hoy para el CoVid19, (que no haya personas con inmunidad previa a la enfermedad), ocurrió con las epidemias que al parecer diezmaron a los nativos americanos a la llegada de los españoles —ante gérmenes para los que los nativos carecían de inmunidad adquirida debido a que para ellos se trataba de un patógeno ‘nuevo’—. Jared Diamond detalla ejemplos análogos en su ‘Armas, gérmenes y acero’.

O también en 1918 para la gripe del 18, causada por un virus entonces completamente nuevo y bastante letal, cuyo R0 se estima entre 2 y 3. Como referencia numérica, de una población mundial en aquel momento de algo menos de 2 mil millones, y en plena Gran Guerra, esa gripe afectó al 27% de la población mundial, unos 500 millones de infectados; el número de muertes no se conoce exactamente, pero su orden de magnitud se estima en torno a 50 millones, uno de cada 10 infectados. Esta tasa de letalidad altísima en buena medida se debió no solo al propio virus sino a factores complementarios: malnutrición, mala higiene y atención sanitaria desbordada y muy insuficiente en paralelo con la gran Guerra.

Para ir más allá, necesitamos un modelo matemático que describa, de manera al menos cualitativa y en primera aproximación, las características relevantes de la evolución del número de enfermos infectados. La famosa ‘vaca esférica de radio despreciable’ de los chistes de físicos. En epidemias el modelo SIR juega ese papel.

3. El modelo SIR de propagación de epidemias.

El modelo más simple de propagación de epidemias es el llamado modelo SIR, propuesto en 1927 por Kermack y McKendrick, y casi ignorado hasta que Anderson y May lo rescataron de su olvido en 1979. Tiene muchas variantes más complicadas, pero la versión original, al ser tan simple es también muy sólida en esencia, aunque sea solo una aproximación muy básica a la propagación real de una epidemia en un grupo de población grande e interconectado.

El modelo básico, que es el único que aquí voy a emplear, describe la epidemia mediante tres variables que evolucionan con el tiempo, a saber, las fracciones sobre la población total en cada momento de

S: Susceptibles de ser infectados,

I: Infectados en ese momento y

R: Recuperados, que han pasado la enfermedad.

Las hipótesis básicas de ese modelo son completamente razonables y claramente capturan lo esencial del proceso de propagación de la epidemia.

El modelo supone una población fija y el total de la población se divide, de manera disjunta, en esos tres grupos, por lo que las fracciones S, I, R deben sumar 1. A lo largo del tiempo, los susceptibles pueden pasar a infectados, que a su vez pasarán mas adelante a ser recuperados (o, en el caso fatal, a fallecer). Es esta dinámica la que queremos analizar.

Parece que no se están tomando en consideración los muertos, que forman parte del panorama de la epidemia. Solo a primera vista: el número de fallecimientos será una fracción de los ‘recuperados’ (que realmente sería mejor llamar post-infectados) dado por la tasa efectiva de letalidad, en inglés case fatality ratio) (aunque el nombre ‘recuperados’ parezca una broma macabra para aquellos fallecidos de entre ellos).

La letalidad tiene varias componentes, unas determinada por el propio virus y que pueden cambiar de manera sustancial si el virus muta o se debilita, y otras que dependen de circunstancias externas, y que pueden hacer que la letalidad se dispare, por ejemplo si la atención hospitalaria no es capaz de atender a todos los enfermos realmente graves.

No conocemos bien el porcentaje de letalidad para el CoVid19, que debe ser calculado sobre el total de los que en algún momento se infectaron (no de los registrados ‘oficialmente’ como tales, que inevitablemente serán muchos menos). Diferentes estimaciones sugieren que en condiciones óptimas de higiene de la población y de atención hospitalaria sin saturar, el orden de magnitud de esa letalidad para el CoVid19 puede estar cerca del 1 por cien sobre el total de infectados. Sí que sabemos que esa tasa depende mucho de la edad, siendo muy pequeña para los niños y jóvenes y va creciendo hasta llegar a más a un 15% para pacientes mayores de 90 años, en contraste con la gripe del 18, en la que la letalidad se centraba en los adultos de media edad.

El modelo SIR admite una formulación como sistema dinámico con tiempo continuo o con tiempo discreto. En el modelo discreto, que es con el que están hechas las simulaciones que presento a continuación, se divide el tiempo en intervalos de duración fija, la ‘semana’ de la que hablamos al principio y se establecen las ecuaciones de evolución que determinan cómo cambian las variables S, I, R al pasar de cada intervalo temporal de una ‘semana’ a la siguiente. Evidentemente tal modelo solo puede dar estimaciones numéricas muy toscas, pero de lo que se trata es de capturar las tendencias. Hay algunas variantes del modelo, más realistas pero más complicadas, comenzando con el modelo SEIR, que se presenta con detalle aquí.

4. Viendo las evoluciones predichas por los modelos

Debido a la incertidumbre que tenemos sobre los parámetros del modelo (¿cual es el valor de R0?, ¿en qué ‘semana’ de la evolución estamos?, ¿cual es la duración exacta de cada ‘ciclo’ de infección, que hemos denominado ‘semana’?, etc.) lo que realmente hay que tener en mente es que la información sobre la evolución obtenida de estas gráficas es sobre todo cualitativa. Lo que, por supuesto, no obsta para que cualitativamente esa información y los patrones que aparecen sean muy robustos ante cambios en los valores supuestos de los parámetros, etc.

Y, claro está, las predicciones dependen esencialmente de algunas hipótesis implícitas. Por ejemplo, que el virus no mute. Podría mutar perdiendo virulencia, y en ese caso la evolución real podría ser mucho más favorable. Pero también podría hacerlo a un virus más agresivo, como ocurrió durante el episodio de la gripe del 18. No lo sabemos, pero algo positivo para nosotros es que de mutar, es más frecuente que lo haga a menos virulento y más raro que lo haga a más.

Tampoco tenemos datos fiables sobre el número de infectados actualmente. Parece virtualmente seguro que el número real de afectados debe ser un orden de magnitud mayor que el de los registrados oficialmente como tales; la causa es que una gran parte de los infectados o bien son asintomáticos o bien están pasando la enfermedad en sus casas sin que los registros oficiales los tengan en cuenta (ver este artículo con enlaces a un análisis estadístico que lleva a esa conclusión). Que haya ya muchos infectados que están pasando la enfermedad sin más consecuencias es, visto debidamente, muy positivo, como veremos enseguida.

5. La evolución ‘laissez faire, laissez passer’ o BoJo v.0

Como para el CoVid19 sabemos que R0 está entre 2 y 3, comenzaremos nuestra excursión gráfica representando la evolución ‘espontánea’ en esos dos casos, suponiendo que no hay ninguna atención sanitaria ni intervenciones externas y coordinadas de ningún tipo; eso seguramente fue aplicable bastante literalmente a muchas de las epidemias letales en la historia. Nótese que muchos gráficos publicados en diversos medios toman como origen temporal la fecha del primer fallecido, que típicamente puede ocurrir al comienzo de lo que llamamos luego ‘despegue’ y que es muy posterior al origen temporal ‘semana 0’ que estamos tomando aquí, que es cuando llegan a la población los ‘infectados 0’.

En primer lugar, supongamos que en la ‘semana’ 1 hay un número inicial muy pequeño de infectados. La evolución posterior, en las 35 ‘semanas’ siguientes depende esencialmente del valor de R0, y salvo llegar a los mismos niveles de infectados algo antes o algo después, el resto de la evolución no depende para nada del número inicial de infectados.

El valor R0=3 del índice reproductivo conduce, tras 6 ‘semanas’ de crecimiento muy lento, casi ‘subterráneo’ y casi exactamente exponencial, a un brote que ‘despega’ en la ‘semana’ 7. En la ‘semana’ 12 alcanza un pico con el (nada menos!) 30% de la población infectada en esa semana, y a partir de entonces disminuye hasta prácticamente desaparecer en la ‘semana’ 17. Por entonces solamente queda un 5% de la población que no ha sido infectada. Esto se ve en las dos gráficas siguientes. La (fase aguda, ‘visible’ de la) epidemia ha sido bastante rápida, durando 10 ‘semanas’ y ha afectado al 95 % de la población. Recuerdo: sin hacer ninguna intervención.

Si el índice reproductivo es R0=2, el despegue del brote ocurre en la ‘semana’ 10, alcanza un máximo del 15% de la población la ‘semana’ 18 y se extingue prácticamente la ‘semana’ 26, en la que quedan sin haber sido infectados poco más del 20% de la población. La fase ‘aguda’ (algo menos aguda que la anterior) dura 15 ‘semanas’ y ha afectado al 80% de la población

Si el índice R0 fuera aún menor, p.ej. R0=1.7, el despegue ocurriría en la ‘semana’ 13 y duraría hasta la 32, con un pico las ‘semanas’ 20 y 21, en las que está infectada el 10% de la población. En la ‘semana’ 31, al final práctico de la epidemia, un 30% de la población quedan como susceptibles, sin haber sido infectados. La fase en que la infección es intensa (menos intensa que en el caso anterior) dura 19 ‘semanas’ y ha afectado al acabar al 70% de la población.

La gráfica siguiente agrupa los tres gráficos de la fracción de infectados para R0 = 3, 2 y 1.7 y en ella se aprecian perfectamente esas características. He añadido en cada caso la evolución exponencial inicial para que se vea cómo la evolución real se separa de (la exponencial al poco de ‘despegar’ el crecimiento del número de casos. Esta separación del comportamiento exponencial ocurre independientemente de que haya habido ninguna intervención para tratar de contener la epidemia.

La lección a conservar es que valores MENORES de R0 conllevan tres consecuencias:

  • una extensión temporal de la epidemia extendida a lo largo de una mayor duración mayor,
  • unos picos en la evolución de la fracción de infectados más tardíos y más bajos, y
  • un porcentaje total de la población que se infectó durante la epidemia menor.

La altura de cada pico no depende para nada del número inicial de infectados; modificar ese número inicial solo hace que el ‘despegue’ y luego el pico principal se alcancen tras un número diferente de ‘semanas’, pero la altura del pico y la duración de la fase aguda son las mismas.

Esperar a que, a costa de las muertes previsibles, los infectados que no mueran pasen a ser inmunes al recuperarse conseguiría reducir la extensión de la epidemia de manera ‘natural’ (nunca mejor dicho), sin necesidad de ninguna intervención, a más largo plazo. Esa ‘solución’, vía el logro de la inmunidad colectiva (‘herd inmunity’) a costa del número de fallecimientos que ‘correspondieran’ fue la que inicialmente propuso Boris Johnson para aplicar en UK. Afortunadamente ha dado marcha atrás, ver esta interesante carta del editor de Lancet sobre este asunto. A cualquiera que no sea indecorosamente cínico-populista le parecerá una ‘solución’ eugenista e inaceptable desde muchos puntos de vista.

6. ¿Cómo depende la evolución de una epidemia de cuantos susceptibles haya inicialmente?

Además de depender del valor de R0, la altura del pico depende muy fuertemente de la fracción inicial de susceptibles. Las gráficas anteriores tienen inicialmente la totalidad de la población como susceptible, en cuyo caso, con R0=2, el pico tiene altura del 16%.

Esta dependencia tan fuerte se representa en la siguiente gráfica, que se refiere a la evolución una epidemia según haya diferentes fracciones de la población que tienen previamente inmunidad. La evolución depende muchísimo de cual sea esa fracción.

La gráfica representa la evolución de la fracción de infectados, con R0=2, para varias fracciones de inmunes al inicio, desde 0% (que es el caso de CoVid19, en rojo), pasando por 10%, 20%, 30%, hasta 40% (en verde claro), lo que corresponde a fracciones de susceptibles del 100%, 90%, 80%, 70%, 60%. Vemos que según la fracción de población susceptible inicial sea menor (lo que es lo mismo, según haya inicialmente más inmunes), la altura del pico principal de la epidemia disminuye de manera espectacular, a la vez que, lo que también es bueno, la duración de la fase ‘aguda’ de la epidemia se va haciendo mayor, y tarda más en llegarse a ella desde los primeros infectados. Antes vimos que para 100% de susceptibles y R0=2, el pico tenía altura del 16%. Si el porcentaje susceptible inicial fuera de 90%, la altura del pico sería solo del 10%. Con 80% de susceptibles iniciales, los valores serían pico del 6%, y con el 70% inicial de susceptibles, el pico solo alcanza el 3% (en amarillo); está claro que en cuanto al número de infectados esta última situación es, ahora sí, mucho más cercana a un episodio de una gripe ordinaria que a una epidemia.

Y si los inmunes son ya el 40%, (gráfica en verde) entonces estamos ya en el caso de una enfermedad común, que tarda casi un año en extenderse a un 1% de la población partiendo de unos pocos infectados iniciales, y se mantiene en ese nivel unos cuantos meses.

7. La letalidad de la epidemia y la saturación del sistema hospitalario

Del total de los infectados del CoVid19, una fracción importante (no sabemos exactamente cuantos) son asintomáticos y leves (aunque al parecer son igualmente infecciosos que los sintomáticos). De la otra fracción que muestra síntomas, una buena parte supera la enfermedad sin necesidad de internamiento en centros sanitarios. Afortunadamente, solo un porcentaje menor de los infectados presentan síntomas más graves que necesitan cuidados hospitalarios y de ellos algunos acaban en muerte. Ignoramos cual puede ser la letalidad real; en el documento de Yorke se menciona un valor de 1 muerte por cada 2000 casos reales de infectados (letalidad del 0.5 por mil), pero otras varias estimaciones sugieren valores entre el 1 por mil y el 1 por cien del total de los afectados. Varios expertos parecen inclinarse hacia este valor del 1% sobre el total de afectados, que es el que aquí voy a considerar.

Al comparar con los porcentajes de letalidad ‘registrada’ que podemos obtener de los datos publicados cada día en España, por ejemplo, hay que tener muy en cuenta que con seguridad, el número real de infectados en España en cada momento es quizás un orden de magnitud mayor (o incluso más) que el de los registrados, mientras que las muertes se registrarán todas o al menos la mayor parte (pues algunas pueden haberse atribuido a otras causas). Por ello la letalidad ‘registrada’ (que hace una semana se cifraba en España en un 7%) está muy probablemente sobreestimada en quizás un orden de magnitud con respecto a la ‘real’, que es la importante.

Antes de seguir, conviene insistir en que las gráficas anteriores representan la evolución ‘espontánea’, en donde no hay intervención de ningún tipo: la versión eugenésica del ‘laissez faire, laissez passer’ económico. Los enfermos bien superan la infección o bien mueren sin atención; la gente sigue teniendo los mismos contactos interpersonales, no hay especiales medidas de higiene ni de distanciamiento/confinamiento, etc. Cabe poca duda que por ejemplo esas serían las condiciones en las que se desarrolló la Peste Negra, que a mediados del S. XIV asoló Europa, desplazándose a lo largo de varios años hasta cubrir a todo el continente, cuya población quedó al final reducida de manera sustancial (según algunas estimaciones, a entre la mitad y una tercera parte).

En presencia de medidas básicas de atención sanitaria, en las que por ejemplo los infectados quedan aislados en cuanto se detectan etc., el ritmo efectivo de contagios debiera ser más bajo que el dado por R0. En el modelo esa presencia de atención sanitaria básica se puede simular tomando un R0 un poco menor que el ‘desnudo’, lo que dará cuenta de la reducción del índice reproductivo causado por el confinamiento de los infectados detectados. Si pensamos que el R0 del CoVid19 está entre 2.2 y 2.4, como sugieren varios análisis actuales, podemos tomar en cuenta esos efectos modelando con R0=2, que es lo que vamos a hacer a continuación. Cualitativamente, y como ya hemos visto en la gráfica con R0=1.7, disminuir R0 conduce a una evolución semejante, con un pico más bajo aunque más extendida en el tiempo.

Ahora viene lo esencial. Voy a dar algunos valores estimados, de los que solo importa el orden de magnitud. Pongamos una ciudad como Madrid, con 5 millones de habitantes. Supongamos que R0 vale 2 y que no se actúa de ningún modo, de manera que al llegar a la ‘semana’ 18 en el pico de la epidemia estarían infectados 750000 habitantes. De ellos pongamos que 375000 serán asintomáticos, otros 375000 tendrán algunos síntomas (ignoramos también la proporción de asintomáticos, que algún estudio reciente sugiere que es mayor del 50% de los infectados). De todos los que tengan síntomas, pongamos que solo un porcentaje del 3 por 100 (estimación posiblemente muy optimista) requieran asistencia hospitalaria intensiva. En esa semana del pico de la epidemia esa atención la requerirán más de 11000 pacientes. ¿Hay disponible el correspondiente número de camas de UCI, respiradores, material clínico y de protección para el personal sanitario, etc. para atender esas necesidades? Necesidades que son incluso mayores, ya que según vamos sabiendo, un paciente grave puede requerir de entre dos y tres semanas de estancia en la UCI. Y esto, claro, debería ser compatible con el mantenimiento de las camas y recursos necesarios para el nivel mínimo de la actividad ‘normal’ de los hospitales atendiendo a los pacientes con otras patologías, accidentados, etc.

Está claro que lo crucial en el párrafo anterior no es que los porcentajes y los valores de los números sean los dados u otros algo o incluso bastante diferentes: lo importante es su orden de magnitud, que apunta claramente al problema real: hay un límite ‘de saturación’ que es la capacidad máxima del sistema de salud hospitalaria para atender a los infectados graves por la epidemia. Si la evolución de la epidemia conduce a que el número de infectados que requiere esa atención es sustancialmente mayor que ese límite, el sistema no podrá prestarla. Y eso tendrá como consecuencia colateral que la letalidad de la epidemia va a aumentar, pues habrá enfermos que podrían haberse recuperado si hubieran podido ser atendidos pero que no van a poder serlo.

En la gráfica siguiente, que corresponde a las evoluciones con R0=3, 2, 1.7, la línea horizontal pretende describir esa capacidad de saturación del sistema.

La línea horizontal está colocada en la fracción 3% de la población de manera completamente convencional, suponiendo que el sistema de UCI puede atender simultáneamente a una fracción, digamos del 3% de ese nivel de población; lo importante no es tanto dónde esté colocada sino su presencia, que solo pretende recordar que si el crecimiento de la epidemia supera una cierta línea, el sistema sanitario estará sobrepasado por valores inmanejablemente grandes de pacientes que necesitan atención, mientras que si la propagación es más lenta y tiene mayor duración, esta sobrecarga será menor o en el mejor de los casos simplemente no llegará a aparecer.

Insisto en que en la realidad del sistema hospitalario esta capacidad tiene un límite determinado, que es el que las necesidades anteriores del sistema (cuando no se había pensado en la posibilidad de una epidemia de este tipo) o los avatares políticos del gobierno autonómico de turno han determinado como suficiente, lo fuera realmente o no. Lo importante es que para cada ciudad, región, etc. el límite existe. Y si la fracción de infectados en una determinada semana es el 15% de la población, una eventualidad para la que el sistema hospitalario desde luego no esta preparado, no se podrá prestar la atención debida a aquella fracción de infectados que necesiten cuidados intensivos.

Esto nos lleva al leit motiv escuchado durante los últimos días: ‘aplanar la curva‘, ‘frenar la curva‘, …. Es evidente que hacerlo no solo es necesario, es de hecho imprescindible. La pregunta es: ¿Cómo?

Insisto en que a partir de aquí me limito a traducir ciegamente lo que dice el modelo dinámico, y ese es el único valor que debe atribuirse a las predicciones. No tengo ninguna competencia en aspectos epidemiológicos que con seguridad estoy ignorando y que serán determinantes en algunos detalles. Y además, hay muchas otras cosas que al parecer nadie sabe, y otras que ahora tampoco podemos saber.

Por ejemplo, si a corto plazo el virus pierde virulencia, las predicciones se verán como alarmistas y pasarán a formar parte del arsenal de demagogos varios (como de hecho ocurrió en su momento cuando se compraron millones de vacunas para la gripe A de 2008, que no se llegaron a utilizar porque el virus se atenuó).

Si la fracción de población que ya ha pasado la enfermedad y es ya inmune es mayor que la que predice el modelo, la evolución posterior será mucho menos intensa y bastante más suave. Insisto, no considero aquí ninguno de estos escenarios, y en general, el presentado es el menos optimista de todos, excepto por una improbable mutación del virus con aumento importante de la letalidad.

8. ‘Aplanar’ la curva

Si pudiéramos cambiar el R0 ‘desnudo’ a nuestra voluntad, la cosa sería muy fácil. Pero el R0 ‘desnudo’ tiene el valor que tiene. Rastrear y aislar rígidamente a los pacientes iniciales es una muy buena estrategia inicial o cuando la epidemia no está aun muy extendida pero más tarde no es suficientemente eficiente (o requiere una organización que nosotros no tenemos), y a partir de un momento de crecimiento del número de infectados, ni siquiera resulta ser posible (esa es nuestra situación ahora). Quizás en una segunda ola, que posiblemente llegará, sea la estrategia óptima si se implementa desde el principio y disponemos entonces de los recursos (tests rápidos, etc). Ahora hay que buscar otros métodos.

Partimos pues de una situación, la que exist(ía) en el momento de decidir tomar alguna medida de intervención, que esta(ba) dada y que no se puede modificar. Suponemos que en esa situación en la que arrancan las medidas no se ha llegado aún al límite que llevaría a la saturación del sistema sanitario. El reto es diseñar una intervención que permita, partiendo de esa situación, mantener la evolución futura lo más baja posible y, óptimamente, mantenerla por debajo del límite de saturación.

La estrategia de control que Yorke proponía y cuyos resultados analizaba en su charla mediante simulaciones consiste en una intervención de aislamiento o distanciamiento social, durante 4 o más semanas, que redujera el ritmo de contactos interpersonales al 50% de su valor anterior. Los resultados descritos en las transparencias de su charla me parecieron llamativos, sobre todo porque los comportamientos de la evolución de la epidemia no son precisamente intuitivos hasta que se ha entendido quien es el protagonista principal que dicta los grandes rasgos de esa evolución.

Esos resultados dependen mucho de cuando se haga temporalmente la intervención: una intervención temprana apenas tiene efecto sobre la intensidad del pico de la epidemia ni sobre su duración, pero lo retrasa temporalmente, mientras que efectuada la intervención de la misma duración más tarde lo que se consigue es que el pico subsiguiente disminuya sustancialmente la altura que podría haber tenido y se extienda temporalmente, o que se consiga una desaceleración importante o incluso una disminución a corto plazo del número de infectados. Pero una estrategia de ese tipo también puede conducir a que aparentemente se consiga reducir la epidemia casi a cero, sólo para asistir un cierto tiempo después a un rebrote importante.

Antes de pasar a describir estos efectos, conviene preguntarse ¿cual es el beneficio de este tipo de intervenciones? Hay dos importantes. El más directo, es que se puede disminuir la sobrecarga en el sistema de salud al reducir el número de infectados cada semana (en general, al precio de que la duración temporal de la fase en la que la epidemia sea intensa se incremente). Otro no menos importante es que se puede conseguir tiempo, algo muy necesario. Ya que nuestro nivel colectivo de preparación ante un enemigo que deberíamos haber previsto ha sido manifiestamente mejorable (pues avisos, aunque no hayamos hecho caso, los ha habido; ver por ejemplo este artículo de 2018 que cualquiera diría que fue escrito tras apearse del DeLorean). O más entre nosotros, éste artículo, escrito el 8 de Marzo.

Las gráficas que siguen deben verse sobre todo cualitativamente, y el objetivo es explorar las consecuencias previsibles de diferentes estrategias de control mediante medidas de distanciamiento social, que se modelan como una reducción del valor efectivo de R0 en los periodos y con las intensidades en que se aplican.

9. ¿Como modelar esa estrategia de control?

Donde sí se puede actuar es sobre el número de contactos interpersonales que potencialmente podrían ser infectantes. Esto requiere una intervención exterior que lleve a la población a la convicción de que ese esfuerzo es necesario, complementándola con medidas sobre los irresponsables que la ignoren, sintiéndose en ‘su derecho’ de hacerlo al verla como una imposición injustificada (‘quien es Vd. para decirme a mí lo que tengo que hacer‘).

¿Cómo modelar que durante cierto tiempo se consiga reducir el número de contactos interpersonales de una manera importante? Pues como una reducción en el índice R0 durante un cierto intervalo temporal. Esta idea tiene bastante de ‘huevo de Colón‘. Lo que no es tan evidente es hasta qué punto y en que circunstancias esa medida será más o menos efectiva y cuales serán sus efectos precisos. Esto es lo que estudia en su charla Jim Yorke, y es lo que quiero explorar a partir de ahora.

Supongamos, que durante cierto tiempo (dos, tres, cuatro, … ‘semanas’) conseguimos reducir el R0 efectivo a una cierta fracción (el 0.75 = 75%, la mitad, ….) del valor ‘desnudo’. Iremos explorando los resultados que producen las diferentes variantes de esta estrategia, probando con intervenciones más o menos largas, hechas en diferentes fases de la evolución de la epidemia, y suponiendo que se consigan diferentes reducciones del valor ‘desnudo’. Disponer de un modelo matemático implementado en un sistema de cálculo simbólico y gráfico nos permite ver los resultados en cada caso sin más que cambiar los datos iniciales y dejar al ordenador completar su tarea y construir la gráfica para nosotros. Que, insisto, solo hay que tomar cualitativamente y a muy gran escala.

De lo que se trata con ese ejercicio es de formarse una intuición correcta sobre las características, a veces un poco anti-intuitivas, de la evolución que se esconde en un sistema dinámico incluso tan sencillo como el modelo que aquí estoy describiendo, que permita ‘entenderlo’ y por tanto actuar sobre él de una manera eficiente.

Como siempre, el diablo está en los detalles: no sabemos cual es el valor del R0 ‘desnudo’, tampoco sabemos realmente en qué lugar de la curva estamos realmente pues no sabemos en que ‘semana’ estamos, ni tampoco tenemos la información completa sobre el número actual de infectados (que sin ninguna duda será sustancialmente mayor que el de los registrados, incluso hasta un orden de magnitud mayor).

Y tampoco sabemos si el virus va a mutar a menor virulencia. O a mayor.

Lo único que podemos hacer es probar diferentes estrategias que consigan reducir los valores de los picos de la fracción de infectados y aprender distinguir los efectos causados, las actuaciones más y menos eficientes o las que por uno u otro motivo puedan ser aconsejables o convenientes.

El problema de intentar implementar socialmente esas medidas, o de elegir, en plan alternativa del diablo, el compromiso necesario entre el daño en enfermedad/muerte versus los daños de otros tipos (sociales y económicos entre ellos) causados por el confinamiento es mucho más difícil, y desde luego yo tengo claro que, como el autor del post enlazado, no quisiera tener que estar en el papel de los responsables de adoptar tales decisiones.

10. Intervenir muy pronto o menos pronto

Todas las simulaciones que siguen están hechas con R0=2.

La primera simulación se refiere a los efectos de hacer una intervención, con la misma ‘intensidad’ (reducción de contactos sociales a la mitad) y la misma duración (4 ‘semanas’) , pero comenzándola en diferentes etapas, desde la ‘semana 10’ en la que la fracción de infectados comenzaba su ‘despegue’, hasta la ‘semana’ 14, cuando la extensión de la epidemia habrá sobrepasado la capacidad de respuesta hospitalaria.

Los efectos de estas intervenciones comienzan a verse una ‘semana’ después de su aplicación; que sea una ‘semana’ es simplemente consecuencia de la simplicidad del modelo, y refleja que realmente debemos esperar un cierto retraso entre el inicio de las medidas y los primeros resultados.

La predicción del modelo es curiosa, y probablemente inesperada. Si la intervención se hace muy al principio (curva roja), se contiene el crecimiento durante cuatro semanas, pero luego rebrota casi tanto como lo habría hecho sin intervención, alcanzando un pico de altura comparable, pero, eso sí, retrasado cuatro semanas.

Si, en vez de iniciar la intervención la semana 10 lo hacemos las semanas sucesivas, la gráfica muestra que el efecto es una reducción inicial durante las cuatro semanas que siguen, y luego un rebrote importante, pero algo menos intenso, retrasado temporalmente con respecto al que habría habido sin intervención.

¿Ha servido tal intervención de algo? Está claro que sí: al posponer el crecimiento permite disponer de más tiempo de preparación, con el crecimiento ‘congelado’. Pero tampoco hay que engañarse: es verdad que en la ‘semana’ siguiente al inicio de la intervención se ha llegado a un pequeño pico tras el cual hay un cierto descenso. Pero también es verdad que la epidemia no se ha controlado y volverá a crecer una vez pasadas las cuatro semanas.

Aquí el mensaje es: una intervención de distanciamiento social

  • aplicada demasiado pronto esencialmente solo (lo que no es poco) sirve para diferir el pico principal, que llegará más tarde y casi con la misma intensidad.
  • hecha demasiado tarde, el pico subsiguiente será menos intenso, pero seguramente antes de la intervención se habría llegado ya a la saturación del sistema de salud, representada de manera esquemática en los gráficos por la linea horizontal punteada, lo que a su vez habría disparado la letalidad muy por encima de su valor de referencia.

11. Intervenir con poca intensidad o con mucha

La segunda simulación presenta la evolución tras una intervención de distanciamiento social que comience en la ‘semana’ 12 y se mantenga durante cuatro semanas. Para facilitar la lectura, presento los resultados en dos gráficas.

En la primera se toma una intensidad moderada de las medidas de distanciamiento, desde relativamente relajada hasta medianamente estricta: esto corresponde en el modelo a suponer que el ritmo de contactos sociales se reducen en un 20%, 30%, 40%, 45% y 50% (dicho en términos equivalentes, subsisten inalterados el 80%, 70%, 60%, 55% y 50% de esos contactos).

De nuevo la predicción del modelo es curiosa y probablemente no es la que nuestro ‘sentido común’ nos dicta (como ocurre en casi todos los asuntos no lineales, nuestro sentido común tiende a ser muy pobre en tales asuntos). En todos los casos, sigue habiendo un pico principal, un poco más bajo que el que habría ocurrido de no hacer nada, con una altura (en torno al 12%) que es prácticamente independiente de la intensidad del distanciamiento pero que ocurre diferido en el tiempo por un intervalo que, este sí, va siendo mayor conforme la intensidad del distanciamiento ha sido mayor.

Esto se ve mucho mejor en la segunda gráfica, que corresponde a una intensidad fuerte de tales medidas, desde medianamente estricta hasta casi total: esto corresponde en el modelo a suponer que el ritmo de contactos sociales se reducen en un 50%, 60%, 70%, 80% y 90% (dicho en términos equivalentes, subsisten inalterados el 50%, 40%, 30%, 20% y 10% de esos contactos). De nuevo, en todos los casos sigue habiendo un pico principal, algo más bajo que el que habría ocurrido de no hacer nada, con una altura (entre el 12% y el 13%) que es prácticamente independiente de la intensidad del distanciamiento pero que ocurre diferido en el tiempo por un intervalo temporal que aumenta muy rápidamente según la intensidad del distanciamiento se va acercando a ser total.

En concreto, el caso de que los contactos se redujeran al 10% de su valor ordinario, (en verde en la gráfica), la epidemia prácticamente se ha extinguido en la semana 16, y se mantiene, aparentemente extinguida, hasta la semana 23. Pero realmente no estaba extinguida; los muy pocos infectados que subsistieron al final de la fase de distanciamiento alimentaron un crecimiento subterráneo, que en la semana 24 ‘despega’ de nuevo en lo que es otra oleada de la epidemia, con intensidad y patrón de evolución parecido al que habría tenido inicialmente. Y este repunte ocurre en todos los casos con medidas de distanciamiento de intensidad fuerte, retrasado, eso sí, tanto más cuanto más intensa ha sido el distanciamiento.

Sería en un escenario como ese, y en el intervalo en que la epidemia parece extinguida, en el que habría que aplicar medidas selectivas pero extensivas de contención para cortar los nuevos brotes en sus inicios.

12. ¿Qué nos dice este modelo simple sobre la evolución previsible tras 2 + 2 semanas de distanciamiento?

He querido insistir en que no deben entenderse ninguna de las gráficas que presento como predicciones: hay demasiadas incertidumbres para siquiera tratar de ajustar los datos de que disponemos (que además posiblemente no nos permiten tener una imagen cercana a la real). Solo he pretendido ilustrar las tendencias. En esta misma línea, y con considerable trepidación, incluyo una modelización, que a lo sumo debe tomarse como cualitativa, del efecto que pueden estar teniendo las actuales medidas, que han consistido en un confinamiento inicial de dos semanas, ya transcurrido, y otro algo más intenso, de otras dos y que acabará el próximo día 11 [y actualmente prorrogado por otras dos semanas].

Tomando valores orientativos de los factores de reducción en el R0 que esas dos fases pueden lograr, resulta el patrón de evolución que vemos en la gráfica (recuérdese que la unidad de tiempo en esta gráfica, la ‘semana’ solo es una semana real en cuanto a su orden de magnitud)

Hay bastantes caveats sobre este gráfico.

En primer lugar, el uso de variantes un poco más complicadas (y presumiblemente mejores) del modelo SIR, como el SEIR, que solo es ligeramente más complicado, tiende a dar previsiones algo más optimistas que el modelo SIR (ver por ejemplo aquí).

Por otro lado, hay varias estimaciones recientes, que parecen sólidas, —usan diferentes razonamientos pero en gran medida convergen en los resultados—, de que en la actualidad el número de infectados que han superado la enfermedad es al menos un orden de magnitud, quizás más, de las estimaciones oficiales. Naturalmente esto es otra noticia en la buena dirección: el efecto de que la población susceptible sea ahora mismo menor de la que predicen los modelos significa una evolución posterior con crecimiento más lento.

Pero pese a esas expectativas optimistas, es difícil sustraerse a la conclusión de que, aunque hayamos pasado o estemos cerca de hacerlo, por un pico (local) en la evolución, en una fase que se podría calificar de ‘meseta’ y que se ve claramente en la gráfica, el pico principal sigue amenazante en el futuro. Quizás sean necesarias medidas adicionales, después de todo.

13. Medidas adicionales, ¿de qué tipo?

El modelo permite diseñar una posibilidad que consigue evitar por completo el temible ‘pico principal’ futuro pero tiene un alto precio en medidas de distanciamiento: consiste en cuatro intervenciones de confinamientos de diferentes intensidades y de 2, 4, 3 y 2 semanas de duración, separadas las dos últimas por 1 semana de ‘descanso’. Esa intervención, quizás complicada de llevar a la práctica, conseguiría al final de esas etapas reducir por debajo del 50% la fracción de población susceptible, y en consecuencia a partir de entonces la epidemia a gran escala se extinguiría de manera espontánea. Todo eso en cosa de medio año, durante el cual se mantendría un nivel de infectados que, idealmente sería compatible con evitar la saturación del sistema.


En la gráfica de la evolución de la fracción de susceptibles se ve que se llega al 50% en la ‘semana’ 30, que es el valor que garantiza la extinción progresiva de la epidemia.

Nótese que de momento, el confinamiento en España ha sido de dos semanas y de otras cuatro más estrictas; el indudable efecto positivo de esta actuación queda claro (cualitativamente) en la gráfica, y coincide con lo que, de momento, vamos viendo en la evolución real.

14. Conclusiones

No es buena idea que nos hagamos trampas en este juego, juzgando solamente por la evolución favorable a corto plazo de algunas variables. El contexto que manda es, aquí, la fracción de la población que sigue siendo susceptible de ser infectada. Salvo cambios en la virulencia del CoVid19, imprevisibles y sobre los que no tenemos desde luego ningún control, esa es la cantidad más relevante que determina la evolución posterior de la epidemia. Y estaría bien que supiéramos de manera más fiable cual es su valor.

Supuesta controlada la epidemia a cierto corto plazo, ¿debemos preocuparnos por la posible existencia de rebrotes de la epidemia? Los patrones de las gráficas mostradas indican que probablemente sí.

De hecho, en un modelo a tan gran escala como el presentado ésto no se ve, pero hay que decir que la dinámica a pequeña escala es muy diferente: cada infectado que infecta a otros no lo hace precisamente a R0 sanos (ver esa dinámica muy bien explicada aquí) y tras ese análisis se comprende porqué la detección precoz y aislamiento selectivo mientras no se ha extendido la epidemia tiene una eficacia mucho mayor que la del confinamiento colectivo e indiscriminado. Pero los modelos dicen claramente que esa estrategia, que ha tenido éxito en Corea del Sur y en Singapur por ejemplo, no previene sin embargo de un rebrote, pues la fracción de susceptibles aun sigue siendo allí demasiado alta; al parecer en Hong-Kong y en Singapur ya se está dando ese rebrote.

Lo que implica que tendrá que haber cambios (deberá haberlos!), que deberán integrar el aprendizaje anterior, el previsible mejor equipamiento de que entonces se pueda disponer y a las mejores capacidades de detección temprana de casos mediante tests. Por no hablar de algo más abstracto pero tan esencial como lo anterior: datos. Es necesario, imprescindible, que todos los datos disponibles sean públicos, de buena calidad, desagregados, etc., pues solo ellos nos pueden orientar debidamente hacia las mejores estrategias en cada momento, en una situación tan cambiante.

Todos estos cambios previsiblemente contribuirán a que la evolución futura sea algo o con suerte bastante mejor que la que predicen los modelos que he descrito. Que aunque no proceda tomarlos demasiado literalmente quizás de momento sí que deberíamos prestarles la debida atención.

Como nos dice claramente Adolfo García Sastre, virólogo español que trabaja en Nueva York,

“Yo creo que habrá dos olas, puede que tres, pero en un año a partir de ahora, aunque no haya vacuna, se habrá infectado un 40% o 50% de la población mundial, lo que ya dará lugar a que el virus frene su propagación. […] Estará solucionada dentro de un año, más o menos, incluso sin vacuna. […] Cuando empiece a bajar el número de contagios es importante no cantar victoria […]. Habrá que volver a la vida normal poco a poco y estar preparados para aislar a la gente de nuevo si es necesario.”

Las medidas actuales van claramente en la buena (y de hecho, casi única) dirección, con las dificultades que, no hay que olvidar, son comunes al resto del mundo. Pero no hay que olvidar que si el ritmo de contagios se ralentiza, o si el crecimiento del número de infectados cambia de signo ahora, esto no asegura, ni mucho menos, que eso vaya a ser así en el futuro, ni en el inmediato ni en el próximo.

Cosas de la dinámica no lineal, que por lo que vemos debiera formar parte de la cultura básica de la población, y parte imprescindible en la de nuestros políticos o de sus asesores.

Pero, pensando en el futuro, quizás debiéramos preguntarnos si no sería mejor que nuestros políticos y nuestra población tuvieran cierta formación básica necesaria en tales asuntos. En su libro sobre Teoría de Catástrofes, Vladimir I. Arnol’d, uno de los matemáticos más destacados del S. XX, dice

Control without feedback always leads to catastrophes: it is important that persons and organizations making responsible decisions should personally and materially depend on the consequences of these decisions.

¿No deberíamos procurar que eso sea así cuando este episodio haya pasado, en vez de aceptar la situación anómala que consiste en que el mero paso del tiempo difumina cualquier responsabilidad? Me gustaría pensar que eso va a ser así y que seamos capaces colectivamente de aprovechar esta oportunidad para cambiar algunas cosas que pueden y deben cambiarse.

Aunque no sé si eso es ser demasiado . . ingenuo. Pero, por mí que no quede.

Esta entrada apareció en Naukas hace un par de días. Los comentarios están abiertos; invito a los lectores a intervenir. Y quiero mencionar con agradecimiento a los beta-readers que me hicieron comentarios y críticas sobre el borrador de este post, gracias MA, F, R, C, MA, C, CA, M.

mathematicaiconnew40x40NaukasCoronaVirusFinal.nb
Cuaderno de Mathematica11 que contiene el programa con el que están hechas las gráficas de éste post [.nb, 1.1MB].

Publicado en Actualidad, Divulgación, Matemáticas, Sociedad | Etiquetado , , , , , | 20 comentarios

Desde varios puntos de vista: Felicitación de Navidad 2019

In seed time, learn. In harvest, teach. In winter, enjoy

.

William Blake, The Marriage of Heaven and Hell, circa 1789

Es casi una obviedad, cuya repetición se va haciendo más necesaria, que los asuntos difíciles deben observarse desde cuantos puntos de vista sean posibles. La realidad se extiende como si fuera casi infinita en todas direcciones, y es no solo ilusorio, sino contraproducente y dañino pretender que un solo punto de vista (‘el propio’) es suficiente para entender.

Hace unos días me preguntaron por la música cuyos primeros compases me avisaban durante este cuatrimestre del final de la hora de clase. Se trata de ‘Les Barricades Mystérieuses‘ de François Couperin, compuesta en 1717. Una breve excursión por YouTube nos lleva a una multiplicidad de versiones, interpretadas en instrumentos para los que esa obra no había sido pensada pero cuya variedad permite quizás apreciar aspectos que no se perciben en una interpretación al clave para el que fueron compuestas.

La obra tiene un cierto aspecto fascinante y vagamente misterioso, cuyo atractivo sigue siendo hoy vigente. Popularizada hace unos años a través del uso intensivo que de esa composición hizo Terrence Malick en ‘El árbol de la vida‘, se encuentran en YouTube versiones en instrumentos insospechados, desde la tiorba hasta la flauta de pico.

He recogido una pequeña muestra para que juzguen ustedes por sí mismos, desde la versión de marimba interpretada por Arjan Jongsma,

pasando por la de guitarra de Arkaïtz Chambonnet,

y por la de piano de John Harmer,

para acabar en la de clave, interpretada magníficamente por Hanneke van Proosdij y seguramente la realmente cercana a como F. Couperin concibió esta pieza.

Inasible, la esencia de esta obra, que se ha descrito como ‘resplandeciente, caleidoscópica y seductiva, un ‘trompe d’oeil’ sonoro que parece haber presagiado las matemáticas fractales, siglos antes de que éstas hubieran existido’ se reparte tras cada una de estas interpretaciones y su totalidad probablemente se percibe mejor cambiando el ‘punto de vista’, aquí el intérprete y el instrumento.

Algo parecido ocurre en muchos otros campos. Lo que sigue son tres trayectorias del sistema dinámico de Halvorsen, un sistema de tres variables que a primera vista no presenta ninguna regularidad ni ningún comportamiento notable: recuerda al mucho más conocido sistema de Lorenz, cuyo espacio de fases es también tridimensional, en cuanto también tiene un atractor extraño, pero parece mucho menos memorable que aquel, cuyos dos `lóbulos’ y el incesante paso de uno de ellos al otro caracteriza la dinámica caótica que Lorenz (re)descubrió precisamente al explorar numéricamente aquel sistema en 1963.

Atractor de Halvorsen. Se representan desde un punto de vista tomado al azar, tres trayectorias de ese sistema dinámico, que son curvas en tres dimensiones, que cambian de color, del rojo pasando por el anaranjado y amarillo al verde según el tiempo progresa. Estas curvas no se intersecan nunca, pero se enredan de una manera infinitamente complicada, que la figura ilustra toscamente; la imagen es una proyección sobre el plano de la pantalla y aunque aquí las curvas parecen cortarse, no lo hacen en la realidad del sistema 3D.

La imagen el sistema de Halvorsen no parece destacar por nada especial. Pero ¿cambian las cosas si cambiamos el punto de vista? Lo que sigue son las mismas trayectorias vistas desde otro punto de vista y en esa nueva imagen parece intuirse un cierto orden que no parecía existir en la primera figura.


Y, si tomamos el mejor punto de vista para apreciar la estructura del sistema, éste revela una perfecta simetría ternaria, con trayectorias que tienden a un atractor extraño mucho más simétrico que el de Lorenz.


Con ésta imagen, que presenta una perfecta trialidad, deseo a los lectores del blog unas felices Navidades y que, al igual que el sistema dinámico de la figura ofrece tres posibilidades diferentes de evolución partiendo de condiciones iniciales casi idénticas, a ellos el próximo año les ofrezca nuevas oportunidades para explorar, aprender, enseñar y disfrutar de nuevos puntos de vista.

PS. Debo la búsqueda que me llevó al atractor de Halvorsen, que no conocía, a una pregunta de un estudiante en el curso de Sistemas Dinámicos, sobre si había algún sistema dinámico cuyo atractor tuviera tres lóbulos (en vez de los ‘dos’ que tiene el de Lorenz). Como siempre, son las preguntas las que son interesantes; gracias Carlos.
Publicado en Uncategorized | Deja un comentario

F = -grad V y sus descendientes: Un paseo por la historia de tres siglos de física

Dentro de la XXXVII Reunión Bienal de la Real Sociedad Española de Física, Zaragoza, Julio 2019, y en el marco del XXIX Iberian Meeting on Physics Education and Dissemination, dí una charla sobre la evolución de la idea de fuerza, que siendo inicialmente el concepto newtoniano fundamental fue dando paso históricamente a otras ideas que a la postre han resultado ser más generales y más importantes; en esa evolución la fuerza ha dejado de ser un concepto fundamental. La clave de esa evolución ha sido el principio de menor acción.

En los casos más sencillos (fuerzas conservativas) la fuerza es el gradiente de un simple potencial escalar F = -grad V; cuando se escribe el funcional de acción que determina los movimientos reales como aquellos en los que la acción resulta ser mínima (o extremal), quien interviene en la acción es el potencial V. Esto deberíamos tomarlo como el primer indicio de que el potencial es, en cierto sentido, más importante que la fuerza. Y ciertamente la idea de potencial, —estando dispuesto a acoger bajo ese nombre a objetos ‘más generales’ que no estén descritos solamente por una simple función escalar, sino por estructuras algo más complicadas como las que intervienen en electromagnetismo o en gravitación—, va a ser un hilo de Ariadna que nos guiará en el estudio de  ‘fuerzas’ más generales que las conservativas.

Así la expresión F = -grad V puede verse como la antecesora, la primera relación de su especie, y  que va dando lugar a generaciones de descendientes. Y como también ocurre probablemente con los descendientes a lo largo de varias generaciones de personas, los caracteres nuevos que van apareciendo, —los ‘potenciales’—, adquieren un rol que va dejando en muy segundo plano al carácter originario, —las fuerzas, que inicialmente habían sido las protagonistas principales—.

Agradezco a los organizadores haberme ofrecido la oportunidad de hablar en el marco del Iberian Meeting, con un tema transversal pero que merece ser más conocido. Quedé en publicar las transparencias de la presentación; las coloco aquí (20 MB) en la espera de que puedan ser útiles. Y por supuesto, todos los comentarios son bienvenidos.

He colocado también el enlace a esta charla en el apartado Presentaciones Varias del blog, en el que quedará archivada de manera permanente.

 

Publicado en Física | Etiquetado , , , | Deja un comentario

‘Fotografiando’ los Agujeros Negros

En Enero de 2019 dí una charla sobre Visualización de los Agujeros Negros dentro del ciclo para formación de Profesores de Física y Química de Secundaria organizado, con la colaboración de la Real Sociedad Española de Física, desde la Consejería de Educación de la Comunidad de Madrid y publiqué las transparencias para que estuvieran a disposición de los asistentes al curso.

Poco después, un lector del blog me propuso hablar sobre ese asunto en los Coloquios del Instituto de Estructura de la Materia del CSIC. Así las cosas, y cuando ya habíamos quedado en fijar la charla para el mes de Mayo, el 10 de Abril de 2019 se produjo el anuncio, por parte de la colaboración ‘Event Horizon Telescope’, de la primera ‘fotografía’ de un agujero negro. Un anuncio con un resultado de ese calibre me dió oportunidad para completar sustancialmente la presentación de unos meses antes, incluyendo bastante material nuevo relativo a esa ‘fotografía’. Esta nueva presentación se puede descargar  (25.4 MB) pinchando en la imagen; espero pueda ser útil para aquellos asistentes a la charla o para los lectores del blog interesados en el tema.

Hay videos incrustados en el .pdf (35.9 MB) que al parecer no son accesibles para todos los lectores de .pdf; con Adobe Acrobat los videos se ejecutan perfectamente. He colocado también el enlace a esta charla en el apartado Presentaciones Varias del blog, en el que quedará archivada de manera permanente.

Una excelente exposición, correcta en la física, de lo que hay tras la imagen del agujero negro M87* puede leerse en el blog de Matt Strassler; el autor ha ido precisando a lo largo de varios posts sucesivos los detalles que no habían quedado suficientemente claros en las versiones divulgativas del anuncio, o que eran directamente erróneos —como por ejemplo decir que lo que se ve en la imagen es la esfera de fotones que existe alrededor del agujero—. Al mismo tiempo, en esos posts Strassler delimita nítidamente  aquello que aún no sabemos sobre dicho sistema. Especialmente relevante a mi juicio —los lectores no serán ajenos a mi simpatía por el empeño de evitar los nombres inadecuados, mientras se pueda—, es la insistencia de Strassler en lo poco afortunado de la metáfora sombra del agujero aplicada a la zona oscura en el centro de esa imagen. Sería mucho mejor y más sugerente de lo que realmente se ve decir, como él propone, que se trata de su silueta (o casi-silueta). 

Reconstrucción por síntesis y en falso color de la ‘imagen’ de la silueta del agujero negro M87* y del material cercano, en una longitud de onda del orden del mm. Fuente: EHT Collaboration, 10 April 2019

Desde el mismo punto de vista, podríamos analizar/criticar la frase ‘es la primera fotografía del horizonte de sucesos de un agujero negro’, repetida hasta la saciedad por los medios. La discusión sobre si es o no una fotografía me parece una polémica sin sentido y estéril, pero al margen de eso, la frase es desorientadora y de hecho inadecuada por otro motivo más sutil. Ni el horizonte del agujero, ni mucho menos el agujero negro como tal aparecen en la imagen. El agujero negro solamente ha actuado como una lente que ha desviado de manera bastante extrema la ‘luz’ (en la región milimétrica del espectro electromagnético) procedente del disco de acrección, una región cercana al agujero negro pero exterior a su horizonte. Lo que nosotros observamos  es la radiación que tras la desviación resultó estar dirigida hacia nosotros, no aquella que ‘se emitió dirigida hacia nosotros’, como ocurriría con una fotografía ordinaria. Realmente, el agujero negro juega el papel de una lente descomunal que desvía la luz (en mucha mayor medida que una lente ordinaria) y lo que del horizonte de sucesos (y del propio agujero negro) vemos en la imagen es, en todo caso, su silueta. Si alguien, al ver una fotografía ordinaria, nos dijera que lo que hemos fotografiado es la lente de la cámara fotográfica, probablemente no le concederíamos ningún crédito; pero ese es el papel exacto, ni más ni menos,  que juega el agujero negro en la producción de la imagen.

Al margen de esos detalles, queda claro que se trata de un gran avance, sobre eso no hay discusión. Ahora esperemos que la colaboración EHT tenga éxito en una observación semejante no en M87* sino en el agujero  negro del centro de nuestra propia galaxia, lo que por varios motivos que mencioné en la charla, aunque esté mil veces más cerca, resulta algo más dificil.

Publicado en Divulgación, Física, Relatividad | Etiquetado , , | Deja un comentario

¿Qué es un Espacio-Tiempo curvo?: la gravedad de Einstein 1915-1957 y 1957-2019

Dentro del ciclo Encuentro sobre Fronteras en la Ciencia, organizado desde las Universidades de Valladolid y Salamanca, tuve el privilegio este año de impartir una charla, dentro de una sesión de homenaje a Jesús (Chus) Martín, profesor de la Universidad de Salamanca, colega y amigo, fallecido unos meses antes.

La idea directriz de la charla fue tratar de describir qué es un espacio (o un Espacio-Tiempo) curvo,  cómo es posible (disponiendo de instrumentos lo suficientemente precisos) detectar directa y observacionalmente la curvatura de un espacio curvo, y cómo esa curvatura se manifiesta físicamente en el Espacio-Tiempo como el fenómeno de la gravitación.

Por un lado, la curvatura está ligada a la existencia de una aceleración no nula de la desviación geodésica, esto es, de la separación entre dos geodésicas cercanas.

En el Espacio-Tiempo, esta aceleración de la separación geodésica se manifiesta en las fuerzas de marea. Como tales fuerzas ya están presentes en la gravedad newtoniana, este debe ser el primer indicio de que la idea de entender la gravitación como curvatura del tiempo no es incompatible con la teoría newtoniana (por más que nadie antes de Einstein hubiera dado una interpretación semejante, fuera ya del marco newtoniano y dentro del de la Relatividad). Seguir repitiendo que la distinción entre la gravitación newtoniana y la de Einstein radica en que en la primera en Espacio-Tiempo es llano, pasivo, . . . y en la segunda curvo, flexible, . . .  es seguir alimentando una confusión, históricamente comprensible, pero que nunca debió existir. Hay diferencias muy importantes entre ambas teorías, claro, pero no son esa.

Por otro lado, la curvatura se manifiesta en que el transporte paralelo de un vector a lo largo de un circuito cerrado no retorna al vector inicial; el vector trasladado final resulta del inicial por una isometría del espacio tangente en el punto ‘base’ inicial y final.

En el Espacio-Tiempo esa isometría será en el caso más general un (producto de)  transformación inercial pura y rotación espacial. Un observador localmente inercial es aquel que se mueve sin aceleración y sin rotación, condiciones que tienen sentido observacional propio para ese observador, y que él puede contrastar usando acelerómetros y girómetros: el observador es localmente inercial si ambos aparatos, en todas las orientaciones, marcan cero.  Si ahora estamos en un campo gravitatorio, y consideramos dos observadores cercanos que sean localmente inerciales, entonces cada uno de ellos verá al otro moverse con un movimiento relativo acelerado y/o rotante. Parece chocante que si cada uno de ellos ‘controla’ observacionalmente que su propio movimiento sea sin aceleración y sin rotación, a pesar de ello exista entre ambos un movimiento relativo acelerado o rotante. Pero precisamente ese efecto es la firma indeleble de la gravitación.

Einstein se encontró con la teoría de Espacios curvos ya desarrollada fundamentalmente por Riemann (en el caso métrico localmente euclidiano), y hubo de recurrir a Grossmann para familiarizarse con ella. Pero sorprendentemente, la formulación matemática de los dos aspectos de la curvatura que hemos expuesto antes no estaba disponible en la época en la que Einstein construyó su teoría, ni siquiera lo estuvo en los cuarenta años siguientes. El énfasis en la formulación inicial de la teoría no era en la conexión, sino en el tensor g, que juega un intrigante doble papel en la teoría, por un lado los ‘potenciales’ del conjunto de las fuerzas gravitatorias e inerciales conjuntamente, y por otro como la métrica física del espacio-tiempo.

Históricamente, la idea matemática de conexión apareció por vez primera en Matemáticas en 1917, introducida por Levi-Civita, después de que Eistein hubiera completado el auténtico tour de force en que consistió la construcción histórica de su teoría con los medios matemáticos a su alcance —básicamente el aspecto puramente métrico de la teoría de espacios curvos—. La conexión es la estructura que en el Espacio-Tiempo describe de manera covariante las fuerzas gravitatorias y las de inercia conjuntamente. Se tardó mucho tiempo más en entender que la conexión, y no tanto la métrica, era el objeto esencial en toda la teoría de los espacios curvos, y que la firma absoluta de un campo gravitatorio ‘real’ (no los campos gravitatorios inerciales, que son solamente aparentes) era la condición de tener un tensor de curvatura no nulo.

En ésta historia de ‘gravitación como curvatura del espacio-tiempo’, el tipping point hacia ese último reconocimiento se produjo en la década de los 1950, y si queremos poner una fecha concreta, en 1957, en la reunión de Chapell Hill, en la que Felix Pirani presentó a la comunidad la ecuación de desviación geodésica, que en todas las exposiciones a partir de aquella fecha (ver por ejemplo el libro negro de Misner, Thorne y Wheeler) es una piedra angular. Esa ecuación, en su forma general, aparece como natural solamente una vez que se ha asimilado que la estructura fundamental para la curvatura no es tanto la métrica cuanto la conexión.

Einstein fué afortunado ya que si la métrica es no degenerada, como lo es en su teoría de la gravedad, hay una sola conexión compatible, lo que permite ‘ignorar’ a la conexión como el objeto básico, y autolimitarse a considerar únicamente la métrica como fuente de todo. En la inteligencia de la gravitación newtoniana como una teoría de curvatura, una de las barreras radica precisamente en que la ‘métrica’ del espacio-tiempo newtoniano está descrita por dos tensores cronogeométricos, ambos degenerados y que no hay una única conexión compatible con ambos; en tal teoría no es posible ‘ignorar’ el papel fundamental e independiente que tiene la conexión. Pero una vez salvada esa barrera, la interpretación de la gravedad newtoniana como curvatura del Espacio-tiempo es posible, y de hecho mucho más natural que la interpretación newtoniana convencional, en la que la gravedad es un campo de fuerzas adicional.

Resulta que en el caso más simple, de un espacio curvo localmente euclideo y bidimensional, el cambio en un vector tangente tras un transporte paralelo a lo largo de un circuito es una rotación. Y puede construirse un aparato real, el carro chino indicador del Sur, que realiza el transporte paralelo de un vector y que permite ver el efecto de la curvatura con los propios ojos, como se registra en varios videos incluidos en la presentación, en los que el carro chino se mueve sobre una superficie sin curvatura (un plano) y sobre otra con curvatura. Estos videos se complementan con otros en los que se presenta como un observador localmente inercial vería a otro cercano; lo que pretendía en la charla fué exhibir de manera visual los dos aspectos de la curvatura antes comentados.

A falta del audio y de los comentarios en la exposición, en ésta charla en concreto las transparencias (58.2 MB) quizás den solo una imagen demasiado esquemática del contenido. Hay videos incrustados en el .pdf que al parecer no son accesibles para todos los lectores de .pdf; con Adobe Acrobat (y probablemente con Acrobat Reader) los videos se ejecutan perfectamente.  He colocado también el enlace a esta charla en el apartado Presentaciones Varias del blog, en el que quedará archivada de manera permanente.

Publicado en Divulgación, Física, Relatividad | Etiquetado , , , , | Deja un comentario

Alrededor de Sofía Kovalévskaya: una excursión por los sistemas integrables.

La Facultat de Matemàtiques i Estadística de la Universidad Politécnica de Cataluña organiza anualmente, bajo el epígrafe “El año ….” un ciclo de actividades dedicadas a  algún matemático destacado, incluyendo una jornada con charlas sobre su figura y obra. Yo ya había participado en 2006 en el año Gauss, y este curso, dedicado a Sofía (Sonia) Kovalévskaya, los organizadores me invitaron amablemente a dar una charla sobre el trabajo de Sofía en el campo que actualmente inscribimos/describimos como ‘sistemas integrables’, y que en la época se colocaba entre la teoría de ecuaciones diferenciales en derivadas parciales y la naciente teoría de funciones.

La preparación de la charla me dió la oportunidad de estudiar más a fondo las contribuciones de Sofía en ese campo, en especial a su descubrimiento del tercer caso completamente integrable —adicional a los dos casos previamente conocidos de Euler y Lagrange— del movimiento del trompo con un punto fijo. El trompo de Kovalévskaya es un excelente ejemplo de que, en contra de lo que cierto folknocimiento superficial afirma, no sólo el movimiento de un sistema con dependencia sensible a las condiciones iniciales puede ser extraordinariamente complicado —siendo determinista—, sino que también la complicación de la estructura del mapa de fases de un sistema completamente integrable puede ser abrumadora. Estamos aún lejos de haber explorado de manera razonablemente completa todos los recovecos de la dinámica del trompo de Kovalévskaya, aunque conozcamos su solución explícita mediante funciones hiperelípticas, —solución explícita que es precisamente el impresionante resultado de Sofía—. Lo cual muestra que disponer de la solución cerrada, explícita, de un problema puede no ser definitivo ni mucho menos.

Hay muchos detalles sobre su interesantísima y nada fácil vida, que en otra de las charlas de la Jornada, ‘La fascinante vida de Sonia Kovalévskaya‘ describieron con mucho más conocimiento María Molero y Adela Salvador (su presentación está disponible en la página web del ciclo). La tercera charla fué una exposición sobre el teorema de Cauchy-Kovalévskaya, uno de los resultados fundamentales en la teoría de ecuaciones en derivadas parciales,  a cargo de Alberto Enciso.

Una excelente iniciativa la del ‘Año de Kovalevskaya’ para una figura histórica muy interesante que merece ser mucho más conocida.

Hay videos incrustados en el .pdf (35.9 MB) que no son accesibles para todos los lectores de .pdf; con Adobe Acrobat (y creo que con Acrobat Reader, aunque no lo he probado) los videos se ejecutan perfectamente.  He colocado también el enlace a esta charla en el apartado Presentaciones Varias del blog, en el que quedará archivada de manera permanente.

 

Publicado en Ciencia, Matemáticas | Etiquetado , , , | Deja un comentario

Mapas y Visualización matemática

En Octubre de 2018 dí una charla, Mapas y Mapas: ¿nos dice algo la cartografía sobre la visualización matemática? dentro de los Coloquios del Departamento de Matemáticas de la Universidad Carlos III; agradezco a los organizadores la invitación. Mi intención fue analizar la relevancia histórica y conceptual que han tenido los mapas cartográficos en la visualización de ideas matemáticas. El núcleo de la charla se centró en describir las matemáticas que están escondidas tras la proyección de Peirce, una de las imágenes de cabecera del blog y a la que en su momento dediqué una serie de posts, comenzando aquí, pero en la charla hubo unas cuantas excursiones laterales, como un análisis de las matemáticas en la proyección de Mercator (que con la suma perpetua de secantes de E. Wright son un buen ejemplo de cálculo integral antes de que existiera el cálculo diferencial) o el uso de la ecuación de difusión para producir cartogramas.

Pinchando en la imagen se puede descargar la presentación (20 MB), que incluso en ausencia de los comentarios de la charla espero pueda ser útil para aquellos asistentes a la charla o para los lectores del blog interesados en el tema.

He colocado también el enlace a esta charla en el apartado Presentaciones Varias del blog, en el que quedará archivada de manera permanente.

Publicado en Instrumentos Científicos, Matemáticas | Etiquetado , , , , , , | 1 Comentario

Sintiendo el pulso del Universo: ¿qué podemos esperar aprender de las ondas gravitatorias?

El pasado mes de abril apareció publicada (on-line) la obra colectiva CIENCIA, y un gran paso para la Humanidad editada por Ana Casalvilla Dueñas y Quintín Garrido Garrido, en la que he tenido el honor de colaborar.

Se trata de una iniciativa personal e independiente, que ya ha dado lugar a otros dos libros de la misma serie: en 2017 CIENCIA, y además lo entiendo!!! , y en 2018 CIENCIA, y yo quiero ser científico!!!, ambos editados por Quintín Garrido. Los tres libros son de dominio público, con licencia Creative Commons.

El tercer libro de la serie, CIENCIA, y un gran paso para la Humanidad consta de 28 capítulos, que cubren un amplio espectro de temas. Y sus autores son expertos que han colaborado altruistamente; todos los que he leído (aún estoy en ello) me han parecido muy interesantes, y en algún caso, como el capítulo de José Manuel Grandela, aparte de interesantísimo, narra una historia por completo desconocida para mí y, sospecho, para muchos españoles.

Mi colaboración en éste tercer ‘volumen’ de la serie es un Capítulo dedicado a la reciente detección directa de ondas gravitatorias y a las posibilidades y perspectivas que esa detección abre para el futuro.

Para quien tenga interés en el Capítulo Sintiendo el pulso del Universo: ¿qué podemos esperar aprender de las ondas gravitatorias? he preparado un archivo descargable pinchando en el icono .pdf a la izquierda;   además del Capítulo contiene  la portada del libro, el prólogo y, para despertar el apetito por los restantes capítulos, el índice (1.1 MB). Desde la página web del proyecto se puede leer el libro on-line, o descargarlo, bien entero o bien capítulos individuales.

El libro tiene un prólogo de Michael López-Alegría y un capítulo especial: coincidiendo con el 50 aniversario de la llegada del hombre a la Luna, ese capítulo está dedicado al papel español en el seguimiento de las misiones Apollo, narrado en primera persona por uno de los protagonistas directos, José Manuel Grandela Durán, a quien antes me he referido.

Aparte, los restantes capítulos dan una visión magnífica y multidimensional de avances que han sido ya o que probablemente serán pasos importantes para la humanidad. Inmersos en la desesperanzadora vida pública actual, obras como ésta ayudan a reconciliarnos con la especie humana; en ese espíritu me permito aconsejar su lectura y disfrute.

Acercar la auténtica ciencia al público de una manera accesible y a la vez no desfigurada es cada vez más necesario. Por ello creo que es de justicia hacer llegar a los editores un agradecido reconocimiento: es fácil de imaginar el esfuerzo que han debido realizar para llevar a buen puerto una iniciativa semejante, de manera totalmente desinteresada. Así que gracias.

PS. Solamente por un exceso de trabajo y absorbido durante todo el curso pasado en otras tareas ‘ordinarias’ y en la preparación de unas cuantas charlas y varios seminarios, no he encontrado tiempo ni oportunidad para publicar aquí siquiera una mención a esta excelente iniciativa, ni mucho menos para sacar al blog de su letargo. Como en todas esas charlas prometí colgar en el blog las presentaciones, y no lo he hecho hasta ahora, irán apareciendo en los próximos posts, programados de aquí a dos semanas.

Publicado en Ciencia, Divulgación, Sociedad | Etiquetado , , , , | 1 Comentario

Charla “Visualizando los Agujeros Negros”

Hoy, dentro del ciclo para formación de Profesores de Física y Química de Secundaria, organizada desde la Consejería de Educación de la Comunidad de Madrid con la colaboración de la Real Sociedad Española de Física, doy una charla sobre la visualización de los agujeros negros. He programado la publcación de éste post para que coincida con la charla.

Pinchando en la imagen de arriba se puede descargar la presentación, que espero pueda ser útil para los asistentes. Seguir leyendo

Publicado en Ciencia, Divulgación, Física, Relatividad | Etiquetado , | 5 comentarios

Sorpresas en las sumas infinitas (VII) ¿ 1+2+3+4+…=-1/12 ?: Mathologer vs. Numberphile

Leía esta literatura como Darwin dice que leía cuando estaba trabajando en sus teorías sobre el origen de las especies, anotando todo aquello que no lograba comprender. ¿Qué necesitaría saber para entender […]? Yo leía haciéndome siempre la misma pregunta: Hay algo absurdo en esta imagen. ¿Qué necesitaría saber para entenderla?

.

Ruth Benedict. El Crisantemo y la Espada, 1946

Llegamos a este punto de nuestra exploración sobre las ‘sumas infinitas’ habiendo individualizado las principales fuentes de confusión (y de error) que surgen al tratar de atribuir ‘suma’ a series divergentes, y que consisten en ignorar a) que es necesario dar una definición de a qué llamamos suma de una tal serie, b) que son posibles diferentes definiciones, que quizás asignen ‘sumas’ diferentes a la misma serie, y c) que para cada una de las posibles definiciones debemos discernir, de entre todas las propiedades de las sumas finitas, aquellas que siguen siendo válidas para esas nuevas ‘sumas’ infinitas frente a otras propiedades que ahora dejan de serlo.

Eludir siquiera la mención a que tal discusión es necesaria es muy engañoso. No estoy diciendo que si se quiere presentar a un público ‘general’ alguno de los chocantes resultados que las matemáticas ofrecen en éste campo haya que exponer al completo todas y cada una de las muchas sutilezas que el asunto encierra. Pero debería hacerse alguna mención que haga sentir al lector/oyente que está ante un asunto complicado que requiere atención, una atención que por supuesto los matemáticos ya le han prestado. Y sobre todo, que disipe el absurdo de las ideas previas e implícitas que se pueda tener sobre la cuestión, que, como hemos visto, suelen ser las más profundamente erradas.

Pueden agruparse esas ideas incorrectas en dos grandes categorías. Una es la que se deriva de asumir, arrastrados por el uso del término ‘suma’, que tales ‘sumas’ son simplemente el resultado de iterar una suma ordinaria (finita) incluyendo cada vez más términos, y que, en consecuencia, no es necesaria ninguna nueva definición. Y la otra, que una tal suma tiene las mismas propiedades que las sumas finitas.

Incluso si no se añade ningún detalle adicional, es imprescindible comenzar aclarando que para las series divergentes no ocurre ninguna de las dos cosas del párrafo anterior. Seguir leyendo

Publicado en Divulgación, Matemáticas | Etiquetado , , , | 5 comentarios

Conversando sobre Hawking

Conversando sobre Hawking“, una iniciativa de la Unidad de Cultura Científica de la UVa, exhibirá la película “La teoría del Todo” de James Marsh (2015). Previamente a la proyección, Angel Luis Guerrero (de la Facultad de Medicina) y yo mantendremos un diálogo sobre Hawking. Agradezco a la Unidad de Cultura Científica de la UVa su amable invitación a participar en éste acto para rendir un muy merecido homenaje a la excepcional figura científica y personal del recientemente fallecido Stephen William Hawking. Están Vds. cordialmente invitados.

Aula Mergelina, del Edificio histórico de la Universidad, el martes 27 a las 18:30.

Publicado en Física, Sociedad | Etiquetado | 5 comentarios

Stephen William Hawking (1942-2018), S·T·T·L

Stephen, Sit Tibi Terra Levis

PS (20 Marzo). La American Physical Society  ha puesto en acceso abierto los artículos de Stephen Hawking publicados en Physical Review D y Physical Review Letters. Se pueden descargar desde aquí

Publicado en Física, Sociedad | Etiquetado | Deja un comentario

Ver lo que todos han visto, pensar lo que nadie ha pensado

Un amigo lector del blog me envía un enlace a éste tweet de Brian Greene y me pregunta si conozco el origen de la cita, que B. Greene atribuye allí a Erwin Schrödinger.

The task is not so much to see what no one has yet seen but to think what nobody has yet thought.

Desde luego no conocía esa cita que me resultó a la vez sugerente y desconcertante.

Estoy habituado, eso sí, a escuchar una idea parecida en el interesante (muchas veces interesantísimo) programa de Radio Clásica ‘Longitud de Onda‘, que declara buscar la conexión entre música y ciencia, y que cada día se despide de los oyentes con los dos presentadores diciendo al unísono “Porque la ciencia nos enseña a ver lo que todo el mundo ha visto, pero a pensar lo que nadie ha pensado”. Seguir leyendo

Publicado en Divulgación, Uncategorized | Etiquetado , , , , | 3 comentarios

El Premio Nobel de Física 2017: Ondas Gravitatorias

El pasado 14 de Noviembre, y organizada por la Sección Local de Valladolid de la Real Sociedad Española de Física, Santiago Mar y yo dimos en la Facultad de Ciencias de la Universidad de Valladolid, al alimón, una charla sobre la detección directa de Ondas Gravitatorias, conseguida por primera vez por el equipo LIGO en Septiembre de 2015, anunciada en Enero de 2016, y distinguida con el Premio Nobel de Física 2017 concedido a Rainer Weiss, Barry Barish y Kip Thorne. Santiago se centró en un análisis de los interesantísimos (y nada sencillos) aspectos de la instrumentación, sobre todo de los ópticos, y yo intenté dar un panorama general, muy a grandes rasgos, sobre las Ondas gravitatorias que predice la Teoría de Einstein de la gravedad, sobre lo que se esperaba poder detectar y sobre lo realmente detectado, incluyendo las observaciones posteriores a la inicial, como la de la fusión de dos estrellas de neutrones en Agosto de 2016.

Estaba previsto que el Servicio de Audiovisuales de la UVa efectuase una grabación en video y en directo de la charla, incluyendo las preguntas y comentarios al final. Por varios motivos ligados con la iluminación y el sonido disponibles en el Aula Magna del Aulario de la Facultad de Ciencias (aún pendientes de que se implementen en esos servicios las necesarias mejoras), el responsable de la grabación sugirió que para conseguir una calidad aceptable sería preferible grabar una repetición de las charlas en su estudio. Los enlaces más arriba son a los dos videos resultantes de esa repetición, Seguir leyendo

Publicado en Divulgación, Física, Relatividad | Etiquetado , , , , , , , , , | 2 comentarios

Sorpresas en las sumas infinitas (VI): La sumación axiomática.

¿’Sumando’ otras series divergentes?

El procedimiento de Cesàro permite asignar ‘suma’ a algunas series divergentes (a las que el procedimiento tradicional no lo hace). Pero hay otras muchas series divergentes que no son sumables con tal procedimiento: no es sumable Cesàro la serie 1+1-1+1+1-1+1+1-1+…. que resulta de una reordenación de la serie de Grandi, ni la serie 1-2+3-4+5-6+… . Tampoco son sumables en ese sentido la 1+1+1+1+1+… ni la 1+2+3+4+5+6+… ; con la definición tradicional de suma de una serie, ambas son divergentes, y como sus sumas parciales no están acotadas, podríamos decir que ‘divergen’ a +∞,  en contraste con la divergencia de la serie 1-2+3-4+5-6+…, que se debe a  que la sucesión de sus sumas parciales es oscilante y no tiene límite cuando k→∞.

Así que podemos imaginar la existencia de otros procedimientos que permitan asignar ‘suma’ a cada vez más series. Para cada uno de esos procedimientos de sumación muchas  de las propiedades familiares de las sumas ordinarias (que eran correctas para sumas finitas y lo siguen siendo  para  la suma de Cauchy de las series absolutamente convergentes), aquí simplemente ya no son válidas.

La primera observación relevante es que, tratándose de series divergentes, lo que llamamos ‘sumas’  lo son necesariamente en un sentido diferente del tradicional. En uno de los primeros posts de la serie ya mencioné que para las ‘sumas’ de series divergentes habría sido preferible usar otro término en vez de suma, algo que Euler propuso pero que desafortunadamente no prosperó.  Así que hay que hacerse a la idea de que aunque sigamos empleando el mismo nombre suma para el valor asignado mediante cierto procedimiento a una serie divergente, su definición y propiedades puedan ser bastante diferentes de las de las sumas ‘ordinarias’ finitas o las sumas de Cauchy de las series convergentes. Además, para diferentes series divergentes, estas ‘sumas’ pueden serlo en sentidos diferentes entre sí.

En ese espíritu podríamos pasar ahora revista a varios procedimientos alternativos de sumación, entre los que destacamos el de Cesàro que describimos en el post anterior, los de Cesàro de orden superior 2, 3, … n, … y el de Abel.

Describir uno a uno estos procedimientos (u otros) no es necesario para ir al corazón del asunto y adquirir cierta visión de conjunto. Quizás ni siquiera es conveniente. Seguir leyendo

Publicado en Ciencia, Matemáticas | Etiquetado , , , | 3 comentarios

Sorpresas en las sumas infinitas (V): El procedimiento de sumación de Cesàro.

Muchas de las discusiones sobre suma de series divergentes comienzan con la serie 1-1+1-1+1-1+…., en cuyos términos alternan +1 y -1 de manera periódicamente repetida. Esta serie se conoce como serie de Grandi y tiene una interesante historia. Como no es convergente, carece de sentido asignarle suma en el sentido tradicional de Cauchy. Lo que no debe entenderse como que no se le pueda asignar ‘suma’ en algún otro sentido.

Si, procediendo de manera desinformada, entendemos literalmente el símbolo 1-1+1-1+1-1+…. como resultado de la iteración de una suma ordinaria, suponiendo implícitamente que todas las propiedades que las sumas finitas se siguen verificando (lo que es una postura no solo injustificada sino además incorrecta), las contradicciones están servidas. Veámoslo antes de entrar en materia. Si suponemos que para ‘calcular la suma’ los términos se pueden agrupar de cualquier manera, la agrupación por parejas (1-1)+(1-1)+(1-1)+….. = 0+0+0+… conduciría a que la suma de tal serie sería 0. Otra agrupación por parejas en la que se deja aislado el primer término es 1+(-1+1)+(-1+1)+(-1+1)+…. = 1+0+0+0+…., que conduciría a una suma 1. Si suponemos además que los sumandos también se pueden reordenar de cualquier manera (lo que de hecho ocurre en las sumas finitas), podríamos trasladar y agrupar un cierto número N de sumandos +1 al comienzo, concluyendo, tras la agrupación obvia de todos los restantes en parejas +1-1, que la suma sería N. También podríamos trasladar sumandos -1 de manera que la serie comience por N términos -1, y luego agrupar los demás por parejas como antes, con lo que la suma sería -N. Literalmente, parecería que la suma buscada podría ser cualquier número entero.

¿Debemos tomarnos en serio estas manipulaciones? Desde luego que no. Al contrario, la exploración anterior nos sugiere seriamente que las posibles ‘sumas’ de series divergentes, como la de Grandi, no pueden tener la propiedad de mantener la suma si en la serie hacemos alguna agrupación o reordenación. En los posts anteriores hemos ido preparando el camino para éste reconocimiento con algunas ideas generales.

Es ahora un buen momento para descender a concretar esas ideas generales Seguir leyendo

Publicado en Divulgación, Matemáticas | Etiquetado , | 1 Comentario

Fingiendo: Empujados por los experimentos … o arrastrados por la imaginación.

En 1957 Richard Feynman participó en una conferencia sobre ‘The Role of Gravitation in Physics‘ en Chapel Hill, U.S.A.

Felix Arnold Edward Pirani (1928-2015)

En los Proceedings de dicha reunión, republicados en una edición Open Access en 2011, podemos leer sus dos breves aportaciones.  En una, Feynman, tras escuchar a Felix Pirani, un físico matemático que debiera ser más conocido, propuso el experimento mental de las cuentas moviéndose con algo de rozamiento en una varilla rígida, para convencer a los asistentes de la existencia real de las ondas gravitatorias. No hay duda de que fue esa reunión la que marcó el inicio de la  rápida transición hacia el consenso posterior sobre la realidad de las ondas gravitatorias, que hasta aquel momento distinguidos físicos negaban.

Richard Phillips Feynman (1918-1988)

Reproduzco los primeros párrafos de los Comentarios Críticos, la segunda de las  aportaciones de Feynman a esa conferencia, en la que describe su punto de vista sobre cómo abordar el progreso de la física en una situación, como  la teoría de la gravitación o en particular el estudio de las ondas gravitatorias, en la que no se pueden hacer experimentos. Es, como todo lo de Feynman, aparentemente simple y en el fondo brillante y visionario. La evolución de este campo en el medio siglo largo transcurrido desde entonces debe no poco a que a partir de 1957 muchos físicos adoptaron la línea de trabajo que Feynman propone aquí.

Tras un breve enunciado esquemático de cuales son los problemas reales de la teoría de la gravitación (cinco puntos y solo unas setenta palabras), Feynman dice: Seguir leyendo

Publicado en Física, Relatividad, Uncategorized | Etiquetado , | Deja un comentario

Hamiltoniano, ¿con H de Huygens?

En Mecánica Teórica es universal denotar por L el lagrangiano y por H el hamiltoniano. Con frecuencia se dice en clase (y seguramente yo lo he dicho en alguna ocasión) o en los libros de texto, explícita o implícitamente, que la elección de esas letras hace una referencia intencionada a sus respectivos inventores, Joseph-Louis Lagrange (1736-1813) y William Rowan Hamilton (1805-1865). Esa interpretación parece tan natural y simétrica que no se discute y se asimila de inmediato. Supongo que es casi inevitable pensar: “Pues claro, ¡qué poca imaginación! Y una vez visto esto, pasemos a otra cosa.

Joseph-Louis Lagrange (1736-1813)

William Rowan Hamilton (1805-1865)

Así que es un lugar común pensar que es H por Hamilton. ¿Correcto? Seguir leyendo

Publicado en Física | Etiquetado , , , , | Deja un comentario

El cañón del mediodía, el efecto Zanzíbar y el kilogramo-patrón.

En una visita reciente al Museo del Real Observatorio Astronómico Nacional, en Madrid llamó mi atención un objeto que en cierto sentido desentonaba entre otros muchos ejemplos de instrumentación de siglos pasados: teodolitos geodésicos, un círculo de Borda, un quintante, … , construídos todos ellos en pulido latón y perfecta geometría. A primera vista este objeto, un tanto más tosco, era un reloj de sol horizontal, con su stilo triangular y sus marcas horarias. Pero le hacía especial algo que los relojes de sol no tienen: sobre el plato había un extraño añadido, una sencilla estructura de bronce, en la que reposaba un cañón casi de juguete, de unos diez centímetros de largo, alineado con el stilo, y sobre él, fijada a un soporte inclinable, una lupa.

Cañón meridiano del Museo del Observatorio Astronómico Nacional, en Madrid. Fuente: Página web del Museo.

Intrigado, acudí a la ficha, que decía: “Cañón meridiano, c. 1870, posiblemente de origen inglés“, con un breve texto explicativo: “Reloj de sol que al paso de éste por el meridiano concentraba los rayos solares en el oído del cañón, produciendo una detonación que anunciaba el mediodía“.

Así que se trataba de un ingenioso archiperre para marcar con una señal auditiva y de manera automática el paso del sol por el meridiano.

Debidamente sofisticado, aquel aparato habría tenido un lugar de honor en las invenciones del profesor Franz de Copenhague, y desde luego sirve como ejemplo de que la realidad supera a veces a la ficción.

Lo de dar una salva a mediodía sí que trajo a mi memoria una historia interesante. Seguir leyendo

Publicado en Divulgación, Física, Instrumentos Científicos | Etiquetado , , | 4 comentarios

Una evaluación de un profesor, circa 1690

Al ir a descargar las excelentes notas sobre Classical Dynamics que David Tong, profesor del DAMTP de Cambridge, tiene en abierto en su página web, me he encontrado con una evaluación de un profesor de su universidad, muy bien conocido en su campo.

La materia que enseñaba ese profesor es lo que hoy describimos como mecánica clásica, asignatura cuya docencia, aquí y ahora,  comienza hoy. Por ello, hoy, no resisto la tentación de compartir este texto, cuya fuente con algún detalle más puede consultarse aquí.

So few went to hear him, and fewer understood him, that ofttimes he did in a manner, for want of hearers, read to the walls. He usually stayed about half an hour; when he had no auditors he commonly returned in a quarter part of that time, or less.

La descripción data de alrededor de 1690. Y sí, se refiere a esa persona cuyo nombre tanto mencionaremos en la asignatura que comienza hoy.

Publicado en Uncategorized | Deja un comentario

Sorpresas en las sumas infinitas (IV): ¿Qué propiedades puede tener una suma infinita?

¿Porqué escalar las montañas? Porque están ahí.

.

George Mallory, 1923

Las series divergentes están ahí. Cuando aparecen al estudiar un problema físico, lo que ocurre frecuentemente, tendemos a pensar que nuestro enfoque ha estado mal planteado y que necesitaríamos otro nuevo. Pero varios indicios sugieren que, al menos en ocasiones, esas series divergentes contienen información relevante al problema que está codificada, y por así decir, esperando a ser extraída.

¿Cómo proceder entonces? Una buena elección es confiar más en las matemáticas. Y lo que las matemáticas nos dicen es que puede asignar  ‘suma’ a una serie divergente. Desde luego, tal ‘suma’ necesariamente deberá tener otro sentido diferente del tradicional, el cual se refiere exclusivamente a las series convergentes. Cualquier tal ‘nuevo sentido’ estará basado en algún procedimiento que habrá que efectuar sobre la serie y que nos debe devolver un único valor. Este valor será lo que entendamos, por definición, como su ‘suma’; las comillas nos recuerdan que no se trata de una suma ordinaria, sino del valor que resulta de aplicar a la serie ese procedimiento y que no debemos dar por sentado que tal ‘suma’ satisfaga las propiedades familiares de las sumas ordinarias (escúchese aquí el eco de las palabras de Euler que reprodujimos en el post anterior).

Buscar procedimientos alternativos al de Cauchy tiene como objetivo poder ‘sumar’ series que el procedimiento tradicional no sume. Cada una de estas definiciones alternativas se conoce como ‘procedimiento de sumación’. Seguir leyendo

Publicado en Matemáticas | Etiquetado , , | 2 comentarios

Sorpresas en las sumas infinitas (III) ¿Qué sentido tiene una suma infinita?

How many times must a man look up
Before he can see the sky?

.

Blowin’ in the Wind, Bob Dylan 1962

.

Juntar palabras en sucesión no es difícil. Pero, si se trata de matemáticas, es esencial saber qué significan. Es fácil decir ‘suma infinita’. Pero ¿qué significa suma infinita realmente? ¿Tiene un solo significado o hay varios posibles?

Comencemos por el principio. Seguir leyendo

Publicado en Divulgación, Matemáticas | Etiquetado , , , , , , | Deja un comentario

Gravitación, en 80 caracteres

…. y cuando finalmente quedaron en caída libre, el campo de marea seguía allí.

Publicado en Divulgación, Física, Relatividad | Etiquetado , | Deja un comentario

Timelines de un siglo de Cosmología en Naukas Coruña 2.0

Hace un par de años, y para tener disponible un esquema sincrónico/diacrónico de la historia de la Cosmología en su siglo de existencia (con vistas a preparar una charla sobre el tema) organicé (con la inestimable ayuda de TeX (\TeX 🙂 )) un Panorama Cronológico (a.k.a. Timeline) que recoge las fechas en que se propusieron las ideas principales y en las que se realizaron por primera vez las observaciones básicas en la Cosmología.

Recogiendo las sugerencias que un lector del blog había hecho en su momento (gracias Albert) y las novedades sobre la detección de ondas gravitatorias producidas en 2016, he preparado una versión actualizada, que puede descargarse pinchando sobre las miniaturas a continuación. Hay un panorama general y tres panoramas específicos, que cubren tres aspectos particulares en la Cosmología actual. Incluí estos panoramas cronológicos entre las imágenes de la charla que tuve el privilegio de dar en Naukas Coruña el pasado mes de Febrero (charla cuyo esqueleto estaba también montado sobre estos tres pilares), pero consciente de que allí no habría tiempo para verlas siquiera por encima, indiqué en la charla que las colocaría en el blog. Y esto es lo que hago ahora. Seguir leyendo

Publicado en Física, Timelines | Etiquetado , , , | 2 comentarios

De imposibilidades: El teorema de Arrow

Kenneth Arrow 1996, Crédito de la fotografía: LA Cicero

Hace unas semanas ha fallecido Kenneth Arrow, considerado como uno de los tres o cuatro economistas más importantes del S. XX. Tenía 95 años y había recibido el Premio Nobel de Economía en 1975.

Al nivel no especializado,  el resultado por el que Arrow es más conocido es su teorema de imposibilidad, que dió la mayoría de edad a un campo de investigación a caballo entre las Matemáticas y la Economía: la teoría de la elección social, desarrollada a partir de su libro de 1951 “Social Choice and Individual Values”.

Aquí un comentario de un economista sobre el teorema de Arrow, y aquí una charla sobre las contribuciones de Arrow.

Ilustres predecesores de Arrow en ese campo son los nombres de Ramón Llull (S. XIV), los franceses Nicolas de Condorcet y Jean Charles Borda (a finales del S. XVIII) y, en la misma época, de manera independiente y mucho menos conocido, el ilustrado español José Isidoro Morales (cuya contribución al asunto ha sido descubierta en tiempos relativamente recientes por miembros del grupo de investigación en elección Social de la Universidad de Valladolid; aquí una breve biografía de Morales).

Hace unos años dí una charla en un ciclo sobre los Límites del Conocimiento. Entre otros ejemplos de cómo las matemáticas y la física establecen de manera natural e inevitable límites absolutos, que son literalmente imposibles de transgredir, aparecía el teorema de Arrow. Se trata de un resultado matemático, Seguir leyendo

Publicado en Divulgación, Matemáticas | Etiquetado , , , , , | Deja un comentario

Sin excluir todo lo demás: Kuhn versus Galison

Durante la agradable sobremesa tras la cena con algunos participantes en la jornada Naukas Coruña 2017, flotaba en segundo plano la importancia fundamental en ciencia de no limitarse a un único punto de vista. Si uno lo hace, sobre todo si es de manera un punto fundamentalista, se corre un gran riesgo de excluir indebidamente (deliberada o inconscientemente) a muchas otras posibles interpretaciones, y de empobrecer nuestro entendimiento de manera grave.

En ese contexto yo mencioné la anécdota de Kuhn interrumpiendo a sus discípulos con el atronador “que yo no soy kuhniano”. Pero no recordaba dónde la había leído. A mi vuelta a casa he localizado la fuente: la cuenta Freeman Dyson en “El científico rebelde“. Me parece muy ilustrativa y no resisto la tentación de compartir los fragmentos esenciales: Seguir leyendo

Publicado en Ciencia, Divulgación, Instrumentos Científicos | Etiquetado , | Deja un comentario

Sorpresas en las sumas infinitas (II): Arquímedes, Oresme, Madhava.

Todas las familias felices se parecen; las familias infelices lo son cada una a su manera

.

Lev Tolstói, en Anna Karénina

Fue en el S. XVII, con la gestación y el nacimiento del análisis  infinitesimal, el actual cálculo diferencial e integral, cuando las series, —de potencias, que se reducen a series numéricas cuando se da un valor numérico a la variable— comenzaron a ser un objeto ubicuo en las matemáticas occidentales. Pero antes de esas fechas habían sido varios los matemáticos preocupados por las sumas infinitas. Resumimos en este post lo que hasta entonces se aprendió. Que consiste esencialmente en reconocer lo equivocado de algunas ideas ingenuas sobre esta cuestión.

Una primera idea errónea, —que unida a la confusión entre el infinito actual y el infinito potencial conduce a las varias paradojas de Zenón—, consiste en creer que si una suma consta de un número infinito de sumandos, su valor no puede ser finito. Esto es cierto en muchos casos. Parece claro que la serie 1+1+1+1+1+1+… no tiene un valor finito como suma. Tampoco lo tiene la 1+2+3+4+5+6+ … (aunque sobre ambos ejemplos volveremos en otros posts).

Pero hay algunas series infinitas en las que esa afirmación no es cierta. Con seguridad Arquímedes (y probablemente otros) ya habían visto claro durante la antigüedad que  un número infinito de sumandos es compatible con un valor finito para la suma. En otras palabras, la presencia de infinitos sumandos no implica como consecuencia inevitable que la suma tenga que tener un valor infinito. Seguir leyendo

Publicado en Divulgación, Matemáticas | Etiquetado , , , , | 1 Comentario

“A la una yo nací, ….”

A la una yo nací / a las dos m’engrandecí /
a las tres tomí amante / y a las cuatro me cazí.

.

Son los cuatro primeros versos de una canción sefardí. No he encontrado las interpretaciones de Joaquín Díaz ni de Sofía Noel, y enlazo aquí la excelente versión de Françoise Atlan.

Guiando la evolución del Universo y los avatares personales, a lo largo de los segundos, las horas, los días, los años o los eones: el tiempo. A partir de hoy, como hace un año, como hace dos años,  como hace tres años, hablaremos de Relatividad y de Gravitación, uno de los más impresionantes logros culturales humanos y nuestra mejor teoría sobre el tiempo.

Siempre el tiempo, ese gran escultor, ese soberano único para gobernarlos a todos, para encontrarlos, para atraerlos y arrastrarlos al ucronos, donde el tiempo ya no transcurre.

Publicado en Uncategorized | Etiquetado , | 3 comentarios

¿Qué sorpresas esconden las sumas infinitas? I

No conozco a la mitad de ustedes ni la mitad de lo que me gustaría; y menos de la mitad de ustedes me gusta la mitad de lo que se merecen.

.

Bilbo Bolsón, en La Comunidad del Anillo, de J. R. Tolkien. Traducción tomada de aquí.

A muy grandes rasgos, hay dos tipos de sumas infinitas, distinguidas por cómo están ‘etiquetados’ los sumandos: aquellas en las que se suma un conjunto infinito pero discreto de números, y aquellas en las que se ‘suma‘ sobre un conjunto continuo.

A las primeras se las llama en matemáticas series, y a las segundas integrales. Un indicio de que la integración es un descendiente evolucionado de la suma lo sugiere el símbolo propuesto por Leibniz: una S alargada, con el objetivo de transmitir la idea de S(umación), que se ha estilizado al actual símbolo ∫.  Además de esa evidencia procedente de la arqueología notacional, hay otra etimológica: integración proviene del latín integratio, cuyo sentido es constituir un todo agrupando sus partes. Y tampoco está de más recordar que uno de los precedentes directos de lo que en el sentido moderno vemos como integración (de una función cuya integral hoy además sabemos que no es directamente ‘inmediata’ y que sigue sorprendiento a los estudiantes) aparece en relación con las matemáticas de la proyección de Mercator, unos 60 años antes del nacimiento oficial del cálculo infinitesimal. Su autor,  Edward Wright tabulaba numéricamente en 1599 la cantidad que hoy escribiríamos como ∫ sec(x) dx y describía el proceso seguido como “la adición perpetua de las secantes”. Pero ésto es otra historia, de la que habrá que hablar en otra ocasión.

Las sumas que se extienden a una secuencia infinita de sumandos se escriben convencionalmente como a1+a2+a3+…. . El infinito que etiqueta a los sumandos en una expresión tal es un infinito discreto, numerable. Comparadas con las integrales, o ‘sumas continuas‘, esas sumas infinitas discretas o series parecen una construcción relativamente simple y podríamos quizás esperar que sus propiedades fueran semejantes a las de las sumas ordinarias. Pero esta esperanza es ciertamente demasiado ingenua.

Una de las primeras lecciones que se aprenden al estudiar cualquier problema en donde intervenga el infinito es que se trata de un terreno sumamente resbaladizo, Seguir leyendo

Publicado en Divulgación, Matemáticas | Etiquetado , , , , | 3 comentarios

Michael Berry, sobre la astronomía de ondas gravitatorias (en 1976)

BerryPrinciplesCosmologyGravitationMientras buscaba recientemente documentación para otros asuntos, he vuelto a consultar el libro Principles of Cosmology and Gravitation, de Michael V. Berry.  A pesar de que este libro cumple  ahora 40 años, creo que no ha perdido su interés. Y como una introducción plena de sentido físico a la teoría de Einstein de la gravedad me sigue pareciendo extremadamente aconsejable en su brevedad y visión. De estilo muy conciso y limitándose a lo realmente básico, llega bastante lejos en la teoría de Einstein de la gravedad —que no ha cambiado en esos 40 años— y presenta con gran claridad e incluso, en algunos casos, anticipación, las cuestiones básicas de la Cosmología, por más que nuestra imagen de la Cosmología haya sufrido sustanciales mejoras desde 1976. Como muestra de tal anticipación, (y también para sacar al blog de la sequía de los últimos meses), no me resisto a reproducir aquí este párrafo que ahora, 40 años más tarde de haber sido escrito, resulta visionario: Seguir leyendo

Publicado en Física, Instrumentos Científicos, Relatividad | Etiquetado , , , | 5 comentarios

Tan sólo la poesía y las matemáticas

En un mundo de luz no hay ni puntos del espacio ni momentos de tiempo; los seres cuyo tejido sea la luz vivirán en un nodonde y nocuando [nowhere and nowhen]; tan solo la poesía y las matemáticas son capaces de hablar de manera significativa sobre estas cosas. Un punto en C P3 es la historia de la vida completa de un solo fotón, —el “suceso” más elemental que puede ocurrir a la luz.

Yu. I. Manin, en el Capítulo 4, Space-time as a physical system, de Mathematics and Physics 1981. Reimpreso en Mathematics as Metaphor: Selected Essays of Yuri I. Manin, AMS, 2007.

Publicado en Matemáticas, Relatividad, Uncategorized | Etiquetado , | 1 Comentario

Umberto Eco, S·T·T·L

Stat rosa pristina nomine, Nomina nuda tenemus

Umberto, Sit Tibi Terra Levis

Publicado en Sociedad | Etiquetado , , | Deja un comentario

“And know the place for the first time”

Sólo a través del tiempo el tiempo es conquistado

.

T.S.Eliot, Cuatro Cuartetos, Burnt Norton II

.

Este segundo cuatrimestre, comenzando el 15 de Febrero —hoy, en el momento de publicar esta entrada—, voy a impartir la Asignatura Gravitación y Cosmología. Su eje central es la Relatividad de Einstein, como teoría del Espacio-Tiempo. Y su centro es el análisis físico del Tiempo, el auténtico corazón de la Relatividad.

Sin relación aparente, asistí el lunes pasado a una conferencia de Margarita Salas, quien incluyó para acabar una cita de T.S.Eliot, Nobel de Literatura en 1948. La cita puede verse como una referencia poética a una de las enseñanzas básicas de la ciencia: sólo podremos decir que conocemos un asunto (por vez primera) al final de un largo proceso de exploración, que habrá comenzado en el mismo sitio pero al que volveremos ‘más arriba’, y que a su vez será el comienzo del siguiente nivel: la metáfora de la escalera de caracol.  En ese contexto yo había empleado estos versos para encabezar una charla hace dos veranos:

We shall not cease from exploration
And the end of all our exploring
Will be to arrive where we started
And know the place for the first time.

La mención hecha por Margarita Salas volvió a traer a mi mente este fragmento, y he dedicado un poco de tiempo Seguir leyendo

Publicado en Física, Relatividad, Sociedad | Etiquetado , , , | 1 Comentario

(Casi) un siglo de Cosmología III.

…. (continúa de aquí) En la entrada anterior de la serie estábamos en las décadas de los 1960 y 1970, en las que tiene lugar…

El inicio de la edad de oro de la Astrofísica y Cosmología

Pues en esas décadas las mejoras en la tecnología comienzan a permitir observaciones y medidas de cada vez mayor precisión, lo que modifica el centro de gravedad (valga la redundancia) de los trabajos en Relatividad General y en Cosmología. Hasta entonces muchas observaciones no alcanzaban demasiada precisión (no podían alcanzarla), y aunque había bastantes predicciones teóricas desarrolladas, la posibilidad de su confirmación mediante observaciones finas estaba realmente bloqueada. Pero a partir de entonces la situación se invierte: tenemos cada vez más y mejores observaciones con una precisión también cada vez mayor …. lo que que sin excepción va consolidando la imagen del Universo basada en la Cosmología Relativista: un Universo en expansión, descrito con muy buena aproximación por las ecuaciones del modelo de Friedman-Lemaître-Robertson-Walker, FLRW.

Expansión ¿acelerada?

El año 1998 fue testigo de la última (hasta ahora) sacudida en nuestra imagen del mundo. Que el Universo se encuentra en expansión está fuera de toda duda. Hasta 1998 se creía Seguir leyendo

Publicado en Divulgación, Física | Etiquetado , , , , | 3 comentarios

Charla “La teoría de la gravedad de Einstein cumple 100 años”

Y, dentro de esta iniciativa de Cuentos Cuánticos de publicar en el momento del centenario posts sobre la Relatividad General, además del breve artículo periodístico del post anterior y para quienes tengan más tiempo, suficiente interés, o ambas cosas, enlazo aquí el audio (gracias, Inés y Joana) y la presentación de la charla que dí el pasado 19 de Noviembre en el Museo de la Ciencia de Valladolid, dentro de la Semana de la Ciencia.

El audio no incluye el turno de preguntas y comentarios, que duró otros buenos tres cuartos de hora.

Audio e imágenes no están integrados; van por separado. Si quiere seguir la charla, arranque el audio y después, haciendo click sobre la imagen de la presentación se abre el visor de .pdf del navegador, desde el que se puede seguir la presentación página a página mientras se escucha el audio.  No aparecen, claro, las indicaciones con el puntero laser en la charla en vivo, y depende del oyente escoger acertadamente cuando pasar a la transparencia siguiente.

Hay varios videos en la presentación, con su botón de arranque que hay que pulsar en su momento. Es posible que desde el visor de .pdf de algunos navegadores esta funcionalidad no esté disponible y los videos no arranquen; esta dificultad debe(ría) desaparecer descargando la presentación, lo que también se puede hacer desde el visor de .pdf del navegador, y leyendola desde allí con Acrobat o Acrobat Reader.

Publicado en Ciencia, Divulgación, Física, Relatividad | Etiquetado , | Deja un comentario

En el centenario de la Relatividad General

El texto a continuación es un artículo publicado el viernes 13 de Noviembre de 2015 en el Suplemento ‘La Sombra del Ciprés‘ del Norte de Castilla, que esa fecha estuvo dedicado a la Ciencia. Reproduciéndolo aquí (gracias Angélica) me uno a la propuesta de Cuentos Cuánticos de celebrar el centenario de las ecuaciones del campo gravitatorio, que se cumple precisamente hoy,  publicando entradas sobre el tema de forma simultánea en los blogs que se sumen a la iniciativa.
Dentro de la misma conmemoración, para quienes dispongan de más tiempo o tengan especial interés, en el siguiente post he colgado una charla sobre el tema que dí en el Museo de la Ciencia de Valladolid el pasado día 19 de Noviembre dentro de la Semana de la Ciencia; en el post están el audio y la propia presentación.

El 25 de Noviembre de 2015 se cumplen cien años de la sesión de la Academia Prusiana de Ciencias en la que Albert Einstein presentó la versión final de su teoría de la gravedad, conocida como Relatividad General, que hoy es nuestra mejor teoría de esta interacción que gobierna el Universo.

Disponíamos antes de la teoría de la gravedad de Newton. Que es bastante buena. Con ella explicamos las mareas y los movimientos del sistema Solar. Predijimos Neptuno. Guiamos naves espaciales a la Luna o Marte. Sobrevolamos todos los planetas y Plutón. Y entendimos que estar en órbita es estar en caída libre ‘eternamente’: La Luna lo está alrededor de la Tierra, cayendo permanentemente, aunque esa caída Seguir leyendo

Publicado en Ciencia, Divulgación, Física, Relatividad, Sociedad | Etiquetado | Deja un comentario

(Casi) un siglo de Cosmología II

(continúa de aquí) …. Pasemos pues revista a los momentos destacados en el desarrollo de nuestra imagen actual del Universo.

Algo falta: la materia oscura

Fritz Zwicky

Fritz Zwicky

En los 1930, Fritz Zwicky, un precursor brillante y  algo atrabiliario, nota que observaciones cuidadosas en cúmulos galácticos (en concreto el cúmulo de Coma) analizadas aplicando el teorema del virial sugieren que la masa responsable de los movimientos observados es bastante mayor de la que se ‘ve’ ópticamente. Zwicky propone que una explicación para tal discrepancia podría ser una nueva y desconocida  forma de materia que no interaccione con la luz pero que cause y sienta efectos gravitatorios, y acuña para esta ‘materia que falta’ el nuevo término ‘materia oscura’.

No se trata de una hipótesis tan ad-hoc como pudiera parecer: la esencia de la relatividad general es que cualquier cosa que tenga energía produce efectos gravitatorios. Si tan solo conocemos la materia que emite y absorbe luz, eso se debe precisamente a que la práctica totalidad de nuestra información sobre el mundo nos llega a través de la luz. Pero son perfectamente imaginables otros tipos de materia que no emitan ni absorban luz. Con lo que no podríamos ‘verlos’. Aunque siempre que esta materia ‘oscura’ tenga energía (lo que parece mucho más inevitable), Seguir leyendo

Publicado en Divulgación, Física | Etiquetado | 3 comentarios

(Casi) un siglo de Cosmología I

Este post (que publicaré en tres partes) es el texto, con mínimas revisiones y alguna pequeña adición, de un artículo publicado en el número 21 de ALKAID, con el amable permiso de su directora. He reemplazado las imágenes del artículo original por fotografías (de dominio público) de los personajes más destacados en esta historia.

ALKAID es una revista cultural independiente. Cubre múltiples facetas del conocimiento, “desde la Lingüistica hasta la Astronomía”: divulgación científica, ensayo, historia, arqueología, medio ambiente, poesía, arte, wargames, montaña, etc. Si no la conocen, probablemente no se imaginen la calidad y el cuidado que se percibe en cada uno de su detalles: no solo el papel, el formato, la maquetación y la impresión, sino también la enorme variedad, amplitud e interés de los temas que trata. Así que se la recomiendo sin ninguna reserva. Merece la pena.

Stonehenge, nocturno

Stonehenge Nocturno ca. 2800-1500 B.C., Wiltshire, England, UK — Stonehenge at Night — Image by © M. Dillon/CORBIS

La historia de la Astronomía es una historia de horizontes en retirada.                                                                                                 Edwin Hubble

La observación del cielo, rastreable desde hace varios miles de años, es la primera empresa colectiva humana que sin duda contiene el germen de la ciencia. En ella surgen preguntas: ¿qué sabemos sobre el Universo?, ¿cuándo y cómo hemos comenzado a saberlo?, ¿cómo empezó el Universo? o ¿cómo evolucionó hasta el estado que vemos hoy? En la breve historia de nuestra búsqueda de respuestas veremos que esta empresa se describe bien en la frase de Hubble que encabeza el artículo: Seguir leyendo

Publicado en Divulgación, Física | Etiquetado | 4 comentarios

Elogio del número seis

No todos los números tienen el mismo carácter. “Seis” es un número interesante. Algunos otros números también lo son. Pero los números bastante interesantes son pocos: 5, 8, 24, 42, ….

A tu alcance hay seis direcciones cardinales, en las que puedes moverte: Norte / Sur, Este / Oeste,  Arriba / Abajo. Quizás creías que eran sólo cuatro, pero también puedes subir y bajar.

Con solo hexágonos puedes teselar el plano: lo hacen también las abejas. Y los copos de nieve tienen una variada simetría de orden seis.

Cristales hexagonales en copos de hielo. Fuente:  Bentley, W. A. Snow Crystals. NY: Dover, 1962

Hay precisamente seis quarks y seis leptones, y de sus combinaciones surge toda la materia que conocemos, con su amplísimo espectro de características, incluyendo la curiosa propiedad del carbono (cuyo número atómico es seis) de formar enlaces hexagonales, una propiedad a la que tú (y todos nosotros) debemos algo 🙂 …. Seguir leyendo

Publicado en Ciencia, Matemáticas | Etiquetado | 3 comentarios

El monte del ‘cuñao’

Esta gráfica —que representa la disposición a opinar sobre cualquier tema frente al conocimiento que de tal tema se tenga— parece recoger la esencia del fenómeno ‘opinador’ tan español que inunda nuestra vida cotidiana. La ví aquí (en donde no se aplica particularmente a España, aunque estoy seguro de que en España el efecto que recoge es especialmente intenso). Y me parece tremendamente realista. Como modelo matemático del asunto, chapeau. Ya se sabe que los modelos deben ser todo lo simples que sea necesario, pero no más.

Aquí va la gráfica. Real como la vida misma.

Visto en xxx

Visto en smbc, por Zach Weinersmith

Un poco de quantum flapdoodle: Obviamente el máximo en rojo en la gráfica, denominado ‘monte estúpido’, es un resultado de la interacción de las fluctuaciones cuánticas del vacío con el campo opinahkásico (que como se sabe no es escalar como el campo de Higgs, ni espinorial como el de Dirac, ni  tensorial como el del campo gravitatorio, sino que es de naturaleza opinatorial). Esta interacción conduce a una anomalía ‘cuántica’ que no se daría en un mundo ideal en el que dichas fluctuaciones cuánticas estuvieran ausentes. Por tanto es inevitable: no hay posible apantallamiento ante tal fenómeno. Lo que es realmente una buena noticia: en el mundo ideal en el que no existiera tal anomalía, la gráfica sería una simple curva creciente (como la representada en el tramo negro) carente por completo del menor appeal. Y en esa penosa situación la vidilla opinadora en las barras de nuestros bares y en nuestros programas televisivos con tertulianos sería poco movida, aburrida y cansina.

Pero el nombre que han adjudicado a ese máximo local en la gráfica es demasiado directo, y si lo usamos aquí muchos españoles se darán por ofendidos (darse individualmente por ofendido a causa de alusiones particulares a miembros de un colectivo también parece ser otra esencia patria). Este efecto indeseado se podría evitar traduciendo por ‘Monte del cuñao‘, lo que hace referencia a esta acepción moderna y descriptiva del término (un buen ejemplo real de cuñao, aquí) que no tiene porqué ofender a nadie. Porque nadie se ve a sí mismo como tal.

Publicado en Sociedad | Etiquetado , , , , , | 1 Comentario

‘Teóricos’ vs. ‘Experimentales’ y otros enfrentamientos

Tiempo atrás presencié otra situación en la que se recurría al mito de la Tierra plana de modo bastante diferente al uso interesado en la película “What the bleep do we know”  al que me refería en un post anterior. Fue asistiendo como oyente a una charla dada por un científico, y cuyo público era en gran parte no científico.

Primero, un listado de obviedades ideales. La Ciencia es una empresa colectiva. Su objetivo es entender la Naturaleza. Y la naturaleza de la ciencia requiere la cooperación. Para ello se necesitan tanto ideas surgidas en las buenas cabezas —que permitan imaginar— como los resultados de los buenos experimentos u observaciones de la realidad —que permitan ver—. Pretender que se pueda avanzar apoyándose solamente en una de esas mitades es, en el mejor de los casos, iluso. Y la (buena) ciencia avanza reconociendo lo que es incorrecto y corrigiendo, cuando sea posible hacerlo, lo que necesita mejora, en un proceso que es a la vez dialéctico y simbiótico.  Teoría y experimentación u observación deben avanzar complementándose; hay ejemplos históricos en los que el papel inicial para los avances relevantes lo han tenido bien la una o las otras.

Y otra última obviedad. No soy tan ingenuo como para no ser completamente consciente de que lo anterior son las normas ‘ideales’ pero que el comportamiento de los científicos individuales o de las instituciones científicas o de las Universidades tiene un amplísimo espectro, y que el porcentaje de científicos o de profesores o de redactores de planes de estudio o de rectores o de ministros de ciencia que actúan anteponiendo otro tipo de intereses es, con suerte, el mismo que el porcentaje correspondiente en cualquier otro grupo humano (una variante, en otro cuadrante, de la constancia de la fracción \wp, Cipolla dixit). El que estos porcentajes sean lo que son parece un hecho natural inevitable Seguir leyendo

Publicado en Ciencia, Divulgación, Sociedad | Etiquetado , , | Deja un comentario

Timeline de la Historia de la Mecánica Clásica

He preparado este Panorama Cronológico (a.k.a. Timeline) de la Mecánica Clásica con vistas a la asignatura “Mecánica Teórica” de cuya docencia me voy a encargar este curso. Su objetivo es facilitar el establecimiento de relaciones temporales significativas entre quienes más destacadamente contribuyeron (Galileo, Newton, Leibniz, Euler, Lagrange, Hamilton, Jacobi y tantos otros en la segunda fila) a cada parte de la impresionante construcción intelectual que es la Mecánica Clásica. En su excelente “The variational principles of Mechanics“, Cornelius Lanczos, un físico matemático húngaro que fué colaborador de Einstein, dice

… there is a tremendous treasure of philosophical meaning behind the great theories of Euler and Lagrange and of Hamilton and Jacobi, which […] cannot fail to be a source of the greatest intellectual enjoyment to every mathematically minded person.

La extensión temporal de la Timeline, que cubre unos 2500 años obliga a partirla en dos fragmentos, uno del S.V A.C. a 1550 cubriendo 2000 años, y el otro desde 1540 hasta finales del S. XX. Si algún lector estima que hay alguna omisión destacada, agradeceré el aviso.

Mi propósito inicial fué incluir también una mención telegráfica a las contribuciones de cada autor, pero es claro que juntar líneas de vida, retratos y contribuciones en una sola pantalla daría un conjunto demasiado abigarrado. Así que he optado por representar solo los intervalos de la vida de los autores, con una muy vaga codificación: los nombres realmente importantes y básicos en la Mecánica Clásica como tal figuran en la parte superior, con todo un espectro de contribuciones auxiliares (a veces realmente fundamentales) según se avanza hasta la parte inferior. Durante el S. XX, la teoría de sistemas dinámicos y el ‘descubrimiento’ del caos puede verse como una parte importante de la evolución de la Mecánica Clásica, desgajada parcialmente de ella a partir de Poincaré, y por ello he incluido algunos nombres importantes de ese campo. Y por otro lado, es perjudicial y además poco adecuado conceptualmente ver la Mecánica Clásica como opuesta a la Relatividad o a la Mecánica Cuántica, algunos de cuyos creadores aparecen en esta Timeline por derecho propio; Dirac desarrolló la moderna teoría de ligaduras, y Feynman dió la clave para entender realmente el mecanismo que subyace tras el principio de acción estacionaria.

En otros casos, hay varias sublineas que eventualmente comentaré y que iremos viendo en clase cuando llegue el momento. Un ejemplo: todo el mundo sabe que el espacio de fases es el objeto fundamental en la teoría de sistemas dinámicos, pero, ¿cual es el origen de la idea y del nombre de ese objeto básico? ¿Y a qué fases se refiere? Bien, pues he procurado incluir los nombres que sean necesarios para dar sentido y consistencia a ésta y a otras historias, de la que hablaremos en otra ocasión, aunque esos nombres no tuvieran contribuciones destacadas a la Mecánica como tal.

[P.S. He actualizado las Timelines a la version de Agosto de 2019, ya que el curso 2019-2020 volveré a encargarme de la asignatura ‘Mecánica Teórica’; hay unas pocas adiciones en el contenido y bastantes sutiles mejoras en la colocación para favorecer la legibilidad, 27 Ago 2019]

Las dos Timelines funcionan igual que las otras dos análogas que agrupan y ordenan información cronológica para el modelo estandar de las partículas elementales y para la Cosmología: pinchando en cada una de las dos miniaturas de las dos partes (S. IV A.C. a 1550 y 1540 a 2017), se deberá abrir la ventana de lectura de .pdf’s en su navegador mostrando cada timeline completa. Allí se debe ampliar la escala de visión hasta que verticalmente el fichero ocupe la pantalla completa. Luego hay que navegar por él lateralmente: el fichero está construido para verse exactamente así. Representa horizontalmente la diacronía, y verticalmente la sincronía. Cada científico está representado por su línea de vida, con una imagen centrada adosada y el nombre superpuesto.

Un panorama de este tipo ayuda a construir un contexto en el que colocar la red de ideas que forman la Mecánica Clásica y su evolución. Y como en las otras dos que he mencionado, hay detalles también aquí para entretenerse un buen rato. Disfrútenlo.

Publicado en Divulgación, Física, Timelines | Etiquetado , , , , | 7 comentarios

El mito de la Tierra Plana: Los mapas y la evidencia

Desde la Antigüedad, se ha sabido que la Tierra era esférica y este conocimiento no desapareció en la Edad Media. Para completar las pinceladas que vimos en un post anterior, quiero hoy dar un rápido repaso a unos cuantos hechos que dejan poco lugar a las dudas sobre esa afirmación.

Globo DE Crates

Diagrama del Globo Terráqueo de Crates de Mallus.

El  modelo más antiguo de un globo terráqueo se debe a Crates de Mallus (S. II a.C.); Estrabón deja constancia de su diseño. De hecho, Crates era tan consciente de que el Oecumene, el mundo conocido en su época, era solamente una pequeña parte del mundo que conjeturó, por simetría y para equilibrar el conjunto, la existencia de otros tres continentes: Perioeci (al lado del oecumene), Antoeci (opuesto al oecumene) y Antipodes (opuestos por los pies). Esto se ilustra en este grabado (cuya fuente no he podido identificar) que muestra la disposición de esas cuatro partes ‘ideales’ de la esfera terrestre. Como un comentario marginal, vemos que la creencia en un mundo en que la simetría tiene un papel esencial, que hoy mantenemos bastante íntegra, Seguir leyendo

Publicado en Divulgación, Mapas, Sociedad | Etiquetado , , , , , , , , | 4 comentarios

La Tierra plana y “What the bleep do we know!?”

…. Hace 25 años, John Campbell, cuya especialidad era irritarme, me decía que con el tiempo, todas las teorías resultan ser erróneas.

Mi respuesta fue: “John, cuando la gente pensaba que la Tierra era plana, estaban equivocados. Cuando pensaban que era esférica, estaban equivocados. Pero si tú piensas que la creencia de que la Tierra es esférica es un error comparable al de creer que es plana, entonces tu punto de vista es más erróneo que los otros dos juntos”.

El fallo básico es que la gente piensa que “correcto” y “equivocado” son absolutos; que lo que no sea perfecta y completamente correcto está total e igualmente equivocado.

Sin embargo, no creo que esto sea así. Me parece que correcto y equivocado son conceptos difuminados, y en este ensayo voy a explicar porqué lo creo así.

.

The Relativity of wrong, Isaac Asimov.

No sé si ustedes conocen la película ‘documental’  “¿Y tú qué sabes?“, versión en español de “What the bleep do we know?” [WTB.., grafía original “What tHe βLεεp Dθ wΣ  (k)πow!?” o incluso “What tHe #$*! Dθ wΣ  (k)πow!?” lo que nos deja en la duda de si sus autores pretendieran homenajear debidamente al capitán Haddock].

El capitán Haddock

El capitán Haddock, ‘viendo’ una botella de borgoña, en “El cangrejo de las pinzas de oro”. En la siguiente escena intenta descorcharla, encontrando que el corcho es la cabeza de Tintin.

Yo no la conocía, Seguir leyendo

Publicado en Ciencia, Divulgación, Mecánica Cuántica, Sociedad | Etiquetado , , , , , | Deja un comentario

El mito de la Tierra Plana

La mente humana parece funcionar como un dispositivo categorizador (quizás incluso, como defienden muchos estructuralistas franceses, como una máquina de dicotomizar, dividiendo el mundo sin descanso en dualidades de tipo “crudo y cocido” [naturaleza versus cultura]: macho y hembra, material y espiritual, y así sucesivamente). Este hábito de pensamiento profundamente enraizado (quizás innatamente) nos pone en dificultades específicas cuando se trata de analizar los muchos continuos que forman las partes más destacadas del mundo a nuestro alrededor.

Los continuos son raramente tan suaves y graduales en su flujo como para que no podamos especificar determinados puntos o episodios como claramente más interesantes, o más tumultuosos en sus tasas de cambio, que la inmensa mayoría de los momentos a lo largo de la secuencia. Por lo tanto, escogemos falsamente estos episodios cruciales como fronteras para categorías estables, y ocultamos la continuidad de la naturaleza con los envoltorios de nuestros hábitos mentales.

Debemos también recordar otro aspecto insidioso de nuestra tendencia a dividir los continuos en categorías fijas. Estas divisiones no son neutras; las establecen los partidarios de ciertos puntos de vista particulares con propósitos determinados.

Además, como muchos de estos continuos son temporales, y ya que tenemos una lamentable tendencia a considerar nuestra época como la mejor, éstas divisiones suelen adjudicar al pasado nombres peyorativos, mientras que las épocas sucesivamente más modernas se designan con palabras de luz y progreso.

[…]

Este ensayo ha discutido un doble mito en los anales de nuestros malos hábitos en la falsa categorización: (1) la leyenda de la Tierra plana como apoyo para una ordenación sesgada de la historia occidental que se presenta como una historia de redención desde la época clásica hasta el Renacimiento, pasando por la época oscura y medieval, y (2) la invención del mito de la Tierra plana para apoyar una falsa dicotomización de la historia occidental como otra historia de progreso, una guerra de la ciencia victoriosa sobre la religión. No me sentiría preocupado por estos errores si solamente condujeran a una visión inadecuada del pasado, sin consecuencias prácticas en nuestro mundo moderno. Pero el mito de una guerra entre la ciencia y la religión permanece como algo de cada día ….

.

Stephen Jay Gould (1941 – 2002)

La Tierra no es plana, sino una esfera. Nadie hoy lo pone en la más mínima duda. Pero si se pregunta ¿desde cuando sabemos, como colectividad, que es así? es más que probable recibir como respuesta que durante la Edad Media se pensaba que la Tierra era plana, y que solo tras Colón y los primeros viajes de circunvalación se zanjó la cuestión Seguir leyendo

Publicado en Ciencia, Divulgación, Sociedad | Etiquetado , , , | 2 comentarios

En el Campus de Profundización Científica, Soria 2015

Ayer tuvo lugar en Soria el acto de Inauguración de la edición de este verano del Campus Nacional de Profundización Científica 2015 para estudiantes de ESO, promovido y financiado por el CNIIE desde el Ministerio de Educación, Cultura y Deporte y en el que actúa como Entidad Colaboradora la Real Sociedad Española de Física.

En el acto de Inauguración impartí una charla con el título “El Universo y la luz”. La charla estaba destinada a los estudiantes que participan en el Campus, procedentes de toda España y seleccionados entre varios cientos de solicitudes por sus excelentes logros académicos.

Al final de la charla solamente dispusimos de tiempo para unas pocas preguntas —el horario de actividades es realmente muy apretado—. Cuelgo ahora el fichero de la presentación para quienes quieran descargarlo (también pinchando en la imagen), y animo a quienes se quedaran con ganas de preguntar algo más lo hagan en los comentarios; prometo responder.

Blog1507_PresCampusSoriaImagen

Durante la charla proyecté también un video, al que se referían algunas de las cuestiones.  Tuve la suerte de participar Seguir leyendo

Publicado en Divulgación, Física | Etiquetado , , , , , , , | 2 comentarios

Una Timeline de la Cosmología en los últimos 100 años

He preparado este Panorama Cronológico (a.k.a. Timeline) de la Cosmología en los últimos 100 años para la charla que doy hoy en el curso organizado por el GUA y la Sociedad Syrma.

Al igual que en la Timeline del modelo estandar de las partículas elementales, pinchando en la miniatura se deberá abrir la ventana de lectura de .pdf’s en su navegador mostrando la timeline en todo su esplendor. Allí se debe ampliar la escala de visión hasta que verticalmente el fichero ocupe la pantalla completa. Luego hay que navegar por él lateralmente: el fichero está construido para verse exactamente así. Representa horizontalmente la diacronía, en dos grandes franjas. La franja superior tiene varios bloques sobre la teoría y la interpretación relacionada con esta historia y en la inferior se ubican a lo largo del tiempo resultados o iniciativas observacionales en Astronomía y Cosmología en los distintos rangos de observación (visible, radio, etc.). Cada uno de esos bloques tiene su línea de fechas y la sincronía entre ellas está representada en vertical, con unos iconitos que ubican temporalmente sucesos históricos relevantes.

Como en su Timeline análoga para el modelo estandar de las partículas elementales, un panorama de este tipo ayuda a percibir bien la inter-relación temporal y conceptual entre los descubrimientos observacionales y los modelos teóricos. Hay detalles también aquí para entretenerse un buen rato. Disfrútenlo.

Publicado en Física, Timelines | Etiquetado , , , | 17 comentarios