8 de diciembre de 2021

Ómicron: ¿Un Equilibrio de Nash entre SARS-CoV-2 y Humanos?

“Será muy difícil, al menos en un futuro próximo y quizás nunca, eliminar este virus altamente transmisible. Dado que este enemigo no puede ser derrotado, todos tendríamos más posibilidades de sobrevivir si estuviera armado con una honda en lugar de un cañón” Anthony Fauci, asesor inmunólogo de la Casa Blanca.

Sin nombrarlo, Fauci estaba reflejando en ese deseo el sentido profundo del Equilibrio de Nash: “Para obtener el mejor resultado, cada uno debe hacer lo mejor para sí mismo (Adam Smith) y para el grupo (John Nash)”

Algunos titulares recientes

La llegada de ómicron, la nueva variante de coronavirus identificada por primera vez en Botswana y Sudáfrica y ahora presente en Europa, en Estados Unidos y en muchos otros países del mundo, ha sido recibida con gran ansiedad y miedo.

La Organización Mundial de la Salud identificó inmediatamente a ómicron como una variante “preocupante”

La verdad es que la llegada de ómicron no es necesariamente una mala noticia. El efecto de ómicron en el curso de la pandemia dependerá de tres de sus características: su transmisibilidad, su capacidad para evadir las defensas inmunitarias inducidas por la vacuna y su virulencia, es decir, si provocará una enfermedad más grave. Si se descubriera que ómicron se transmite fácilmente de un huésped a otro, evadiendo los anticuerpos neutralizantes y causando una enfermedad grave, la situación sería realmente compleja y las consecuencias podrían ser nefastas.

"Pero si ómicron resulta ser una variante súper contagiosa que causa síntomas leves, entonces también podría ser una buena noticia, justo a tiempo para Navidad", escribe Rachel Gutman en The Atlantic.

¿La variante es más contagiosa o más hábil evadiendo nuestras defensas? Los datos de Sudáfrica indican que se extiende fácilmente, pero eso puede explicarse de dos maneras, como dice el epidemiólogo Adam Kucharski: “Porque es inherentemente más transmisible, y/o porque reinfecta más fácilmente”.

Una opción es que la ómicron sea más transmisible que la delta, igual que la delta lo era más que sus antecesoras (el Ro de la delta es doble: un infectado haciendo vida normal, en un país sin inmunes, infectaba de media a seis personas en lugar de tres). La alternativa es que la ómicron sea hábil infectando a gente inmunizada. Esa sería su ventaja: estaría infectando gente a la que la delta no es capaz de infectar. La delta sería más transmisible si no hubiese nadie inmune, pero ahora avanza mermada porque encuentra menos susceptibles. Estas dos opciones no son excluyentes

Ninguna de las dos alternativas está confirmada, aunque cobra fuerza la segunda hipótesis. La Organización Mundial de la Salud (OMS) destacó un estudio con evidencias de que con la ómicron hay más reinfecciones. Eso sugiere que la variante escapa a la inmunidad natural, al menos parcialmente. Para confirmarlo harán falta una o dos semanas.

Un esquema antropocéntrico que al virus le importa un bledo

Ómicron o cualquier otra variante del Coronavirus SARS-CoV-2 se enfrenta en tanto que entidad viviente al reto de propagarse y replicarse a gran escala pero en tanto que virus que necesita de un “organismo huésped” [1] (humano o animal) para alcanzar ese objetivo debe “modular” dos dimensiones clave de su “existencia”: ser lo suficientemente transmisible (incluso en condiciones de entorpecimiento como son la prevención, vacunas, cuarentenas) pero sin ser lo suficientemente agresivo porque “matar al huésped” le impide alcanzar su “objetivo máximo de supremacía y permanencia” al reducir a sus potenciales transmisores. Este objetivo, obviamente, el virus no lo consigue “pensando o reflexionando estratégicamente (como harían los humanos) sino mutando, al azar, continuamente, hasta encontrar una mutación exitosa”.

Para entender mejor este concepto y aunque sea mediante un criterio tan antropocéntrico como “favorable o desfavorable” (un criterio humano que al virus se la trae al pairo, pero que es útil para intuir la probable evolución de la variante), veamos el impacto de estas dos dimensiones del virus y cómo nos afectan en cuanto humanos y cómo le afecta al virus, entendiendo que su objetivo es alcanzar el mayor número de replicaciones/infecciones entre los huéspedes (alta transmisibilidad) y no tanto su mayor gravedad (algo que no es ventajoso a largo plazo, porque el organismo huésped, los humanos, pueden desarrollar estrategias defensivas, además de la inmunidad natural, como prevención, vacunas y cuarentenas, amén de que una elevada gravedad puede “matar al huésped” y en consecuencia reducir la transmisibilidad total y con ello la replicación/infecciosidad total) [2].


Cuatro escenarios y un equilibrio de Nash (duradero)

De este “Juego” entre humanos y virus se desprende que existe un “equilibrio de Nash” favorable para ambos [3]: la convivencia pacífica con los humanos, convirtiéndose en un virus de alta transmisibilidad pero de baja gravedad en sus infecciones. ¿Y si ómicron no se aviene a este equilibrio? No pasará nada más que el virus deberá adaptarse y evolucionar hasta encontrar una mutación que logre un “equilibrio de Nash” duradero: el mejor movimiento posible de la enésima variante teniendo en cuenta los movimientos de los humanos (prevención, vacunas, cuarentenas).

Escenario A: Favorable para ómicron, Favorable para humanos. Convivencia pacífica, como otros coronavirus (resfriado común): Dado que ómicron no puede destruir a los humanos y viceversa, ómicron sobrevive permitiendo que sus huéspedes humanos, incluso vacunados o inmunizados frente a otras variantes (reinfecciones), sobrevivan con síntomas leves, convirtiéndose en variante predominante, mientras que a los humanos, con una variante poco agresiva puede que no les compense desarrollar vacunas o aplicar prevenciones estrictas o cuarentenas forzosas, al igual que ocurre con el catarro.

Escenario B: Favorable (temporalmente) para ómicron, Desfavorable (temporalmente) para humanos. Convivencia violenta pero temporal por sobrerreacción humana (prevención, vacunas, cuarentenas) y en espera de otra variante predominante menos agresiva que sustituya a ómicron. La mayor agresividad de ómicron impide que sus huéspedes humanos, vacunados o no, actúen de transmisores (por muerte, prevención, vacunas o cuarentenas forzosas), reduciendo su predominio ante otras variantes más transmisibles y menos agresivas.

Escenario C: Desfavorable para ómicron, Favorable para humanos. Escenario ideal para humanos, indeseable para el virus. Una baja transmisibilidad y una infecciosidad leve, sea por efecto de vacunas o no, impide que la variante sea predominante, terminando reducida a casos aislados.

Escenario D: Desfavorable para ómicron y para humanos. Escenario indeseable para humanos y el virus. Una baja transmisibilidad unida a una alta agresividad, incluso con vacunados o inmunizados frente a otras variantes, impide que la variante sea predominante y termine por extinguirse al “matar al huésped” o provocar una sobrerreación humana (confinamiento de casos) con el mismo resultado.


Dado lo rápido que “aprende” el SARS-CoV-2 puede que ómicron sea uno de sus últimos movimientos para alcanzar un “equilibrio de Nash” favorable para ambos: la convivencia pacífica con los humanos, convirtiéndose en un virus de alta transmisibilidad pero de baja gravedad en sus infecciones. Esperemos.


Notas

[1] En biología se usa “huésped” en sentido de “anfitrión” por contaminación del inglés (host).

[2] Respecto a variantes anteriores como Alfa, Beta o Delta, así como a la cepa original de Wuhan.

[3] En Teoría de Juegos, un equilibrio es una solución al juego estratégico entre dos o más partes en interacción. En puridad existen dos equilibrios de Nash en este “Juego entre SARS-CoV-2 y Humanos” (A y B): como en el “dilema del prisionero” (confesar o no confesar) o en la conducción por carretera (por el lado derecho, en la mayoría de los países, por el lado izquierdo, en unos pocos países): todo depende, a falta de normas establecidas, de la respuesta ante lo que haga el otro y en reciprocidad. En este caso, como dice Fauci, “si (ómicron) estuviera armado con una honda en lugar de un cañón”, es decir si aunque fuera más transmisible fuera menos agresivo (Escenario A) estaríamos en un equilibrio interesante, pero si ómicron además de ser más transmisible fuera más agresivo, entonces (Escenario B) no tendríamos otra que reaccionar con las medidas conocidas, redoblándolas (mayor prevención, cuarentenas masivas y nuevas generaciones de vacunas que bloqueen la transmisión), para que el virus, a su vez explote su capacidad evolutiva para encontrar un modo de ser transmisible sin provocar nuestra sobrerreacción ante sus variantes más agresivas. No obstante, también es cierto que en cualquier juego estratégico se pueden emitir señales que permitan encauzar el juego de manera que beneficie al conjunto, incluso auunque con ese otro no exista la posibilidad de dialogar: la sobrerreacción humana hacia las variantes más agresivas puede ayudar a “orientar” al virus para comportarse de una manera civilizada (en sentido figurado) para con nuestros intereses como humanos y viceversa: un virus muy atenuado en su agresividad puede relajar la respuesta humana (menos incentivos para vacunas, menos presión para la prevención o confinamientos), permitiendo con ello que el virus se transmita con más libertad “a cambio” de una menor agresividad. En este sentido, los humanos harían bien en “pensar por los dos”, yendo un paso por delante del virus, en lugar de un paso (o dos) por detrás para lograr domesticar al SARS-CoV-2.

Definición formal del Equilibrio de Nash: «Si hay un conjunto de estrategias con la propiedad de que ningún jugador puede beneficiarse cambiando su estrategia mientras que los otros jugadores no alteren la suya, entonces ese conjunto de estrategias y sus beneficios correspondientes constituyen un equilibrio». John Forbes Nash. Non-cooperative games (1950).


Para saber más: Pensar estratégicamente (1993). El arte de la estrategia (2010). Avinash K. Dixit y Barry J. Nalebuff. Antoni Bosch Editores

Equilibrio de Nash y Pensamiento Sistémico

La nueva variante del coronavirus detectada en Sudáfrica acumula más de 30 mutaciones inquietantes. Manuel Ansede. El País, 26 noviembre 2021

¿Por qué es inquietante la nueva variante de la covid? Los datos que tenemos de la ómicron y los que no. Kiko Llaneras. El País, 4 diciembre 2021

¿Y si ómicron fuera la variante que la ciencia estaba esperando? Estos son los escenarios que puede provocar. Cristina Marrone. Corriere della Sera. El Mundo, 5 diciembre 2021

Epidemiological update: Omicron variant of concern (VOC). European Centre for Disease Prevention and Control, 2 diciembre 2021

31 de diciembre de 2020

Del Rollback a Prigogine, pasando por la marmota Phil y Einstein: De lo reversible a lo irreversible

“La vida sólo puede ser entendida mirando hacia atrás, pero tiene que ser vivida hacia delante”. El filósofo danés Søren Kierkegaard ya intuía el concepto de “flecha del tiempo” del astrofísico británico Arthur Eddington y de las “estructuras disipativas” del físico ruso-belga Ilya Prigogine, premio Nobel de Química en 1977. Pero, antes, vayamos hacia atrás en este viaje alegórico sobre las implicaciones del concepto del tiempo, que no sobre viajes en el tiempo, que es algo muy distinto.

En las modernas bases de datos, existe una tecnología muy interesante que nos sirve de metáfora sobre el tiempo, el determinismo y la reversibilidad de las acciones. Esta tecnología se conoce como rollback, reversión o flagare es una operación que devuelve a la base de datos a algún estado previo. Las reversiones son importantes para la integridad de la base de datos, a causa de que significan que la base de datos puede ser restaurada a una copia limpia incluso después de que se han realizado operaciones erróneas. Son cruciales para la recuperación ante errores de un servidor de base de datos, como por ejemplo un cuelgue del equipo. Al realizar una reversión cualquier transacción que estuviera activa en el tiempo del cuelgue es revertida y la base de datos se ve restaurada a un estado consistente (Wikipedia).

Un ejemplo trivial de esta tecnología consistiría en realizar el cálculo de varias facturas y al finalizar la última existiera un error grave, pongamos una división por cero. El sistema, automáticamente, provocaría una reversión de todo lo realizado desde el inicio de la transacción (o desde la última operación COMMIT o de actualización) hasta la aparicion del error, devolviendo al sistema al estado previo al inicio de la transacción, a la espera de que el usuario resuelva el error. Estrictamente hablando no es un “viaje en el tiempo”, sino un deshacer lo hecho, como cuando escribimos una carta manuscrita y al darnos cuenta de un error importante en el sentido del texto, en vez de realizar una tachadura, reiniciamos la carta desde el principio.

El mecanismo del rollback es tal que de hacer caso omiso, no resolverlo y volverse a ejecutar la transacción, el sistema volverá ha repetir la secuencia anterior, tantas veces como el obcecado usuario ejecute la transacción sin resolver el error, hasta que el usuario o el administrador de la base de datos resuelva el problema que provoca la reversión. Es decir, mientras no se resuelva el problema, el sistema “entrará en bucle” en tanto que sistema determinista que es: el rollback funcionará a la perfeccción, pero no saldrá de ese bucle y, probablemente (Nota para algoritmos de Machine Learning) el sistema tampoco podrá resolver el problema por sí mismo, máxime si el origen no es de datos sino de la propia secuencia de programación. Este rollback o reversión también lo tenemos, a pequeña escala, disponible en las aplicaciones más populares de tratamiento de textos o de hojas de cálculo, haciendo más fácil el uso de las mismas.

Esta tecnología del Rollback me hizo recordar la conocida comedia romántica Groundhog Day (Harold Ramis, 1993) protagonizada por un Bill Murray en estado de gracia y estrenada en España con el título de Atrapado en el tiempo que nos cuenta la historia de Phil, el hombre del tiempo de una cadena de televisión, que va un año más a la localidad de Punxstawnwey (Pennsylvania), a cubrir la información del festival del Día de la Marmota. En el viaje de regreso, Phil y su equipo se ven sorprendidos por una tormenta que los obliga a regresar a la pequeña ciudad. A la mañana siguiente, al despertarse, comprueba atónito que comienza otra vez el Día de la Marmota (Filmaffinity).

En realidad, “El día de la marmota” no es un Rollback ni un sistema determinista estricto, pues Phil, el protagonista, no vuelve exactamente a un “estado previo” sin más y es el único que al parecer escapa al determinismo. Regresa al pasado, como todos los demás, marmota incluida, pero conservando la memoria de lo sucedido, no así para todas las demás personas ni para la naturaleza, marmota incluida, que siguen ancladas en su determinismo. Esto le otorga una ventaja asimétrica respecto a las demás personas y respecto a la naturaleza: conociendo lo que va a suceder en cada situación, tiene una oportunidad (en cada bucle temporal) de depurar y refinar sus respuestas y afinarlas para conseguir algún objetivo, en este caso conquistar a la chica de la película, interpretada por la actriz Andie MacDowell. Es decir, “El día de la marmota” es un Rollback para todos, incluida la naturaleza, pero no para el protagonista, que tiene tantas “oportunidades de mejora” o de “ensayo y error” como bucles temporales de retorno al estado inicial tiene.

En esta línea, Einstein sostenía que el tiempo era una ilusión, una persistente ilusión. En una carta a la viuda de su amigo ingeniero Michele Besso, Einstein sostiene lo siguiente: «Michele (Besso) se me ha adelantado en dejar este extraño mundo. Es algo sin importancia. Para nosotros, físicos convencidos, la distinción entre pasado, presente y futuro es sólo una ilusión, por persistente que ésta sea». Decía Einstein y así lo demuestra su teoría de la relatividad especial, que para un fotón el tiempo no existe: un viaje a través del universo se realiza en un sólo instante, porque el tiempo depende de la velocidad a la que se viaje, y como no hay nada más rápido que la velocidad de la luz (su sistema de referencia es él mismo), el tiempo, para un fotón se detiene, no existe, aunque para un observador externo como nosotros podamos medir y cuantificar en una relación de Km/seg.

El prototipo de la física clásica es la mecánica clásica, el estudio del movimiento, la descripción de trayectorias que trasladan un punto de la posición A a la posición B. Una de las propiedades básicas de la descriptiva dinámica es su carácter reversible y determinista. Dadas unas condiciones iniciales apropiadas, podemos predecir con exactitud la trayectoria. Además, la dirección del tiempo no desempeña papel alguno. Predicción y retropredicción son idénticas. Hasta cierto punto, la situación es la misma en física cuántica. En ella ya no se habla de trayectorias, sino de funciones de onda. También aquí la función de onda evoluciona con arreglo a leyes reversibles deterministas. Como consecuencia, el universo aparece como un vasto autómata. Como nos recuerda Prigogine, para Einstein, el tiempo, en el sentido de tiempo direccional, de irreversibilidad, era una ilusión.

A partir del surgimiento de la mecánica cuántica, se cree que los procesos físicos a nivel microscópico son en su mayor parte temporalmente simétricos, lo que sugiere que las afirmaciones teóricas que los describen serán verdaderas si la dirección del tiempo es reversible. En el plano macroscópico sucede todo lo contrario, ya que existe una dirección clara en la “flecha del tiempo”, del pasado al futuro (el vaso de cristal que cae de la mesa se rompe contra el suelo, sin volver a recomponerse nunca sobre la mesa). Nota: El ejemplo del vaso que se rompe encontramos, además, otra asimetría interesante: necesitamos muchísima información para recomponer el vaso roto (volver a pegar sus partes) que para fabricar un nuevo vaso. La “flecha del tiempo”, pues, estaría representada por cualquier cosa que exhibiese dicha asimetría temporal. O, en otras palabras, en el plano macroscópico, o visible, el tiempo marcha siempre hacia delante, mientras que en el microscópico, o de las partículas elementales, puede hacerlo igualmente hacia atrás.

Así las cosas, parece que tanto el Rollback de las bases de datos como “El día de la marmota” dan la razón a esta concepción reversible del tiempo de Einstein y de las leyes de la física... pero, ¿en realidad esto es así en la vida cotidiana? ¿las acciones y decisiones son reversibles? ¿podemos darle al botón de deshacer para revertir nuestras acciones y decisiones del pasado? El sentido común y el consenso cotidiano dan a entender que la irreversibilidad es la principal característica de la vida, que las cosas que nos suceden las percibimos de acuerdo a un reloj interno, la “flecha del tiempo”.

En efecto, Eddington decía: Dibujemos una flecha del tiempo arbitrariamente. Si al seguir su curso encontramos más y más elementos aleatorios en el estado del universo, en tal caso la flecha está apuntando al futuro; si, por el contrario, el elemento aleatorio disminuye, la flecha apuntará al pasado. He aquí la única distinción admitida por la física. Esto se sigue necesariamente de nuestra argumentación principal: la introducción de aleatoriedad es la única cosa que no puede ser deshecha. Emplearé la expresión “flecha del tiempo” para describir esta propiedad unidireccional del tiempo que no tiene su par en el espacio. Podemos sustituir aleatorio por entrópico, es decir, por un aumento del desorden.

Hasta la llegada de la segunda ley de la termodinámica (La entropía siempre aumenta), todas las ecuaciones mecánicas (por ejemplo, las leyes de Newton o las de la mecánica cuántica) funcionan tanto si el tiempo va hacia delante como hacia atrás. Es decir, para la mayor parte de las ecuaciones en física, no hay diferencia entre ir hacia adelante o hacia atrás en el tiempo.

Y, en efecto, la segunda ley de la termodinámica es la única evidencia que tenemos sobre qué es el tiempo desde el punto de vista de la física en el plano macroscópico. Con un ejemplo práctico se entenderá: si tengo sendas fotos del universo o de cualquier sistema macroscópico en dos instantes de tiempo distintos, y mido su entropía, el más antiguo tiene la entropía más baja. Lo mismo ocurre en el ciclo de la vida de los sistemas biológicos, algo que no hace falta describir por otra parte. Por tanto, la segunda ley de la termodinámica formula la distinción entre procesos reversibles e irreversibles. Con esta distinción, se introduce una dirección privilegiada en el tiempo. Para expresar cualitativamente esta distinción, se introduce una nueva función: la «entropía» (entropía, en griego, significa evolución, nos recuerda Prigogine). La entropía, a diferencia de la energía, no se conserva. La característica fundamental de la producción de entropía es su identificación con los procesos irreversibles. La segunda ley de la termodinámica asume que la producción de entropía es positiva y consecuencia directa de la irreversibilidad de los procesos. La entropía es una magnitud muy especial. Por la primera ley sabemos que la energía se conserva. Por el contrario, la producción de entropía sólo puede ser positiva, o cero. Por lo tanto, el segundo principio encarna una ley universal de la evolución macroscópica, ya que la cantidad de entropía perteneciente al sistema y a su entorno sólo puede aumentar con el tiempo.

Así, afirmará Prigogine: “Lo artificial es determinista y reversible. Lo natural contiene elementos esenciales de azar e irreversibilidad. La irreversibilidad, tal como está implícita en la teoría de Darwin, es una propiedad aún mayor del azar. Yo lo encuentro natural, porque ¿qué puede significar irreversibilidad dentro de un concepto determinista del universo en el que el mañana ya está potencialmente en el hoy? La irreversibilidad presupone un universo en el que hay limitaciones para la predicción del futuro. Quiero insistir de nuevo, en concordancia con el espíritu de esta explicación, en que la irreversibilidad no es una propiedad universal . Sin embargo, el mundo en conjunto parece pertenecer a esos complejos sistemas de azar intrínseco para los que la irreversibilidad es significativa, y es a esta categoría de sistemas con ruptura de simetrías temporales a la que pertenecen todos los fenómenos vitales y, por consiguiente, la existencia humana. Suele decirse que la vida produce vida, pero nosotros vemos la vida como transmisora de irreversibilidad; la duración originando duración.”

Tradicionalmente la termodinámica se centraba en el estudio de procesos en equilibrio en los cuales el determinismo funciona correctamente. La reversibilidad y el orden definen dichos procesos. Sin embargo, Prigogine observa que lejos de la situación de equilibrio aparecen espontáneamente nuevos tipos de estructuras. Del caos surgen estructuras ordenadas que exigen un aporte de energía para mantenerse, que no mantienen relaciones lineales y que no son posibles de predecir con exactitud. Cercano al punto en el que se organizan “estructuras disipativas” se observan grandes fluctuaciones que en lugar de amortiguarse pueden llegar a expandirse por todo el sistema llevándole a nuevas situaciones que son cualitativamente muy diferentes de las que se encuentran cerca del equilibrio. La termodinámica muestra cómo los sistemas capaces de escaparse del determinismo tienen que situarse lejos del equilibrio. Hay que distinguir, por ello, condiciones del equilibrio, condiciones del no-equilibrio, proceso que conduce de uno a otro y umbral que separa a ambos.

Puede verse en la figura que en un principio se tienen unas condiciones de equilibrio (sean cuales sean éstas) en el que se producen unas fluctuaciones de dichas condiciones que con el paso del tiempo se amortiguan. Si se va aportando energía las fluctuaciones van siendo más grandes pero el sistema aún consigue amortiguarlas. Hasta que llega un momento en el que un umbral se sobrepasa. La fluctuación ya no se amortigua sino que se estabiliza en un estado alejado del primitivo equilibrio pero igualmente estable mientras continúe el aporte de energía: se ha formado una “estructura disipativa”.

A lo largo de su evolución el sistema puede colocarse en regiones estable o inestables. En las estables dominarán las leyes deterministas. En las inestables, cerca de los puntos de bifurcación, el sistema elige entre diversos futuros posibles. Las fluctuaciones que son variaciones al azar jugarán un papel importante. Los puntos de bifurcación que las matemáticas describen son asimilables a los niveles de umbral a partir de los cuales se generan “estructuras disipativas”.

Un interesante ejemplo de formaciónde bifurcaciones nos lo da la actividad de las hormigas. Prigogine ha utilizado con frecuencia a las hormigas para ilustrar sus ideas acerca de las “estructuras disipativas” y el azar. El inmenso número de unidades que componen el hormiguero le hacen asimilable al número de moléculas que componen una reacción. Hay un sencillo experimento que muestra la formación de una estructura disipativa. En un recipiente se colocan unas pocas hormigas y en otro una fuente de alimento. El hormiguero y la fuente de alimento están conectados por dos agujeros iguales dispuestos simétricamente respecto al hormiguero. Con ello se posibilita la formación de dos rutas alternativas iguales. Cuando se utiliza un número pequeño de hormigas la probabilidad de que utilicen una u otra vía es del 50%.

Pero si se aumenta el número de hormigas llega un momento en el que la probabilidad de que utilicen una sola ruta en detrimento de la otra es muy grande. Cerca del punto de bifurcación se producen fluctuaciones muy grandes de la población de hormigas que utiliza preferentemente una ruta. Más allá del punto de bifurcación más del 90% de las hormigas utiliza sólo una de las rutas (A o B).

En los estados estables y en los inestables se dan fluctuaciones que alejan al sistema del equilibrio. En realidad Prigogine considera las “estructuras disipativas” como fluctuaciones gigantes mantenidas por flujos de materia y energía. Ocurre que una vez que se forman estas fluctuaciones más allá del punto de bifurcación son estables frente a otras perturbaciones. Cerca de los puntos de bifurcación las fluctuaciones son grandes, anormalmente grandes. Una de las características de las situaciones de cambio es la presencia de estas grandes fluctuaciones. Al principio una fluctuación no domina todo el sistema. Se establece primero en una región limitada. Una vez que se alcanza un valor crítico se puede expandir a todo el sistema. Es un fenómeno conocido como mediación.

Lejos del equilibrio la fluctuación está determinada por la dimensión de la zona fluctuante. Esta zona tiende a expandirse con el aporte de energía que recibe el sistema, pero su contexto tiende a amortiguarla. Si sobrepasa el punto de bifurcación se extenderá a todo el sistema, de lo contrario desaparecerá. Las fluctuaciones se dan constantemente en torno a los valores de equilibrio. En las fases deterministas, esto es cerca del equilibrio, las fluctuaciones siguen la ley del aumento de la entropía y por ello están condenadas a desaparecer. Lo contrario ocurre lejos del equilibrio. Se genera lo que Prigogine llama “orden por fluctuaciones”. Más allá del umbral el sistema experimenta una transformación profunda, un modo de funcionamiento completamente distinto. Surge una autoorganización que Prigigone denomina “estructura disipativa”.

Las “estructuras disipativas” son estables y reproducibles y en ese sentido son predecibles pero no lo son en lo que se refiere a conocer exactamente cómo son los detalles de la organización de una estructura determinada. Los distintos estados posibles son limitados, pero es preciso esperar y ver la evolución del sistema para saber qué fluctuación se amplificará y estabilizará de las varias posibles. De hecho, estas ideas de Prigogine enlazan con los trabajos de Darwin en biología, donde Darwin combina dos elementos: por un lado, la asunción espontánea de fluctuaciones (el azar) en las especies biológicas, las que posteriormente, merced a la selección del medio, conducen a la evolución biológica irreversible (la irreversibilidad). Por lo tanto, las “estructuras disipativas” contienen la idea de fluctuaciones o azar, de procesos estocásticos y la idea de evolución, de irreversibilidad, donde Prigogine pone de relieve que, a nivel biológico, de esta asociación resulta una evolución que corresponde a una complejidad creciente y a la autoorganización.

En el mundo químico las formas de organización disipativa son diversas. Algunos sistemas se hacen inhomogéneos en el espacio como el fenómeno de las células de Bénard o inestabilidad de Bénard. En otros casos se organizan relojes químicos como en el caso de la reacción de Belusov-Zhabotinski.

La inestabilidad de Bénard es un fenómeno llamativo, billones de moléculas se mueven coherentemente formando células hexagonales. Estamos ante “estructuras disipativas”. Por debajo del umbral pequeñas fluctuaciones consistentes en corrientes de convección se organizan y desaparecen. A partir de cierto punto crítico dan origen a un nuevo orden que se estabiliza gracias al aporte de energía. Es el orden a partir del caos.

Un ejemplo similar es el reloj químico que se organiza en la reacción de Belusov-Zhabotinski. En síntesis puede decirse que intervienen en ella unas moléculas de tipo A (color rojo) y unas de tipo B (color azul). Lo lógico es esperar que de la reacción surga un color intermedio entre ambos con ligeras oscilaciones hacia el ojo y el azul. Sin embargo, lejos del equilibrio llega un momento, en el que todo el sistema se vuelve rojo, luego azul, de nuevo rojo y as~sucesiva y periódicamente. La materia se comporta de un modo muy distinto a como ocurre en el equilibrio. Las “estructuras disipativas” tienen dos características muy significativas: comunicación y adaptación. En el reloj químico que describe la reacción de Belusov-Zhabotinski el color oscila periódicamente de una forma sincronizada. Si las moléculas son rojas y azules veremos una alternancia de esos colores. La concepción clásica de las reacciones químicas se asocia a movimientos caóticos. Sin embargo, las moléculas de los relojes químicos reaccionan simultáneamente produciendo estructuras coherentes. Las moléculas se «comunican». Puede considerarse este proceso un precursor de la comunicación en los sistemas biológicos.

Por otro lado, entre las diversas estructuras disipativas posibles ocurre que una ligera modificación del medio puede hacer que se seleccione una estructura en lugar de otra. Estaríamos ante los rudimentos de un sistema de adaptación al medio semejante al que se observa en sistemas biológicos. En todos los casos las estructuras disipativas se caracterizan por responder como un todo. Su comportamiento no es la suma del comportamiento de sus componentes. No se explica en función de las unidades. Lejos del equilibrio la evolución de los estructuras disipativas ha sido esquematisistemas a través de la organización de zado por Prigogine como sigue: El cambio de perspectiva que acabo de exponer nos obliga a utilizar una serie de nuevos conceptos: bifurcaciones, no linealidad, fluctuaciones. Muchos de ellos se conocían hace tiempo, pero su importancia y significación se revaloriza como consecuencia de los recientes descubrimientos:

Prigogine asimila la función a la microestructura de las relaciones de los elementos del sistema y llama estructura a la macroestructura del sistema, a su organización como un todo. Dentro del orden determinista las alteraciones de la función pueden originar, si no son controladas, una modificación de la estructura global del sistema. Estas modificaciones determinan el espectro de fiuctuaciones que son posibles. En condiciones adecuadas una de esas fluctuaciones puede estabilizarse y modificar la microestructura (función del sistema). Este esquema muestra la dinámica necesidad-azar no como dos pares opuestos sino como momentos diferentes de la evolución de los sistemas. Para Prigogine las condiciones para que se puedan desarrollar estructuras disipativas son las siguientes: (1) Un sistema que sea abierto al exterior (2) Situado en condiciones lejanas al equilibrio y (3) Existencia de relaciones no lineales entre sus elementos. El trinomio flujo/función/estructura implica una retroalimentación (feed-back) evolutiva: pueden surgir nuevas estructuras que, a su vez, modifiquen el flujo, lo que, a su vez, posibilitaría la emergencia de nuevas estructuras.

Un ser vivo, una empresa, una ciudad, pueden ejemplos cotidianos de “estructuras disipativas”, estructuras que Prigogine nos anima a evitar su estereotipado: diseñar una ciudad o una empresa como algo vivo, evitando su inmovilismo (=muerte térmica) y el desprecio de la creatividad (=impedir las relaciones no lineales entre sus individuos) de las generaciones futuras, comprobando constantemente la estabilidad de su propio estado organizativo para, así, captar los cambios estructurales que surgen con nuevos tipos de comportamiento: El equilibrio termodinámico, el expresado por el máximo de la función entrópica, es caótico. Un ejemplo muy sencillo es el de un gas formado por moléculas. En estado de equilibrio, las moléculas son independientes y no se observa correlación alguna entre sus movimientos. El no equilibrio es fuente de orden, de coherencia; entre las unidades surgen correlaciones. El no equilibrio como origen de orden se presenta ya como uno de los principios más generales que podemos formular actualmente. Es el no equilibrio el origen de toda coherencia, y esto parece ser cierto a todos los niveles actuales de descripción accesibles.

Y para terminar, unas últimas palabras de Prigogine: La vida no es meramente el resultado pasivo de la evolución cosmológica, ya que introduce un proceso de retroalimentación (feed-back) suplementario. En otras palabras, la vida es el resultado de procesos irreversibles, pero a su vez puede inducir nuevos procesos irreversibles. Cierto que el viejo axioma predica: la vida sólo se origina en la vida. Pero, en términos más generales, podemos decir que la irreversibilidad genera irreversibilidad.

De mis estudios sobre sistemas complejos a una escala mucho más modesta, he sacado la impresión firme de que es difícil siquiera llegar a imaginar o enumerar todas las posibilidades que presentan los sistemas no lineales alejados del equilibrio. Y esto me resulta aún más evidente si consideramos el universo como un todo con las sorprendentes no linealidades descritas por la ecuación de Einstein y con las enormes desviaciones del equilibrio que debieron predominar en su fase pretérita de formación. Por consiguiente, finalizaré con una apostilla optimista: la historia no tiene final.

“Quizá necesitemos hoy una nueva noción del tiempo capaz de transcender las categorías del devenir y de la eternidad”. Ilya Prigogine

Para saber más: ¿Tan sólo una ilusión? Ilya Prigogine. Colección Metatemas. Tusquets Editores

Time, Structure and Fluctuations. Nobel Lecture, 8 December, 1977 by Ilya Prigogine


21 de noviembre de 2020

De Rayos, Loterías y #COVID19: carta abierta a un negacionista

Querido amigo “negacionista” y escéptico del #COVID19: La probabilidad de que te caiga un rayo (en un año) y te mate es aproximadamente de 1 en 500.000 (Datos del Centro del Control y Prevención de Enfermedades de los EE.UU., el famoso CDC) es decir, un 0,0002% (normalizado para cien mil) aunque este ratio dependerá de la cantidad de rayos que caigan en cada región y su población, lo tomaremos como un dato de referencia a efectos didácticos. A su vez, la probabilidad de que te toque el Gordo de Navidad de Navidad (en un año si compras un solo número) es de 1 en 100.000, es decir, 0,001%, lo que significa comparativamente que te toque el Gordo de Navidad es unas cinco veces más probable (0,001/0,0002) a que te mate un rayo.

Observación: Cuando comparamos probabilidades más probables (el Gordo en este caso) respecto a probabilidades menos probables (el rayo en este caso) suelen darse cocientes altos o muy altos. He optado por dejar la referencia del rayo por ser una probabilidad muy baja para mantener una cierta homogeneidad en las referencias, manteniendo a su vez la comparativa con el Gordo de Navidad para visualizar mejor el concepto de probabilidad con un evento más familiar que el rayo.

Sigamos. Si la Incidencia Acumulada a 14 días (IA14 o casos de #COVID19 por cada cien mil habitantes) en España es, redondeando, de unos 500 (datos a mediados de noviembre 2020) esto equivale en el lenguaje de la probabilidad de los rayos, de 0,5%, es decir, unas 2.500 veces más probable (0,5/0,0002) que te infectes de #COVID19 en España a que te caiga un rayo y 500 veces más probable (0,5/0,001) a que te toque el Gordo de Navidad con un décimo.

Ahora bien, si los fallecidos con #COVID19 por cien mil habitantes en España es de unos 90 (a mediados de noviembre 2020) esto equivaldría en el lenguaje de la probabilidad de los rayos, de 0,09%, es decir, unas 450 veces más probable (0,09/0,0002) que mueras de #COVID19 en España a que te caiga un rayo y 90 veces más probable (0,09/0,001) a que te toque el Gordo de Navidad con un décimo.

Hasta aquí, amigo negacionista, me dirás: “Bueno, un rayo me puede matar, pero contagiarme de #COVID19 no implica necesariamente acabar hospitalizado, ingresado en la UCI o, peor, morirme.”


Veamos. Según datos de la Red Nacional de Vigilancia Epidemiológica (RENAVE, informe del 12-11-2020, ver cuadro), aproximadamente un 5,5% de las personas contagiadas serán hospitalizadas, un 0,4% de las contagiadas necesitará ingresar en UCI y un 0,9% de los contagiados desgraciadamente fallecerá (si bien con una mayor letalidad a partir de los 70 años, que se dispara a partir de los 80 años), siendo el porcentaje de hospitalizaciones y defunciones con #COVID19 aumenta con la edad, alcanzando un 26,2% y 9,8% en mayores de 79 años, respectivamente.


Si lo comparamos con la gripe estacional (datos 2019-2020 del Instituto Carlos III) observaremos que el #COVID19 es ligeramente superior en esos porcentajes de probabilidad. Así, la gripe estacional tiene una probabilidad del 4,5% de hospitalización, un 0,3% de ingreso en UCI y un 0,6% de letalidad, con el “impacto cruzado” que supone el agregado de la gripe estacional más el #COVID19 a nivel hospitalario, si bien en términos absolutos, de número de afectados, el #COVID19 sí tiene una mayor incidencia en el contagio (alrededor de un 300% de contagiosidad superior a la gripe estacional considerando que los datos del #COVID19 no están completos y el 2020 todavía no ha terminado), lo que le hace más peligroso en términos de saturación de recursos hospitalarios aunque sus probabilidades en términos de tasas sobre casos sean similares a la de la gripe estacional (ver cuadro comparativo Gripe vs. #COVID19 de elaboración propia).


Con estos datos me podrás decir: “Vale, el #COVID19 es un virus nuevo, muy chungo a partir de los 50 y 60 años y es como una gripe pero con el triple de contagios y más del doble de afectados a efectos hospitalarios … pero soy de mediana edad, tengo menos de cincuenta años, mi sistema inmunitario es más fuerte y los que nos contagiamos de mi rango de edad somos asintomáticos. Siendo el #COVID19 una infección mortal para el 0,015% de los infectados de mi rango de edad (0,015% = 183 fallecidos desde Mayo hasta mediados de Noviembre 2020, remarcados en negro en el cuadro, frente a los 1.174.807 contagiados en el mismo periodo) esto equivale a una probabilidad condicionada de 0,0075% (0,5x0,015) de que me contagie y muera con #COVID19 (en España), es decir, en lenguaje de los rayos, a una probabilidad de 37,5 veces más probable (0,0075/0,0002) que me infecte y muera por el #COVID19 a que me caiga un rayo si tengo menos de cincuenta años, o 7,5 veces más probable (0,0075/0,001) de que me toque el Gordo de Navidad… es decir, algo casi inapreciable… además, nunca me ha caído un rayo, ni el Gordo de Navidad de Navidad me ha pasado rozando, luego podría soportar casi unas 40 veces más probabilidad de que me cayese un rayo y hasta, casi, casi, la misma probabilidad de que me tocase el Gordo… total, una chuminada, además nunca he visto un rayo de cerca y el Gordo todavía menos…”

Entonces, viene tu argumento favorito y el de los partidarios del #CoronaFake y #Plandemia: “¿tanta matraca con el confinamiento y las restricciones para algo que tiene tan solo un poco más de probabilidades de que me caiga un rayo o casi la misma de que me toque el Gordo de Navidad?”.

Aquí es donde entran en consideración otros factores que un simple cálculo probabilístico no te permite visualizar en todo su impacto sistémico… principalmente la llamada “presión hospitalaria” que es donde considero se encuentra el quid de la cuestión del #COVID19 considerando el flujo de transmisión del virus en todo el sistema sanitario en su conjunto (ver gráfico siguiente)…


Te propongo que veamos el problema desde otra perspectiva: supongamos que unos extraterrestres nos atacan con armas de rayos desde el espacio con una probabilidad semejante a la del #COVID19… pero con la “mala leche” de que el rayo láser extraterrestre que nos envían no mata enseguida como cabría esperar de un rayo, sino que sólo deja incapacitado alrededor del 5,5% de los que reciban su rayo extraterrestre y comienzan a llegar afectados a los hospitales, en un goteo escaso (entre 5 y 6 de cada 100, no olvidemos), pero incesante (todos los días, todas las semanas, todos los meses) sobre una capacidad hospitalaria que no tiene recursos infinitos, con una estancia media de unos 15 días sin UCI y unos 30 días para las UCI… y contando con una capacidad que también debe dedicarse a la gripe estacional y el resto de patologías, accidentes, etc.

¿Empiezas a ver la magnitud del problema si los extraterrestres no cesan de enviar sus rayos sobre los habitantes terrícolas? Si los rayos extraterrestres fulminasen inmediatamente a ese 5,5% de los afectados, no habría ningún problema… nos acostumbraríamos a una muerte rápida e indolora y sin impacto en el sistema sanitario. En todo caso tendríamos un problema funerario, no sanitario o ni siquiera eso porque si el rayo es como el de “La guerra de los mundos” de Steven Spielberg, nos ahorraríamos también la incineración.


No tendríamos que dedicar recursos económicos ni humanos para cuidar a los heridos… porque no los habría… pero, “ese virus de mierda” como lo calificáis los “negacionistas” y escépticos del #COVID19 tiene la jodida propiedad de ese hipotético rayo extraterrestre, de saturar, colapsar, junto con el “impacto cruzado” de la gripe estacional y otras patologías, los sistemas sanitarios… amén de crear un problema ético en los profesionales sanitarios: “¿a qué paciente voy a tener que dejar morir por falta de recursos?” y por descontado un problema de estrés, la propia vulnerabilidad por su mayor exposición al contagio y “burnout” (síndrome de estar quemado) asociado. Es decir, el #COVID19 no es un “mata-personas” en sentido estricto, pero sí indirecta y colateralmente porque afecta a la columna vertebral del sistema sanitario (los hospitales y centros de salud), implicando, junto con la gripe estacional, a todas las patologías y accidentes que requieren cuidados hospitalarios, porque bloquea y dificulta algo tan importante para las sociedades humanas como es el funcionamiento eficaz y eficiente de los sistemas sanitarios…

Tal vez un experimento mental te ayude a visualizar mejor el problema que se cierne cuando me refiero al colapso sanitario… centrémonos en el caso de los menores de 50 años que es tu caso, que en principio son los que menos letalidad tienen, de los cuales han ingresado en hospitales desde Mayo un total de 13.236 (los remarcados en rojo en el cuadro), es decir, aproximadamente un 20% del total de hospitalizaciones con #COVID19 (vaya, la famosa ley 80%-20%, curioso)… supongamos una situación extrema y que desde Mayo tuviéramos una situación de colapso sanitario y no se pudiera ingresar a las personas en los hospitales, o bien con las UCI al 100% de ocupación, algo que están próximos a alcanzar en algunas Comunidades Autónomas y/o ya han alcanzado algunos hospitales… ¿sabes qué sucedería?

No hace falta mucha imaginación: ese 5,5% que requiere hospitalización no podría ser atendido y muy probablemente muchos de ellos morirían en sus casas o residencias de mayores… volviendo a hacer números con tu rango de edad, si suponemos, en un “escenario optimista” que de esos 13.236, los 928 (remarcados en azul en el cuadro) que ingresaron en UCI fallecerían por falta de atención sanitaria, la probabilidad de fallecimiento ya no sería del 0,015% para tu rango de edad, sino del 0,079% (0,079% = 928 fallecidos hipotéticamente en este escenario desde Mayo hasta mediados de Noviembre 2020, frente a los 1.174.807 contagiados en el mismo periodo) es decir, se habría multiplicado por cinco la probabilidad de morir a causa del colapso sanitario y ya no sería 37,5 veces más probable morir por #COVID19 que te cayese un rayo, sino 197,5 veces más probable ((0,5x0,079)/0,0002)… y unas 40 veces más probable ((0,5x0,079)/0,001) a que te tocase el Gordo de Navidad de Navidad con un décimo…

Pero, si nos situamos en un “escenario pesimista” donde aproximadamente el 50% de esos 13.236 hospitalizados falleciera, esto es, redondeando, unos 6.500, la probabilidad ya no sería del 0,015% sino del 0,55% (0,55% = 6.500 fallecidos hipotéticamente en este escenario desde Mayo hasta mediados de Noviembre 2020, frente a los 1.174.807 contagiados en el mismo periodo) es decir, se habría multiplicado por 36 la probabilidad de morir a causa del colapso sanitario (y ya no sería 37,5 veces más probable morir por #COVID19 que te cayese un rayo, sino 1.375 veces más probable ((0,5x0,55)/0,0002)… y unas 275 veces más probable ((0,5x0,055)/0,001) que te tocase el Gordo de Navidad de Navidad con un sólo décimo… supongo que ahora no te parecerá una “chuminada”...

Y, a todo eso, sin entrar a considerar “el juego de suma cero” que implica que una cama o una UCI ocupada para #COVID19 es una cama o una UCI que no puede destinarse a otras patologías, dolencias y accidentes… es decir: el peor escenario para una sociedad avanzada que no puede garantizar la salud de sus ciudadanos, multiplicar por cinco (en el escenario optimista) o por 36 (en el escenario pesimista) la probabilidad de muerte en el rango de edad de las personas a las que les afecta menos la incidencia del #COVID19… y eso es precisamente lo que te niegas a ver, o no logran ver tus amigos “negacionistas” y escépticos del #COVID19, que lo veis en privado casi como “necesario para la selección natural”, que sólo afecta a las personas de edad muy avanzada, cuando la realidad es que también afecta a personas jóvenes y sanas, con el añadido que pueden convertirse en supercontagiadores por la mayor vida social de la gente joven y porque, no sé si lo sabes, el “propósito” de este virus es el mismo que el de cualquier otro: sobrevivir en el “organismo anfitrión” (nosotros) lo suficiente para multiplicarse en otros organismos anfitriones (nuestros familiares, amigos, etc.), con lo que su “éxito” lo determina su capacidad como “huésped” de adaptarse al “organismo anfitrión” para no morir con él antes de propagarse (ya sabes, un virus demasiado virulento es malo para el propio virus, pues necesita “organismos anfitriones” vivos para que pueda contagiar a otros organismos)… pero si el “organismo anfitrión” resiste, el virus también “aprende” ese nivel de resistencia regulando su propia virulencia (personas asintomáticas) y al transmitirse a otros organismos menos resistentes (personas mayores), el virus se vuelve más letal por haberse “entrenado” para un nivel inmunitario superior, es por ello que las personas de menor edad deberían ser conscientes de su mayor responsabilidad colectiva en la cadena de transmisión del virus hacia las personas más vulnerables…

Todas estas consideraciones son algo que nos debe hacer reflexionar cuando se escucha la idea de “salvar las Navidades”, pues muy probablemente si nos liberamos aunque sea unas semanas de algunas restricciones que los gobiernos están imponiendo (mascarilla, higiene de manos, distancia social, ventilación, evitar reuniones de no convivientes de más de x personas…) lo que ocurra a la vuelta de la esquina será una “tercera ola” que sature aún más la capacidad sanitaria al coincidir con la mayor incidencia hospitalaria de la gripe estacional (diciembre-marzo) como ya ocurrió con la llamada “gripe española”


Asumamos pues colectivamente que todas estas restricciones no son por la mortalidad intrínseca de ese “ese virus de mierda” o porque “nos quieren convertir en zombis” como he leído por ahí, sino por prevenir el daño sistémico que es capaz de hacer “ese virus de mierda” en la salud pública y las consecuencias directas y colaterales, que tendría el colapso del sistema sanitario, pues si no se logra frenar y reducir el primer eslabón de la cadena (el contagio), lo que viene después es una ley probabilística inexorable (las probabilidades de hospitalización, UCI y fallecimientos son las que son y no van a reducirse mientras no se extienda la vacunación a la mayoría de la población).

Resumiendo, que el quid de la cuestión no está en la mortalidad y letalidad del virus, sino en el consumo de recursos sanitarios (crecientes) que requiere y que amenaza con desatender otras muchas necesidades sanitarias y sus consecuentes muertes colaterales, aún no contabilizadas como tales, pero que indirectamente podemos intuir en las estadísticas del Sistema de Monitorización de la Mortalidad Diaria (MoMo).

No espero convencerte, pero sí espero que medites esta reflexión y te pongas en el lugar de los que no podrán ser hospitalizados o ingresados en UCI a causa del probable colapso sanitario que conductas inconscientes podrían llegar a causar si estas se generalizasen… y mejor que todo esto se quede en un experimento mental y nunca lleguemos a poner a prueba los límites del sistema sanitario.


Para saber más: Coronavirus COVID-19 Global Cases by the Center for Systems Science and Engineering (CSSE) at Johns Hopkins University Worldometer: Coronavirus

Ministerio de Sanidad: Situación de COVID-19 en España

Centro Nacional de Epidemiología: Situación de COVID-19 en España

MODELIZACIÓN EPIDEMIOLÓGICA DEL COVID-19

OMS - Coronavirus

European Centre for Disease Control and Prevention


6 de agosto de 2020

El rey emérito y el algoritmo de Zermelo

¿Dónde está el rey emérito Juan Carlos I? se pregunta mucha gente y muchos medios presuntamente bien informados. Sin embargo, las preguntas nunca son inocentes: siempre denotan carencias o aciertos estratégicos. Desde mi perspectiva se trata de un juego estratégico, que se desvelará pronto, a la vuelta del verano. En un juego estratégico siempre existe información asimétrica y normalmente el que tiene la información puede gestionar las creencias y expectativas de los que no la tienen. Sí, por supuesto, filtrando “globos sonda” también.

Entonces, ¿dónde está el rey emérito? En realidad no importa, lo que importa es que tras el paréntesis veraniego vuelva al país y se ponga a disposición de la justicia, para saldar cuentas con la justicia (y con Hacienda) y despejar de sombras su recta final vital. Hay mucho en juego de no hacerlo así. Por eso no tiene sentido lanzar la sospecha de una “fuga” o “huida” definitiva. Porque el rey emérito volver, va a volver, con absoluta seguridad.

¿Por qué afirmo tal cosa sin tener “información privilegiada”? Aún en juegos con información asimétrica es posible penetrar en la estrategia del que tiene la información completa o se jacta de tenerla. Basta con aplicar un principio estratégico conocido como Algoritmo de Zermelo, en honor al matemático alemán Ernst Zermelo, que permite tomar (y conocer) decisiones estratégicas ganadoras a partir de la inducción hacia atrás, esto es, mirar, pensar (o imaginar) hacia adelante diferentes escenarios futuros y razonar hacia atrás, hasta el presente. Puro sentido común, desde luego.

Y, siguiendo a Zermelo, un modo de conocer (indirectamente) la estrategia ganadora del que maneja información asimétrica es observar el resultado de cómo quedaría su posición en el supuesto el escenario final no le fuera favorable, lo que se conoce como conocer su minimax o su pérdida máxima. Eso da muchas pistas de lo que está sucediendo y lo que puede suceder.

Es decir, suponiendo que hay dos posiciones enfrentadas: “monárquicos” (por llamarlos de alguna manera) por un lado, que apuestan por una “salida temporal” (las definiciones son importantes) del rey emérito, con la casa Real y el presidente Pedro Sánchez a la cabeza y por otra los “republicanos” (por llamarlos de otra manera) que apuestan por una “fuga definitiva” (el verbo escogido no es inocente), con la oposición republicana, incluida la parte del gobierno “republicana”, la pregunta estratégica es: ¿quién puede salir peor parado en el peor de sus escenarios? Dicho más claramente: ¿quién de las dos posiciones enfrentadas sale más perjudicada si el rey emérito se marcase o no un “Dioni” (famoso ladrón-conductor de furgones blindados que en 1989 se fugó a Brasil)? pues probablemente eso, sin medias tintas, en el supuesto el rey emérito no retornase le costaría la presidencia a Pedro Sánchez y al rey Felipe VI su reinado, mientras que si el rey emérito retornase de su ignoto destino veraniego, apenas tendría mayor impacto en el lado de los “republicanos”.

Veamos esto algo más gráficamente en una Matriz de Pagos típica de Teoría de Juegos. Ante un escenario como el mencionado (el rey emérito no retorna), la posición de los “monárquicos” quedaría seriamente comprometida, con un daño reputacional que estimo en cien veces mayor (en negativo). Los valores son relativos a la vez que subjetivos con el escenario donde se cumple su posición, en este caso: el rey emérito retorna. No importa tanto el valor en sí, sino la coherencia de la posición con el escenario, así como la magnitud estimada de la pérdida respecto a la ganancia.



Por el contrario, la posición de los “republicanos” no es tan desastrosa en términos relativos si finalmente no se cumple su vaticinio. Es cierto que si el rey emérito retorna, los “republicanos” tendrán que “tragarse el sapo” de haber dado alas a la idea (y los memes) de que la “fuga era definitiva”, pero su daño reputacional no es tan importante como en el caso de los “monárquicos”, por la simple razón de que son estos los que tienen la información de primera mano y controlan, teóricamente, la situación. Así, estimo en, como mucho, un daño diez veces menor (en negativo) en el caso de no cumplirse su escenario preferente, toda vez que su posición es, entiendo, más una provocación para que los “monárquicos” revelen el paradero del rey emérito que una profecía autocumplida.

Por tanto, visto el juego estratégico, el secretismo (de los “monárquicos”) juega a favor del que maneja los tiempos y las expectativas, pues en un juego estratégico el ser transparentes tiene un coste: perder la ventaja de la sorpresa (guardada) final. Luego, basta con mirar quién es el que más puede perder para darse cuenta de que la situación está controlada y más que controlada (los “monárquicos” ya han demostrado, sin decirlo, que han hecho sus deberes, su “ejercicio minimax”: han minimizado su pérdida máxima, han mirado hacia el futuro y se han asegurado el resultado), como también darse cuenta que el secretismo también juega a favor de perjudicar la ganancia del rival, los “republicanos” incitándoles a cometer errores estratégicos por falta de información.

En conclusión: por tanto, la pregunta estratégica no es ¿dónde está el rey emérito? sino ¿de qué va el juego? ¿a quién va dirigido el juego del desconocimiento de su ubicación? ¿quién puede ganar el juego: el que tiene o el que no tiene la información y el control de la situación? y, sobre todo, ¿quién puede perder más en el supuesto no se cumpla el escenario en el que se posiciona? Blanco y en botella.

Finalmente, ¿qué podemos hacer los ciudadanos ante esta clase de juegos estratégicos? En realidad poco más que ser espectadores entre los dos bandos. Eso sí, con herramientas conceptuales como la Teoría de Juegos es más difícil que nos la den con queso: ante situaciones como la de este juego estratégico lo más prudente suele ser esperar y ver, pero sabiendo que casi con absoluta seguridad sucederá lo que afirma el que más puede perder en caso de que no suceda lo que afirma que sucederá, pues el riesgo de creerse los bulos, muchos interesados, es caer en la sobrerreacción y las trampas para impacientes.

3 de mayo de 2020

19+19 reflexiones para un futuro incierto tras el COVID-19

Existe un consenso tácito en muchos pensadores actuales de que el COVID-19 ha cambiado nuestra percepción de las cosas que creíamos importantes y ciertas por repetidas. Este microscópico virus nos puede hacer revisar aspectos vitales y profesionales que creíamos llenos de certezas.

En ese camino de incertidumbre nos hallamos algo perdidos. Sirvan estas reflexiones como señales para una mejor comprensión del mundo que nos espera ahí fuera, cuando salgamos del confinamiento.


“El aleteo de una mariposa en Brasil, ¿originó un tornado en Texas?”. Edward N. Lorenz

“Para desembarcar en la isla de la sabiduría hay que navegar en un océano de aflicciones”. Sócrates

“Si tu única herramienta es un martillo pensarás que todos los problemas son clavos”. Atribuida a Mark Twain

“La ausencia de evidencia no es evidencia de ausencia”. Carl Sagan

“Dividir un elefante por la mitad no genera dos elefantes pequeños”. Peter Senge

“Hacer algo simple puede ser muy difícil y complejo; tienes que trabajar mucho para conseguir un pensamiento limpio, para hacerlo simple”. Steve Jobs

“Lo simple gobierna lo complejo”. Eliyahu M. Goldratt

”Existen problemas que no pueden resolverse en el mismo nivel de comprensión que se desarrollan. Para resolverlos es esencial un nivel de percepción más elevado”. Albert Einstein

“El equilibrio no es la finalidad ni la meta de los sistemas abiertos. Para mantenerse viable, un sistema abierto necesita hallarse en constante estado de desequilibrio”. Ilya Prigonine

“La mayor deficiencia de la raza humana es nuestra incapacidad para comprender la función exponencial”. Albert A. Bartlett

“Los límites de mi lenguaje son los límites de mi mundo”. Ludwig Wittgenstein

”La formulación de los problemas dependen en gran parte de las metáforas apropiadas. Y al contrario: una mala formulación casi siempre implica la elección de metáforas inapropiadas”. Mitchell Waldrop

”Los seres humanos sólo somos conscientes de que actuamos según determinados paradigmas cuando cambiamos de paradigmas”. Lair Ribeiro

“En todas las actividades es saludable, de vez en cuando, poner un signo de interrogación sobre aquellas cosas que por mucho tiempo se han dado como seguras”. Bertrand Russell

”Si quieres comprender la función, estudia la estructura”. Francis Crick.

“Sólo la variedad puede absorber variedad”. William Ross Ashby

“El analfabeto de mañana no será la persona incapaz de leer. El analfabeto de mañana será la persona que no haya aprendido a aprender”. Alvin Toffler

“El mundo necesita mentes y corazones abiertos, y estos no pueden derivarse de rígidos sistemas ya sean viejos o nuevos”. Bertrand Russell

”Cuando todo parezca estar en tu contra, recuerda que los aviones despegan con el aire en contra, no a favor". Henry Ford

“Se mide la inteligencia del individuo por la cantidad de incertidumbres que es capaz de soportar”. Immanuel Kant

“Si nadie te garantiza el mañana el hoy se vuelve inmenso”. Carlos Monsiváis

“Sólo podemos ver poco del futuro, pero lo suficiente para darnos cuenta de que hay mucho que hacer”. Alan Turing

“El futuro es incierto”. Joe Strummer

“No es cierto que todo sea incierto”. Blaise Pascal

“La duda no es una condición placentera, pero la certeza es absurda”. Voltaire

“El futuro es incierto… pero esta incertidumbre está en el corazón mismo de la creatividad humana”. Ilya Prigonine

“Casi todo el mundo ve el futuro como el fin y el presente como el medio, cuando en realidad el presente es el fin y el futuro el medio”. Fritz Roethlisberger

“El futuro no es lo que va a pasar, sino lo que vamos a hacer”. Jorge Luis Borges

“Tortura los números y lo confesarán todo”. Gregg Easterbrook

“La pregunta es la más creativa de las conductas humanas”. Alex Osborn

“Los ordenadores son inútiles, sólo pueden darte respuestas”. Pablo Picasso

“Sólo las preguntas con respuesta son las que llegamos a comprender”. Friedrich Nietzsche

“Si la naturaleza es la respuesta, ¿cuál era la pregunta?”. Jorge Wagensberg

“Si tuviera una hora para resolver un problema, y mi vida dependiera de la solución, gastaría los primeros 55 minutos en determinar la pregunta apropiada, porque una vez conociera la pregunta correcta, podría resolver el problema en menos de cinco minutos”. Albert Einstein

“Nunca confundáis flujo con stock ni correlación con causalidad”. Mi admirado profesor Lorenzo Ferrer Figueras

“Consideramos la incertidumbre como el peor de todos los males hasta que la realidad nos demuestra lo contrario”. Alphonse Karr

“Muchos de los problemas con los que hoy se enfrenta el mundo son el resultado final de medidas a corto plazo adoptadas en el siglo pasado”. Jay Forrester

“Hacer predicciones es muy difícil, especialmente cuando se trata del futuro”. Niels Bohr

“El problema de nuestro tiempo es que el futuro ya no es lo que era”. Paul Valéry

“Si quieres vivir, prepárate para morir”. Sigmund Freud

“La vida siempre se abre camino”. Ian Malcom, personaje de la película Jurassic Park


19 de abril de 2020

Una conjetura sobre π para responder a la cuestión de Brouwer

Luitzen Egbertus Jan Brouwer (1881-1966) fue un matemático holandés fundador de la filosofía matemática del intuicionismo, que planteo la conocida como “cuestión de Brouwer”: en la expansión decimal de π (Pi), ¿existe alguna posición donde exista una sucesión de mil ceros consecutivos?

Aprovechando el obligado confinamiento del COVID-19, me propongo abordar la pregunta de Brouwer, pregunta que aún no tiene respuesta, desde una conjetura que se puede resumir con una frase:

En la expansión decimal de π (Pi) prevalecen las secuencias alternadas de sucesiones monótonas decrecientes y estrictamente crecientes sobre las sucesiones constantes y en consecuencia la respuesta a la cuestión planteada por Brouwer en el siglo pasado es negativa.

Desarrollo de la conjetura: Alfabeto ABCD

Para sugerir esta conjetura sobre el número π (Pi) he desarrollado un algoritmo que, literalmente, tritura el primer millón de decimales del número π y asigna una codificación binaria, de unos y ceros, a cada incremento (crece) o no incremento (no crece o es igual) de cada decimal n y su consecutivo n+1, de tal modo que a un incremento (entre la posición n y n+1 de un decimal) se le asigna un 1 y a un no incremento (decremento o igualdad) se le asigna un 0. Con este sencillo lenguaje, tendríamos el primer ladrillo del alfabeto que pretendo construir, así pues, a los veinte primeros decimales de π (Pi) 14159265358979323893 le correspondería esa codificación binaria 10110100111010011010. En términos matemáticos, en este primer lenguaje (0) equivale a una sucesión monótona decreciente de dos números consecutivos y (1) equivale a una sucesión monótona estrictamente creciente de dos números consecutivos.

Ahora bien, lo interesante a partir de aquí es crear un alfabeto que permita observar patrones desde una perspectiva más amplia, es decir, una “lente de aumento” que nos permita analizar lo que está sucediendo en las secuencias de ceros y unos de ese gigantesco número π (Pi). Para ello creamos un segundo ladrillo del alfabeto mediante las primeras cuatro letras del alfabeto: A, B, C y D.

De este modo, podemos comprimir la secuencia de ceros y unos a una entidad más manejable y fácilmente observable. Así, podemos asignar los cuatro pares de secuencias concatenadas de ceros y unos del siguiente modo: A=00 - B=01 - C=10 - D=11. Por convención, en el caso de B y C se asigna un asignación de derecha a izquierda, dado que en el álgebra de Boole, comenzamos a contar de derecha a izquierda, así (A=00) = 0 - (B=01) = 1 - (C=10) = 2 y (D=11) = 3.

De acuerdo a este segundo ladrillo, a los veinte primeros decimales de π (Pi) 14159265358979323893 le correspondería una codificación binaria de 19 dígitos (20-1) pero a efectos didácticos incluimos el vigésimo (dado que conocemos el decimal vigésimo primero): 10110100111010011010 y la siguiente codificación alfabética correspondiente de diez letras: BDCADBBCBB.

Análisis

Con estos dos ladrillos, nos ponemos manos a la obra y una vez obtenida la cadena fundamental de ceros y unos y aplicada su “lente de aumento” correspondiente del alfabeto ABCD al primer millón de decimales del número π (Pi) y a su vez ordenados por orden de ocurrencia, obtenemos las siguientes e interesantes gráficas:

Escala Lineal - Patrón ABCD de primer millón de decimales del número Pi


Escala Logarítmica - Patrón ABCD de primer millón de decimales del número Pi


Escala Lineal - Patrón ABCD 10^6 Decimales Pi


Escala Lineal - Patrón ABCD 10^6 Decimales Pi



Conjetura

En términos matemáticos se puede resumir en la siguiente conjetura: En la expansión decimal de π (Pi) prevalecen las secuencias alternadas de sucesiones monótonas decrecientes y estrictamente crecientes sobre las sucesiones constantes y en consecuencia la respuesta a la cuestión planteada por Brouwer en el siglo pasado es negativa.

En términos más coloquiales: al número π (Pi) le gusta la variedad, así (aproximadamente 2 de cada 3 veces) la secuencia es no crecer/crecer o crecer/no crecer (B o C), seguida de (aproximadamente 1 de cada 4,5 veces) no crecer/no crecer (A) y finalmente le gusta (aproximadamente 1 de cada 8 veces) crecer/crecer (D).

Corolarios

En la secuencia analizada, hasta el primer millón de decimales de π (Pi), se desprende una ley empírica de distribución potencial que se aproxima a la conocida como Ley de Zipf, de acuerdo al resultado mostrado en la última gráfica, esto es: secuencia B+C (aproximadamente 66%), secuencia A (aproximadamente 22%) y secuencia D (aproximadamente 12%).

Entre los resultados curiosos en el primer millón de decimales analizados se encuentra que el máximo de una sucesión monótona decreciente (0) es de doce números, esto es, AAAAAA (seis A consecutivas), mientras que para responder afirmativamente a la cuestión de Brouwer (mil ceros consecutivos) hace falta una secuencia de, al menos, 500 A consecutivas y probablemente muchas más porque la letra A de este alfabeto tan sólo indica que la sucesión de dos cifras es monótona decreciente, esto es, que el número siguiente puede ser igual o menor, pues el (0), al contrario que el (1) que sí es estrictamente creciente, indica que es monótona y no estrictamente decreciente.

Por otra parte, el máximo de una sucesión estrictamente creciente (1) encontrada es de un máximo de 8 números, esto es, DDDD (cuatro D consecutivas). Lógicamente, así como no hay límite a la sucesión monótona decreciente (salvo por la impuesta por esta conjetura), sí lo hay para la sucesión monótona estrictamente creciente, es decir, el máximo que podríamos encontrar en toda la extensión (infinita) de π (Pi) es de 10 números, esto es, DDDDD (cinco D consecutivas), dada la limitación de representación del sistema decimal, acotado a diez símbolos. Esto es una obviedad, pero conviene recordarla. Apunte histórico: en 1997, Kanada y Takahashi, de la Universidad de Tokio, encontraron que la secuencia 0123456789 aparecía seis veces entre los 17 mil millones y los 54 mil millones de cifras de la expansión decimal de π (Pi).

Objeciones

Soy consciente que una primera objeción a esta conjetura sobre π (Pi) es el hecho de haberla planteado analizando únicamente el primer millón de cifras de su expansión decimal. Bien, no me cabe duda que con toda la “fuerza bruta” de los superordenadores que hoy existen en el mundo aplicada sobre los más de 13 billones de decimales que se conocen de π (Pi) se podría obtener un contra ejemplo que refutase esta conjetura, pero del mismo modo que todavía no se ha refutado (ni demostrado) la llamada Conjetura (fuerte) de Goldbach, que la planteó en 1742 cuando apenas se conocía más que una cantidad reducida de números primos, cabe decir lo mismo de mi conjetura, del que acepto su carácter provisional (como se le admite a cualquier conjetura), de suponer que es cierta por no haberle encontrado una refutación a partir de la observación empírica del primer millón de cifras de la expansión decimal de π (Pi) para responder a la cuestión planteada por Brouwer en el pasado siglo. En este sentido, estoy abierto a que otros investigadores planteen cuantas refutaciones o pruebas quieran exponer.


Para saber más: Luitzen Egbertus Jan Brouwer en Wikipedia

Luitzen Egbertus Jan Brouwer en Wikipedia (inglés)

Intuicionismo en Wikipedia

Número π en Wikipedia

Sucesión matemática en Wikipedia

Ley de Zipf en Wikipedia

Ley potencial en Wikipedia

Método empírico-analítico

Conjetura de Goldbach en Wikipedia

Conjeturas matemáticas en Wikipedia



27 de marzo de 2020

El paradójico pico de la curva del coronavirus COVID-19

Algunos amigos inquietos tras varios días de cuarentena por el estado de alarma decretado por el gobierno, me preguntan cuándo llegaremos al pico de la famosa curva de casos confirmados por ese archienemigo llamado COVID-19 (la enfermedad) y técnicamente como SARSCoV2 (el virus).

Mi respuesta: no lo podemos saber, ni un día antes, ni un día después y, paradójicamente, al contrario que les sucede a los alpinistas, tampoco lo sabremos cuando estemos encima mismo del pico.

A continuación el razonamiento sin ninguna complejidad matemática.

El número de casos confirmados (NCC) no ha dejado de crecer... y eso es inevitable. Por tanto la curva acumulada de NCC (ver abajo) siempre va a ser creciente y por ello no nos sirve para detectar el pico de la curva de manera clara y precisa.

En lo que tenemos que fijarnos es en el NCC diario (ver abajo), este es el gráfico que nos puede avisar si empieza a frenarse la curva. Además, a partir del NCC diario y con un sencillo cálculo podemos obtener el tiempo de duplicación, simplemente conociendo el porcentaje de crecimiento del día y dividiendo 70 entre dicho porcentaje nos dará en días cada cuantos días aproximadamente se duplicará la cantidad de casos [tiempo de duplicación ≅ [70 / % crecimiento] para ese instante. Este indicador, muy fácil de calcular, nos puede servir para conocer la velocidad de propagación del virus, si el tiempo de duplicación disminuye significa que el virus se duplica más rápidamente que si el tiempo de duplicación aumenta, que es el objetivo: lograr que el tiempo de duplicación vaya aumentando porque eso significará que, aunque los casos inevitablemente sigan creciendo, comienza a quebrarse el crecimiento exponencial y con ello la velocidad de propagación va descendiendo: al virus le cuesta cada vez más duplicar el número de infectados.

Pero, al igual que el refranero popular nos dice que “una golondrina no hace verano”, una bajada puntual, incluso pronunciada, en el NCC diario, no es significativa de que hayamos alcanzado el pico mientras no se mantenga la tendencia descendente de manera consistente... es temerario prolongar la recta partiendo del dato de unos pocos días de bajada, incluso la desaceleración puntual del % de crecimiento o su tendencia plana: los anuncios de picos de la curva que finalmente son picos falsos debe evitarse, pues en cualquier momento, a la vuelta de la esquina, puede resurgir de nuevo la curva.

Para saber si hemos alcanzado el pico de la curva debe consolidarse una bajada prolongada del NCC diario, algo que visualmente es fácil de detectar. Por tanto, y esta es la clave del asunto: hasta que no estemos “bajando prolongadamente el NCC diario” no sabremos si hemos alcanzado el pico de la curva.

Es decir, al contrario de lo que sucede en el alpinismo y los que ascienden al Everest, ¡¡el día que alcancemos el pico no seremos conscientes que estamos en él hasta pasados unos días!!.

¿Entonces no podemos anticipar si quiera aproximadamente el pico de la curva? En mi opinión, no... podemos intentarlo partiendo del sesgo de creer que conocemos de antemano cómo modelizar la curva, cosa que se puede hacer, aproximadamente desde luego, ajustándola a modelos de regresión no lineales conocidos, curvas de otras epidemias o realizando un ajuste mediante redes neuronales, que, en el mejor de los casos nos ofrecerán un abanico de escenarios donde elegir.

Pero, cuidado... estamos tratando con un fenómeno en tiempo real, del que no se conoce su dinámica sistémica subyacente, con singularidades geográficas, con fenómenos de demora, con un alto grado de incertidumbre, con información incompleta e imperfecta y aunque podemos intuir, por las contramedidas tomadas (algo tardías) para evitar el riesgo de una curva exponencial pura y dura, que dentro de X días alcanzaremos el “pico de la curva” (porque finalmente la lógica de la curva logística se impondrá por simple saturación sistémica de la propagación en un entorno dado) nadie puede ser tan temerario como para decir una fecha u horquilla de días concretas, so pena que nos pase como al “pavo de Russell” (en honor a Bertrand Russell que fue quien expuso por primera vez el ejemplo, retomando el problema de la inducción que inició David Hume) del que desarrollé en el post sobre El cisne negro de Nassim Nicholas Taleb

Y este problema de la inducción, es indiferenciado, existe tanto para las malas noticias (rebrotes) como para las buenas noticias (observad el NCC diario de Corea del Sur, como después de un crecimiento diario notable, hubo un descenso brutal e impredecible). Tal vez en el caso de España podría ocurrir el mismo fenómeno: en lugar de un descenso suave en el NCC diario post-pico, un descenso brusco del NCC diario tras el pico. Tengámoslo en cuenta, porque la mayoría de modelos tenderán a reproducir descensos suaves.

Conclusión: lo prudente para saber y celebrar que hemos alcanzado el pico de la curva, sería cuando haya pasado al menos una semana (mínimo deseable para afianzar la tendencia, que el tiempo de descenso ≅ raíz cuadrada del tiempo de ascenso) en el que el NCC sigue descendiendo día a día... dicho de otro modo, nunca sabremos que hemos alcanzado el pico de la curva “antes” o “en” incluso “inmediatamente después” del día del pico de la curva: siempre lo sabremos retrospectivamente, pasados unos días o más prudentemente una semana... preferiblemente dos.

Por tanto... celebrar el pico de la curva antes de que exista una consolidación de la tendencia de bajada sería un error imperdonable, error “castigado estadísticamente” con el susto de un rebrote de la curva a las primeras de cambio.

En fin... como decía Niels Bohr, no olvidemos que «Hacer predicciones es muy difícil, especialmente cuando se trata del futuro»

Como una imagen vale más que mil palabras, para ejemplificar este razonamiento, adjunto los NCC diarios de España y Corea del Sur, donde observamos claramente que España todavía no ha logrado estabilizar un descenso de los NCC (tenemos subidas y bajadas como en una montaña rusa), mientras que Corea del Sur ya logró el pico de la curva a primeros de Marzo, cosa que sólo podremos saber, en nuestro caso, retrospectivamente, al pasar varios días de una bajada prolongada.

Pues bien... hasta que no estemos en la misma situación de descenso consolidado, no sabremos que nuestro pico “fue” tal día de Abril (o Mayo) de 2020 y no antes ni en el mismo instante ni inmediatamente después, sino, como mínimo una semana después... preferiblemente dos.

NCC diarios de España y Corea del Sur


NCC acumulados de España y Corea del Sur



Para saber más: Información actualizada COVID-19 Mundial y España por CC.AA. con Análisis adicional de Wau Technologies

Coronavirus COVID-19 Global Cases by the Center for Systems Science and Engineering (CSSE) at Johns Hopkins University

Worldometer: Coronavirus

Ministerio de Sanidad: Situación de COVID-19 en España

Centro Nacional de Epidemiología: Situación de COVID-19 en España

MODELIZACIÓN EPIDEMIOLÓGICA DEL COVID-19

OMS - Coronavirus

European Centre for Disease Control and Prevention