17 de diciembre de 2024

De Riadas, Cisnes Negros, Rinocerontes Grises y Gestión de Riesgos

En la riada del 14 de octubre de 1957 en Valencia, mis padres vivían en un bajo en el popular Barrio del Carmen y lo perdieron todo. A consecuencia de aquella catástrofe muchas familias perdieron su hogar. Exactamente igual que en la reciente riada del 29 de octubre de 2024. Lo triste de todo esto es que después de 67 años la catástrofe vuelva multiplicada en sus efectos, con más de dos centenares de fallecidos en varios pueblos al sur y oeste de Valencia, como si no hubiéramos aprendido nada.

A los pocos días de la reciente riada (o mejor, riada y barrancada, por estar afectados el río Magro y el barranco del Poio/Poyo y otros) del pasado 29/10/2024 a consecuencia de la DANA o gota fría (un evento meteorológico que en ocasiones produce lluvias extremas) surgía la polémica de su impredecibilidad, quizá más motivada por la no asunción de responsabilidades políticas de prevención y alerta a la población.

Ahora bien, ¿en realidad era la riada-barrancada del pasado 29/10/2024 un evento muy poco probable?

Riadas

Según escribe el geólogo Enrique Ortega Gironés en Riadas, gotas frías y DANAs: breve recorrido por la desmemoria y los despropósitos climáticos “De 1321 a 2024, se contabilizan 27 riadas, cuatro riadas por siglo, su alcance ha quedado registrado en placas o azulejos fijadas con una marca horizontal señala el nivel que alcanzaron las aguas (..) En la gráfica de la izquierda la línea roja representa evolución de la temperatura desde el año 1200 hasta la actualidad y los círculos azules señalan las 27 riadas (..) La figura de la de la derecha es ampliación desde el inicio de la época industrial hasta la actualidad, mostrando las grandes riadas de los años 1944, 1957 y 1982”.

Cisnes Negros

Sobre eventos poco probables y sus consecuencias escribí hace un tiempo un artículo El Cisne Negro de Nassim Nicholas Taleb a raíz de la publicación del libro del matemático y financiero Nassim Nicholas Taleb (“The Black Swan: The Impact of the Highly Improbable”, 2007) cuya traducción al español sería: “El Cisne Negro. El impacto de lo altamente improbable”.

¿Qué es un Cisne Negro según Nicholas Taleb? El profesor Taleb lo define como un hecho fortuito que satisface estas tres propiedades: gran repercusión, probabilidades imposibles de calcular y efecto sorpresa. En primer lugar, su incidencia produce un efecto desproporcionadamente grande. En segundo lugar, tiene una pequeña probabilidad pero imposible de calcular en base a la información disponible antes de ser percibido el hecho. En tercer lugar, una propiedad nociva del Cisne Negro es su efecto sorpresa: en un momento dado de la observación no hay ningún elemento convincente que indique que el evento vaya a ser más probable. Desde luego, estas propiedades no son ajenas a las crisis financieras que vivió el autor cuando se ganaba la vida como operador bursátil. En el mencionado artículo se desarrolla más el concepto así como su interesante origen histórico.

En el Cisne Negro entra en juego el daño colateral que provoca el paradigma cognitivo de la distribución normal o de Gauss (por el nombre del matemático alemán Carl Friedrich Gauss): necesitamos datos para descubrir la distribución de probabilidad. ¿Cómo sabemos si contamos con los suficientes? Por la distribución de probabilidad. Si es gaussiana, bastarán unos pocos. ¿Cómo se sabe que es gaussiana? Por los datos. Por eso necesitamos que los datos nos digan qué distribución de la probabilidad debemos asumir, y que una distribución de la probabilidad nos diga cuántos datos necesitamos. Esta circularidad causa graves problemas en la regresión, más acuciantes cuando se aplica sin discriminación la distribución gaussiana a todo lo que se mueve.

Para ejemplificar este problema se muestro un gráfico del cambio en promedio diario del índice Dow Jones Industrial desde 1928 a 2016 (a la izquierda pérdidas y a la derecha ganancias en porcentaje de ocurrencia donde se observan varios cisnes negros fuera de rango de una distribución normal (más de tres desviaciones típicas) y más allá (más de cinco desviaciones típicas). Ver Anexo sobre El Riesgo de Cola Gruesa.

Resumiendo pues, un evento de Cisne Negro tiene las siguientes características:

• Es Impredecible desde el punto de vista estadístico clásico (más de 3 desviaciones típicas según curvas de probabilidad gaussiana) y por tanto inesperado: No había ninguna probabilidad significativa de que sucediera y por tanto sorprende a todo el mundo.

• Tiene efectos considerables: La magnitud de sus efectos ya sean positivos o negativos tienen una gran repercusión, sea en los mercados o en la vida del planeta.

• Después de que suceda tiende a explicarse mediante una serie de razonamientos lógicos que “racionalizan” el evento, de manera que parezca evidente el hecho de que se haya producido (predictibilidad retrospectiva).

Cargados con estas armas conceptuales, vemos que la teoría del Cisne Negro encaja mal como paradigma explicativo en la riada-barrancada provocada por la DANA del pasado 29/10/2024 en la provincia de Valencia de acuerdo con los datos históricos sobre riadas proporcionadas por el geólogo Ortega Gironés (promedio de cuatro riadas extremas cada 100 años), riadas que en opinión de otros autores el calentamiento global que obviamente también afecta al mar Mediterráneo, puede provocar que sean más extremas en caso de DANA.

En otras palabras, no podemos excusarnos en que esta riada sea un suceso fortuito o muy raro que sorprenda a todo el mundo. Además, si ha ocurrido puede volver a ocurrir y tal vez con mayor intensidad, por tanto debemos estar alerta.

Rinocerontes Grises

Veamos otra metáfora que puede aproximarse más a lo sucedido.

La idea del Rinoceronte Gris fue acuñada por la autora Michele Wucker en su obra (“The Gray Rhino: How to Recognize and Act on the Obvious Dangers We Ignore”, 2016) cuya traducción al español sería: “El rinoceronte gris: cómo reconocer y actuar ante los peligros evidentes que ignoramos”.
El Rinoceronte Gris hace referencia a sucesos evidentes, que se pueden ver e intuir que pueden ocurrir en cualquier momento, pero sistemáticamente son ignorados, quizá porque nadie se atreva a enfrentarse a la realidad de su impacto. En palabras de la autora: “Una amenaza altamente probable y de alto impacto: algo que deberíamos ver venir”. Wucker cree que el problema es sistémico: el mundo político y financiero recompensa el pensamiento a corto plazo, y es difícil para las instituciones cambiar rápidamente de rumbo cuando es necesario. Con tantos ejemplos recientes de fallos en la respuesta a amenazas obvias, deberíamos tener una mejor idea de por qué las pasamos por alto, pero los sesgos cognitivos lo dificultan. Wucker explora la negación que nos impide ver las amenazas, el pánico que ocurre cuando no tomamos decisiones a tiempo y las formas de implementar soluciones y tomar medidas reparadoras “después de ser golpeados por el rinoceronte”.

Se trata de una metáfora y concepto diferente pero complementario al del cisne negro. Esta idea fue presentada por la autora y analista política Michele Wucker en el Foro de Davos de 2013. Wucker destaca que muchas veces hay señales claras que anticipan un problema serio, pero las ignoramos. El Rinoceronte Gris son riesgos con alta probabilidad de existencia y generan un gran impacto, pero que solemos silenciarlos. Las crisis muchas veces son advertidas; sin embargo, no necesariamente se toman las decisiones en tiempo y forma que requieren. Algunos ejemplos típicos son los cambios tecnológicos o los desastres ambientales; a pesar de que se los reconoce, no se gestionan con anticipación. Y, cuando se los empieza a admitir, el daño que generan es irreversible, ya es demasiado tarde: vemos el rinoceronte a lo lejos pero no actuamos, quizá pensando que no vendrá a por nosotros y pasará de largo.

Diferencias: Cisne Negro vs. Rinoceronte Gris

En la propia definición de ambos conceptos se puede verificar su diferencia, mientras el Cisne Negro se enmarca en lo inesperado o con muy baja probabilidad de ocurrencia el Rinoceronte Gris muestra la inminencia del suceso y su conocimiento previo.

En palabras de Michele Wucker: “Muchos políticos y economistas, como Alan Greenspan, dijeron: Nadie podía verlo venir (la crisis de 2008). El Cisne Negro no se creó para eso, sino para que estimuláramos nuestra imaginación y fuéramos conscientes de las consecuencias que pueden tener algunos eventos inesperados. Quiero que la gente piense en el Rinoceronte Gris como algo para el futuro. Sabemos a qué problemas podemos enfrentarnos. No conocemos todos los detalles, pero sí algunas cosas.”.

En resumen, la diferencia es que en un situación de Rinoceronte Gris sabemos que va a suceder pero no hacemos nada. Por el contrario, un evento de Cisne Negro es inesperado y nadie lo ve venir, aunque sí imaginar sus consecuencias.

Por otro lado tanto para el Cisne Negro como el Rinoceronte Gris el impacto de la ocurrencia del evento es muy fuerte, suponiendo un cambio importante, un verdadero shock para miles de personas, quizá países incluso. La diferencia de ambos conceptos a parte de su “visualización” inicial se sitúa en la responsabilidad pues en sucesos poco probables es complicado que alguien lidere actuaciones so pena de verse catalogado como visionario o un iluminado, sin embargo eludir la adopción de medidas ante un Rinoceronte Gris no es justificable.

Ahora bien, nos advierte Wucker: En un entorno democrático a veces sucede que tomar decisiones rápidas ante un problema acuciante se convierte en una discusión sobre niveles de competencias y una compleja maraña de reuniones y comités donde lo que más importa es el relato político, el manejo de los tópicos habituales y echar la culpa al adversario (como estamos viendo en la gestión del relato de la Dana del pasado 29/10/2024).

Gestión de Riesgos

Así, pues, desde el análisis de riesgos se podría considerar:

• Para el caso del Cisne Negro nuestras opciones son limitadas pues el hecho de representar eventos “raros” conllevan a que ni siquiera se consideren en el análisis de riesgos. En este punto lo conveniente es aumentar la sensibilidad de los sistemas de emergencia para detectarlos con anticipación y minimizar los impactos negativos: esperar lo mejor, pero prepararse para lo peor.

• Por otra parte, el Rinoceronte Gris conlleva un análisis de riesgos con probabilidades de ocurrencia más elevadas y con una valoración de su impacto importante por lo cual implicarían, en la mayor parte de los casos y dependiendo de la organización de las emergencias definir la delimitación de actuaciones para gestionar los posibles escenarios, sus riesgos e impactos, todo ello considerando además la necesidad de alertas tempranas y velocidad en la toma de decisiones.

Siguiendo a la especialista en gestión de crisis Dra. Jo Robertson en su obra “Cómo gestionar una crisis: una guía de supervivencia para líderes de alto nivel”

• Necesitamos reconfigurar la forma en que realizamos nuestras evaluaciones de riesgos.

• Necesitamos implementar mejores detectores de señales y capacitarlos para que reciban la advertencia adecuada en los oídos correctos.

Gestión de Riesgos: Evaluación

Una evaluación de riesgo convencional busca categorizar los riesgos por probabilidad que ocurrirán en comparación con el impacto de ese evento, luego trazar dónde cae el riesgo en un mapa de calor que podría parecerse a la figura que se muestra a continuación, con diversos matices.

A menudo, debido a la necesidad de reducir el gasto en mitigación, buscamos refinar cuán serios son los riesgos con una mayor categorización para poder identificar mejor el más grave de los riesgos en nuestro mapa de calor, introduciendo matemáticas en la ecuación para que los peores riesgos estén claramente en el rojo. Por ejemplo, un riesgo de baja probabilidad-bajo impacto podría obtener una “puntuación” de evaluación de riesgo de 1. Un riesgo de probabilidad media-impacto medio podría obtener una puntuación de riesgo de 3 y un riesgo de alta probabilidad-alto impacto podría puntuarse a 5, como se muestra a continuación.

Las puntuaciones asignadas anteriormente se encuentran entre las más sencillas. Algunos multiplican la probabilidad por el impacto para obtener una puntuación de riesgo que diferencia aún más los mayores riesgos de los riesgos más moderados. Por ejemplo, en la siguiente escala, una calificación de 25 (para una probabilidad casi segura con una consecuencia grave) claramente superaría la necesidad de mitigar una probabilidad poco probable o incluso rara, incluso si todavía tiene una consecuencia grave porque su puntaje de riesgo es solo 5-10. Nada con lo que molestarse este año, considerando todo, como se muestra en la figura.

A menudo habrá más matices y más recuadros, pero el resultado final suele ser el mismo. Los riesgos que caen en el recuadro superior derecho o recuadros donde residen casi ciertos riesgos extremadamente impactantes son aquellos a los que se dirige la corrección. Aquellos que caen en las casillas de abajo a la izquierda, donde se encuentran los riesgos más raros e insignificantes, simplemente se aceptan porque es poco probable que ocurran. Incluso si lo hicieran, la consecuencia no sería grande, por lo que no es necesario gastar un presupuesto precioso. La mitigación de los riesgos en las otras casillas se encuentra en algún punto intermedio, pero normalmente terminan diferidos a otro año o al menos hasta que los riesgos en el cuadrante superior derecho hayan sido controlados.

Pues bien, la clave según la Dra. Robertson está en hacer visibles los rinocerones grises: Los rinocerontes grises acechan en el cuadrante inferior derecho (alto impacto y baja probabilidad). Serían eventos de grandes consecuencias si ocurrieran, pero parecería poco probable o incluso raro que ocurriera un evento de este tipo este año. Para “sacar a los rinocerontes grises de la hierba alta para que podamos verlos mejor”, debemos dejar de adivinar la probabilidad de que el evento suceda este año. De hecho, ¿por qué calificamos el eje x (probabilidad) en pie de igualdad con el eje y (impacto)? Si disminuimos la importancia del eje de probabilidad y aumentar la importancia del eje de impacto, nuestros rinocerontes grises se convierten en rinocerontes rojos, claramente en necesidad de mitigación, como se muestra a continuación.

Gestión de Riesgos: Detectores de Señales

El segundo componente de por qué no vemos rinocerontes grises es porque es posible que necesitemos instalar mejores detectores de señales y capacitarlos para que reciban las advertencias adecuadas en los oídos correctos: identificar una crisis en aumento antes de que se convierta en una crisis es el último acto de gestión de crisis. Pero la mayoría de las organizaciones no tienen idea de cómo hacer esto.

Gran parte de la incapacidad para identificar un problema en escalada antes de que alcance un nivel de crisis es que la mayoría de las organizaciones abordan la identificación de la crisis con una mentalidad reactiva: Los umbrales para convocar al equipo de crisis de la organización a menudo se centran en la ocurrencia de un cierto nivel de daño (esto mismo es lo que sucedió en la convocatoria del CECOPI -Centro de Coordinación Operativo Integrado- de la Comunidad Valenciana en la tarde del 29/10/2024, cuando las señales de advertencia se conocían desde primera hora de ese día y el daño ya era evidente río y barrancos arriba).

Cuanto más grande sea la organización, más difícil puede ser identificar una circunstancia que se está intensificando (mientras aún se está intensificando en lugar de después de haberla intensificado) e informarla al nivel correcto donde el liderazgo pueda responder rápidamente. Después del hecho, a menudo es bastante fácil reconocer que hubo señales que presagiarían que algo se estaba descarrilando, pero esas señales no llegaron a las personas adecuadas que podrían haber hecho algo al respecto.

Como concluye la Dra. Robertson: En lugar de seguir perpetuando una falsa sensación de seguridad basada en evaluaciones de riesgo que realmente no son más que conjeturas esperanzadoras y pensamientos ilusorios, debemos enfocar a nuestros líderes en verdades incómodas.

Y termina sentenciando: No importa la probabilidad, el impacto es lo que importa.

Conclusiones

Si bien en términos de consecuencias el resultado de ambos eventos Cisne Negro y Rinoceronte Gris es el mismo (sucesos de elevado impacto) la diferencia en términos de gestión es diferente: así como en los Cisnes Negros poco podemos prever aunque sí podemos prepararnos para minimizar sus consecuencias, en los Rinocerontes Grises sí podemos actuar en su prevención y por supuesto en gestionar su impacto con anticipación, porque sabemos con seguridad que ocurrirá.

Por todo ello la primera prioridad es gestionar los riesgos, monitorizarlos en tiempo real y tomar las decisiones rápidas en cuanto las señales alcancen cierto umbral.

Tal vez el quid de la cuestión de lo que pudo fallar en las consecuencias más dramáticas de la Dana del pasado 29/10/2024, la pérdida irreparable de más de doscientas personas, además del daño psicológico y de bienes materiales en miles de hogares, fue no tanto una falta de señales (véase por ejemplo la diferente reacción del alcalde de Utiel de cancelar las clases en los colegios e institutos o la del rector de la Universidad de Valencia haciendo lo mismo ante los avisos y alertas de la AEMET) sino la falta de responsabilidad por inacción y falta de agilidad en toda la cadena de mando de la toma de decisiones a nivel de las autoridades que tenían la competencia para decidir y actuar en consecuencia a las señales.

Una de las enseñanzas de esta pasada riada-barrancada sea poner en cuestión el modelo de toma de decisiones en caso de emergencia (reuniones en el mismo día de la catástrofe), pues lo que sirve para decidir un evento futuro para el que hay tiempo para debatir, no puede ser el mismo modelo para decidir los pasos a dar en una emergencia.

Quizá por ello se debería diseñar sistemas y protocolos que ayudaran a despersonalizar y despolitizar la toma de decisiones en casos de emergencia, tal vez automatizando al máximo ciertas decisiones como alertar a la población y/o siguiendo el principio de subsidiariedad, que la toma de decisiones de alerta a la población pase por los responsables más próximos a la monitorización de las señales sin necesidad de que se esté a la espera de que decidan los líderes políticos, pues, como dice la Dra. Jo Robertson: “En la mayoría de los casos, los líderes políticos no son los mejores detectores de señales”.

Probablemente una alerta lanzada a la población valenciana en la mañana o al mediodía del 29/10/2024 no habría evitado los daños materiales (para los cuales se requiere una actuación de previsión a largo plazo como restringir la construcción en zonas inundables o la realización de obras hidrológicas de mitigación) pero sí habría contribuido eficazmente a salvar muchas vidas.

En definitiva, como dice un proverbio medieval inglés: “Espera lo mejor, prepárate para lo peor... y acepta lo que venga”.



Anexo: El Riesgo de Cola Gruesa

El riesgo de cola gruesa, según el profesor Nicholas Taleb, se refiere a la probabilidad de eventos extremos o raros que tienen un impacto significativo en los resultados, pero que son difíciles de predecir utilizando modelos estadísticos convencionales que utilizan la distribución normal o de Gauss. Taleb utiliza el término “cola gruesa” para describir la parte de la distribución de probabilidad que representa estos eventos poco comunes, que se encuentran en los extremos de la curva de Gauss, cinco o más desviaciones típicas o también llamados “eventos 5-Sigma”, como se muestran en la distribuciones de Cauchy-Lorentz (por ejemplo en hidrología, se utiliza la distribución de Cauchy-Lorentz para analizar variables aleatorias como valores máximos de la precipitación y la descarga de ríos, además para describir épocas de sequía, mucho más apropiada que la distribución normal o de Gauss).

Distribución curva de Gauss (azul) vs. Cauchy-Lorentz (rojo)
En su obra “El cisne negro”, Nicholas Taleb argumenta que muchas de las crisis y eventos importantes en la historia no pueden ser anticipados a través de análisis tradicionales, ya que estos tienden a centrarse en eventos más comunes y no consideran adecuadamente la posibilidad de eventos extremos. El riesgo de cola gruesa destaca la importancia de estar preparado para lo inesperado y de reconocer que los modelos basados en datos históricos pueden subestimar la probabilidad de estos eventos raros, lo que puede llevar a consecuencias desastrosas.

En resumen, el riesgo de cola gruesa se refiere a la vulnerabilidad ante eventos extremos que, aunque poco probables, pueden tener un impacto desproporcionado en sistemas financieros, económicos y sociales.

Taleb termina con un refrán que da que pensar: “Si quieres entrar en pánico, entra en pánico ahora (cuando no es caro y aún hay tiempo)”



Para saber más:

Riadas, gotas frías y DANAs: breve recorrido por la desmemoria y los despropósitos climáticos

El Cisne Negro de Nassim Nicholas Taleb

La mujer que enseñó a Xi Jinping a torear un rinoceronte gris: "Ven diferente los riesgos"

¿Cómo ver rinocerontes grises?

Probability and Risk in the Real World

Statistical Consequences of Fat Tails

Distribución de Cola Gruesa

Against Value-at-Risk: Nassim Taleb Replies to Philippe Jorion

What Does Normal Stock Market Volatility Look Like?

Caos y Fractales en los Mercados


19 de junio de 2022

Rusia-Ucrania: cuando la guerra es el equilibrio

Hace muchos años, hacia el final de la guerra de Bosnia-Herzegovina y en unas charlas en el ámbito académico sobre la “Aplicación de la Ciencia de Sistemas en la Guerra de Bosnia” auspiciado por la Universidad de Valencia, recuerdo a un especialista en aquel conflicto que pronunció unas palabras que me quedaron grabadas: “Debemos entender que hay conflictos humanos que son inevitables y a veces la guerra es la única salida para resolverlos: no podemos resolver las guerras despachándolas como un acto irracional que debemos evitar a toda costa. Si eso hacemos seguiremos sin comprender su génesis multifactorial y su resolución (óptima, racional y multifactorial)”.

Ciertamente, la guerra, en tanto acto humano execrable tiene su aspecto irracional, pero si rascamos un poco más en la superficie podemos llegar a comprender que existen aspectos racionales en la toma de decisiones políticas y militares que dan como resultado el movimiento de tropas, las estrategias ofensivas y defensivas de cada bando, las alianzas con terceros, etc.

De todo esto y más me he referido en varias ocasiones en las múltiples aplicaciones de la “Teoría de Juegos” en este Blog y en artículos anteriores que, a pesar de su nombre, no tiene que ver con los juegos de azar o de entretenimiento, sino con las interacciones entre las personas que están implicadas en situaciones generalmente no cooperativas, esto es, de confrontación de pareceres, luchas y decisiones. Y como la guerra tiene un aspecto racional, la “Teoría de Juegos” en tanto que medio para analizar la racionalidad de las situaciones conflictivas, es una herramienta eficaz para comprender las interacciones y anticipar su posible evolución.

El juego Rusia-Ucrania en forma estratégica

En la “Teoría de Juegos”, la forma estratégica (o forma normal) es una forma de describir un juego usando una matriz. El juego se define exhibiendo en cada lado de la matriz los diferentes jugadores, cada estrategia o elección que pueden hacer, y conjuntos de pagos (o valores) que recibirán cada uno para una estrategia determinada. En este caso los valores que he elegido son en forma de ordenación de mayor a menor, de acuerdo con las interacciones entre las decisiones del adversario (Si A decide N) y las respuestas del contrario (Entonces B responderá P). Evidentemente los valores son subjetivos en función de lo que he podido leer del conflicto, de su génesis y su posible evolución.

Veamos el caso de la matriz de pagos desde el punto de vista de Ucrania:

El razonamiento subyacente para la ordenación de estrategias de Ucrania es el siguiente (me pongo en la situación de Ucrania):

Si Rusia me amenaza con la guerra, yo responderé con la guerra (valor 3). Si Rusia me ofrece un pacto, en tanto que ya me ha invadido, no me fiaré si no muestra algo creíble como una retirada y responderé con la continuación de la guerra (Ucrania también puede interpretar ese ofrecimiento ruso como señal de debilidad y por tanto responder con la guerra con más motivo) (valor 2); si Rusia me ofrece un pacto sincero y yo también quiero un pacto sincero, entonces puede haber pacto (valor 1); por último, si Rusia sigue con la guerra, no voy a ofrecerle mi rendición ofreciéndole un pacto (valor 0).

Veamos el caso de la matriz de pagos desde el punto de vista de Rusia:

El razonamiento subyacente para la ordenación de estrategias de Rusia es el siguiente (me pongo en la situación de Rusia):

Si Ucrania sigue con la guerra (apoyándose directa o indirectamente en la OTAN) yo seguiré con la guerra (valor 3). Si Ucrania me ofrece un pacto, que creo sincero y puedo interpretar como que he ganado no solo a Ucrania sino también a la OTAN, entonces responderé con un pacto (Rusia también puede interpretar ese ofrecimiento ucranio como señal de debilidad y por tanto responder con un pacto para no alargar mi propia sangría) (valor 2); si Ucrania me ofrece un pacto pero no lo considero sincero del todo en tanto que la OTAN no está a favor de ese pacto, entonces significa que debo seguir con la guerra (valor 1); por último, si Ucrania sigue con la guerra, no voy a ofrecerle mi rendición ofreciéndole un pacto (valor 0).

Y ahora veamos la matriz de pagos conjunta:

¿Qué tenemos aquí?

Por de pronto una estrategia dominante por cada lado: si sumamos los valores verticales (Rusia) y horizontales (Ucrania) observaremos que independientemente de lo que haga el otro, la guerra es la estrategia dominante en ambos. A su vez, también existen dos estrategias dominadas: aquellas en el que cada lado obtiene un valor cero mientras que el otro obtiene algún valor. Por tanto son estrategias que racionalmente cada lado va a rechazar. Teniendo estas consideraciones, volvamos a pintar la matriz de pagos marcando como imposibles o no deseadas las estrategias dominadas:

¿Qué tenemos aquí?

Efectivamente, aquí tenemos de nuevo nuestro querido Equilibrio de Nash: «Si hay un conjunto de estrategias con la propiedad de que ningún jugador puede beneficiarse cambiando su estrategia mientras que los otros jugadores no alteren la suya, entonces ese conjunto de estrategias y sus beneficios correspondientes constituyen un equilibrio». John Forbes Nash. Non-cooperative games (1950). La noción de equilibrio en la “Teoría de Juegos” implica estabilidad, es decir, sabiendo lo que le adversario está haciendo, la estrategia del contrario (o contrarios) el Equilibrio de Nash es la mejor posible y a su vez el adversario razonará del mismo modo y así ad infinitum. Claro está que en este caso también habría otro equilibrio posible, en el cuadro inferior derecho, pero hoy por hoy de menor valor estratégico para ambas partes, pero para ello, como he argumentado anteriormente, es necesario un reconocimiento de sinceridad en la oferta y acogida del pacto, de lo contrario, los tambores de guerra seguirán: como ven, todo muy racional: sí, como afirmo en el título, la guerra es el equilibrio en este caso.

¿Y ya está? ¿La “Teoría de Juegos” no puede aportar alguna solución a esta guerra?

Tal como están las cosas en este guerra, no hay posibilidad de que Rusia o Ucrania, por sí solos, puedan amenazar con ninguna alteración de su estrategia. Es decir, el “Juego de amenazas” no sirve ya. Podría haber sido utilizado al principio, como por ejemplo amenazar con invadir Ucrania si no hay una declaración formal de no adhesión a la OTAN. Ese tiempo ya pasó. En todo caso se puede amenazar con el “Juego de ir a peor”, por ejemplo con el uso de armamento no convencional, sea de largo alcance por parte de Ucrania (armamento facilitado por la OTAN), sea táctico-nuclear por parte de Rusia.

Si descartamos este escenario por no creíble (aunque posible), nos quedarían dos posibilidades más realistas en el ámbito de la “Teoría de Juegos”, a saber: (1) agotar el actual Equilibrio de Nash con una larga guerra que terminaría cuando uno de los dos bandos se diera por vencido pero sin publicidad, no tanto por perder una batalla crucial, que no es el caso en esta guerra de posiciones, más propia de guerra de guerrillas urbanas. En este supuesto se podría dar un equilibrio estable siempre y cuando el que se diera por vencido ocultase su condición ante el adversario, que no debería ostentar una victoria mediática para no humillar al vencido. Es decir, debería existir una diplomacia oculta o clandestina trabajando en este escenario para llegar a un cese del alto el fuego sin vencedores ni vencidos, pero con un acuerdo duradero. Este detalle de la no humillación es importante porque de no lograrse, la guerra puede continuar meses o años.

La otra posibilidad caería en el ámbito de los llamados (2) “Juegos repetidos”, esto es, que la guerra terminase provisionalmente, incluso con un alto el fuego formal auspiciado por la ONU y con todas las garantías de verificación, pero no sería más que una ilusión momentánea en espera de un rearme de las fuerzas y una redefinición de las estrategias en espera del siguiente turno del juego, mediante un nuevo juego que podría tener su plasmación, no necesariamente en una continuación de la guerra tal como la conocemos hasta ahora, sino una continuación de la confrontación mediante otros medios, tal vez menos sangrientos pero no por ello menos agresivos.

Y sí, no soy optimista en el resultado final de esta guerra: no creo que nadie descarrile con decisiones irracionales, pero tampoco creo que se den las condiciones globales, geopolíticas, geoestratégicas y geoeconómicas para una solución (óptima, racional y multifactorial) estable. La suerte está echada.

Para saber más: Pensar estratégicamente (1993). El arte de la estrategia (2010). Avinash K. Dixit y Barry J. Nalebuff. Antoni Bosch Editores. Teoría de Juegos (1993). Ken Binmore. McGraw-Hill. Teoría de Juegos. Una breve introducción (2007). Ken Binmore. Alianza Editorial. Un primer curso de Teoría de Juegos (2003). Robert Gibbons. Antoni Bosch Editores. Economía y Juegos (2000). Fernando Vega Redondo. Antoni Bosch Editores. La Teoría de Juegos (2012). Robert Aumann. Ediciones Sígueme. El Arte de la Manipulación Política (1990). Josep M. Colomer. Editorial Anagrama.

Equilibrio de Nash y Pensamiento Sistémico


8 de diciembre de 2021

Ómicron: ¿Un Equilibrio de Nash entre SARS-CoV-2 y Humanos?

“Será muy difícil, al menos en un futuro próximo y quizás nunca, eliminar este virus altamente transmisible. Dado que este enemigo no puede ser derrotado, todos tendríamos más posibilidades de sobrevivir si estuviera armado con una honda en lugar de un cañón” Anthony Fauci, asesor inmunólogo de la Casa Blanca.

Sin nombrarlo, Fauci estaba reflejando en ese deseo el sentido profundo del Equilibrio de Nash: “Para obtener el mejor resultado, cada uno debe hacer lo mejor para sí mismo (Adam Smith) y para el grupo (John Nash)”

Algunos titulares recientes

La llegada de ómicron, la nueva variante de coronavirus identificada por primera vez en Botswana y Sudáfrica y ahora presente en Europa, en Estados Unidos y en muchos otros países del mundo, ha sido recibida con gran ansiedad y miedo.

La Organización Mundial de la Salud identificó inmediatamente a ómicron como una variante “preocupante”

La verdad es que la llegada de ómicron no es necesariamente una mala noticia. El efecto de ómicron en el curso de la pandemia dependerá de tres de sus características: su transmisibilidad, su capacidad para evadir las defensas inmunitarias inducidas por la vacuna y su virulencia, es decir, si provocará una enfermedad más grave. Si se descubriera que ómicron se transmite fácilmente de un huésped a otro, evadiendo los anticuerpos neutralizantes y causando una enfermedad grave, la situación sería realmente compleja y las consecuencias podrían ser nefastas.

"Pero si ómicron resulta ser una variante súper contagiosa que causa síntomas leves, entonces también podría ser una buena noticia, justo a tiempo para Navidad", escribe Rachel Gutman en The Atlantic.

¿La variante es más contagiosa o más hábil evadiendo nuestras defensas? Los datos de Sudáfrica indican que se extiende fácilmente, pero eso puede explicarse de dos maneras, como dice el epidemiólogo Adam Kucharski: “Porque es inherentemente más transmisible, y/o porque reinfecta más fácilmente”.

Una opción es que la ómicron sea más transmisible que la delta, igual que la delta lo era más que sus antecesoras (el Ro de la delta es doble: un infectado haciendo vida normal, en un país sin inmunes, infectaba de media a seis personas en lugar de tres). La alternativa es que la ómicron sea hábil infectando a gente inmunizada. Esa sería su ventaja: estaría infectando gente a la que la delta no es capaz de infectar. La delta sería más transmisible si no hubiese nadie inmune, pero ahora avanza mermada porque encuentra menos susceptibles. Estas dos opciones no son excluyentes

Ninguna de las dos alternativas está confirmada, aunque cobra fuerza la segunda hipótesis. La Organización Mundial de la Salud (OMS) destacó un estudio con evidencias de que con la ómicron hay más reinfecciones. Eso sugiere que la variante escapa a la inmunidad natural, al menos parcialmente. Para confirmarlo harán falta una o dos semanas.

Un esquema antropocéntrico que al virus le importa un bledo

Ómicron o cualquier otra variante del Coronavirus SARS-CoV-2 se enfrenta en tanto que entidad viviente al reto de propagarse y replicarse a gran escala pero en tanto que virus que necesita de un “organismo huésped” [1] (humano o animal) para alcanzar ese objetivo debe “modular” dos dimensiones clave de su “existencia”: ser lo suficientemente transmisible (incluso en condiciones de entorpecimiento como son la prevención, vacunas, cuarentenas) pero sin ser lo suficientemente agresivo porque “matar al huésped” le impide alcanzar su “objetivo máximo de supremacía y permanencia” al reducir a sus potenciales transmisores. Este objetivo, obviamente, el virus no lo consigue “pensando o reflexionando estratégicamente (como harían los humanos) sino mutando, al azar, continuamente, hasta encontrar una mutación exitosa”.

Para entender mejor este concepto y aunque sea mediante un criterio tan antropocéntrico como “favorable o desfavorable” (un criterio humano que al virus se la trae al pairo, pero que es útil para intuir la probable evolución de la variante), veamos el impacto de estas dos dimensiones del virus y cómo nos afectan en cuanto humanos y cómo le afecta al virus, entendiendo que su objetivo es alcanzar el mayor número de replicaciones/infecciones entre los huéspedes (alta transmisibilidad) y no tanto su mayor gravedad (algo que no es ventajoso a largo plazo, porque el organismo huésped, los humanos, pueden desarrollar estrategias defensivas, además de la inmunidad natural, como prevención, vacunas y cuarentenas, amén de que una elevada gravedad puede “matar al huésped” y en consecuencia reducir la transmisibilidad total y con ello la replicación/infecciosidad total) [2].


Cuatro escenarios y un equilibrio de Nash (duradero)

De este “Juego” entre humanos y virus se desprende que existe un “equilibrio de Nash” favorable para ambos [3]: la convivencia pacífica con los humanos, convirtiéndose en un virus de alta transmisibilidad pero de baja gravedad en sus infecciones. ¿Y si ómicron no se aviene a este equilibrio? No pasará nada más que el virus deberá adaptarse y evolucionar hasta encontrar una mutación que logre un “equilibrio de Nash” duradero: el mejor movimiento posible de la enésima variante teniendo en cuenta los movimientos de los humanos (prevención, vacunas, cuarentenas).

Escenario A: Favorable para ómicron, Favorable para humanos. Convivencia pacífica, como otros coronavirus (resfriado común): Dado que ómicron no puede destruir a los humanos y viceversa, ómicron sobrevive permitiendo que sus huéspedes humanos, incluso vacunados o inmunizados frente a otras variantes (reinfecciones), sobrevivan con síntomas leves, convirtiéndose en variante predominante, mientras que a los humanos, con una variante poco agresiva puede que no les compense desarrollar vacunas o aplicar prevenciones estrictas o cuarentenas forzosas, al igual que ocurre con el catarro.

Escenario B: Favorable (temporalmente) para ómicron, Desfavorable (temporalmente) para humanos. Convivencia violenta pero temporal por sobrerreacción humana (prevención, vacunas, cuarentenas) y en espera de otra variante predominante menos agresiva que sustituya a ómicron. La mayor agresividad de ómicron impide que sus huéspedes humanos, vacunados o no, actúen de transmisores (por muerte, prevención, vacunas o cuarentenas forzosas), reduciendo su predominio ante otras variantes más transmisibles y menos agresivas.

Escenario C: Desfavorable para ómicron, Favorable para humanos. Escenario ideal para humanos, indeseable para el virus. Una baja transmisibilidad y una infecciosidad leve, sea por efecto de vacunas o no, impide que la variante sea predominante, terminando reducida a casos aislados.

Escenario D: Desfavorable para ómicron y para humanos. Escenario indeseable para humanos y el virus. Una baja transmisibilidad unida a una alta agresividad, incluso con vacunados o inmunizados frente a otras variantes, impide que la variante sea predominante y termine por extinguirse al “matar al huésped” o provocar una sobrerreación humana (confinamiento de casos) con el mismo resultado.


Dado lo rápido que “aprende” el SARS-CoV-2 puede que ómicron sea uno de sus últimos movimientos para alcanzar un “equilibrio de Nash” favorable para ambos: la convivencia pacífica con los humanos, convirtiéndose en un virus de alta transmisibilidad pero de baja gravedad en sus infecciones. Esperemos.


Notas

[1] En biología se usa “huésped” en sentido de “anfitrión” por contaminación del inglés (host).

[2] Respecto a variantes anteriores como Alfa, Beta o Delta, así como a la cepa original de Wuhan.

[3] En Teoría de Juegos, un equilibrio es una solución al juego estratégico entre dos o más partes en interacción. En puridad existen dos equilibrios de Nash en este “Juego entre SARS-CoV-2 y Humanos” (A y B): como en el “dilema del prisionero” (confesar o no confesar) o en la conducción por carretera (por el lado derecho, en la mayoría de los países, por el lado izquierdo, en unos pocos países): todo depende, a falta de normas establecidas, de la respuesta ante lo que haga el otro y en reciprocidad. En este caso, como dice Fauci, “si (ómicron) estuviera armado con una honda en lugar de un cañón”, es decir si aunque fuera más transmisible fuera menos agresivo (Escenario A) estaríamos en un equilibrio interesante, pero si ómicron además de ser más transmisible fuera más agresivo, entonces (Escenario B) no tendríamos otra que reaccionar con las medidas conocidas, redoblándolas (mayor prevención, cuarentenas masivas y nuevas generaciones de vacunas que bloqueen la transmisión), para que el virus, a su vez explote su capacidad evolutiva para encontrar un modo de ser transmisible sin provocar nuestra sobrerreacción ante sus variantes más agresivas. No obstante, también es cierto que en cualquier juego estratégico se pueden emitir señales que permitan encauzar el juego de manera que beneficie al conjunto, incluso aunque con ese otro no exista la posibilidad de dialogar: la sobrerreacción humana hacia las variantes más agresivas puede ayudar a “orientar” al virus para comportarse de una manera civilizada (en sentido figurado) para con nuestros intereses como humanos y viceversa: un virus muy atenuado en su agresividad puede relajar la respuesta humana (menos incentivos para vacunas, menos presión para la prevención o confinamientos), permitiendo con ello que el virus se transmita con más libertad “a cambio” de una menor agresividad. En este sentido, los humanos harían bien en “pensar por los dos”, yendo un paso por delante del virus, en lugar de un paso (o dos) por detrás para lograr domesticar al SARS-CoV-2.

Definición formal del Equilibrio de Nash: «Si hay un conjunto de estrategias con la propiedad de que ningún jugador puede beneficiarse cambiando su estrategia mientras que los otros jugadores no alteren la suya, entonces ese conjunto de estrategias y sus beneficios correspondientes constituyen un equilibrio». John Forbes Nash. Non-cooperative games (1950).


Para saber más: Pensar estratégicamente (1993). El arte de la estrategia (2010). Avinash K. Dixit y Barry J. Nalebuff. Antoni Bosch Editores

Equilibrio de Nash y Pensamiento Sistémico

La nueva variante del coronavirus detectada en Sudáfrica acumula más de 30 mutaciones inquietantes. Manuel Ansede. El País, 26 noviembre 2021

¿Por qué es inquietante la nueva variante de la covid? Los datos que tenemos de la ómicron y los que no. Kiko Llaneras. El País, 4 diciembre 2021

¿Y si ómicron fuera la variante que la ciencia estaba esperando? Estos son los escenarios que puede provocar. Cristina Marrone. Corriere della Sera. El Mundo, 5 diciembre 2021

Epidemiological update: Omicron variant of concern (VOC). European Centre for Disease Prevention and Control, 2 diciembre 2021

31 de diciembre de 2020

Del Rollback a Prigogine, pasando por la marmota Phil y Einstein: De lo reversible a lo irreversible

“La vida sólo puede ser entendida mirando hacia atrás, pero tiene que ser vivida hacia delante”. El filósofo danés Søren Kierkegaard ya intuía el concepto de “flecha del tiempo” del astrofísico británico Arthur Eddington y de las “estructuras disipativas” del físico ruso-belga Ilya Prigogine, premio Nobel de Química en 1977. Pero, antes, vayamos hacia atrás en este viaje alegórico sobre las implicaciones del concepto del tiempo, que no sobre viajes en el tiempo, que es algo muy distinto.

En las modernas bases de datos, existe una tecnología muy interesante que nos sirve de metáfora sobre el tiempo, el determinismo y la reversibilidad de las acciones. Esta tecnología se conoce como rollback, reversión o flagare es una operación que devuelve a la base de datos a algún estado previo. Las reversiones son importantes para la integridad de la base de datos, a causa de que significan que la base de datos puede ser restaurada a una copia limpia incluso después de que se han realizado operaciones erróneas. Son cruciales para la recuperación ante errores de un servidor de base de datos, como por ejemplo un cuelgue del equipo. Al realizar una reversión cualquier transacción que estuviera activa en el tiempo del cuelgue es revertida y la base de datos se ve restaurada a un estado consistente (Wikipedia).

Un ejemplo trivial de esta tecnología consistiría en realizar el cálculo de varias facturas y al finalizar la última existiera un error grave, pongamos una división por cero. El sistema, automáticamente, provocaría una reversión de todo lo realizado desde el inicio de la transacción (o desde la última operación COMMIT o de actualización) hasta la aparicion del error, devolviendo al sistema al estado previo al inicio de la transacción, a la espera de que el usuario resuelva el error. Estrictamente hablando no es un “viaje en el tiempo”, sino un deshacer lo hecho, como cuando escribimos una carta manuscrita y al darnos cuenta de un error importante en el sentido del texto, en vez de realizar una tachadura, reiniciamos la carta desde el principio.

El mecanismo del rollback es tal que de hacer caso omiso, no resolverlo y volverse a ejecutar la transacción, el sistema volverá ha repetir la secuencia anterior, tantas veces como el obcecado usuario ejecute la transacción sin resolver el error, hasta que el usuario o el administrador de la base de datos resuelva el problema que provoca la reversión. Es decir, mientras no se resuelva el problema, el sistema “entrará en bucle” en tanto que sistema determinista que es: el rollback funcionará a la perfeccción, pero no saldrá de ese bucle y, probablemente (Nota para algoritmos de Machine Learning) el sistema tampoco podrá resolver el problema por sí mismo, máxime si el origen no es de datos sino de la propia secuencia de programación. Este rollback o reversión también lo tenemos, a pequeña escala, disponible en las aplicaciones más populares de tratamiento de textos o de hojas de cálculo, haciendo más fácil el uso de las mismas.

Esta tecnología del Rollback me hizo recordar la conocida comedia romántica Groundhog Day (Harold Ramis, 1993) protagonizada por un Bill Murray en estado de gracia y estrenada en España con el título de Atrapado en el tiempo que nos cuenta la historia de Phil, el hombre del tiempo de una cadena de televisión, que va un año más a la localidad de Punxstawnwey (Pennsylvania), a cubrir la información del festival del Día de la Marmota. En el viaje de regreso, Phil y su equipo se ven sorprendidos por una tormenta que los obliga a regresar a la pequeña ciudad. A la mañana siguiente, al despertarse, comprueba atónito que comienza otra vez el Día de la Marmota (Filmaffinity).

En realidad, “El día de la marmota” no es un Rollback ni un sistema determinista estricto, pues Phil, el protagonista, no vuelve exactamente a un “estado previo” sin más y es el único que al parecer escapa al determinismo. Regresa al pasado, como todos los demás, marmota incluida, pero conservando la memoria de lo sucedido, no así para todas las demás personas ni para la naturaleza, marmota incluida, que siguen ancladas en su determinismo. Esto le otorga una ventaja asimétrica respecto a las demás personas y respecto a la naturaleza: conociendo lo que va a suceder en cada situación, tiene una oportunidad (en cada bucle temporal) de depurar y refinar sus respuestas y afinarlas para conseguir algún objetivo, en este caso conquistar a la chica de la película, interpretada por la actriz Andie MacDowell. Es decir, “El día de la marmota” es un Rollback para todos, incluida la naturaleza, pero no para el protagonista, que tiene tantas “oportunidades de mejora” o de “ensayo y error” como bucles temporales de retorno al estado inicial tiene.

En esta línea, Einstein sostenía que el tiempo era una ilusión, una persistente ilusión. En una carta a la viuda de su amigo ingeniero Michele Besso, Einstein sostiene lo siguiente: «Michele (Besso) se me ha adelantado en dejar este extraño mundo. Es algo sin importancia. Para nosotros, físicos convencidos, la distinción entre pasado, presente y futuro es sólo una ilusión, por persistente que ésta sea». Decía Einstein y así lo demuestra su teoría de la relatividad especial, que para un fotón el tiempo no existe: un viaje a través del universo se realiza en un sólo instante, porque el tiempo depende de la velocidad a la que se viaje, y como no hay nada más rápido que la velocidad de la luz (su sistema de referencia es él mismo), el tiempo, para un fotón se detiene, no existe, aunque para un observador externo como nosotros podamos medir y cuantificar en una relación de Km/seg.

El prototipo de la física clásica es la mecánica clásica, el estudio del movimiento, la descripción de trayectorias que trasladan un punto de la posición A a la posición B. Una de las propiedades básicas de la descriptiva dinámica es su carácter reversible y determinista. Dadas unas condiciones iniciales apropiadas, podemos predecir con exactitud la trayectoria. Además, la dirección del tiempo no desempeña papel alguno. Predicción y retropredicción son idénticas. Hasta cierto punto, la situación es la misma en física cuántica. En ella ya no se habla de trayectorias, sino de funciones de onda. También aquí la función de onda evoluciona con arreglo a leyes reversibles deterministas. Como consecuencia, el universo aparece como un vasto autómata. Como nos recuerda Prigogine, para Einstein, el tiempo, en el sentido de tiempo direccional, de irreversibilidad, era una ilusión.

A partir del surgimiento de la mecánica cuántica, se cree que los procesos físicos a nivel microscópico son en su mayor parte temporalmente simétricos, lo que sugiere que las afirmaciones teóricas que los describen serán verdaderas si la dirección del tiempo es reversible. En el plano macroscópico sucede todo lo contrario, ya que existe una dirección clara en la “flecha del tiempo”, del pasado al futuro (el vaso de cristal que cae de la mesa se rompe contra el suelo, sin volver a recomponerse nunca sobre la mesa). Nota: El ejemplo del vaso que se rompe encontramos, además, otra asimetría interesante: necesitamos muchísima información para recomponer el vaso roto (volver a pegar sus partes) que para fabricar un nuevo vaso. La “flecha del tiempo”, pues, estaría representada por cualquier cosa que exhibiese dicha asimetría temporal. O, en otras palabras, en el plano macroscópico, o visible, el tiempo marcha siempre hacia delante, mientras que en el microscópico, o de las partículas elementales, puede hacerlo igualmente hacia atrás.

Así las cosas, parece que tanto el Rollback de las bases de datos como “El día de la marmota” dan la razón a esta concepción reversible del tiempo de Einstein y de las leyes de la física... pero, ¿en realidad esto es así en la vida cotidiana? ¿las acciones y decisiones son reversibles? ¿podemos darle al botón de deshacer para revertir nuestras acciones y decisiones del pasado? El sentido común y el consenso cotidiano dan a entender que la irreversibilidad es la principal característica de la vida, que las cosas que nos suceden las percibimos de acuerdo a un reloj interno, la “flecha del tiempo”.

En efecto, Eddington decía: Dibujemos una flecha del tiempo arbitrariamente. Si al seguir su curso encontramos más y más elementos aleatorios en el estado del universo, en tal caso la flecha está apuntando al futuro; si, por el contrario, el elemento aleatorio disminuye, la flecha apuntará al pasado. He aquí la única distinción admitida por la física. Esto se sigue necesariamente de nuestra argumentación principal: la introducción de aleatoriedad es la única cosa que no puede ser deshecha. Emplearé la expresión “flecha del tiempo” para describir esta propiedad unidireccional del tiempo que no tiene su par en el espacio. Podemos sustituir aleatorio por entrópico, es decir, por un aumento del desorden.

Hasta la llegada de la segunda ley de la termodinámica (La entropía siempre aumenta), todas las ecuaciones mecánicas (por ejemplo, las leyes de Newton o las de la mecánica cuántica) funcionan tanto si el tiempo va hacia delante como hacia atrás. Es decir, para la mayor parte de las ecuaciones en física, no hay diferencia entre ir hacia adelante o hacia atrás en el tiempo.

Y, en efecto, la segunda ley de la termodinámica es la única evidencia que tenemos sobre qué es el tiempo desde el punto de vista de la física en el plano macroscópico. Con un ejemplo práctico se entenderá: si tengo sendas fotos del universo o de cualquier sistema macroscópico en dos instantes de tiempo distintos, y mido su entropía, el más antiguo tiene la entropía más baja. Lo mismo ocurre en el ciclo de la vida de los sistemas biológicos, algo que no hace falta describir por otra parte. Por tanto, la segunda ley de la termodinámica formula la distinción entre procesos reversibles e irreversibles. Con esta distinción, se introduce una dirección privilegiada en el tiempo. Para expresar cualitativamente esta distinción, se introduce una nueva función: la «entropía» (entropía, en griego, significa evolución, nos recuerda Prigogine). La entropía, a diferencia de la energía, no se conserva. La característica fundamental de la producción de entropía es su identificación con los procesos irreversibles. La segunda ley de la termodinámica asume que la producción de entropía es positiva y consecuencia directa de la irreversibilidad de los procesos. La entropía es una magnitud muy especial. Por la primera ley sabemos que la energía se conserva. Por el contrario, la producción de entropía sólo puede ser positiva, o cero. Por lo tanto, el segundo principio encarna una ley universal de la evolución macroscópica, ya que la cantidad de entropía perteneciente al sistema y a su entorno sólo puede aumentar con el tiempo.

Así, afirmará Prigogine: “Lo artificial es determinista y reversible. Lo natural contiene elementos esenciales de azar e irreversibilidad. La irreversibilidad, tal como está implícita en la teoría de Darwin, es una propiedad aún mayor del azar. Yo lo encuentro natural, porque ¿qué puede significar irreversibilidad dentro de un concepto determinista del universo en el que el mañana ya está potencialmente en el hoy? La irreversibilidad presupone un universo en el que hay limitaciones para la predicción del futuro. Quiero insistir de nuevo, en concordancia con el espíritu de esta explicación, en que la irreversibilidad no es una propiedad universal . Sin embargo, el mundo en conjunto parece pertenecer a esos complejos sistemas de azar intrínseco para los que la irreversibilidad es significativa, y es a esta categoría de sistemas con ruptura de simetrías temporales a la que pertenecen todos los fenómenos vitales y, por consiguiente, la existencia humana. Suele decirse que la vida produce vida, pero nosotros vemos la vida como transmisora de irreversibilidad; la duración originando duración.”

Tradicionalmente la termodinámica se centraba en el estudio de procesos en equilibrio en los cuales el determinismo funciona correctamente. La reversibilidad y el orden definen dichos procesos. Sin embargo, Prigogine observa que lejos de la situación de equilibrio aparecen espontáneamente nuevos tipos de estructuras. Del caos surgen estructuras ordenadas que exigen un aporte de energía para mantenerse, que no mantienen relaciones lineales y que no son posibles de predecir con exactitud. Cercano al punto en el que se organizan “estructuras disipativas” se observan grandes fluctuaciones que en lugar de amortiguarse pueden llegar a expandirse por todo el sistema llevándole a nuevas situaciones que son cualitativamente muy diferentes de las que se encuentran cerca del equilibrio. La termodinámica muestra cómo los sistemas capaces de escaparse del determinismo tienen que situarse lejos del equilibrio. Hay que distinguir, por ello, condiciones del equilibrio, condiciones del no-equilibrio, proceso que conduce de uno a otro y umbral que separa a ambos.

Puede verse en la figura que en un principio se tienen unas condiciones de equilibrio (sean cuales sean éstas) en el que se producen unas fluctuaciones de dichas condiciones que con el paso del tiempo se amortiguan. Si se va aportando energía las fluctuaciones van siendo más grandes pero el sistema aún consigue amortiguarlas. Hasta que llega un momento en el que un umbral se sobrepasa. La fluctuación ya no se amortigua sino que se estabiliza en un estado alejado del primitivo equilibrio pero igualmente estable mientras continúe el aporte de energía: se ha formado una “estructura disipativa”.

A lo largo de su evolución el sistema puede colocarse en regiones estable o inestables. En las estables dominarán las leyes deterministas. En las inestables, cerca de los puntos de bifurcación, el sistema elige entre diversos futuros posibles. Las fluctuaciones que son variaciones al azar jugarán un papel importante. Los puntos de bifurcación que las matemáticas describen son asimilables a los niveles de umbral a partir de los cuales se generan “estructuras disipativas”.

Un interesante ejemplo de formaciónde bifurcaciones nos lo da la actividad de las hormigas. Prigogine ha utilizado con frecuencia a las hormigas para ilustrar sus ideas acerca de las “estructuras disipativas” y el azar. El inmenso número de unidades que componen el hormiguero le hacen asimilable al número de moléculas que componen una reacción. Hay un sencillo experimento que muestra la formación de una estructura disipativa. En un recipiente se colocan unas pocas hormigas y en otro una fuente de alimento. El hormiguero y la fuente de alimento están conectados por dos agujeros iguales dispuestos simétricamente respecto al hormiguero. Con ello se posibilita la formación de dos rutas alternativas iguales. Cuando se utiliza un número pequeño de hormigas la probabilidad de que utilicen una u otra vía es del 50%.

Pero si se aumenta el número de hormigas llega un momento en el que la probabilidad de que utilicen una sola ruta en detrimento de la otra es muy grande. Cerca del punto de bifurcación se producen fluctuaciones muy grandes de la población de hormigas que utiliza preferentemente una ruta. Más allá del punto de bifurcación más del 90% de las hormigas utiliza sólo una de las rutas (A o B).

En los estados estables y en los inestables se dan fluctuaciones que alejan al sistema del equilibrio. En realidad Prigogine considera las “estructuras disipativas” como fluctuaciones gigantes mantenidas por flujos de materia y energía. Ocurre que una vez que se forman estas fluctuaciones más allá del punto de bifurcación son estables frente a otras perturbaciones. Cerca de los puntos de bifurcación las fluctuaciones son grandes, anormalmente grandes. Una de las características de las situaciones de cambio es la presencia de estas grandes fluctuaciones. Al principio una fluctuación no domina todo el sistema. Se establece primero en una región limitada. Una vez que se alcanza un valor crítico se puede expandir a todo el sistema. Es un fenómeno conocido como mediación.

Lejos del equilibrio la fluctuación está determinada por la dimensión de la zona fluctuante. Esta zona tiende a expandirse con el aporte de energía que recibe el sistema, pero su contexto tiende a amortiguarla. Si sobrepasa el punto de bifurcación se extenderá a todo el sistema, de lo contrario desaparecerá. Las fluctuaciones se dan constantemente en torno a los valores de equilibrio. En las fases deterministas, esto es cerca del equilibrio, las fluctuaciones siguen la ley del aumento de la entropía y por ello están condenadas a desaparecer. Lo contrario ocurre lejos del equilibrio. Se genera lo que Prigogine llama “orden por fluctuaciones”. Más allá del umbral el sistema experimenta una transformación profunda, un modo de funcionamiento completamente distinto. Surge una autoorganización que Prigigone denomina “estructura disipativa”.

Las “estructuras disipativas” son estables y reproducibles y en ese sentido son predecibles pero no lo son en lo que se refiere a conocer exactamente cómo son los detalles de la organización de una estructura determinada. Los distintos estados posibles son limitados, pero es preciso esperar y ver la evolución del sistema para saber qué fluctuación se amplificará y estabilizará de las varias posibles. De hecho, estas ideas de Prigogine enlazan con los trabajos de Darwin en biología, donde Darwin combina dos elementos: por un lado, la asunción espontánea de fluctuaciones (el azar) en las especies biológicas, las que posteriormente, merced a la selección del medio, conducen a la evolución biológica irreversible (la irreversibilidad). Por lo tanto, las “estructuras disipativas” contienen la idea de fluctuaciones o azar, de procesos estocásticos y la idea de evolución, de irreversibilidad, donde Prigogine pone de relieve que, a nivel biológico, de esta asociación resulta una evolución que corresponde a una complejidad creciente y a la autoorganización.

En el mundo químico las formas de organización disipativa son diversas. Algunos sistemas se hacen inhomogéneos en el espacio como el fenómeno de las células de Bénard o inestabilidad de Bénard. En otros casos se organizan relojes químicos como en el caso de la reacción de Belusov-Zhabotinski.

La inestabilidad de Bénard es un fenómeno llamativo, billones de moléculas se mueven coherentemente formando células hexagonales. Estamos ante “estructuras disipativas”. Por debajo del umbral pequeñas fluctuaciones consistentes en corrientes de convección se organizan y desaparecen. A partir de cierto punto crítico dan origen a un nuevo orden que se estabiliza gracias al aporte de energía. Es el orden a partir del caos.

Un ejemplo similar es el reloj químico que se organiza en la reacción de Belusov-Zhabotinski. En síntesis puede decirse que intervienen en ella unas moléculas de tipo A (color rojo) y unas de tipo B (color azul). Lo lógico es esperar que de la reacción surga un color intermedio entre ambos con ligeras oscilaciones hacia el ojo y el azul. Sin embargo, lejos del equilibrio llega un momento, en el que todo el sistema se vuelve rojo, luego azul, de nuevo rojo y as~sucesiva y periódicamente. La materia se comporta de un modo muy distinto a como ocurre en el equilibrio. Las “estructuras disipativas” tienen dos características muy significativas: comunicación y adaptación. En el reloj químico que describe la reacción de Belusov-Zhabotinski el color oscila periódicamente de una forma sincronizada. Si las moléculas son rojas y azules veremos una alternancia de esos colores. La concepción clásica de las reacciones químicas se asocia a movimientos caóticos. Sin embargo, las moléculas de los relojes químicos reaccionan simultáneamente produciendo estructuras coherentes. Las moléculas se «comunican». Puede considerarse este proceso un precursor de la comunicación en los sistemas biológicos.

Por otro lado, entre las diversas estructuras disipativas posibles ocurre que una ligera modificación del medio puede hacer que se seleccione una estructura en lugar de otra. Estaríamos ante los rudimentos de un sistema de adaptación al medio semejante al que se observa en sistemas biológicos. En todos los casos las estructuras disipativas se caracterizan por responder como un todo. Su comportamiento no es la suma del comportamiento de sus componentes. No se explica en función de las unidades. Lejos del equilibrio la evolución de los estructuras disipativas ha sido esquematisistemas a través de la organización de zado por Prigogine como sigue: El cambio de perspectiva que acabo de exponer nos obliga a utilizar una serie de nuevos conceptos: bifurcaciones, no linealidad, fluctuaciones. Muchos de ellos se conocían hace tiempo, pero su importancia y significación se revaloriza como consecuencia de los recientes descubrimientos:

Prigogine asimila la función a la microestructura de las relaciones de los elementos del sistema y llama estructura a la macroestructura del sistema, a su organización como un todo. Dentro del orden determinista las alteraciones de la función pueden originar, si no son controladas, una modificación de la estructura global del sistema. Estas modificaciones determinan el espectro de fiuctuaciones que son posibles. En condiciones adecuadas una de esas fluctuaciones puede estabilizarse y modificar la microestructura (función del sistema). Este esquema muestra la dinámica necesidad-azar no como dos pares opuestos sino como momentos diferentes de la evolución de los sistemas. Para Prigogine las condiciones para que se puedan desarrollar estructuras disipativas son las siguientes: (1) Un sistema que sea abierto al exterior (2) Situado en condiciones lejanas al equilibrio y (3) Existencia de relaciones no lineales entre sus elementos. El trinomio flujo/función/estructura implica una retroalimentación (feed-back) evolutiva: pueden surgir nuevas estructuras que, a su vez, modifiquen el flujo, lo que, a su vez, posibilitaría la emergencia de nuevas estructuras.

Un ser vivo, una empresa, una ciudad, pueden ejemplos cotidianos de “estructuras disipativas”, estructuras que Prigogine nos anima a evitar su estereotipado: diseñar una ciudad o una empresa como algo vivo, evitando su inmovilismo (=muerte térmica) y el desprecio de la creatividad (=impedir las relaciones no lineales entre sus individuos) de las generaciones futuras, comprobando constantemente la estabilidad de su propio estado organizativo para, así, captar los cambios estructurales que surgen con nuevos tipos de comportamiento: El equilibrio termodinámico, el expresado por el máximo de la función entrópica, es caótico. Un ejemplo muy sencillo es el de un gas formado por moléculas. En estado de equilibrio, las moléculas son independientes y no se observa correlación alguna entre sus movimientos. El no equilibrio es fuente de orden, de coherencia; entre las unidades surgen correlaciones. El no equilibrio como origen de orden se presenta ya como uno de los principios más generales que podemos formular actualmente. Es el no equilibrio el origen de toda coherencia, y esto parece ser cierto a todos los niveles actuales de descripción accesibles.

Y para terminar, unas últimas palabras de Prigogine: La vida no es meramente el resultado pasivo de la evolución cosmológica, ya que introduce un proceso de retroalimentación (feed-back) suplementario. En otras palabras, la vida es el resultado de procesos irreversibles, pero a su vez puede inducir nuevos procesos irreversibles. Cierto que el viejo axioma predica: la vida sólo se origina en la vida. Pero, en términos más generales, podemos decir que la irreversibilidad genera irreversibilidad.

De mis estudios sobre sistemas complejos a una escala mucho más modesta, he sacado la impresión firme de que es difícil siquiera llegar a imaginar o enumerar todas las posibilidades que presentan los sistemas no lineales alejados del equilibrio. Y esto me resulta aún más evidente si consideramos el universo como un todo con las sorprendentes no linealidades descritas por la ecuación de Einstein y con las enormes desviaciones del equilibrio que debieron predominar en su fase pretérita de formación. Por consiguiente, finalizaré con una apostilla optimista: la historia no tiene final.

“Quizá necesitemos hoy una nueva noción del tiempo capaz de transcender las categorías del devenir y de la eternidad”. Ilya Prigogine

Para saber más: ¿Tan sólo una ilusión? Ilya Prigogine. Colección Metatemas. Tusquets Editores

Time, Structure and Fluctuations. Nobel Lecture, 8 December, 1977 by Ilya Prigogine


21 de noviembre de 2020

De Rayos, Loterías y #COVID19: carta abierta a un negacionista

Querido amigo “negacionista” y escéptico del #COVID19: La probabilidad de que te caiga un rayo (en un año) y te mate es aproximadamente de 1 en 500.000 (Datos del Centro del Control y Prevención de Enfermedades de los EE.UU., el famoso CDC) es decir, un 0,0002% (normalizado para cien mil) aunque este ratio dependerá de la cantidad de rayos que caigan en cada región y su población, lo tomaremos como un dato de referencia a efectos didácticos. A su vez, la probabilidad de que te toque el Gordo de Navidad de Navidad (en un año si compras un solo número) es de 1 en 100.000, es decir, 0,001%, lo que significa comparativamente que te toque el Gordo de Navidad es unas cinco veces más probable (0,001/0,0002) a que te mate un rayo.

Observación: Cuando comparamos probabilidades más probables (el Gordo en este caso) respecto a probabilidades menos probables (el rayo en este caso) suelen darse cocientes altos o muy altos. He optado por dejar la referencia del rayo por ser una probabilidad muy baja para mantener una cierta homogeneidad en las referencias, manteniendo a su vez la comparativa con el Gordo de Navidad para visualizar mejor el concepto de probabilidad con un evento más familiar que el rayo.

Sigamos. Si la Incidencia Acumulada a 14 días (IA14 o casos de #COVID19 por cada cien mil habitantes) en España es, redondeando, de unos 500 (datos a mediados de noviembre 2020) esto equivale en el lenguaje de la probabilidad de los rayos, de 0,5%, es decir, unas 2.500 veces más probable (0,5/0,0002) que te infectes de #COVID19 en España a que te caiga un rayo y 500 veces más probable (0,5/0,001) a que te toque el Gordo de Navidad con un décimo.

Ahora bien, si los fallecidos con #COVID19 por cien mil habitantes en España es de unos 90 (a mediados de noviembre 2020) esto equivaldría en el lenguaje de la probabilidad de los rayos, de 0,09%, es decir, unas 450 veces más probable (0,09/0,0002) que mueras de #COVID19 en España a que te caiga un rayo y 90 veces más probable (0,09/0,001) a que te toque el Gordo de Navidad con un décimo.

Hasta aquí, amigo negacionista, me dirás: “Bueno, un rayo me puede matar, pero contagiarme de #COVID19 no implica necesariamente acabar hospitalizado, ingresado en la UCI o, peor, morirme.”


Veamos. Según datos de la Red Nacional de Vigilancia Epidemiológica (RENAVE, informe del 12-11-2020, ver cuadro), aproximadamente un 5,5% de las personas contagiadas serán hospitalizadas, un 0,4% de las contagiadas necesitará ingresar en UCI y un 0,9% de los contagiados desgraciadamente fallecerá (si bien con una mayor letalidad a partir de los 70 años, que se dispara a partir de los 80 años), siendo el porcentaje de hospitalizaciones y defunciones con #COVID19 aumenta con la edad, alcanzando un 26,2% y 9,8% en mayores de 79 años, respectivamente.


Si lo comparamos con la gripe estacional (datos 2019-2020 del Instituto Carlos III) observaremos que el #COVID19 es ligeramente superior en esos porcentajes de probabilidad. Así, la gripe estacional tiene una probabilidad del 4,5% de hospitalización, un 0,3% de ingreso en UCI y un 0,6% de letalidad, con el “impacto cruzado” que supone el agregado de la gripe estacional más el #COVID19 a nivel hospitalario, si bien en términos absolutos, de número de afectados, el #COVID19 sí tiene una mayor incidencia en el contagio (alrededor de un 300% de contagiosidad superior a la gripe estacional considerando que los datos del #COVID19 no están completos y el 2020 todavía no ha terminado), lo que le hace más peligroso en términos de saturación de recursos hospitalarios aunque sus probabilidades en términos de tasas sobre casos sean similares a la de la gripe estacional (ver cuadro comparativo Gripe vs. #COVID19 de elaboración propia).


Con estos datos me podrás decir: “Vale, el #COVID19 es un virus nuevo, muy chungo a partir de los 50 y 60 años y es como una gripe pero con el triple de contagios y más del doble de afectados a efectos hospitalarios … pero soy de mediana edad, tengo menos de cincuenta años, mi sistema inmunitario es más fuerte y los que nos contagiamos de mi rango de edad somos asintomáticos. Siendo el #COVID19 una infección mortal para el 0,015% de los infectados de mi rango de edad (0,015% = 183 fallecidos desde Mayo hasta mediados de Noviembre 2020, remarcados en negro en el cuadro, frente a los 1.174.807 contagiados en el mismo periodo) esto equivale a una probabilidad condicionada de 0,0075% (0,5x0,015) de que me contagie y muera con #COVID19 (en España), es decir, en lenguaje de los rayos, a una probabilidad de 37,5 veces más probable (0,0075/0,0002) que me infecte y muera por el #COVID19 a que me caiga un rayo si tengo menos de cincuenta años, o 7,5 veces más probable (0,0075/0,001) de que me toque el Gordo de Navidad… es decir, algo casi inapreciable… además, nunca me ha caído un rayo, ni el Gordo de Navidad de Navidad me ha pasado rozando, luego podría soportar casi unas 40 veces más probabilidad de que me cayese un rayo y hasta, casi, casi, la misma probabilidad de que me tocase el Gordo… total, una chuminada, además nunca he visto un rayo de cerca y el Gordo todavía menos…”

Entonces, viene tu argumento favorito y el de los partidarios del #CoronaFake y #Plandemia: “¿tanta matraca con el confinamiento y las restricciones para algo que tiene tan solo un poco más de probabilidades de que me caiga un rayo o casi la misma de que me toque el Gordo de Navidad?”.

Aquí es donde entran en consideración otros factores que un simple cálculo probabilístico no te permite visualizar en todo su impacto sistémico… principalmente la llamada “presión hospitalaria” que es donde considero se encuentra el quid de la cuestión del #COVID19 considerando el flujo de transmisión del virus en todo el sistema sanitario en su conjunto (ver gráfico siguiente)…


Te propongo que veamos el problema desde otra perspectiva: supongamos que unos extraterrestres nos atacan con armas de rayos desde el espacio con una probabilidad semejante a la del #COVID19… pero con la “mala leche” de que el rayo láser extraterrestre que nos envían no mata enseguida como cabría esperar de un rayo, sino que sólo deja incapacitado alrededor del 5,5% de los que reciban su rayo extraterrestre y comienzan a llegar afectados a los hospitales, en un goteo escaso (entre 5 y 6 de cada 100, no olvidemos), pero incesante (todos los días, todas las semanas, todos los meses) sobre una capacidad hospitalaria que no tiene recursos infinitos, con una estancia media de unos 15 días sin UCI y unos 30 días para las UCI… y contando con una capacidad que también debe dedicarse a la gripe estacional y el resto de patologías, accidentes, etc.

¿Empiezas a ver la magnitud del problema si los extraterrestres no cesan de enviar sus rayos sobre los habitantes terrícolas? Si los rayos extraterrestres fulminasen inmediatamente a ese 5,5% de los afectados, no habría ningún problema… nos acostumbraríamos a una muerte rápida e indolora y sin impacto en el sistema sanitario. En todo caso tendríamos un problema funerario, no sanitario o ni siquiera eso porque si el rayo es como el de “La guerra de los mundos” de Steven Spielberg, nos ahorraríamos también la incineración.


No tendríamos que dedicar recursos económicos ni humanos para cuidar a los heridos… porque no los habría… pero, “ese virus de mierda” como lo calificáis los “negacionistas” y escépticos del #COVID19 tiene la jodida propiedad de ese hipotético rayo extraterrestre, de saturar, colapsar, junto con el “impacto cruzado” de la gripe estacional y otras patologías, los sistemas sanitarios… amén de crear un problema ético en los profesionales sanitarios: “¿a qué paciente voy a tener que dejar morir por falta de recursos?” y por descontado un problema de estrés, la propia vulnerabilidad por su mayor exposición al contagio y “burnout” (síndrome de estar quemado) asociado. Es decir, el #COVID19 no es un “mata-personas” en sentido estricto, pero sí indirecta y colateralmente porque afecta a la columna vertebral del sistema sanitario (los hospitales y centros de salud), implicando, junto con la gripe estacional, a todas las patologías y accidentes que requieren cuidados hospitalarios, porque bloquea y dificulta algo tan importante para las sociedades humanas como es el funcionamiento eficaz y eficiente de los sistemas sanitarios…

Tal vez un experimento mental te ayude a visualizar mejor el problema que se cierne cuando me refiero al colapso sanitario… centrémonos en el caso de los menores de 50 años que es tu caso, que en principio son los que menos letalidad tienen, de los cuales han ingresado en hospitales desde Mayo un total de 13.236 (los remarcados en rojo en el cuadro), es decir, aproximadamente un 20% del total de hospitalizaciones con #COVID19 (vaya, la famosa ley 80%-20%, curioso)… supongamos una situación extrema y que desde Mayo tuviéramos una situación de colapso sanitario y no se pudiera ingresar a las personas en los hospitales, o bien con las UCI al 100% de ocupación, algo que están próximos a alcanzar en algunas Comunidades Autónomas y/o ya han alcanzado algunos hospitales… ¿sabes qué sucedería?

No hace falta mucha imaginación: ese 5,5% que requiere hospitalización no podría ser atendido y muy probablemente muchos de ellos morirían en sus casas o residencias de mayores… volviendo a hacer números con tu rango de edad, si suponemos, en un “escenario optimista” que de esos 13.236, los 928 (remarcados en azul en el cuadro) que ingresaron en UCI fallecerían por falta de atención sanitaria, la probabilidad de fallecimiento ya no sería del 0,015% para tu rango de edad, sino del 0,079% (0,079% = 928 fallecidos hipotéticamente en este escenario desde Mayo hasta mediados de Noviembre 2020, frente a los 1.174.807 contagiados en el mismo periodo) es decir, se habría multiplicado por cinco la probabilidad de morir a causa del colapso sanitario y ya no sería 37,5 veces más probable morir por #COVID19 que te cayese un rayo, sino 197,5 veces más probable ((0,5x0,079)/0,0002)… y unas 40 veces más probable ((0,5x0,079)/0,001) a que te tocase el Gordo de Navidad de Navidad con un décimo…

Pero, si nos situamos en un “escenario pesimista” donde aproximadamente el 50% de esos 13.236 hospitalizados falleciera, esto es, redondeando, unos 6.500, la probabilidad ya no sería del 0,015% sino del 0,55% (0,55% = 6.500 fallecidos hipotéticamente en este escenario desde Mayo hasta mediados de Noviembre 2020, frente a los 1.174.807 contagiados en el mismo periodo) es decir, se habría multiplicado por 36 la probabilidad de morir a causa del colapso sanitario (y ya no sería 37,5 veces más probable morir por #COVID19 que te cayese un rayo, sino 1.375 veces más probable ((0,5x0,55)/0,0002)… y unas 275 veces más probable ((0,5x0,055)/0,001) que te tocase el Gordo de Navidad de Navidad con un sólo décimo… supongo que ahora no te parecerá una “chuminada”...

Y, a todo eso, sin entrar a considerar “el juego de suma cero” que implica que una cama o una UCI ocupada para #COVID19 es una cama o una UCI que no puede destinarse a otras patologías, dolencias y accidentes… es decir: el peor escenario para una sociedad avanzada que no puede garantizar la salud de sus ciudadanos, multiplicar por cinco (en el escenario optimista) o por 36 (en el escenario pesimista) la probabilidad de muerte en el rango de edad de las personas a las que les afecta menos la incidencia del #COVID19… y eso es precisamente lo que te niegas a ver, o no logran ver tus amigos “negacionistas” y escépticos del #COVID19, que lo veis en privado casi como “necesario para la selección natural”, que sólo afecta a las personas de edad muy avanzada, cuando la realidad es que también afecta a personas jóvenes y sanas, con el añadido que pueden convertirse en supercontagiadores por la mayor vida social de la gente joven y porque, no sé si lo sabes, el “propósito” de este virus es el mismo que el de cualquier otro: sobrevivir en el “organismo anfitrión” (nosotros) lo suficiente para multiplicarse en otros organismos anfitriones (nuestros familiares, amigos, etc.), con lo que su “éxito” lo determina su capacidad como “huésped” de adaptarse al “organismo anfitrión” para no morir con él antes de propagarse (ya sabes, un virus demasiado virulento es malo para el propio virus, pues necesita “organismos anfitriones” vivos para que pueda contagiar a otros organismos)… pero si el “organismo anfitrión” resiste, el virus también “aprende” ese nivel de resistencia regulando su propia virulencia (personas asintomáticas) y al transmitirse a otros organismos menos resistentes (personas mayores), el virus se vuelve más letal por haberse “entrenado” para un nivel inmunitario superior, es por ello que las personas de menor edad deberían ser conscientes de su mayor responsabilidad colectiva en la cadena de transmisión del virus hacia las personas más vulnerables…

Todas estas consideraciones son algo que nos debe hacer reflexionar cuando se escucha la idea de “salvar las Navidades”, pues muy probablemente si nos liberamos aunque sea unas semanas de algunas restricciones que los gobiernos están imponiendo (mascarilla, higiene de manos, distancia social, ventilación, evitar reuniones de no convivientes de más de x personas…) lo que ocurra a la vuelta de la esquina será una “tercera ola” que sature aún más la capacidad sanitaria al coincidir con la mayor incidencia hospitalaria de la gripe estacional (diciembre-marzo) como ya ocurrió con la llamada “gripe española”


Asumamos pues colectivamente que todas estas restricciones no son por la mortalidad intrínseca de ese “ese virus de mierda” o porque “nos quieren convertir en zombis” como he leído por ahí, sino por prevenir el daño sistémico que es capaz de hacer “ese virus de mierda” en la salud pública y las consecuencias directas y colaterales, que tendría el colapso del sistema sanitario, pues si no se logra frenar y reducir el primer eslabón de la cadena (el contagio), lo que viene después es una ley probabilística inexorable (las probabilidades de hospitalización, UCI y fallecimientos son las que son y no van a reducirse mientras no se extienda la vacunación a la mayoría de la población).

Resumiendo, que el quid de la cuestión no está en la mortalidad y letalidad del virus, sino en el consumo de recursos sanitarios (crecientes) que requiere y que amenaza con desatender otras muchas necesidades sanitarias y sus consecuentes muertes colaterales, aún no contabilizadas como tales, pero que indirectamente podemos intuir en las estadísticas del Sistema de Monitorización de la Mortalidad Diaria (MoMo).

No espero convencerte, pero sí espero que medites esta reflexión y te pongas en el lugar de los que no podrán ser hospitalizados o ingresados en UCI a causa del probable colapso sanitario que conductas inconscientes podrían llegar a causar si estas se generalizasen… y mejor que todo esto se quede en un experimento mental y nunca lleguemos a poner a prueba los límites del sistema sanitario.


Para saber más: Coronavirus COVID-19 Global Cases by the Center for Systems Science and Engineering (CSSE) at Johns Hopkins University Worldometer: Coronavirus

Ministerio de Sanidad: Situación de COVID-19 en España

Centro Nacional de Epidemiología: Situación de COVID-19 en España

MODELIZACIÓN EPIDEMIOLÓGICA DEL COVID-19

OMS - Coronavirus

European Centre for Disease Control and Prevention