6 de julio de 2014

Esquemas Piramidales vs. Ventas Multinivel

Recientemente colapsaba otra pirámide financiera atrapando a miles de personas en varios países. Telexfree. 50.000 españoles pierden sus ahorros en una estafa piramidal. Este fenómeno no por menos sorprendente suele convertirse en una tragedia económica para quien lo sufre. En Enero del presente año tuve la ocasión responder a una persona que preguntaba mi opinión sobre esta red y mi conclusión fue: Si con las ventas se obtienen beneficios (una vez remunerados los “socios-trabajadores”, propietarios y soportados costes estructurales), entonces esta empresa NO se comporta como una pirámide financiera... PERO si las ventas no cubren siquiera los costes anteriores, entonces la empresa SÍ se comportaría como una pirámide financiera (se “comería el "capital” proveniente de las cuotas de sus socios). Comentarios al post “¿Por qué colapsan las pirámides financieras?. Caso Madoff”

Ciertamente, esta organización tenía una peculiaridad: en el fondo era una organización de esquema piramidal, pero aparentemente se comportaba como una organización de venta multinivel (un “sistema híbrido”, que luego comentaré). Y justo este tema, profundizar en las características, las claves y similitudes de estas organizaciones fue el núcleo central de una entrevista que me hicieron para el programa Equipo de Investigación de La Sexta que se emitirá próximamente. Para resumir el contenido de la entrevista he preparado este post a modo de resumen telegráfico, que también puede consultarse en pdf (ver enlaces al final).

Esquemas (Estafas) Piramidales. Características y Claves

En una organización de esquema piramidal (en adelante, OEP) los que están dentro no son conscientes de participar en un OEP. En una OEP los que están dentro son tratados como clientes. En una OEP la reclutación de nuevos clientes corre a cargo de los promotores de la OEP o de sus delegados. La OEP es una estafa y es ilegal. Ejemplo: caso Bernard Madoff. En una OEP la actividad principal es el reclutamiento de nuevos clientes para aportar capital. En una OEP los ingresos provienen del capital aportado por los clientes, que mayoritariamente se utiliza para pagar los intereses prometidos y las comisiones de los promotores. En una OEP se pone énfasis en garantizar un alto interés por el capital aportado, mientras se evita informar en qué se ha invertido y cómo se ha logrado el elevado beneficio o en practicar políticas de transparencia. En una OEP el capital se recicla de abajo hacia arriba.

Ventas Multinivel. Características y Claves

En una organización de ventas multinivel (en adelante, OVM) los que están dentro son conscientes de participar en una estructura piramidal. En una OVM los que están dentro son tratados como asociados o distribuidores. En una OVM la reclutación de nuevos asociados corre a cargo de los propios asociados para formar redes. La OVM es, hoy por hoy, un sistema de venta legal. Ejemplo: Herbalife. En una OVM la actividad principal es la venta de productos y el reclutamiento de nuevos asociados para extender (horizontalmente) y profundizar (verticalmente) la red. En una OVM los ingresos provienen de las ventas de productos o servicios y en menor medida de las cuotas de entrada. En una OVM se pone énfasis en motivar a los asociados para vender los productos y, sobretodo, para extender/profundizar la red. En una OVM los ingresos más importantes provienen de las comisiones por las ventas de la red descendente: los mayores ingresos circulan de abajo hacia arriba.

Esquemas Piramidales y Ventas Multinivel. Similitudes

Ambas, OEP y OVM son estructuras piramidales: esto significa que los primeros en entrar son los más beneficiados, mientras que los últimos en entrar son los menos beneficiados o los más perjudicados. Una OEP siempre termina colapsando por la contradicción entre el capital teórico (virtual) que crece exponencialmente y el capital real (dinero en la caja) que decrece exponencialmente (ver gráfico). Para aplazar el colapso, se tiene que “inyectar nuevos clientes” cada vez a mayor velocidad (ver “tasa de duplicación del capital”). Una OVM no colapsa en el sentido clásico mientras no garantice ingresos, sin embargo sí puede tener una importante tasa de abandono que impida su crecimiento, por la evidente distribución asimétrica propiciada por la estructura piramidal (ver gráfico). Para evitarlo, se tiene que “inyectar motivación” para afianzar la base de asociados e ingresar nuevos.

Esquemas (Estafas) Piramidales. Conclusiones

Los promotores de una OEP nunca reconocen que su sistema lo es. Una OEP se reconoce por publicitar y garantizar un elevado interés por el capital, muy por encima de la inflación y de las condiciones del mercado, sin fluctuaciones y “pase lo que pase”. Esta es su seña de identidad, que propicia su hundimiento si no es capaz de alcanzar la tasa de duplicación del capital: Periodos de Duplicación ≅ (70 / % interés garantizado del periodo). Alcanzado el punto de no retorno si no logra superar el límite de su sostenibilidad: (%tasa neta de altas > (%interés + %comisiones), la OEP colapsará mostrándose incapaz de garantizar la devolución del capital principal y el pago de los intereses prometidos.

Ventas Multinivel. Conclusiones

Los primeros niveles de una OVM son los mayores beneficiados del sistema. Una OVM reconoce que la garantía de ingresos depende de la “motivación”. Esta es su seña de identidad: “trabaja duro e ingresarás mucho”, sin embargo según la ley de potencias (ver gráfico): la distribución de ingresos se asemeja a una curva de “larga cola” donde > 80% de ingresos es para < del 1% de las personas. Es decir, cuanto más duro trabajan los niveles inferiores, más ingresos (indirectos, provenientes de la red) tendrán los niveles superiores. Además, en una distribución de “larga cola”, dada su asimetría, la media aritmética de ingresos no significa nada, no representa nada. Siendo un sistema legal, por su peculiar forma de distribución la OVM está en “el filo de la navaja de la legalidad”: en última instancia son rentas de posición, los primeros en entrar se lo llevan (casi) todo.

Esquemas Piramidales y Ventas Multinivel. Conclusiones

Ante la enorme repercusión pública de las estafas piramidales “puras”, algunos promotores de OEP han creado una nueva modalidad para hacerlas más indetectables y mucho más peligrosas: “sistemas híbridos” entre OEP y OVM. Estos “sistemas híbridos” incorporan a la OEP una actividad comercial de OVM, añadiendo conceptos de producto, red, distribuidores, etc. pero aunque se “disfracen” siguen siendo OEP por tres motivos: (1) imponen una cuota anual de acceso, que puede elevarse con el “cebo” de mayores ingresos (esto hace las veces de capital inicial en las OEP y generalmente es el principal “ingreso real” del sistema), (2) dan la apariencia de que “se hace algo a cambio de un ingreso” por unos trabajos de los que no se tiene información sobre su “venta real” (transparencia cero) y (3) incrementan la peligrosidad de la estafa al incorporar el efecto multiplicativo propio de las OVM. Estos “híbridos” son alegales y por ello más peligrosos. Ejemplo: Telexfree

Como ya hice anteriormente con el modelo de colapso de una pirámide financiera considero que estos modelos matemáticos se entienden mejor si se practican mediante simulaciones con la ayuda de una hoja electrónica. A tal fin he trasladado a una hoja Excel un modelo de Venta Multinivel para realizar simulaciones y observar la evolución de las variables clave tales como niveles, asociados por nivel, ventas medias por asociado, comisiones directas, comisiones indirectas, etc. para comprobar uno mismo la típica distribución de “larga cola”. A practicar pues: Modelo de Venta Multinivel en Excel Modelo de Colapso de una Pirámide Financiera en Excel Esquemas Piramidales vs. Ventas Multinivel en Pdf

Para saber más: Esquema Piramidal en Wikipedia [castellano]

Esquema Ponzi en Wikipedia [castellano]

Bernard Madoff en Wikipedia [castellano]

Marketing Multinivel en Wikipedia [castellano]

Ley Potencial en Wikipedia [castellano]



4 de mayo de 2014

Majestad, su avión no tiene un problema de mantenimiento

El Rey sufrió ayer la quinta avería en la flota de aviones oficiales en apenas seis meses, esta vez volviendo de Kuwait. El fallo se produjo en la transmisión que abre la válvula de entrada de combustible del motor izquierdo. El Gobierno de Kuwait ofreció al Monarca uno de sus aviones, pero finalmente no hizo falta porque los mecánicos españoles lograron reparar la avería en media hora, según Efe, a bordo del avión. La salida desde Kuwait se retrasó casi una hora, pero don Juan Carlos pudo llegar a tiempo para presidir en Valencia la final de la Copa del Rey.

El ministro de Defensa, Pedro Morenés, que acompañaba al Monarca en el vuelo de regreso desde Kuwait, aseguró que don Juan Carlos se tomó “con buen humor” el percance y que entendía que los aviones “de vez en cuando” dieran “algún problemilla”.

Las anteriores averías, de distinto origen, afectaron a dos aviones (un Airbus y un Falcon) y provocaron una cancelación (el vuelo del Príncipe a Brasil el pasado 24 de noviembre) y tres retrasos que afectaron a don Felipe, Rajoy y la Reina. Morenés encargó el pasado 25 de marzo —dos días después del fallo que retrasó el regreso de doña Sofía a España desde Guatemala— al jefe de Estado Mayor del Ejército del Aire que revise y refuerce los procedimientos de mantenimiento, tanto los que realiza Airbus (antes lo hacía Iberia), como los que hace el Ejército del Aire, así como un plan de renovación de la flota de transporte estratégico, aunque fuentes del Ministerio descartan la compra de nuevos aparatos exclusivamente para transporte de autoridades. No hay dinero y los dos A-310 en los que se desplaza el Gobierno y la familia real en sus viajes oficiales (adquiridos de segunda mano en 2003) están prácticamente a la mitad de su vida útil.
Diario El País [16-04-2014]

Es un comportamiento habitual en el pensamiento convencional [asistémico] que cuando ocurre una avería en un sistema se busquen las causas del mal funcionamiento dentro de los límites del sistema[1], es decir, el viejo tópico de buscar culpables bajo el supuesto de que “alguien no ha hecho bien su trabajo”. Esta forma de proceder se basa en el enfoque analítico, el cual tiene por costumbre buscar el problema [y la solución] dentro del sistema, asumiendo la idea errónea [por insuficiente] de que el mal funcionamiento de una máquina compleja como este tipo de aviones se explica por “el estado interno de la máquina y el estado de su contorno”[2] una explicación demasiado restrictiva para la clase de máquinas complejas que, siguiendo al padre de la cibernética W. Ross Ashby, se debería asumir una definición más abarcadora como el de una “máquina con input”, es decir contemplando el sistema-avión como un todo en el que también se incluya el diseño y el trabajo-intensidad para el que fue concebido y el uso que se le ha dado en los últimos tiempos.

La lógica de este proceder, por lo demás ampliamente extendido en el mundo de la gestión de las organizaciones, tiende a justificar los sistemas como fines en sí mismos, sin considerar que un sistema existe para satisfacer los requerimientos de sistemas mayores en los cuales este mismo está incluido. Por ejemplo, en el caso que nos ocupa, al focalizar la atención en el “mantenimiento” [dentro de los límites del sistema-avión] redoblando si es menester los esfuerzos con un “doble mantenimiento” [síndrome del más de lo mismo], no se está considerando el sistema mayor para el que fue concebido este tipo de aviones, esto es, por ejemplo, el nivel de actividad para el que fueron diseñados [probablemente muy superior al que actualmente se les tiene confinados].

Este error de enfoque al insistir en el aspecto “mantenimiento” eclipsa la razón de la existencia del sistema-avión y para qué fue diseñado. Es como si, pongamos por caso, alguien tuviera un caballo pura sangre bien alimentado y cuidado [es decir, bien mantenido] pero sólo le paseara una vez al mes: probablemente tendría muchos más “achaques” que si lo paseara todos los días.

Este error de enfoque significa también que no se comprende bien cómo hacer un buen uso de sistemas complejos como los aviones. Por tanto, la causa de este mal funcionamiento en la flota de aviones del Grupo 45 de la Fuerza Aérea Española no puede atribuirse solamente a las razones encontradas dentro del sistema, como por ejemplo, un mantenimiento incorrecto o insuficiente. Debe diagnosticarse y corregirse el funcionamiento defectuoso mediante la adecuación del sistema-avión en relación con el sistema-total, que incluye no sólo el mantenimiento sino el nivel de actividad para el que fue diseñado.

Así, bajo el prisma del pensamiento convencional-asistémico el mal funcionamiento aparente del sistema-avión tiende a resolverse con reparaciones parciales o cambios de algunos de sus componentes. Sin embargo, desde la perspectiva del pensamiento sistémico, lo que corresponde es una revisión completa del sistema total, entendido por tal el sistema-avión, los requerimientos de uso para el que fue diseñado y los supuestos erróneos que sustentan la lógica del mantenimiento por el mantenimiento.

En conclusión, discrepo con el diagnóstico del ministro de Defensa: no es un problema de mantenimiento [pensamiento asistémico] sino de subactividad [pensamiento sistémico].

Así, desde un enfoque sistémico, se puede resolver el problema restaurando el equilibrio entre inactividad/actividad de este parque de aviones del gobierno de España. Los sistemas complejos, como los aviones de última generación, se diseñan para un nivel de actividad. Si desde su adquisición como aviones de 2ª mano han bajado su ritmo de actividad en los últimos tiempos ahí está la respuesta, pues es típico de los sistemas complejos requerir variaciones en la intensidad de su uso[3] siendo contraproducente tanto los periodos prolongados de reposo como los funcionamientos a un mismo régimen constante de actividad [esto lo saben bien los pilotos de fórmula 1 y los ingenieros de motores].

Si reducen su actividad, los sistemas complejos [desde máquinas a personas] se resienten en su rendimiento y aparecen los “achaques”, no tanto por envejecimiento [fatiga estructural] como por falta de suficiente actividad y variabilidad. Para restablecer el equilibrio dinámico del sistema se necesita restaurar cierto nivel de actividad: por ejemplo, vuelos previos antes de un viaje real, a semejanza de lo que haría el propietario de un caballo pura sangre antes de una carrera o también asignar los aviones del Grupo 45 a otras misiones civiles o militares en caso de que se reduzca la agenda de viajes de la Casa Real o de Presidencia. Por tanto, la solución sistémica es más actividad, no más mantenimiento. O como diría el cantautor argentino Andrés Calamaro: “mi corazón es un músculo sano pero necesita acción”.


[1] John P. van Gigch (1990), Teoría General de Sistemas, pág. 20 y 21
[2] Pedro Voltes Bou (1978), La Teoría General de Sistemas, pág. 26 y 27
[3] Nassim Nicholas Taleb (2013), Antifrágil, pág. 422 y 423


12 de abril de 2014

¿Están las empresas preparadas para un mundo interactivo?

A la atención de Correos Express.

Buenos días, ayer y anteayer han pasado por mi domicilio para entregar un envío desde la empresa ORANGE, pero yo ni nadie de mi familia estaba.

Ayer, anteayer y hoy he intentado en vano contactar con ustedes a varios números de teléfono no gratuito (902) que me han facilitado, pero sin éxito, pues todos sus agentes estaban ocupados. He realizado varias llamadas con una espera media de 10 minutos. Imposible contactar y menos a ese coste.

Por otra parte también he intentado comunicarme vía la página web, indicando las referencias que me han dado: 200214xxxx. El código de envío: 142356246535xxxx y el Aviso de Paso de las dos entregas fallidas: (1) 7692xxxx y (2) 7692xxxx. Mi código postal es 46xxx. Sin embargo tampoco hay posibilidad de realimentación vía web para indicarles el mejor día/hora para la entrega pues no dejan un correo electrónico para comunicarles cuando voy a estar ni ustedes tampoco se han puesto en comunicación con el teléfono de contacto que dejé a la compañía ORANGE.

Sólo me dejan este formulario de contacto para sugerencias y quejas, pero así tampoco se resuelve un problema que no es de in-formación sino de co-municación, esto es, que el flujo de in-formación funcione en las dos direcciones. No sé si sus altos directivos son conscientes de este matiz, un matiz que en la era de la comunicación universal, interactiva y en tiempo real lo es todo. Y si sus altos directivos no lo entienden, que se pongan en contacto conmigo y les explicaré como resolver el problema.

Por todo ello, desisto de co-municarme con ustedes.

Mi diagnóstico es sencillamente que no funciona la co-municación hacia ustedes, y así es imposible coordinar la entrega. Sólo en el hipotético caso de que siempre hubiera alguien en casa (algo impensable hoy en día) funcionaría su sistema de entregas. Pienso que haciendo un simple cambio en su sistema de entregas de tal modo que permitiera coordinar la entrega con el destinatario se ahorrarían muchas entregas fallidas con el consiguiente coste de combustible, desplazamientos y tiempo de sus trabajadores.

Mi teléfono es el 6xx-04xxxx y mi correo electrónico es josemonzomarco@xxxx.com

Cuando tengan a bien, ya saben donde localizarme. Gracias.



2 de marzo de 2014

Micropalancas para macroproblemas

«Dadme un punto de apoyo y moveré el mundo» Arquímedes de Siracusa.

Uno de los aspectos más interesantes y creativos del pensamiento sistémico es el “principio de la palanca”, esto es, buscar y encontrar aquellos lugares o situaciones, llamados también “puntos de apalancamiento”, donde con el mínimo esfuerzo se puede lograr una mejora significativa y duradera en el sistema. El único problema es, como nos recuerda Peter Senge, que las zonas de alto apalancamiento no son evidentes para la mayoría de integrantes del sistema porque los puntos de apalancamiento no están próximos en el tiempo y el espacio respecto de los síntomas. Sin embargo sí existe una pista para encontrarlos, como nos recuerda Donella H. Meadows: los mejores puntos de apalancamiento se encuentra en el cambio de los modelos mentales, es decir, cambios en el cómo nos representamos a nosotros mismos el sistema, esto es, el paradigma o filtro con el que observamos la realidad.

Al hilo de esto y como material didáctico para un seminario de pensamiento sistémico que estoy preparando he buscado algunos ejemplos reales de “puntos de apalancamiento” para el cambio efectivo de sistemas reales. Son ejemplos cotidianos que ya forman parte de nuestro paisaje y de tanto verlos o escucharlos puede que no nos demos cuenta de su importancia, pero cuando son mirados bajo la óptica del pensamiento sistémico “caemos en la cuenta” de su tremendo potencial de cambio en los sistemas en los que se implementan. Por otra parte se trata en realidad de pequeñas palancas, de pequeñas intervenciones en sistemas que logran unas mejoras espectaculares en el rendimiento de los sistemas: por lo general no se trata de grandes cambios sino de pequeños cambios, generalmente muy económicos, que provocan una gran mejora, de ahí el título de este post. Vamos allá.

1. Empoderamiento en el supermercado

En cualquier supermercado puedes observar el poder de la palanca de la autoorganización cuando cualquier cajero/a solicita la presencia de otro para agilizar la cola. No tienes más que darte cuenta que conseguir el mismo efecto mediante un sistema de supervisión jerárquico tendría un mayor coste (menor eficiencia) y una menor eficacia (el jefe no siempre está al tanto de lo que sucede en las cajas). Claro que para alcanzar este resultado es necesario otorgar confianza y empoderamiento en el puesto de trabajo, algo no siempre fácil en organizaciones fuertemente jerarquizadas. Evidentemente este ejemplo es extrapolable a muchas otras situaciones y organizaciones: allí donde exista la posibilidad de empoderar una función a las personas que están más próximas a la realidad a gestionar otorgándoles capacidad para tomar decisiones.



2. Autoorganización en la carretera

En cualquier rotonda o glorieta puedes observar el poder de la palanca en acción cuando los vehículos van a su salida sin retener el tráfico en los cruces de carreteras. Es otro ejemplo de autoorganización como el caso anterior. Y, como antes, observar que la eficiencia (coste, esperas) y eficacia (ordenar el tráfico) de otras alternativas (semáforos, guardias urbanos) serían menores en situaciones donde confluyen varias bifurcaciones, incidiendo negativamente en la fluidez del tráfico, y, como en el empoderamiento anterior, el efecto deseado se consigue fundamentalmente al otorgar la capacidad de decidir a los conductores.



3. Teoría de Juegos en la vigilancia.

Del “sabes donde miro” a “no sabes donde miro” hay una diferencia sustancial cuando se trata de la vigilancia de seguridad. Detrás de este cambio de diseño en las cámaras de vigilancia existe un principio básico de Teoría de Juegos: la información asimétrica. Si en una situación con dos jugadores, uno de ellos (vigilado) no sabe dónde está mirando el otro (vigilante), aquél se encuentra en inferioridad estratégica. Mientras que si el vigilado sabe dónde está mirando el vigilante, el que se encuentra en inferioridad estratégica es éste último. Un pequeño cambio en el diseño de la cámara permite que el vigilante obtenga una mayor superioridad estratégica sobre el vigilado (o potencial vigilado).



4. La sangre es gratis

La generosidad tiene un gran potencial autoorganizativo: donar sangre u órganos gratuitamente evita muchas desconfianzas y burocracias (en España está prohibida la venta de sangre desde 1985). Como en los casos anteriores, no hay más que imaginarse una situación en la sangre no fuera donada sino vendida (al mejor postor): probablemente no se asignaría al que más lo necesita sino al que más pague. La mercantilización de la sangre, probablemente, generaría unos indeseados efectos colaterales: necesidad de una mayor burocracia, mayores controles, mayores riesgos, etc.



5. De la comunidad de vecinos a la ONU: Subsidiariedad

El “principio de subsidiariedad” es el núcleo de la autoorganización: cada nivel de un sistema decide respecto de su área de competencia y sólo interviene el nivel superior cuando existe un conflicto entre los objetivos globales y las decisiones locales. El “principio de subsidiariedad” es uno de los principios sobre los que se sustenta la Unión Europea y la mayoría de Estados democráticos del mundo. Sin la subsidiariedad sería necesaria una centralización estatal (nivel macro) de todas las decisiones de ámbito local (nivel micro), algo que lógicamente conllevaría un sobredimensionamiento del Estado y las organizaciones supraestatales: no hay más que imaginar lo que supondría que las decisiones de cualquier comunidad de vecinos tuvieran que debatirse en la ONU.



6. Abriendo las puertas de la democracia 2.0

Si la democracia es un sistema restringido para la toma de decisiones, aunque con el marchamo de la “representatividad”, la post-democracia, de ser algo, será un sistema de “toma de decisiones aumentada” (p.ej. como sucede en Suiza, donde cada poco tiempo los ciudadanos pueden votar sobre variadas cuestiones) y donde los temas a votar no necesariamente pasen por el filtro de los partidos (p.ej. como las propuestas emanadas en la plataforma Change.org). Abrir las puertas de la democracia, implica necesariamente un enfoque 2.0, esto es, un abrirse a la participación on-line de los ciudadanos que permiten las nuevas tecnologías.



7. Del sillónbol al excedente cognitivo

¿Un pájaro, un avión?. No, es el “excedente cognitivo. El vector autoorganizativo más potente jamás imaginado y su fundamento es la suma de cuatro factores disponibles en el mundo actual: Internet, el creciente tiempo libre, la generosidad y las capacidades técnico-cognitivas de todas las personas. Con el “excedente cognitivo se consiguen unas economías de escala nunca antes imaginada. La idea es muy sencilla: las nuevas tecnologías junto con el creciente tiempo libre de las personas (tiempo libre muchas veces malgastado pasivamente ante la televisión) permiten que todos podamos utilizar ese tiempo libre colectivamente para poder hacer cosas que serían imposibles a nivel individual. El experto en redes sociales Clay Shirky nos muestra cómo.





1 de enero de 2014

¡¡No es el déficit... es la demanda, estúpido!!

A quien corresponda,

Lo que sigue es una reflexión sintética a modo de considerandos, leyes y corolarios. Estaba tentado a llamarla ley de Monzó sobre los sistemas energéticos, pero me pareció presuntuoso. Dejémoslo en una perspectiva sistémica del sistema energético nacional, fruto de una larga experiencia lidiando con sistemas de producción y de costes.

Vayamos pues al grano:

(las personas que quieran ahorrarse una lectura técnica, pueden consultar al final una versión simplificada con una metáfora):

Considerando 1º: En aras de la clarificación de los costes de producción de energía, en primer lugar propongo que se debería separar los costes del sistema energético por naturaleza y comportamiento económico y matemático ante la demanda, para no “mezclar churras con merinas” (full costing), teniendo presente como criterio discriminador el distinto impacto que la variación de la demanda representa a cada componente del coste, pues es bien sabido que existen costes del sistema energético que se comportan globalmente de manera variable en función de la demanda [1], mientras que otros costes del sistema son globalmente fijos o cuasi fijos respecto a la demanda [2]. En otras palabras, se trata de someter a un criterio de transparencia y racionalidad lo que en muchas ocasiones se trata como un dogmático e inapelable “coste real” como si se tratase de un ente monolítico cuyas partes constituyentes se comportasen todas de igual manera. Y no es así.

Considerando 2º: En la actual crisis económica es una tentación para los responsables del sistema energético transferir todos los costes y algo más al consumidor (sin transferirle las ventajas de la concavidad) por vía del incremento continuado de precios por unidad energética consumida, sin embargo es claro que esta política alcista (derivada de un mecanismo de formación de precios perverso, pues los Kw/h se producen a costes diversos, pero mediante el sistema de subasta actual todos se pagan igual: al precio más alto), lejos de contribuir a ser parte de la solución facilitando una salida a la crisis del sistema mayor (el sistema económico en su conjunto) o convertir al sistema energético en un vector de competitividad del sistema mayor, puede convertirse, se está convirtiendo de hecho, en parte del problema si el alza continuada de precios alienta y acelera el subconsumo de energía (pobreza energética), contribuyendo de manera procíclica al estancamiento económico con un coste de energía para las pymes y consumidores domésticos superior al promedio europeo, cuando paradójicamente contamos con un parque de centrales nucleares, térmicas e hidrológicas mayoritariamente amortizado, un notable sobredimensionamiento para cubrir picos de demanda y un mix tecnológico renovable/no renovable equilibrado en un sistema energético que nos permitiría disponer de una de las energías más fiables, económicas y limpias de Europa. Así, lo que he denominado una Tarifa Aceleradora del Subconsumo (TAS) podría ser el escenario final a una política de precios suicida para el propio sistema energético, con colapso sistémico como telón de fondo.

En consecuencia,

Ley 1ª: En un sistema energético no renovable, el único coste marginal lineal en función de la demanda es el combustible[3]. Todos los demás costes marginales, incluidos los costes operativos de la generación/transporte/distribución(GTD)[4], los indirectos, amortizaciones, financieros y generales del GTD, las subvenciones, primas e impuestos, es decir, todos los demás componentes del coste marginal del sistema[5] son cóncavos respecto a la demanda, incluido el “déficit de tarifa”[6].

Ley 2ª: En un sistema energético renovable, todos los costes marginales son cóncavos en función de la demanda, incluido el “déficit de tarifa”.

Ley 3ª: En un sistema energético con la mayoría de costes marginales cóncavos en función de la demanda, el precio tiene un doble objetivo en aras de la supervivencia del propio sistema: debe reflejar la interacción entre oferta/demanda y a la vez debe evitar el subconsumo.

Corolario 1º: Dado el mayor peso específico en el sistema energético de los costes de naturaleza no combustible, cuanto más se estimule el consumo energético, menor será el coste marginal por unidad de energía producida y mayor será el beneficio antes de impuestos (y consecuentemente mayores los impuestos recaudados).

Corolario 2º: Dado el mayor peso específico en el sistema energético de los costes de naturaleza no combustible, cuanto más se desanime el consumo energético (p.ej. vía tarifa de precios depresora del consumo y/o vía generación de más pobreza energética y/o vía creación artificial de escasez), mayor será el coste marginal por unidad de energía producida y menor será el beneficio antes de impuestos (y consecuentemente menores los impuestos recaudados).

Corolario 3º: Si la demanda promedio a un precio promedio dado sigue sin cubrir los costes correspondientes de naturaleza no combustible y excluyendo por inviable la opción de seguir incrementando el “déficit de tarifa” para “desplazar hacia el futuro” los costes de esta naturaleza, el sistema energético español estará abocado a una de estas cinco posibilidades (no necesariamente excluyentes) para que sea sostenible por sí mismo en la próxima década: (a) estimular la demanda y atraer a grandes consumidores de energía vía reducción de precios unitarios (obviamente sin incrementar el coste de naturaleza no combustible) y/o vía exportación de energía a Europa y Norte de África[8]; (b) reducir progresivamente los componentes del coste de naturaleza no combustible; (c) aumentar el sistema energético renovable y reducir el no renovable a fin de reducir aún más el componente de coste directo del combustible y sin aumentar el coste de naturaleza no combustible; (d) abrir el mercado a una competencia interna real para estimular la reducción de precios vía competencia, incluida la competencia de la autogeneración de los consumidores domésticos; o (e) quebrar y nacionalizarse ante el probable escenario de una reducción de la demanda inducida por una política de precios insensible a las circunstancias del mercado real y potencial.

Tengo la convicción que seguir incrementando año tras año el precio unitario de la energía muy por encima de la inflación como si las empresas energéticas oferentes tuvieran una invisible e inmutable “renta de situación” que les permita exprimir sin límite a los clientes como si estuvieran en un mercado cautivo, conduce inevitablemente a una situación de estrangulamiento sistémico de la demanda por tres vías: (a) fuga de clientes del segmento de grandes consumidores de energía hacia otros países con una mejor relación calidad/precio unitario de energía; (b) reducción de consumo a través de una mayor eficiencia energética de clientes y/o la cogeneración del segmento de grandes y medianos consumidores de energía; y (c) aliento y aceleración del subconsumo o TAS[10] vía reducción de consumo a través de medios sustitutivos, y/o pobreza energética[11] y/o autogeneración de la mayoría de clientes domésticos.

Sería una lástima que tras un duro ajuste por el lado del factor trabajo que nos ha situado en una situación de ventaja competitiva vía costes laborales, viniese la factura energética a “aguar la fiesta” con unos precios inaceptables para el país eficiente y competitivo en costes que queremos ser. Sería deseable que los responsables del sistema energético español actuasen de oficio y decidiesen de manera unilateral una reducción de precios para incentivar el consumo en lugar de esperar al colapso del sistema.

Ahora o nunca: ustedes tienen en su mano acometer los cambios para un diseño de costes que no gravite sobre un full costing indiscriminado que no refleja con claridad el origen por naturaleza de cada coste y el distinto comportamiento económico y matemático de los costes marginales que debería poder reflejarse en la factura al consumidor: ante un mundo que exige más y mejor transparencia no se puede seguir pensando en métodos que la impiden. Y, en fin, diseñar el futuro del sistema tarifario de la energía con tendencias que graviten sobre la estimulación de la demanda en lugar de alentar al subconsumo.

Es su turno.


[1] Por su carácter de costes directos y variables, a nivel global son sensibles a las variaciones de la demanda: a más demanda de energía más de este tipo de costes y viceversa. Sin embargo, en lenguaje de costes marginales (producir/consumir una unidad energética más) ocurre que a mayor demanda el coste marginal de esta naturaleza se mantiene relativamente constante, es decir, se beneficia poco del elevado consumo, mientras que el subconsumo apenas le perjudica (a excepción de algunas materias primas que puedan perder su capacidad energética por sobrestock). O en lenguaje de elasticidad-demanda-coste: el coste marginal de esta naturaleza es poco elástico ante variaciones de la demanda (la única elasticidad proviene de los descuentos por volumen de compra de materias primas o el sobreprecio por estas compras fuera de previsión). Resumiendo: Estos costes crecen globalmente (como coste total) pero suelen mantenerse constantes unitariamente (como coste marginal) si aumenta la demanda y, en principio, el subconsumo no les perjudica. Por lo general su comportamiento unitario (coste marginal de esta naturaleza) se pueden representar como una función lineal (coste marginal en el eje de ordenadas y demanda en el eje de abscisas). Estos costes se pueden estimar actualmente entre un 15% y un 25% del coste total actual (estimación propia).

[2] Por su carácter de costes estructurales o fijos, a nivel global son insensibles a las variaciones de la demanda. Sin embargo, en lenguaje de costes marginales (producir/consumir una unidad energética más) ocurre que a mayor demanda el coste marginal de esta naturaleza es decreciente y viceversa, es decir, se beneficia mucho del consumo elevado y por contra le perjudica mucho el subconsumo (más coste estructural a repartir entre menos unidades producidas/consumidas). O en lenguaje de elasticidad-demanda-coste: el coste marginal de esta naturaleza es elástico ante variaciones de la demanda. Resumiendo: Estos costes se mantienen constantes globalmente (como coste total) pero decrecen unitariamente (como coste marginal) si aumenta la demanda pero, ojo, el subconsumo le perjudica y mucho. Por lo general su comportamiento unitario (coste marginal de esta naturaleza) se puede representar como una función cóncava (coste marginal en el eje de ordenadas y demanda en el eje de abscisas). Estos costes se pueden estimar actualmente entre un 75% y un 85% del coste total actual (estimación propia).

[3] Se entiende por coste de combustible el coste directo, perfectamente identificable y trazable del suministro de terceros de cualquier materia prima o consumible directamente relacionado con la generación de energía, sea combustible nuclear (incluyendo el coste de arranque/parada), gas, fuel, carbón nacional (incluyendo el coste de la subvención al mismo), etc. En este sentido las subvenciones actuales al carbón u otras directamente imputables al combustible deberían ir a esta partida según el criterio de esta propuesta.

[4] Se entiende por coste de generación/transporte/distribución (GTD) el coste operativo, perfectamente identificable y trazable de la operación y mantenimiento de la red eléctrica de alta, media y baja tensión, incluyendo el coste operativo y de mantenimiento de las centrales. Por coste operativo y de mantenimiento se entiende el coste directo vinculado al funcionamiento del sistema GTD, esto es, se excluiría del coste relacionado con la obsolescencia o averías por no uso, etc. por estar más vinculadas a conceptos de inversión y renovación tecnológica (o la falta de ellas).

[5] Amortización por inversiones en activos fijos, deuda financiera, sueldos y salarios no vinculados directamente al sistema GTD, gastos generales, publicidad, consejeros, etc. es decir, el resto de costes no incluidos en el apartado anterior. Obsérvese que aunque algunos de estos costes pudieran contemplarse como directos en algunos sistemas de contabilidad de costes, en esta propuesta se asumirían como indirectos por su carácter de coste marginal cóncavo respecto a la demanda.

[6] El “déficit de tarifa” (CNE: Informe sobre el sector energético español 2012) es un auténtico “cajón de sastre”, un artificio contable fruto de una decisión política tomada en un momento en que “para salir en la foto” del Euro y no superar cierto umbral de inflación y deuda se decidió con la muy hispánica técnica de la “patada hacia adelante” desplazar hacia el futuro el “coste real” de la energía. El problema es que el futuro ya es hoy y lo que se inició con una solución temporal se ha ido transformando en una solución estructural donde se han mezclado posteriormente cosas tan dispares como las primas a la inversión en energías renovables, las diferencias de ingresos y costes (no diferenciados), subvenciones de todo tipo, etc. En lo que sigue y dado que es imposible retornar al pasado para resolver el entuerto generado o discriminar los costes genuinos de otros conceptos endosados subrepticiamente a la tarifa (a falta de una verdadera auditoría pública de costes del sistema energético es más que probable que el beneficio de explotación esté encubierto entre la selva de conceptos que conforman el “coste real”) propongo no seguir hablando más del “déficit de tarifa” y tratarlo como una deuda histórica que ya no debe crecer más [7] y que por su carácter distorsionador del “coste real” debería ser absorbida en un plazo de tiempo suficiente para que no tuviera un impacto importante en la factura eléctrica, con un criterio de amortización amplio: p.ej. 30 años y una financiación mixta (el principal de la deuda con cargo a la factura eléctrica durante 30 años y los intereses con cargo a los presupuestos generales del Estado).

[7] En la actualidad (diciembre 2013) el stock de deuda con origen en el mal llamado “déficit de tarifa” se acerca peligrosamente a los 30.000 millones de euros.

[8] En la actualidad (REE: Informe del sistema eléctrico 2012) existe un saldo neto exportador (exportamos más energía de la que importamos). Sin embargo entiendo que existe todavía mucho margen de crecimiento, tanto en el aprovechamiento de la sobrecapacidad[9] de generación de energía (gracias a las denostadas renovables: Estudio del Impacto macroeconómico de las Energías Renovables en España 2011) como en la competitividad vía precios, como en la acción comercial para ampliar la base de clientes en el exterior.

[9] En algunos círculos (Los males del sistema eléctrico: sobrecapacidad, subvenciones y mix poco competitivo) se critica la sobrecapacidad energética que ha provocado la irrupción de las energías renovables en el sistema eléctrico español como la causa de todos los males. No estoy de acuerdo, en primer lugar porque ya he comentado antes que mientras no se realice una verdadera auditoría pública al llamado “coste real” no sabremos si nos están dando “gato por liebre” en los costes, por tanto lo único razonable es sugerir, como hago en esta propuesta, un rediseño de los costes en función de su distinto comportamiento ante la demanda. Y en segundo lugar, desde una perspectiva sistémica, la existencia de sobrecapacidad en un sistema es la mejor opción cuando la demanda no es totalmente previsible o tiene fuertes picos de subida como de bajada (fluctuaciones estadísticas) tanto en la oferta como en la demanda por la metereología (exceso de calor o frío afecta a la demanda, falta de viento, lluvia o sol afecta a la oferta renovable) y el coste (social y económico) de la no cobertura de la demanda es importante: cuando algunas personas arremeten contra el sobrecoste operativo de esta sobrecapacidad del sistema eléctrico siempre les digo que muchos sistemas que damos por buenos socialmente tienen capacidad ociosa y no por ello cuestionamos su coste o su existencia: los bomberos de guardia ociosos, los servicios de urgencias médicas de guardia ociosos, los servicios de seguridad ciudadana de guardia ociosos, etc. pues exactamente lo mismo con la sobrecapacidad del sistema energético: está ahí ocioso pero listo, de guardia, en standby, para dar servicio cuando lo necesitemos, luego, por favor, no generemos artificialmente una escasez que no es aconsejable ni creíble. Y si alguien tiene dudas sobre las ventajas de la sobrecapacidad que vea lo que pasa en otros lugares cuando los ciudadanos reclaman capacidad eléctrica (La ola de calor eleva las protestas contra el Gobierno argentino por los cortes de luz): Esto es lo que suele ocurrir cuando un sistema está “demasiado ajustado” u optimizado para atender una demanda promedio y no tiene en cuenta las fluctuaciones estadísticas de la demanda: tarde o temprano los “picos de la demanda” colapsan el sistema.

[10] La Tarifa Aceleradora del Subconsumo (TAS) se puede definir como aquel precio de venta a partir del cual se provoca un subconsumo, contribuyendo vía precios a deprimir la demanda. Por lo general se puede representar como una función cóncava (demanda en el eje de ordenadas y precio de venta en el eje de abscisas). No hace falta volver a recordar el impacto negativo que representa el subconsumo en un sistema donde los costes fijos o cuasi fijos tienen mayor peso y la falsa salida que representa la “huida hacia adelante” de seguir trasladando al precio los nuevos costes marginales, contribuyendo a acelerar (dinámicamente, por retroalimentación) el subconsumo, pues al quedar menos demanda para soportar la misma estructura y si los responsables del sistema siguen miopes aplicando la misma política de precios, no verán otra salida que seguir repercutiendo los costes entre los consumidores que queden, así hasta el colapso o quiebra final del sistema.

[11] La pobreza energética es la dificultad o la incapacidad de mantener la vivienda en unas condiciones adecuadas de tempe­ratura (como referencia, se podría tener en cuenta la definición de la Organización Mundial de la Salud, que considera tempe­ratura de confort, 21 °C en la sala de estar y 18 °C en el resto de estancias, o bien, cualquier otra definición que se considere técnicamente adecuada) así como de disponer de otros servicios energéticos esenciales como la iluminación, el transporte o la electricidad para Internet u otros dispositivos a un precio razo­nable. Esta es una definición de carácter general, que puede ser completada utilizando también otros criterios que permitan ac­tualizar el concepto cuando sea necesario. Fuente: Dictamen del Comité Económico y Social Europeo sobre el tema «La pobreza energética en el contexto de la liberalización y de la crisis económica» (Dictamen exploratorio)


Versión Simplificada

Un edificio con 100 vecinos cuesta mantenerlo 100 euros/año, de los cuales 80 euros son coste fijo (incluyendo impuestos para el ayuntamiento, el mantenimiento y un beneficio para el propietario) y 20 euros son coste variable (puede subir o bajar) en función del consumo de energía para luz y climatización de los vecinos. Los vecinos pagan 100/100=1 euro cada uno y el sistema es estable.

Con el tiempo el propietario, aconsejado por el ayuntamiento, hace unas reformas en el edificio y en consecuencia aumenta el coste fijo (hay que amortizar la inversión, pagar intereses a los bancos, aumenta el coste de mantenimiento, etc.), y también el coste variable porque todo sube (menos los salarios)... Y, ahora el coste fijo es 125 y el variable 25. Ya estamos en 150 euros/año.

El propietario, aconsejado por el ayuntamiento, dice que esa diferencia (de 100 euros a 150) no lo paguemos todo ahora, sino que paguemos una parte en la factura y el resto en el futuro (en eso consiste el “déficit de tarifa”). Digamos que mitad/mitad, o sea, que en lugar de pagar 150/100=1,5 euros/vecino, los vecinos paguen solamente 1,25 euros/año cada uno y el 0,25 restante (por vecino) se aplaza al futuro, avalada por el ayuntamiento (deuda a largo plazo, más los intereses para la banca, claro, para que haya negocio para todos).

Pero en el ínterin, hay una crisis económica y hay vecinos que ya no pueden soportar esa subida del 25% y deciden consumir menos, otros se marchan, etc. así que pongamos que ahora quedamos 75 vecinos para soportar 150 euros/año de coste total, o sea, que en realidad tendríamos que pagar 2 euros por vecino (150/75), y en consecuencia, el propietario decide que hay que seguir subiendo el precio porque con la baja de vecinos “somos menos para pagar la misma estructura de costes” (que al ser mayoritariamente de costes fijos apenas se nota si se consume menos)... y, consecuentemente vuelve a subir al año siguiente a 1,50 euros por vecino y para apaciguarnos nos dice que los otros 0,50 se aplazan al futuro (más los intereses, que van engordando la deuda anterior).

Al año siguiente se marchan otros 25 vecinos... y entonces el coste a repercutir es ya de 150/50 = 3 euros (sin contar la deuda aplazada y los intereses)... una cantidad que ya solo algunos cuantos privilegiados pueden pagar.

¿Cómo termina la película?. Pues muy mal, quedando cada vez menos vecinos para soportar la misma estructura de costes (que, recordemos, no varía sustancialmente porque haya menos vecinos y consuman menos), al que añadir la deuda diferida (“déficit de tarifa”) más los intereses, que no dejan de crecer (ya se sabe, el efecto del interés compuesto) y que si la sumamos a la factura nos daría un patatús... al final sólo hay dos salidas: (1) bajan los precios para atraer nuevos vecinos al edificio y así soportar entre más vecinos la estructura de costes y el déficit acumulado... o (2) el propietario quiebra por exceso de coste estructural y falta de ingresos suficientes... quedándose el ayuntamiento con los activos (el edificio) y los pasivos (la deuda acumulada y el coste de estructura)... y ya se sabe que el ayuntamiento somos todos.


7 de diciembre de 2013

Desigualdad de Jensen: cuando más significa menos y viceversa

Johan Ludwig William Valdemar Jensen (1859-1925) más conocido como Johan Jensen, fue un ingeniero danés apasionado de las matemáticas que ha pasado a la historia por ser el primero en interesarse por un fenómeno característico de las funciones continuas no lineales (convexas o cóncavas), conocido hoy como “Desigualdad de Jensen”, una propiedad que aparece en múltiples contextos y que de pocos años para acá ha comenzado a encontrar aplicaciones interesantes, desde el ámbito financiero al campo sanitario y otros por descubrir. En lo que sigue me he basado en el excelente libro “Antifrágil” de Nassim Nicholas Taleb y otros documentos disponibles en la red para realizar una aproximación didáctica y a la vez divertida de esta interesante propiedad de las funciones no lineales.

Se suele decir que de niños aprendimos fácilmente lo que es una función lineal: cuando existe proporcionalidad entre “algo” (p.ej. la fuerza con la que lanzamos a ras de suelo una bola de billar o de bowling) y la “función de ese algo” (p.ej. la distancia que alcanza la bola), funciones que aprendimos a calcular y a representar como una recta en el sistema de coordenadas inventado por un señor francés llamado René Descartes y que en un esfuerzo de reduccionismo creímos o nos hicieron creer que todo lo que sucedía en el mundo podría entenderse aplicando linealidades escolares, o haciendo algo más sofisticado como simplificar las ecuaciones hasta hacerlas lineales. Toda una generación, la de nuestros padres, que como mucho inferían las cosas aplicando la simple regla de tres, todo un paradigma de la linealidad.

Tal vez por esa razón nos cuesta mucho más aprender las funciones no lineales, ya sabe, aquellas donde no hay proporcionalidad y la representación en el sistema de coordenadas de ese señor francés tan simpático no sea una línea recta sino algo más difícil de dibujar, una parábola, esto es cuando, siguiendo el ejemplo del balón, no existe proporcionalidad entre “algo” (p.ej. la fuerza con la que pegamos un puntapié a una pelota hacia arriba) y la “función de ese algo” (p.ej. la distancia que alcanza la pelota, sometida entonces a otras consideraciones como el ángulo de la trayectoria vertical u otras más sutiles como la resistencia del viento, etc.), es decir, puede ser suficiente incorporar una dimensión adicional (en este caso la inclinación o la altura) para que el mismo esfuerzo (el impulso a la pelota) tenga un resultado (en este caso la distancia) distinto.

La cosa se complica aún más cuando hablamos de cosas más reales y cotidianas como, por ejemplo, la recientemente comentada relación no proporcional (no lineal) entre la inversión en educación y el ranking del Informe PISA 2012 revelan algo inquietante para una mente lineal: “Los resultados de España son inferiores a los que se esperarían en función de su PIB per cápita”. Es decir, a igualdad de “algo” (PIB per cápita) otros países obtienen mejor rendimiento en las pruebas de PISA, es decir, España obtiene menos de la “función de ese algo” que cabría esperar. ¿Por qué?. Pues porque la realidad es no lineal por naturaleza. Así, en el caso concreto del Informe PISA 2012 se nos recuerda algo obvio desde el punto de vista no lineal: “Es importante cómo se gasta y no cuánto se gasta”. Otra vez nos encontramos con una limitación de la mente lineal, que no suele entender estas “sutilezas” de la realidad.

Otro ejemplo: A los portavoces del gobierno español últimamente les ha dado por repetir hasta la saciedad que hay que “redoblar esfuerzos” para salir de la crisis: todo un canto a la política de austeridad, un tópico de los últimos discursos políticos (más de 600.000 referencias en Google). En lenguaje matemático: si sustituimos la variable independiente (x) por “esfuerzo” y la variable dependiente f(x) por “resultado”, así x = esfuerzo y f(x) = resultado, es decir, cuando nos dicen “hay que redoblar el esfuerzo” están diciendo que hay que “hacer más esfuerzo, doblarlo, insistir en ello (en la misma dirección, en la misma política)”... o sea, “más de x”... ¿para qué?... eso no lo dicen pero es de suponer que es para “alcanzar un mayor y mejor resultado”... o sea, “más de f(x)”... pues (siguiendo con su lógica lineal) dado que los resultados todavía son pobres, si aumentamos los esfuerzos (la política de recortes) los resultados mejorarán (habrá más crecimiento y empleo)... y ahí es donde tropieza la falacia de una mente lineal... y es lo que estoy criticando, que la realidad no se comporta de manera lineal.

En un sistema lineal tiene su lógica, dado que a “+ de x” = “+ de f(x)”. Sin embargo, en un sistema no lineal (los que abundan en la realidad y en la Economía: curva de demanda, curva de oferta, curva de Laffer, curva de Phillips, curva de Engel, trampa de liquidez, ley de los rendimientos decrecientes, etc.) es incierto, porque “+ de x” no siempre significa “+ de f(x)”, como veremos a continuación. Y es que confundir las propiedades de la variable dependiente con las de la variable independiente es típico de políticos de mentalidad lineal. He aquí una simple pregunta para desenmascarar a los políticos que no ven más allá de la regla de tres: ¿doblar el esfuerzo implica doblar el resultado?... para los políticos que no lo entienden espero que cuando su médico les diga que se tomen una pastilla para dormir bien o una dosis de antibiótico para combatir una infección no se tomen doble ración por su cuenta esperando con ese proceder “el doble del resultado”... a lo mejor por ahí sí que entienden el mensaje de la no linealidad [1].

La Desigualdad de Jensen viene a ser la clave de bóveda que nos permite entender mejor las propiedades no lineales de la naturaleza. De manera informal, podemos definir esta desigualdad así: cuando la relación que liga una variable dependiente “y” (o variable efecto) con una variable independiente “x” (o variable causa) no es lineal, se cumple siempre que el valor esperado de “y” correspondiente al promedio de “x” es diferente (mayor o menor, según la forma de la función: cóncava o convexa) del promedio de los valores observados de “y”. Digámoslo de manera más informal: cuando no existe una relación de proporcionalidad entre dos variables, el promedio de la que se comporta como efecto resultará subestimado o sobreestimado si lo obtenemos a partir del promedio de la variable que funciona como causa. En otras palabras, es casi seguro que nos equivocaremos cuando estimemos el valor de la variable dependiente a partir de la variable independiente.

¿Y de dónde proviene esa subestimación o sobreestimación?. Pues proviene de nuestra habitual mente lineal, acostumbrada a la fácil extrapolación de la regla de tres (un poco de más aquí, es un poco de más allá; un poco de menos aquí, es un poco de menos allá), donde damos por supuesto que el comportamiento de la función va a ser equivalente, independientemente de que se trate de una función lineal o no lineal.

Veamos gráficamente las diferencias entre una función lineal y otras funciones no lineales para encontrar el fallo de nuestra forma de pensar. Comenzamos pues con una sencilla función lineal, donde veremos que en ellas si es cierto que la función del promedio de la variable (x) es igual a la media de la función (y), como muestra por ejemplo y=f(x)=2x


En este caso, la función del promedio de la variable (5,5) es 11, que es igual a la media de la función (11), como se puede ver en el ejemplo de la Excel que acompaña este post. Sin embargo cuando la función no es lineal, la cosa ya no es tan trivial, pues en una función no lineal (cóncava o convexa) la función de la media de una variable no es igual a la media de la función.

Así, si la función no lineal es convexa (forma de sonrisa), la función de la media de la variable será menor a la media de la función, o al revés, la media de la función será mayor que la función de la media de esa variable, como muestra por ejemplo y=f(x)=x2


En este caso, la función del promedio de la variable (5,5) es 30,25 mientras que la media de la función es 38,5. Es decir, si hubiéramos estimado el resultado promedio de la función a partir de la función del promedio de la variable nos habríamos equivocado en más de un 27% de error como se puede ver en el ejemplo de la Excel que acompaña este post. Mientras que si la función no lineal es cóncava (forma de puchero), la función de la media de la variable será mayor a la media de la función, o viceversa, como muestra por ejemplo y= f(x)=√(x) si bien esta es una función sólo ligeramente cóncava.


En este caso, la función del promedio de la variable (5,5) es 2,35 mientras que la media de la función es 2,25. Es decir, si hubiéramos estimado el resultado promedio de la función a partir de la función del promedio de la variable nos habríamos equivocado en más de un 4% de error como se puede ver en el ejemplo de la Excel que acompaña este post.

¿Qué implicaciones tiene la Desigualdad de Jensen?. Me atrevería decir que muchas y variadas. Tal vez la más importante sea aprender a reconocer dos sesgos típicos de convexidad (o concavidad): confundir la media de algo (p.ej. la fuerza con la que empujamos algo, el esfuerzo en perseguir un resultado, etc.), con la función de ese algo (p.ej. la distancia a la que se desplaza ese algo, el resultado de un esfuerzo), o también, el sesgo más sutil: confundir la función de la media con la media de una función... pues, como hemos visto, ante una función convexa nos podemos encontrar con la sorpresa de que al intentar estimar el resultado promedio a partir de la función de la media estemos subestimando el resultado y, viceversa, cuando estamos ante una función cóncava (convexidad negativa) nos encontraremos con la sorpresa de estar sobreestimando el resultado promedio a partir de la función de la media.

Otra implicación importante es la consideración estratégica, es decir, preguntarse por ¿qué pasará con la variable efecto si aumenta la variable causa (la variable que hasta cierto punto podemos controlar)?: si la respuesta es una aceleración positiva, entonces estamos ante una función convexa (suponiendo una función monótona en el intervalo estudiado), lo que implica un cierto “efecto palanca”, esto es, que podemos conseguir más de f(x) con menos esfuerzo de (x) y para ello deberíamos buscar los puntos de apalancamiento donde con menos esfuerzo se alcance un mayor resultado; mientras que si la respuesta es una aceleración negativa, entonces estamos ante una función cóncava (suponiendo monotonía) y en consecuencia deberíamos plantearnos un cambio, bien minimizando la variable causa (x) o bien, si esto no es posible por ser (x) una variable que escapa a nuestro control (exógena), entonces reducir o evitar nuestra exposición a los estados no deseables de f(x).

En conclusión, y volviendo al Informe PISA o al mantra del “redoble de esfuerzos” de nuestros políticos, la Desigualdad de Jensen nos recuerda que cuando el más de lo mismo no conduce a un mejor resultado (en lo personal, en lo empresarial, en lo político) es porque estamos ante una realidad no lineal y por tanto es el momento de realizar cambios cualitativos, pasando del cuánto (hacer más) al cómo (hacer diferente).

Como ya hice anteriormente con la ecuación logística, el modelo Lotka-Volterra y la inecuación de Gott para realizar simulaciones y observar el comportamiento del modelo nada mejor que un ejemplo basado en Excel. A practicar pues: Desigualdad de Jensen en Excel


[1] Desde un punto de vista sistémico, una relación lineal entre dos variables es una “rara avis” en la naturaleza, algo posiblemente único que sólo puede darse en un ambiente artificial, en un entorno controlado o aislado, es decir, en un sistema cerrado, sea real o por lo general abstracto. Sin embargo, en un sistema abierto como en la naturaleza o en la economía, lo habitual es encontrarse con relaciones no lineales, donde la intervención de más variables adicionales que interactúan con las variables estudiadas y/o de fenómenos de retroalimentación entre la (mal) llamada “variable causa” y la (mal) llamada “variable efecto” (en la retroalimentación, causa y efecto son indistinguibles, véase por ejemplo Ecuación Lotka-Volterra), generan esa percepción de no proporcionalidad entre la variable causa y la variable efecto escogidas de entre las muchas posibles. En otras palabras, es nuestro afán reduccionista, simplista, el que al abordar la complejidad del mundo escogiendo dos únicas variables observadas en lugar de todas las posibles y su calificación de causa (variable independiente) y efecto (variable dependiente) el que propicia la percepción de “extrañeza” por la no linealidad.

Para saber más: Johan Jensen en Wikipedia (inglés)

Biografía de Johan Jensen (inglés)

Desigualdad de Jensen en Wikipedia

Desigualdad de Jensen en Encyclopedia of Math (inglés)

Desigualdad de Jensen en Math World (inglés)

Función no Lineal en Wikipedia

No Linealidad en Wikipedia

Función convexa en Wikipedia

Función cóncava en Wikipedia

Esperanza Matemática en Wikipedia

El problema de la media, el problema con la media

Desigualdades


3 de noviembre de 2013

De espionaje masivo, correlaciones espurias y trampas de la inteligencia

Alguien tendría que poner un poco de sentido común en esto del espionaje masivo recientemente descubierto a raíz de las revelaciones del joven espía estadounidense Edward Snowden a varios medios de comunicación. Cuando entre los años 40 a los 80 del siglo XX se decidía “pinchar” un teléfono (fijo, por supuesto) había que dedicar muchas horas/hombre a escuchar, filtrar, tamizar, transcribir, sintetizar... o como se dice en la jerga de inteligencia, pasar del ruido al dato y del dato a la información de inteligencia.

Hoy cuando se decide “pinchar” se hace masivamente, indiscriminadamente, en todos los canales de comunicación (teléfonos fijos, móviles, correo electrónico, redes sociales, etc.) y por medios totalmente automáticos, “desatendidos”, es decir, sin necesidad de intervención humana... y eso ya no hay quien lo pare, porque cuando no sabes lo que buscas pero la tecnología te permite el acceso a todas las comunicaciones electrónicas, buscas en todas partes sin discriminación... como pollo sin cabeza. ¿Resultado?, amén del consabido problema de la infoxicación que ya abordé en una entrada anterior, resulta risible, por cómica, la contraposición entre la justificación estándar del espionaje masivo (luchar contra el narcotráfico y el terrorismo yihadista o convencional) con el hecho fáctico de espiar, entre otros, a los cardenales del Vaticano o a los líderes europeos. Patética justificación, ¡¡por Baal!!.

Sin embargo, lejos de acelerar el proceso de conversión del dato o metadato en información de inteligencia (un proceso que requiere, siempre, obligatoriamente, la intervención humana y por tanto es lento y caro), el que decide que ese modo de entender la “inteligencia” es absolutamente necesario para nuestra seguridad que estos sistemas funcionen masivamente y en “modo automático” registrando todas las transacciones siguiendo la doctrina del “just in case” (por si acaso) se mete en un callejón sin salida, porque por la propia naturaleza de estos sistemas, exacerbados por el “just in case”, cada vez necesitará más y más recursos informáticos, de velocidad (ayer megaflops, hoy gigaflops, mañana teraflops,...), de almacenamiento (ayer terabytes, hoy petabytes, mañana exabytes,...) y de construcción de algoritmos cada vez más sofisticados, en lo que se ha venido en llamar el “Big Data” o análisis de grandes bases de datos, una tecnología con efectos contraproducentes que el estadístico Stanley Young viene alertando contra el fenómeno que llama “la tragedia de los grandes conjuntos de datos”: cuantas más variables se estudian en un gran conjunto de datos, más son las correlaciones que pueden evidenciar una significación estadística espuria, es decir, que se puedan tomar como relaciones de causalidad simples relaciones de casualidad, o sea, que cuantos más datos tengamos más probabilidades de encontrar esas relaciones ilusorias sin ninguna significación real, aunque por pura “fuerza bruta” tengan alguna significación estadística (se sabe por ejemplo que por simulación mediante el método de Montecarlo para generar variables aleatorias, las correlaciones espurias crecen exponencialmente con el número de variables), lo que significa que en manos no adecuadas se pueden malinterpretar ciertas correlaciones y el analista termine por ser “engañado por los datos”, o, lo que es peor, que el que analiza o recibe la información termine con su salud mental alterada como le sucedió al célebre matemático y premio Nobel John Nash (recuerden las escenas del film “Una mente maravillosa” que transcurren en la Rand Corporation) cuando colaboró con los servicios de inteligencia de su país: al final veía al enemigo en todas partes porque veía correlaciones en todo.

Echo en falta que estas agencias de inteligencia muestren una verdadera medida para la “eficiencia de la información de inteligencia” para medir su productividad, a semejanza del TRE o Tasa de Retorno Energético (la relación entre energía obtenida frente a la energía invertida), es decir, algo como una Tasa de Retorno de Información de Inteligencia o TRI2 (que podría medirse como la información de inteligencia obtenida versus los recursos de procesamiento y almacenamiento invertidos), pero a tenor de cómo aumenta exponencialmente la presión por disponer de estos recursos (el denominador) es simple deducir que la TRI2 es cada vez más infinitesimal, es decir, irrelevante, vamos, como echar cada vez más paja en un pajar en busca de una aguja, en lugar de usar un detector de metales... lo que conlleva entonces preguntarse legítimamente si lo que se persigue es otro (u otros) objetivo(s) al verbalizado, por supuesto inconfesables.

Porque, no seamos ingenuos señores espías: una gran empresa, un gobierno o un ciudadano no tienen la opción de prescindir de las comunicaciones electrónicas, porque hacerlo les restaría competitividad o eficiencia... pero ay, amigos espías, una célula terrorista sí tiene la opción de prescindir de las comunicaciones electrónicas (de hecho les es más eficiente usar personas como correos para transmitir mensajes, lo mismo que los narcotraficantes), es más, si un terrorista quiere tener éxito en su misión debe prescindir obligatoriamente de las comunicaciones electrónicas, luego, por favor, no nos vengan con el cuento de la seguridad porque desde el llamado “sesgo de opcionalidad” [1] queda muy claro quien tiene opción y quien no, quien puede y quien no puede “pasar por el aro” de las comunicaciones electrónicas. En otras palabras, desde el “sesgo de opcionalidad” se desnuda el argumento de la seguridad, quedando en evidencia lo que persigue realmente el espionaje masivo: sacar ventaja económica y/o militar y/o política, es decir, el interés estratégico es el motivo último del espionaje masivo.

El hecho cierto que hayamos tenido en Occidente tres grandes atentados en los últimos doce años y decenas de pequeños atentados producidos por “lobos solitarios” (que emulando al desaparecido archienemigo líder yihadista Osama bin Laden prescinden, obviamente, de las comunicaciones electrónicas) a pesar de la presencia temprana de esta tecnología de espionaje, esos hechos demuestran la poca eficiencia práctica del espionaje masivo para impedir atentados (aunque, por el contrario, sí han sido muy eficientes como “argumento del miedo” para justificar una mayor inversión en estos sistemas), amén de inferirse de estas actuaciones que en realidad estas agencias no espían lo que deberían (financiación y reclutamiento de células terroristas, análisis del “motus” y génesis yihadista, etc.) y cómo deberían (infiltrándose, anticipar y proyectar situaciones de vulnerabilidad sistémica, modelizar sistémicamente el comportamiento terrorista, etc.), sino lo que les permite esta tecnología. Es decir y contradiciendo al presidente Obama, no se trata tanto de que la NSA o cualquier otra agencia no haga lo que (tecnológicamente) puede llegar a hacer, sino poner énfasis en lo que sí pueden hacer y no hacen. La mala noticia es que las posibilidades tecnológicas ciegan la visión de los límites de lo que se puede alcanzar y la buena noticia es que llegará un momento que esa locura se detendrá a sí misma: cuando se percaten que necesitan toda la energía del planeta para procesar todas las comunicaciones del planeta. Espero que en algún momento de lucidez los que deciden sobre estas cosas recuerden el cuento del genial Borges “El espejo y la máscara” donde relataba la ambición de unos cartógrafos imperiales chinos de trazar un mapa tan grande como el territorio.

Queridos espías, si de verdad queréis conocer y anticiparos a “los malos” no os queda otra que respetar aquello que hace muchos años decía uno de los padres de la Cibernética: “Solo la variedad puede absorber variedad” (W. Ross Ashby), dicho de otro modo, si sólo tenemos un modo de espiar (el que nos ofrece la tecnología descrita, que consideráis lo más de lo más), no podremos absorber todos los intentos de “los malos” por hacer daño (que de hecho ya descuentan en su conducta ese modo de proceder, reduciendo su exposición a la tecnología o sorteando sus obvios algoritmos de búsqueda), es decir, no queda otra que ser más listos, más inteligentes que “los malos”... pero para ser más inteligentes lo primero que tenéis que hacer es no caer en la estupidez de creeros muy inteligentes porque sobreponderáis la tecnología de la información a vuestro alcance, o caer, como decía el padre del Pensamiento Lateral en “la trampa de la inteligencia” (Edward de Bono), esto es, creer que la inteligencia consiste en ser más hábiles, rápidos y reactivos, sino en ser más sabios que habilidosos, más profundos que rápidos y más proyectivos que reactivos. La mala noticia es que estas cosas no se consiguen con más tecnología y la buena noticia es que para lograrlo sólo es necesaria una cosa que son tres: pensar más, mejor y diferente.


[1] El sesgo de opcionalidad es un sesgo de selección similar al que incurrieron las empresas de sondeos cuando en los albores de la telefonía decidieron ahorrarse costes haciendo las encuestas telefónicamente: atribuyeron erróneamente que la muestra de los encuestados telefónicamente era representativa del universo de la población... cuando sólo los ricos tenían teléfono. Hoy, a diferencia de entonces, prácticamente todo el mundo usa las comunicaciones electrónicas... porque entre otras cosas no tiene opción a no hacerlo, porque no hacerlo es un desincentivo (incurriría en unos costes y una ineficiencia que no se pueden permitir)... menos los que sí tienen opción (de ahí la opcionalidad) porque saben que para el “éxito” de su misión es obligatorio prescindir de las comunicaciones electrónicas, porque no hacerlo sí tiene incentivos para ellos, de ahí que le atribuya a este sistema de escuchas un sesgo de opcionalidad y, consecuentemente, porque imagino que las agencias de inteligencia no pueden ignorar este sesgo, deduzca que el verdadero objetivo no es el verbalizado... y si lo ignoran, entonces, como decía no sin cierta sorna el ensayista Luis Montoto, ¡¡apaga y vámonos!!.


1 de octubre de 2013

¿Cuánto tiempo dura algo?. De la inecuación de Gott al efecto Lindy

El III Reich decía de sí mismo que iba a gobernar Alemania durante 1.000 años... apenas duró 12 años (1933-1945). El partido de la UCD en España decía de sí mismo que iba a gobernar durante 100 años... apenas duró 5 años (1977-1982). Al parecer los humanos somos muy buenos calculando la esperanza de vida de una persona en base a su sexo y edad mediante las tablas actuariales, pero un poco torpes para estimar la duración de otras cosas. ¿O no?.

Inecuación de Gott

Cuando el matemático y astrofísico John Richard Gott se encontraba ante el Muro de Berlín en 1969, intentó estimar la duración probable del Muro basándose en un solo dato, el tiempo transcurrido hasta ese momento, 8 años (1961-1969) y en base al principio atribuido a Copérnico (los humanos no somos observadores privilegiados del universo), re-elaborado posteriormente como “principio de mediocridad” que viene a decir que cualquier cosa seleccionada al azar que observemos en un momento determinado no estará ni al comienzo ni al final de su vida: lo más probable es que esté en algún punto alrededor de la mitad de su vida. Armado con esta presunción y un mínimo aparataje matemático, Gott se atrevió a calcular que con una fiabilidad del 50%, al Muro de Berlín le quedasen (en 1969) menos de 24 años de existencia (exactamente entre 2,67 y 24 años adicionales). Como ustedes saben, el Muro de Berlín fue derribado en 1989, es decir, veinte años después de la profecía matemática de Gott.

No obstante y tras este éxito, su argumento fue tildado de incompleto, así que lo volvió a someter a contraste empírico. En concreto, Gott elaboró una lista de los 44 espectáculos que había en la cartelera de Broadway un día determinado, el 17 de Mayo de 1993, y predijo que los que llevaban más tiempo en representándose serían los que durarían más tiempo en cartel, y viceversa. Su predicción se demostró correcta en un 95% de los casos.

El problema al que se enfrenta este tipo de predicciones, como la propuesta por Richard Gott o como la que veremos después con el llamado efecto Lindy, desafía el sentido común, pues al común de los mortales nos podría parecer insuficiente o temerario que con apenas el conocimiento de una variable (el tiempo transcurrido) y un coeficiente nos atrevamos a realizar la estimación de la duración de casi cualquier cosa. Ni que decir tiene que el problema tiene su enjundia a un nivel fundamental, pues no pasaría de ser un divertimento matemático si no fuera porque, a mi entender, el enfoque abordado por Gott revela algo profundo sobre nuestra manera de comprender la función de probabilidad en la duración de las creaciones humanas para entrar de lleno en el campo de la metamatemática.

Gráficamente el problema de la estimación de casi cualquier cosa se podría representar de este modo:


En donde partiendo de un único dato, el tiempo transcurrido desde el inicio de algo y el tiempo presente podemos estimar el tiempo adicional o restante de ese algo.

Un cálculo ciertamente atrevido.

El enfoque de Richard Gott está basado en la aplicación de la presunción copernicana antes comentada: el momento presente de la vida de ese algo no es excepcional, es decir, no está situado ni al inicio ni al final de la vida de ese algo, un principio que proviene del ámbito de la astronomía, pero que Gott se atrevió a aplicar al ámbito de lo cotidiano. Conociendo por tanto el tiempo transcurrido sólo nos resta aplicar un coeficiente, que en el caso de la inecuación Gott se conoce como factor de fiabilidad, que podríamos entender como probabilidad de la estimación, entendiendo que a menor probabilidad más error aunque menor variabilidad (mayor precisión) y a mayor probabilidad menor error aunque mayor variabilidad (menor precisión), entendiendo por variabilidad la diferencia entre la estimación mínima y la máxima. Nota: 100 - fiabilidad = probabilidad de error.

Otra manera de entenderlo sería que cuanta menos fiabilidad correspondería un rango de solución más estrecho (F < 50%), es decir, más precisión pero más probabilidad de error y cuanta más fiabilidad correspondería un rango de solución más amplio (F > 50%), es decir menos precisión aunque menos probabilidad de error. Una recomendación al operar con la fórmula propuesta por Richard Gott es comenzar usando una probabilidad del 50% que es justo la que solía utilizar su autor.

La conocida como inecuación de Gott es de una elegante sencillez.


Para operar con la inecuación de Gott podemos estimar casi cualquier cosa, preferentemente de carácter no orgánico (tecnología, conceptos, construcciones humanas, etc.) aunque a modo de curiosidad podemos calcular otras cosas menos típicas. Al final de este post incluyo una Hoja Excel para simular el funcionamiento tanto de la inecuación de Gott como el efecto Lindy, así como visualizar gráficos de sus resultados con distintos valores de los coeficientes (ejemplo de tiempo base: 10 años).


Como podemos observar a medida que incrementamos el factor de fiabilidad, el tiempo mínimo adicional tiende a cero y el tiempo máximo adicional tiende a infinito. De este modo podríamos afirmar que cuanta mayor fiabilidad queramos obtener, más amplio será el rango del resultado y viceversa, dándose una imposibilidad similar a la que encontramos en el principio de incertidumbre de Heisenberg: no podemos obtener a la vez la máxima precisión (menor variabilidad) y el mínimo error (mayor probabilidad de acierto): si no queremos cometer un error en el pronóstico deberemos sacrificar la precisión y viceversa. Ni que decir tiene que una fiabilidad del 100% implica, en consecuencia, un rango infinito de solución, por lo que en consecuencia nos conformaremos con fiabilidades algo menores para no hacer inservible el resultado. Lógicamente la inecuación de Gott no es algo infalible, es solamente una aproximación sencilla (aunque profunda) a un problema complejo partiendo de muy poca información.

Efecto Lindy

En esto que el 13 de Junio de 1964 se publicó un artículo en la revista estadounidense The New Republic en el que un tal Lindy escribió a propósito de la ajetreada vida de los actores cómicos: “Las expectativas de futuro de la carrera profesional de un actor cómico televisivo son proporcionales a la cantidad total de su presencia previa en el medio”. Este comentario, bastante intuitivo, escrito a vuela pluma y en la línea del conocido dicho El ganador se lo lleva todo vino en llamarse efecto Lindy, una heurística que autores como Benoît Mandelbrot y Nassim Nicholas Taleb han recogido en alguna de sus obras.

Siguiendo la interpretación del efecto Lindy en Taleb (Antifrágil): Para lo perecedero, cada día adicional de vida se traduce en una esperanza de vida adicional más corta. Para lo imperecedero, cada día adicional puede suponer una esperanza de vida más larga.

Así pues, cuanto más prolongada haya sido la supervivencia de una tecnología, un concepto o una construcción humana, mayor será el periodo de tiempo que podemos esperar que continúe existiendo. Como sugiere Taleb: Si un libro lleva publicándose cuarenta años, puedo confiar en que se sigan imprimiendo nuevas ediciones otros cuarenta años más. Otro ejemplo (tomado del estadístico John D Cook): Hemos escuchado a Beethoven durante más de doscientos años, a los Beatles durante cuatro décadas, y a Beyoncé durante aproximadamente una década, lo que implica que podríamos razonablemente esperar que la fama de Beyoncé dure aproximadamente otra década, mientras que los Beatles se puede esperar que mantengan su vigencia al menos otros cuarenta años, y que Beethoven permanezca sin caer en la oscuridad durante al menos doscientos años más.

Otro ejemplo, la gran pirámide de Guiza (2.570 años A.C.) es muy probable que sobreviva a muchas construcciones humanas del siglo XX o XXI, pues, de algún modo se puede afirmar con rotundidad que así como la pirámide ha demostrado que ha sobrevivido más de 4,5 mil años, otras cosas construidas durante el siglo XX o XXI aún tienen por demostrar esa durabilidad. Por tanto, hablando en términos de probabilidades, no de verdades absolutas, algo que se haya mantenido durante muchos años incrementa sus posibilidades de permanecer durante otros muchos. Y por el contrario, una obra o una tecnología es más vulnerable y susceptible de desaparecer durante sus primeros años de vida.

Por expresarlo de forma simple, esto nos dice que lo que lleva existiendo ya mucho tiempo no “envejece” como lo hacen las personas, sino a la inversa, es decir, sumándose tiempo restante de vida: cada año que pasa sin extinguirse, se duplica su esperanza de vida adicional de ese objeto, concepto o tecnología. Es decir, al contrario que en un ser vivo, en el que cuanto mayor es su tiempo de vida, menor es su expectativa de vida, en un producto informacional, un concepto, una construcción o una tecnología, cuanto más tiempo persiste, más probabilidades tiene de seguir persistiendo, y por tanto, la robustez es proporcional a la duración de su vida.

Como habrá podido deducir, el enfoque del efecto Lindy es distinto al de la inecuación de Gott, y a diferencia de este no ofrece un rango de solución (mínimo y máximo) y el coeficiente no se expresa como una probabilidad sino como un coeficiente de proporcionalidad que regula el espesor de la distribución, partiendo de la condición C > 1 (el resultado es una curva asíntota similar a la distribución de Pareto), de tal modo que para valores del coeficiente de proporcionalidad cercanos al valor 1, la expectativa de vida se eleva exponencialmente, mientras que a medida que se acerca al valor 2, la vida esperada se aproxima a la existencia pasada (con C = 2 la esperanza de vida es igual a la existencia previa) y a valores superiores a 2, la vida esperada se reduce con tendencia a cero.

Otra manera de entenderlo sería que para calcular la esperanza de vida de las cosas menos perecederas les correspondería un rango de valores con el coeficiente de proporcionalidad de 1 < C < 2 y para las cosas más perecederas les correspondería un rango con C > 2. Una recomendación al operar con la fórmula del efecto Lindy es aplicar un coeficiente próximo a 1 (hacia la izquierda de la tabla Excel adjunta) para aquellos entes u objetos con mayor antigüedad y un coeficiente próximo a 2 o superior (hacia la derecha) para los entes u objetos con menor antigüedad y observar el comportamiento del modelo en todo el rango 1 < C < 3.

La conocida como adaptación de Mandelbrot al efecto Lindy es también de una elegante sencillez.



Como podemos observar a medida que incrementamos el coeficiente de proporcionalidad, el tiempo adicional esperado tiende a cero y, viceversa, cuanto más próximo a 1 (pero nunca igual a 1) más elevado es el tiempo adicional esperado (algo en principio más probable en aquellas cosas con mayor antigüedad o menos perecederas). De este modo podríamos afirmar que cuanto más perecedero consideremos al objeto o ente en cuestión, más será de aplicación un coeficiente próximo a 2 o superior y cuanto menos perecedero más será de aplicación un coeficiente inferior a 2.

Como ya hice anteriormente con la ecuación logística y el modelo Lotka-Volterra para realizar simulaciones y observar el comportamiento del modelo nada mejor que un ejemplo basado en Excel. A practicar pues: Inecuación de Gott y Efecto Lindy en Excel

Para saber más: Principio de Mediocridad en Wikipedia

John Richard Gott en Wikipedia

El Argumento del juicio final

El efecto Lindy: cuanto más tiempo sobrevive una tecnología, más tiempo va a sobrevivir

The Lindy effect

Beethoven, Beatles, and Beyoncé: more on the Lindy effect


1 de septiembre de 2013

Momento Minsky: Fragilidad Sistémica

“Una característica fundamental de nuestra economía es que el sistema financiero oscila entre la robustez y la fragilidad, y esa oscilación es parte integrante del proceso que genera los ciclos económicos.” (Hyman P. Minsky, 1974).

Como bien señala Miguel Puente en Caótica Economía: “La idea principal de Minsky la podemos resumir en una simple cita, “As the system matures, the likelihood of inestability increases” [Conforme un sistema madura, la probabilidad de que se haga inestable aumenta]. En el terreno económico esto se traduce por el hecho de que conforme un sistema estable avanza en el tiempo, las condiciones financieras que operan “por debajo” empiezan a incrementar el riesgo de inestabilidad. Es la regulación financiera e institucional la que aleja al sistema de estas inestabilidades, sin embargo, (I) un periodo de bonanza hace que estas regulaciones se relajen, permitiendo que aflore la inestabilidad y (II) estas estructuras regulatorias deben evolucionar conforme a las practicas del mercado, pues si no, su efectividad se ve mermada.”

El término Momento Minsky fue acuñado por el economista Paul Allen McCulley en honor a Minsky para describir la crisis financiera rusa de 1998 aunque se hizo realmente popular durante la crisis financiera de 2007-2009. El concepto viene a ser pariente cercano al de Cisne Negro que hemos abordado en otra ocasión: El cisne negro de Nassim Nicholas Taleb si bien tiene una connotación distinta en el sentido de que así como un suceso de Cisne Negro es por definición imprevisible y de catastróficas consecuencias, un Momento Minsky, aún siendo igualmente catastrófico, es en cierto modo previsible, porque sabemos que tiene que ocurrir porque tiene su génesis en una inestabilidad endógena (derivada del propio sistema, no de circunstancias externas) es decir, se trata de una fragilidad sistémica si bien no sabemos cuándo ocurrirá.

Hyman P. Minsky dedicó los últimos años de su vida a estudiar este fallo sistémico: el cómo la dinámica interna del sistema financiero le conducía, sin necesidad de perturbaciones externas, a un colapso repentino (aunque previsible) del valor de los activos, un colapso que a modo de simplificación es precedido por una situación de sobreapalancamiento (exceso de financiamiento a crédito en base a expectativas demasiado optimistas o simplemente especulativas que da lugar a un sobreendeudamiento), seguido por insuficiente generación de efectivo para hacer frente al servicio de la deuda (intereses y/o principal), seguido por una ola de ventas de activos que conduce inevitablemente a una depreciación de los activos o un incremento del precio del dinero que acelera aún más la depreciación de los activos y finalmente el default y la recesión, en un ciclo que se retroalimenta positivamente entre todos los agentes intervinientes en el sistema. Para ello Minsky recurre a tres perfiles de inversión que aunque inicialmente son diferentes, cuando se acerca el Momento Minsky tienden a confundirse y solaparse.

Lo interesante del modelo sistémico propuesto por Minsky es que explica muy bien la génesis endógena de la inestabilidad sin recurrir a causas exógenas. O como dice el refrán: “Entre todos lo mataron y el solito se murió”. También es interesante constatar que para Minsky el sistema capitalista evoluciona, de tal modo que se adapta a sus propias inestabilidades superándolas, de tal modo que a cada forma o modelo le sustituye o reemplaza otra forma algo más estable que la anterior. Sin embargo, según insistió, en este proceso de adaptación no hay final o solución para resolver de forma permanente esta tendencia a la inestabilidad (con crisis cada vez de mayor intensidad) por ser inherentes al sistema.

En su trabajo pionero, “Hipótesis de la Inestabilidad Financiera” (Mayo de 1992) Hyman P. Minsky describe al modo sistémico como funciona el sistema económico completo, es decir, introduciendo el factor financiero junto al gobierno, los hogares y las empresas y las interacciones entre ellos. De este modo, partiendo de esta hipótesis, posteriormente construyó un modelo dinámico que otros economistas como el australiano Steve Keen han ampliado y perfeccionado.

Así, para entender mejor la génesis sistémica del Momento Minsky voy a reproducir en su integridad la excelente traducción de Jorge Bielsa de la Universidad de Zaragoza de este original trabajo de Hyman P. Minsky. (En negrita o subrayado lo que he considerado más destacable). Vamos allá.

Hipótesis de la Inestabilidad Financiera

La hipótesis de la inestabilidad financiera tiene tanto aspectos empíricos como teóricos. El aspecto empírico más fácilmente constatable es que las economías capitalistas experimentan de vez en cuando procesos de inflación o de deflación por sobreendeudamiento que parecen potencialmente explosivos. En efecto, durante esos procesos, las reacciones del sistema económico ante un movimiento de la economía no hacen sino amplificarlas, es decir, que tanto la inflación como la deflación por sobreendeudamiento se alimentan a sí mismas. Por otra parte, parece que la intervención de los gobiernos con la intención de detener dichas crisis ha sido inútil en algunas de las crisis pasadas. Esos episodios históricos son una evidencia palpable de la idea de que la economía no siempre responde a los preceptos clásicos de Smith o Walras, que daban por sentado que la economía puede entenderse perfectamente suponiendo que ésta es un sistema estable en constante búsqueda del equilibrio.

Irving Fisher (1933) proporciona la descripción clásica de una deflación por sobreendeudamiento, mientras que Charles Kindleberger (1978) hace lo mismo con el proceso de desequilibrio autosostenido. Por su parte, Martin Wolfson (1986), no sólo recopila información sobre la aparición de relaciones financieras generadoras de inestabilidad financiera, sino que examina varias teorías que explican los ciclos económicos reales a partir de dichas crisis financieras.

Como teoría económica, la hipótesis de la inestabilidad financiera es una interpretación del núcleo de la Teoría General de Keynes. Esta interpretación sitúa a la Teoría General en su contexto histórico. Dado que la Teoría General fue escrita en la primera parte de la década de los años 30, una parte de los hechos que la obra pretendía explicar era la gran recesión financiera y real de los Estados Unidos y las de las otras economías capitalistas del aquel tiempo. La hipótesis de la inestabilidad financiera se basa también en el punto de vista sobre el papel del crédito, del dinero y de las finanzas de Joseph Shumpeter (1934, Cap 3). Por último, dos trabajos clave para entender esta hipótesis son, por supuesto, los de Hyman P. Minsky (1975, 1976).

El argumento teórico de la hipótesis de la inestabilidad financiera parte de una economía típicamente capitalista de activos reales con precio elevado que necesitan ser financiados por medio de un complejo y sofisticado sistema financiero. Como señala Keynes, el problema económico consiste en identificar el “desarrollo del capital de la economía”, en lugar de la clásica “asignación de unos recursos dados entre usos alternativos” que propuso Knight. Así pues, nos centraremos en el proceso real de acumulación que se produce en una economía capitalista.

En ese proceso de acumulación de capital se producen intercambios de dinero actual por dinero futuro. Así, el dinero actual se utiliza para pagar recursos que se emplean para producir bienes de inversión, mientras que el dinero futuro son los “beneficios” que incrementarán esos bienes de capital propiedad de las empresas (en la medida en que los bienes de capital son usados en la producción). Como resultado de este proceso de financiación de la inversión, el control ejercido sobre parte del stock de capital por las unidades de producción se lleva a cabo gracias a la financiación con deuda, es decir, se genera una serie de compromisos de pago en fechas específicas, o cuando se cumplan determinadas condiciones pactadas. De esta forma, para cada unidad económica los pasivos que refleja su balance determinan una serie temporal de compromisos de pago previos, al igual que sus activos representarán una serie de flujos de caja esperados.

Esta estructura fue perfectamente explicada por Keynes (1972):
“Hay una multitud de activos reales en el mundo que constituyen la riqueza en forma de capital (edificios, inventarios de bienes terminados o en proceso de fabricación o de transporte, etc). Sin embargo, para poseerlos, los propietarios nominales de esos activos frecuentemente han pedido prestado dinero. Visto desde el otro lado, los verdaderos propietarios de esa riqueza tienen derechos, no sobre esos activos reales, sino sobre dinero futuro. Una parte considerable de esa financiación tiene lugar a través del sistema bancario, que interpone su garantía entre los clientes que le prestan dinero por medio de depósitos y los clientes a los que les presta para que puedan comprar activos reales. Ese velo monetario interpuesto entre el activo real y el propietario de la riqueza es una de las características más destacadas del mundo moderno.”
Este “velo monetario” keynesiano es distinto del que se suele asociar a la teoría cuantitativa del dinero. El “velo monetario” de la teoría cuantitativa del dinero se refiere a los intercambios en el mercado de bienes, ya sean dinero a cambio de bienes o a la inversa, por lo que en el fondo se trata de intercambios de bienes por bienes. Por el contrario, el velo de Keynes supone que el dinero y la financiación están conectados a través del tiempo. Una parte de esa financiación de la economía está constituida por compromisos de pago con fechas determinadas, en la que los bancos son el pivote central. El dinero fluye en primer lugar de los depositantes a los bancos, y luego de los bancos a las empresas. Después, en fechas posteriores, circula en sentido inverso: de las empresas a los bancos y de éstos a los depositantes. En el momento inicial, los intercambios se producen para financiar la inversión y, posteriormente, los intercambios responden simplemente a los compromisos previos establecidos en los contratos financieros correspondientes.

En un mundo del “velo monetario” keynesiano, el dinero que fluye hacia las empresas es la respuesta a expectativas de beneficio futuro, y el flujo de dinero procedente de las empresas se financia con los beneficios que efectivamente se han generado. En la configuración keynesiana, los principales intercambios económicos tienen lugar a partir de negociaciones entre banqueros genéricos y empresarios genéricos. Los documentos que están encima de la mesa de negociación explican con detalle los costes y las expectativas de beneficio de los empresarios: los hombres de negocios interpretan las cifras y las expectativas con entusiasmo, mientras que los banqueros lo hacen con escepticismo.

De esta forma, en una economía capitalista, el pasado, el presente y el futuro no sólo están ligados por los bienes de capital y por la fuerza de trabajo, sino también por las relaciones financieras. Las relaciones financieras más importantes vinculan la creación y la propiedad del capital con la estructura de esas relaciones financieras y con sus cambios a través del tiempo. Se puede generar una mayor complejidad institucional como consecuencia de la aparición de varios niveles de intermediación entre los propietarios últimos de la riqueza de las economías y las entidades que controlan y gestionan esa riqueza..

Tanto el flujo de los nuevos contratos financieros con las empresas como el precio de los ya existentes están determinados por las expectativas de beneficios. La cuantía de los beneficios efectivamente obtenidos determina si se cumplen los compromisos establecidos en los contratos, es decir, si los activos financieros responden a lo que se esperaba de ellos en las negociaciones previas.

En el mundo moderno, los análisis de las relaciones financieras y de sus implicaciones sobre el comportamiento del sistema no pueden restringirse a la estructura de las deudas de las empresas y al flujo de dinero que dicha estructura genera. Tanto los hogares (por medio de su capacidad de endeudamiento mediante tarjetas de crédito para la compra de bienes duraderos con precios elevados como automóviles, para la compra de casas, y la posibilidad de adquirir activos financieros); como el sector público (con sus grandes deudas a corto y a largo plazo), o como las entidades de carácter internacional (como resultado de la globalización financiera) tienen estructuras de pasivos que pueden ser aceptadas o rechazadas según la concreta situación de la economía en cada momento. La creciente complejidad de la estructura financiera, junto con la mayor implicación de los estados como agentes refinanciadores —tanto de las instituciones financieras como de las empresas no financieras (ambas características son clave en el mundo moderno)— pueden hacer que el sistema funcione de forma diferente que en épocas anteriores. En concreto, la vulnerabilidad del sistema ante flujos decrecientes de los beneficios ha disminuido notablemente gracias a la creciente participación de los gobiernos para garantizar que el sector financiero no degenerará como lo hizo en el periodo 1929-1933. Sin embargo, esas mismas intervenciones pueden muy bien introducir un gran sesgo al alza (es decir, inflación) en la economía.

A pesar de la mayor complejidad de las relaciones financieras, el determinante clave del comportamiento del sistema sigue siendo el nivel de beneficios. La hipótesis de la inestabilidad financiera incorpora la visión del beneficio de Kalecki (1965) ó Levy (1983), en la que la estructura de la demanda agregada es la que determina los beneficios. En el esquema más sencillo del modelo, con una representación muy simple del comportamiento del consumo por parte de los perceptores de rentas del capital y de salarios, los beneficios agregados igualan a la inversión agregada en cada periodo. En una estructura más compleja (aunque por ello mucho más abstracta) los beneficios agregados son iguales a la suma de la inversión agregada y el déficit público. Las expectativas de beneficio dependen de la inversión futura pero los beneficios que se obtienen realmente dependen de la inversión efectiva. Como consecuencia de ello, la inversión determina si las deudas contraídas serán aceptadas o no. Se invierte en un momento determinado porque los hombres de negocios y sus banqueros esperan que se invierta en el futuro.

Por tanto, en la medida en que describe la forma en la que la deuda es asumida por el sistema, la hipótesis de la inestabilidad financiera es una teoría sobre el impacto de dicha deuda en el comportamiento del mismo. A diferencia de la teoría cuantitativa del dinero, la hipótesis de la inestabilidad financiera considera seriamente a los bancos como empresas que buscan obtener beneficios. Y lo hacen financiando tanto la actividad económica como a otros banqueros. Como cualquier otro empresario de una economía capitalista, los banqueros son conscientes de que la innovación asegura beneficios futuros. Así, los banqueros (usando este término en sentido amplio para todos los intermediarios financieros), ya sean agentes de compraventa o prestamistas primarios, son comerciantes de deuda, que se esfuerzan en innovar tanto en los activos financieros que compran como en los pasivos que intercambian en el mercado. Estas características innovadoras de la banca y las finanzas invalidan el supuesto de la teoría cuantitativa del dinero ortodoxa, que parte de que existe una magnitud invariable llamada “dinero” cuya velocidad de circulación es lo suficientemente estable como para ser considerada constante, de forma que los cambios en esa oferta de dinero están relacionados lineal y proporcionalmente con un nivel de precios bien definido.

Pueden identificarse tres relaciones entre renta y deuda para las unidades económicas, que denominamos, respectivamente, financiación cubierta, especulativa y Ponzi.

Las unidades financieras cubiertas son aquellas que pueden responder a todas las obligaciones establecidas en los contratos con el flujo de caja que generan, de forma que cuánto más grande sea el peso de los recursos propios sobre el pasivo, más probable es que estemos ante una unidad financiera cubierta. Las entidades financieras. especulativas son aquellas que cumplen sus compromisos de pago gracias a que ingresan recursos con nuevas deudas, pues con los flujos de caja que generan, no podrían devolver el principal de la deuda acumulada. Estas entidades necesitan renegociar su deuda, es decir, emitir nuevos pasivos para financiar los compromisos de la deuda antigua que vence. Los gobiernos con deuda flotante, las empresas con papel comercial renegociable y los bancos son ejemplos típicos de entidades especulativas.

En el caso de las entidades Ponzi, los flujos de caja generados por sus operaciones corrientes no son suficientes, no sólo para devolver el principal, sino tampoco para hacer frente a los intereses de las deudas acumuladas. Tales entidades pueden vender activos o pedir prestado. Pero seguir ambas estrategias (vender activos o pedir prestado) para pagar los intereses (o incluso los dividendos de las acciones), reduce los recursos propios, al tiempo que hace crecer las deudas y los compromisos de pago futuros. Una entidad que adquiere esta categoría reduce el margen de seguridad que ofrece a los acreedores de sus deudas.

Puede demostrarse que si domina la financiación cubierta, la economía puede ser muy probablemente un sistema estable que tiende hacia el equilibrio. Por el contrario, cuanto mayor es el peso de las finanzas especulativas o Ponzi, mayor es la probabilidad de que la economía sea un sistema inestable. El primer teorema de la hipótesis de la inestabilidad financiera sostiene que la economía tiene regímenes financieros bajo los que es estable y regímenes financieros bajo los que no lo es. El segundo teorema de la hipótesis de la inestabilidad financiera pone de manifiesto que a través de periodos de prosperidad prolongados, la economía transita desde relaciones financieras que la llevan a un sistema estable a otras relaciones financieras que la abocan a un sistema inestable.

En concreto, a lo largo de un prolongado período de bonanza económica, las economías capitalistas tienden a transformarse, desde una estructura financiera dominada por entidades financieras cubiertas, a otra en la que aumenta el peso de las que están involucradas en las finanzas especulativas y Ponzi. Más aún, si una economía con un considerable número de entidades financieras especulativas experimenta presiones inflacionistas y las autoridades intentan reducir la inflación mediante restricciones monetarias, las unidades especulativas se vuelven unidades Ponzi y el valor neto de las que ya eran unidades Ponzi se evapora rápidamente. En consecuencia, las unidades con falta de liquidez se verán forzadas a adoptar una posición vendedora. Esto llevará probablemente a un colapso en el valor de los activos.

La hipótesis de la inestabilidad financiera es un modelo que describe cómo una economía capitalista puede experimentar ciclos económicos de diversa gravedad sin necesidad de verse afectada por perturbaciones externas. La hipótesis sostiene que los ciclos económicos observados históricamente son una combinación de (i) la dinámica interna de las economías capitalistas, y (ii) el entramado de intervenciones y regulaciones diseñadas para mantener a la economía operando dentro de unos límites razonables.

Para saber más: Momento Minsky en Wikipedia (inglés)

Hyman P. Minsky en Wikipedia (inglés)

Hyman P. Minsky en Wikipedia (español)

Hyman P. Minsky. The Financial Instability Hypothesis. The Levy Economics Institute (inglés)

Hipótesis de la Inestabilidad Financiera de Hyman P. Minsky (traducida por Jorge Bielsa de la Universidad de Zaragoza)

Hyman P. Minsky (1919-1996) en la Brújula Económica (Ramón Morata)

Momento Minsky: las teorías de un desconocido economista explican perfectamente la crisis (El Economista)

Análisis de la teoría económica de Hyman P. Minsky, por Guadalupe Mánteyde Anguiano, UNAM

Hyman P. Minsky. Financial Instability Revisited: The Economics of Disaster

Hyman P. Minsky en The Full Wiki

Steve Keen's Debtwatch

Steve Keen's Debunking Economics

Hyman P. Minsky Archive en Digital Commons

A Theory of Systemic Fragility en Digital Commons

The Fragile Financial System en Digital Commons

Los Procesos Financieros capitalistas y la inestabilidad del capitalismo en Digital Commons

Hyman P. Minsky Archive en The Levy Economics Institute

Obituario en honor a Hyman P. Minsky en el New York Times del 26-Octubre-1996

Hyman P. Minsky, el economista del momento (El Blog Salmón)

La llegada del "momento Minsky" y la gran burbuja de derivados (El Blog Salmón)

La inestabilidad financiera según Minsky (Caótica Economía)

Macrodynamics of debt regimes, financial instability and growth (Gilberto Tadeu Lima & Antonio J. A. Meirelles)

Minsky Financial Instability Model (Steve Keen & Geoff McDonnell)

Minsky & the Financial Instability Hypothesis en Prezi

Steve Keen: Un espeluznante modelo matemático sobre el futuro de esta crisis (Sin Permiso)

Steve Keen: No hay nada más peligroso que una mala teoría económica (Sin Permiso)

Steve Keen: El problema es la deuda privada y el futuro de los EEUU es el desapalancamiento (Sin Permiso)