15 de febrero de 2015

Axiomas para una planificación óptima de la producción

Uno de los conflictos más reiterados en las empresas industriales es la no siempre comprendida tensión entre los departamentos de comercial y producción.

Por experiencia profesional reconozco que esta tensión inter-departamental no es una leyenda urbana o un lugar común sino un hecho real que obedece a causas profundas, sistémicas, que van más allá del desgaste personal o emocional de sus responsables o la existencia de buenos canales de información.

Con el ánimo de contribuir a resolver este conflicto de raíz, me permito enunciar algunas reflexiones en forma de axiomas y corolarios para aportar un grano de arena en orden a disipar este conflicto, ubicando su solución en la encrucijada estratégica entre el significado profundo de optimizar y el rol decisivo de la dirección general. Vamos allá.

Axioma 1: Una planificación óptima de la producción es aquella que mejor representa los objetivos de la Dirección General de la empresa en un momento histórico dado.

Axioma 2: Se entiende que los objetivos emanados de la Dirección General de la empresa se corresponden con preferencias estratégicas y que estas son transitivas, es decir, que existe una relación de orden o priorización entre ellas (a > b > c…), es decir, satisfacen el teorema de imposibilidad de Arrow (no es posible diseñar un sistema que permita reflejar las preferencias locales en una preferencia global), pues dado que en todo sistema de producción con recursos finitos e interdependientes es habitual la existencia de conflictos entre preferencias/objetivos (p.ej. el “eterno” conflicto entre los departamentos comercial y producción), no existe una solución que optimice de forma simultánea todas las funciones objetivo, dejando aparte las llamadas “soluciones de compromiso”, que no son óptimas en modo alguno o los llamados “óptimos de Pareto” que mediante “aproximaciones sucesivas” tienden a igualar la importancia o prioridad de las preferencias.

Corolario 1: No existe ningún sistema de optimización con preferencias transitivas que pueda satisfacer todas las preferencias/objetivos por igual. Se hace necesaria una subordinación y supraordinación entre preferencias/objetivos.

Axioma 3: Las reglas de programación estándar APS (Advanced Planning and Scheduling) tienden a priorizar una función objetivo o preferencia: Minimizar tiempos de preparación, Minimizar retrasos, minimizar WIP (Work in Process), Secuencia preferida por recurso, Campañas, Programación de Cuellos de Botella, Saturación de líneas, etc. atendiendo además a las restricciones de los recursos del sistema (calendarios, turnos, disponibilidad de sub-recursos, disponibilidad de materiales, etc.).

Axioma 4: Además de las reglas estándar APS, herramientas como Preactor-SIEMENS permiten crear reglas compuestas para aplicar selectivamente las reglas estándar, además de crear reglas personalizadas con las que poder satisfacer nuevas preferencias/objetivos.

Corolario 2: No existe una regla de programación que satisfaga por igual todas las preferencias/objetivos. Todo decisor debe elegir. Toda elección implica renunciar y toda renuncia implica un coste de oportunidad: conocer ese coste nos da la clave de la mejor preferencia/objetivo: la que mayor utilidad nos ofrezca (parábola de los cañones o la mantequilla de Paul Samuelson). No obstante, en ausencia de “objetivos fuertes” cabe la posibilidad de considerar el coste como objetivo o preferencia a minimizar, atendiendo al “principio de la palanca”: p.ej. es más interesante mover un cuerpo pesado haciendo palanca que con el sobreesfuerzo voluntarioso de muchos recursos. Los dos métodos son igual de eficaces (se obtienen resultados), pero el primero es más eficiente (se obtienen resultados minimizando los recursos).

Consecuentemente: se debe establecer un sistema de ordenación de las preferencias/objetivos (SOP), que no obstante puede variar en el tiempo por circunstancias del mercado, política de la compañía, segmentación de producto/mercado, etc. por tanto se entiende que el SOP puede ser configurable.

Una vez establecidas las preferencias/objetivos, se trata de que la Dirección General ordene de mayor a menor el conjunto de las mismas: p.ej. Minimizar costes de preparación (por agrupación de productos o formato) > Minimizar costes en un periodo determinado (por lanzamiento de campañas) > Maximizar la ocupación de recursos (programación “push” o Just in Case) > Minimizar WIP (valor del stock en curso) > Minimizar retrasos (programación “pull” o Just in Time) > Minimizar sobrecostes por retrasos (evitar penalizaciones de clientes mediante priorizaciones) > Maximizar margen de contribución por producto (por priorización de productos con mayor valor añadido)… (Ver Observación).

Corolario 3: Dados los Axiomas 3 y 4, cada regla de programación tenderá a maximizar un “indicador clave de rendimiento” o KPI (Key Performance Indicator).

Axioma 5: Para establecer un sistema de optimización basado en reglas con preferencias/objetivos excluyentes, se necesita una regla de reglas, es decir, una regla de alto nivel o metarregla que establezca la mejor regla de programación de acuerdo al criterio de ordenación que se establezca, considerando la propiedad de que toda metarregla tenderá a optimizar unas preferencias/objetivos mientras suboptimiza otras (p.ej. si quiero optimizar el consumo de combustible de mi vehículo deberá suboptimizar mis prisas por llegar).

Corolario 4: Existen dos posibles métodos de establecimiento de metarreglas:

Corolario 4.1: Método Iteractivo o en cascada: por cada regla de programación se comparan los KPI’s, de mayor a menor orden de preferencia/objetivo, seleccionado la regla que mayor KPI obtenga en la primera preferencia y en caso de empate de KPI con otra/s regla/s se selecciona de entre ellas la regla que mayor KPI obtenga en la segunda preferencia y así sucesivamente.

Corolario 4.2: Método Sintético: se establece un KPI de síntesis o “indicador sintético” que represente el valor compuesto de todos los KPI’s de cada regla para obtener un indicador sintético por cada regla, seleccionando la regla con el indicador sintético mayor. Hay varios métodos para calcular un indicador sintético, siendo la más sencilla la aplicación de una ponderación o peso a cada KPI, una ponderación en coherencia con la ordenación de preferencias/objetivos.

Observación: se puede observar que existen preferencias contradictorias entre sí, sin embargo estas pueden ordenarse de manera distinta según el periodo del año: p.ej. hacia el principio de la campaña puede ser más importante minimizar el coste por cambio de formato (mejorar los costes) que minimizar los retrasos (empeorando el servicio) al fabricar “tiradas más largas” contra stock o previsión, mientras que hacia mediados/finales de campaña puede ser más importante lo contrario, esto es, minimizar retrasos (mejorar el servicio) que minimizar el coste del cambio de formato (empeorando el coste) al fabricar “tiradas más cortas” o contra pedido. Estas contradicciones se pueden representar como un dilema coste vs. servicio en el siguiente gráfico.


El dilema coste vs. servicio



Por otra parte, la existencia de recursos dependientes y cuellos de botella hacen incompatibles la preferencia de una mayor ocupación de recursos y un menor coste de producción, pues la mera existencia de recursos más rápidos previos a un cuello de botella implicaría que si ponemos a su máxima capacidad a los recursos no cuello de botella, generaríamos un mayor inventario en curso y en consecuencia una mayor coste de producción. Por tanto tenemos que ser cautelosos a la hora de definir preferencias, sabiendo de antemano que en su mayoría pueden ser contradictorias entre sí, particularmente cuando tratamos de optimizar recursos, deberíamos prestar atención en la optimización de los cuellos de botella, no en los que no lo son.

Y para entender la dinámica de los cuellos de botella, nada mejor que recurrir a la Teoría de las Limitaciones (TOC) de Eliyahu M. Goldratt, autor del best seller “La Meta” y recientemente fallecido, donde extractamos las siguientes reglas de gestión de los cuellos de botella.


ALGUNAS REGLAS SOBRE LOS CUELLOS DE BOTELLA

1. Equilibrar el flujo, no la capacidad. 

Es decir, ajustar el flujo por el cuello de botella con la demanda del mercado. Si como hemos visto, la cadencia del Sistema está marcada por los cuellos de botella, hagamos que estos (y con ellos todo el Sistema) coincidan con el flujo de la demanda. De manera que cuando necesitemos aumentar la capacidad de la Empresa para acercarla a la demanda, esto signifique explotar sólo los cuellos de botella. En muchas ocasiones las empresas intentan aumentar la capacidad de tal o cual recurso esperando con ello ser más “competitivo”, cuando en realidad (si estamos de acuerdo con las implicaciones de la TOC) no es precisamente la mejor alternativa desde el enfoque sistémico. La mayor eficiencia de la empresa en su conjunto nos vendrá de una mayor fluidez y sincronización entre los recursos.

2. El grado de utilización de un no cuello de botella no vendrá determinado por su propia capacidad, sino por alguna otra restricción del sistema. 

Es decir, no intentemos aumentar la “productividad” de los recursos que no sean cuellos de botella. Produciremos Inventario y Gastos de Operación, pero no Facturación. Antes al contrario, que su “productividad” esté sincronizada con los recursos cuello de botella. O lo que es lo mismo, que los recursos no cuello de botella no produzcan más rápido de lo que pueden absorber los cuellos de botella. Esto tiene implicaciones importantes en los modelos de productividad clásica. En muchas empresas industriales se adquiere stock simplemente para que máquinas y empleados no estén “parados”. Evidentemente así quien controla el flujo de materiales y de trabajos no son los pedidos o los programas de producción sino la Inercia.

3. Activar un recurso no es lo mismo que utilizar ese recurso. 

Ya que, “utilizar” un recurso significa hacer uso de él para que el Sistema se dirija hacia la Meta. En la regla anterior, si hacemos un uso no sincronizado de un recurso no cuello de botella, no estamos utilizando ese recurso, sino simplemente activándolo en términos locales, es decir sin dirección hacia el objetivo último del Sistema. En un momento determinado en cualquier empresa pueden estar activados una gran cantidad de recursos: personas, locales, comunicaciones, energía, ordenadores, máquinas, etc. pero... ¿Cuáles realmente de esos recursos se están utilizando en orden a la Meta de la empresa?.

4. No se debe intentar optimizar cada uno de los recursos del Sistema. Un Sistema con óptimos locales no es un Sistema óptimo en su conjunto. De hecho es un Sistema muy ineficiente. 

Es la conclusión de las dos reglas anteriores. Ya lo hemos visto antes, dado que existen esos dos fenómenos, a saber, Fluctuaciones Estadísticas y Recursos Dependientes, cualquier intento de optimizar un recurso por sí mismo, de acuerdo exclusivamente a su capacidad, es como mínimo una falta de perspectiva. Desgraciadamente la Productividad se ha entendido como un parámetro excesivamente localista, lo que nos ha llevado a enormes stocks de materiales, obras en curso máximas, grandes cantidades de producto acabado y... rentabilidades mínimas.

5. Una hora perdida en un cuello de botella significa una hora perdida para todo el Sistema. 

Los sistemas contables tradicionales asignan los costes de los recursos en función de parámetros tales como amortización, energía, salarios, etc. es decir, otra vez el enfoque analítico, no sistémico de lo que ocurre en la Empresa. Si tal como hemos visto, los recursos cuello de botella determinan en última instancia el ritmo de todo el Sistema, cualquier parada o reducción de la capacidad de los mismos no nos “cuesta” sólo lo que contablemente podamos imputarle a ese recurso aisladamente, sino mucho más. ¿Cuánto?, pues tanto como cuesta el Sistema en su conjunto durante esa parada.

6. Una hora ganada en un no cuello de botella es un espejismo. 

Esta es la otra cara de la moneda. Lo que es cierto para los recursos cuello de botella no lo es para los que no lo son. Es un error perder tiempo en un recurso cuello de botella, sin embargo, perderlo en los recursos no cuello de botella es posible, incluso conveniente para el Sistema en su conjunto. ¿Por qué?, porque “ahorrar” tiempo en los no cuellos de botella no aumenta el rendimiento del Sistema para nada. El tiempo y el dinero ahorrado ahí son una ilusión. En otras palabras, si intentamos “ocupar todo el tiempo” de los recursos que no sean cuello de botella produciremos más Inventario y más Gastos de Operación, pero no más Facturación.


6 de julio de 2014

Esquemas Piramidales vs. Ventas Multinivel

Recientemente colapsaba otra pirámide financiera atrapando a miles de personas en varios países. Telexfree. 50.000 españoles pierden sus ahorros en una estafa piramidal. Este fenómeno no por menos sorprendente suele convertirse en una tragedia económica para quien lo sufre. En Enero del presente año tuve la ocasión responder a una persona que preguntaba mi opinión sobre esta red y mi conclusión fue: Si con las ventas se obtienen beneficios (una vez remunerados los “socios-trabajadores”, propietarios y soportados costes estructurales), entonces esta empresa NO se comporta como una pirámide financiera... PERO si las ventas no cubren siquiera los costes anteriores, entonces la empresa SÍ se comportaría como una pirámide financiera (se “comería el "capital” proveniente de las cuotas de sus socios). Comentarios al post “¿Por qué colapsan las pirámides financieras?. Caso Madoff”

Ciertamente, esta organización tenía una peculiaridad: en el fondo era una organización de esquema piramidal, pero aparentemente se comportaba como una organización de venta multinivel (un “sistema híbrido”, que luego comentaré). Y justo este tema, profundizar en las características, las claves y similitudes de estas organizaciones fue el núcleo central de una entrevista que me hicieron para el programa Equipo de Investigación de La Sexta que se emitirá próximamente. Para resumir el contenido de la entrevista he preparado este post a modo de resumen telegráfico, que también puede consultarse en pdf (ver enlaces al final).

Esquemas (Estafas) Piramidales. Características y Claves

En una organización de esquema piramidal (en adelante, OEP) los que están dentro no son conscientes de participar en un OEP. En una OEP los que están dentro son tratados como clientes. En una OEP la reclutación de nuevos clientes corre a cargo de los promotores de la OEP o de sus delegados. La OEP es una estafa y es ilegal. Ejemplo: caso Bernard Madoff. En una OEP la actividad principal es el reclutamiento de nuevos clientes para aportar capital. En una OEP los ingresos provienen del capital aportado por los clientes, que mayoritariamente se utiliza para pagar los intereses prometidos y las comisiones de los promotores. En una OEP se pone énfasis en garantizar un alto interés por el capital aportado, mientras se evita informar en qué se ha invertido y cómo se ha logrado el elevado beneficio o en practicar políticas de transparencia. En una OEP el capital se recicla de abajo hacia arriba.

Ventas Multinivel. Características y Claves

En una organización de ventas multinivel (en adelante, OVM) los que están dentro son conscientes de participar en una estructura piramidal. En una OVM los que están dentro son tratados como asociados o distribuidores. En una OVM la reclutación de nuevos asociados corre a cargo de los propios asociados para formar redes. La OVM es, hoy por hoy, un sistema de venta legal. Ejemplo: Herbalife. En una OVM la actividad principal es la venta de productos y el reclutamiento de nuevos asociados para extender (horizontalmente) y profundizar (verticalmente) la red. En una OVM los ingresos provienen de las ventas de productos o servicios y en menor medida de las cuotas de entrada. En una OVM se pone énfasis en motivar a los asociados para vender los productos y, sobretodo, para extender/profundizar la red. En una OVM los ingresos más importantes provienen de las comisiones por las ventas de la red descendente: los mayores ingresos circulan de abajo hacia arriba.

Esquemas Piramidales y Ventas Multinivel. Similitudes

Ambas, OEP y OVM son estructuras piramidales: esto significa que los primeros en entrar son los más beneficiados, mientras que los últimos en entrar son los menos beneficiados o los más perjudicados. Una OEP siempre termina colapsando por la contradicción entre el capital teórico (virtual) que crece exponencialmente y el capital real (dinero en la caja) que decrece exponencialmente (ver gráfico). Para aplazar el colapso, se tiene que “inyectar nuevos clientes” cada vez a mayor velocidad (ver “tasa de duplicación del capital”). Una OVM no colapsa en el sentido clásico mientras no garantice ingresos, sin embargo sí puede tener una importante tasa de abandono que impida su crecimiento, por la evidente distribución asimétrica propiciada por la estructura piramidal (ver gráfico). Para evitarlo, se tiene que “inyectar motivación” para afianzar la base de asociados e ingresar nuevos.

Esquemas (Estafas) Piramidales. Conclusiones

Los promotores de una OEP nunca reconocen que su sistema lo es. Una OEP se reconoce por publicitar y garantizar un elevado interés por el capital, muy por encima de la inflación y de las condiciones del mercado, sin fluctuaciones y “pase lo que pase”. Esta es su seña de identidad, que propicia su hundimiento si no es capaz de alcanzar la tasa de duplicación del capital: Periodos de Duplicación ≅ (70 / % interés garantizado del periodo). Alcanzado el punto de no retorno si no logra superar el límite de su sostenibilidad: (%tasa neta de altas > (%interés + %comisiones), la OEP colapsará mostrándose incapaz de garantizar la devolución del capital principal y el pago de los intereses prometidos.

Ventas Multinivel. Conclusiones

Los primeros niveles de una OVM son los mayores beneficiados del sistema. Una OVM reconoce que la garantía de ingresos depende de la “motivación”. Esta es su seña de identidad: “trabaja duro e ingresarás mucho”, sin embargo según la ley de potencias (ver gráfico): la distribución de ingresos se asemeja a una curva de “larga cola” donde > 80% de ingresos es para < del 1% de las personas. Es decir, cuanto más duro trabajan los niveles inferiores, más ingresos (indirectos, provenientes de la red) tendrán los niveles superiores. Además, en una distribución de “larga cola”, dada su asimetría, la media aritmética de ingresos no significa nada, no representa nada. Siendo un sistema legal, por su peculiar forma de distribución la OVM está en “el filo de la navaja de la legalidad”: en última instancia son rentas de posición, los primeros en entrar se lo llevan (casi) todo.

Esquemas Piramidales y Ventas Multinivel. Conclusiones

Ante la enorme repercusión pública de las estafas piramidales “puras”, algunos promotores de OEP han creado una nueva modalidad para hacerlas más indetectables y mucho más peligrosas: “sistemas híbridos” entre OEP y OVM. Estos “sistemas híbridos” incorporan a la OEP una actividad comercial de OVM, añadiendo conceptos de producto, red, distribuidores, etc. pero aunque se “disfracen” siguen siendo OEP por tres motivos: (1) imponen una cuota anual de acceso, que puede elevarse con el “cebo” de mayores ingresos (esto hace las veces de capital inicial en las OEP y generalmente es el principal “ingreso real” del sistema), (2) dan la apariencia de que “se hace algo a cambio de un ingreso” por unos trabajos de los que no se tiene información sobre su “venta real” (transparencia cero) y (3) incrementan la peligrosidad de la estafa al incorporar el efecto multiplicativo propio de las OVM. Estos “híbridos” son alegales y por ello más peligrosos. Ejemplo: Telexfree

Como ya hice anteriormente con el modelo de colapso de una pirámide financiera considero que estos modelos matemáticos se entienden mejor si se practican mediante simulaciones con la ayuda de una hoja electrónica. A tal fin he trasladado a una hoja Excel un modelo de Venta Multinivel para realizar simulaciones y observar la evolución de las variables clave tales como niveles, asociados por nivel, ventas medias por asociado, comisiones directas, comisiones indirectas, etc. para comprobar uno mismo la típica distribución de “larga cola”. A practicar pues: Modelo de Venta Multinivel en Excel Modelo de Colapso de una Pirámide Financiera en Excel Esquemas Piramidales vs. Ventas Multinivel en Pdf

Para saber más: Esquema Piramidal en Wikipedia [castellano]

Esquema Ponzi en Wikipedia [castellano]

Bernard Madoff en Wikipedia [castellano]

Marketing Multinivel en Wikipedia [castellano]

Ley Potencial en Wikipedia [castellano]



4 de mayo de 2014

Majestad, su avión no tiene un problema de mantenimiento

El Rey sufrió ayer la quinta avería en la flota de aviones oficiales en apenas seis meses, esta vez volviendo de Kuwait. El fallo se produjo en la transmisión que abre la válvula de entrada de combustible del motor izquierdo. El Gobierno de Kuwait ofreció al Monarca uno de sus aviones, pero finalmente no hizo falta porque los mecánicos españoles lograron reparar la avería en media hora, según Efe, a bordo del avión. La salida desde Kuwait se retrasó casi una hora, pero don Juan Carlos pudo llegar a tiempo para presidir en Valencia la final de la Copa del Rey.

El ministro de Defensa, Pedro Morenés, que acompañaba al Monarca en el vuelo de regreso desde Kuwait, aseguró que don Juan Carlos se tomó “con buen humor” el percance y que entendía que los aviones “de vez en cuando” dieran “algún problemilla”.

Las anteriores averías, de distinto origen, afectaron a dos aviones (un Airbus y un Falcon) y provocaron una cancelación (el vuelo del Príncipe a Brasil el pasado 24 de noviembre) y tres retrasos que afectaron a don Felipe, Rajoy y la Reina. Morenés encargó el pasado 25 de marzo —dos días después del fallo que retrasó el regreso de doña Sofía a España desde Guatemala— al jefe de Estado Mayor del Ejército del Aire que revise y refuerce los procedimientos de mantenimiento, tanto los que realiza Airbus (antes lo hacía Iberia), como los que hace el Ejército del Aire, así como un plan de renovación de la flota de transporte estratégico, aunque fuentes del Ministerio descartan la compra de nuevos aparatos exclusivamente para transporte de autoridades. No hay dinero y los dos A-310 en los que se desplaza el Gobierno y la familia real en sus viajes oficiales (adquiridos de segunda mano en 2003) están prácticamente a la mitad de su vida útil.
Diario El País [16-04-2014]

Es un comportamiento habitual en el pensamiento convencional [asistémico] que cuando ocurre una avería en un sistema se busquen las causas del mal funcionamiento dentro de los límites del sistema[1], es decir, el viejo tópico de buscar culpables bajo el supuesto de que “alguien no ha hecho bien su trabajo”. Esta forma de proceder se basa en el enfoque analítico, el cual tiene por costumbre buscar el problema [y la solución] dentro del sistema, asumiendo la idea errónea [por insuficiente] de que el mal funcionamiento de una máquina compleja como este tipo de aviones se explica por “el estado interno de la máquina y el estado de su contorno”[2] una explicación demasiado restrictiva para la clase de máquinas complejas que, siguiendo al padre de la cibernética W. Ross Ashby, se debería asumir una definición más abarcadora como el de una “máquina con input”, es decir contemplando el sistema-avión como un todo en el que también se incluya el diseño y el trabajo-intensidad para el que fue concebido y el uso que se le ha dado en los últimos tiempos.

La lógica de este proceder, por lo demás ampliamente extendido en el mundo de la gestión de las organizaciones, tiende a justificar los sistemas como fines en sí mismos, sin considerar que un sistema existe para satisfacer los requerimientos de sistemas mayores en los cuales este mismo está incluido. Por ejemplo, en el caso que nos ocupa, al focalizar la atención en el “mantenimiento” [dentro de los límites del sistema-avión] redoblando si es menester los esfuerzos con un “doble mantenimiento” [síndrome del más de lo mismo], no se está considerando el sistema mayor para el que fue concebido este tipo de aviones, esto es, por ejemplo, el nivel de actividad para el que fueron diseñados [probablemente muy superior al que actualmente se les tiene confinados].

Este error de enfoque al insistir en el aspecto “mantenimiento” eclipsa la razón de la existencia del sistema-avión y para qué fue diseñado. Es como si, pongamos por caso, alguien tuviera un caballo pura sangre bien alimentado y cuidado [es decir, bien mantenido] pero sólo le paseara una vez al mes: probablemente tendría muchos más “achaques” que si lo paseara todos los días.

Este error de enfoque significa también que no se comprende bien cómo hacer un buen uso de sistemas complejos como los aviones. Por tanto, la causa de este mal funcionamiento en la flota de aviones del Grupo 45 de la Fuerza Aérea Española no puede atribuirse solamente a las razones encontradas dentro del sistema, como por ejemplo, un mantenimiento incorrecto o insuficiente. Debe diagnosticarse y corregirse el funcionamiento defectuoso mediante la adecuación del sistema-avión en relación con el sistema-total, que incluye no sólo el mantenimiento sino el nivel de actividad para el que fue diseñado.

Así, bajo el prisma del pensamiento convencional-asistémico el mal funcionamiento aparente del sistema-avión tiende a resolverse con reparaciones parciales o cambios de algunos de sus componentes. Sin embargo, desde la perspectiva del pensamiento sistémico, lo que corresponde es una revisión completa del sistema total, entendido por tal el sistema-avión, los requerimientos de uso para el que fue diseñado y los supuestos erróneos que sustentan la lógica del mantenimiento por el mantenimiento.

En conclusión, discrepo con el diagnóstico del ministro de Defensa: no es un problema de mantenimiento [pensamiento asistémico] sino de subactividad [pensamiento sistémico].

Así, desde un enfoque sistémico, se puede resolver el problema restaurando el equilibrio entre inactividad/actividad de este parque de aviones del gobierno de España. Los sistemas complejos, como los aviones de última generación, se diseñan para un nivel de actividad. Si desde su adquisición como aviones de 2ª mano han bajado su ritmo de actividad en los últimos tiempos ahí está la respuesta, pues es típico de los sistemas complejos requerir variaciones en la intensidad de su uso[3] siendo contraproducente tanto los periodos prolongados de reposo como los funcionamientos a un mismo régimen constante de actividad [esto lo saben bien los pilotos de fórmula 1 y los ingenieros de motores].

Si reducen su actividad, los sistemas complejos [desde máquinas a personas] se resienten en su rendimiento y aparecen los “achaques”, no tanto por envejecimiento [fatiga estructural] como por falta de suficiente actividad y variabilidad. Para restablecer el equilibrio dinámico del sistema se necesita restaurar cierto nivel de actividad: por ejemplo, vuelos previos antes de un viaje real, a semejanza de lo que haría el propietario de un caballo pura sangre antes de una carrera o también asignar los aviones del Grupo 45 a otras misiones civiles o militares en caso de que se reduzca la agenda de viajes de la Casa Real o de Presidencia. Por tanto, la solución sistémica es más actividad, no más mantenimiento. O como diría el cantautor argentino Andrés Calamaro: “mi corazón es un músculo sano pero necesita acción”.


[1] John P. van Gigch (1990), Teoría General de Sistemas, pág. 20 y 21
[2] Pedro Voltes Bou (1978), La Teoría General de Sistemas, pág. 26 y 27
[3] Nassim Nicholas Taleb (2013), Antifrágil, pág. 422 y 423


12 de abril de 2014

¿Están las empresas preparadas para un mundo interactivo?

A la atención de Correos Express.

Buenos días, ayer y anteayer han pasado por mi domicilio para entregar un envío desde la empresa ORANGE, pero yo ni nadie de mi familia estaba.

Ayer, anteayer y hoy he intentado en vano contactar con ustedes a varios números de teléfono no gratuito (902) que me han facilitado, pero sin éxito, pues todos sus agentes estaban ocupados. He realizado varias llamadas con una espera media de 10 minutos. Imposible contactar y menos a ese coste.

Por otra parte también he intentado comunicarme vía la página web, indicando las referencias que me han dado: 200214xxxx. El código de envío: 142356246535xxxx y el Aviso de Paso de las dos entregas fallidas: (1) 7692xxxx y (2) 7692xxxx. Mi código postal es 46xxx. Sin embargo tampoco hay posibilidad de realimentación vía web para indicarles el mejor día/hora para la entrega pues no dejan un correo electrónico para comunicarles cuando voy a estar ni ustedes tampoco se han puesto en comunicación con el teléfono de contacto que dejé a la compañía ORANGE.

Sólo me dejan este formulario de contacto para sugerencias y quejas, pero así tampoco se resuelve un problema que no es de in-formación sino de co-municación, esto es, que el flujo de in-formación funcione en las dos direcciones. No sé si sus altos directivos son conscientes de este matiz, un matiz que en la era de la comunicación universal, interactiva y en tiempo real lo es todo. Y si sus altos directivos no lo entienden, que se pongan en contacto conmigo y les explicaré como resolver el problema.

Por todo ello, desisto de co-municarme con ustedes.

Mi diagnóstico es sencillamente que no funciona la co-municación hacia ustedes, y así es imposible coordinar la entrega. Sólo en el hipotético caso de que siempre hubiera alguien en casa (algo impensable hoy en día) funcionaría su sistema de entregas. Pienso que haciendo un simple cambio en su sistema de entregas de tal modo que permitiera coordinar la entrega con el destinatario se ahorrarían muchas entregas fallidas con el consiguiente coste de combustible, desplazamientos y tiempo de sus trabajadores.

Mi teléfono es el 6xx-04xxxx y mi correo electrónico es josemonzomarco@xxxx.com

Cuando tengan a bien, ya saben donde localizarme. Gracias.



2 de marzo de 2014

Micropalancas para macroproblemas

«Dadme un punto de apoyo y moveré el mundo» Arquímedes de Siracusa.

Uno de los aspectos más interesantes y creativos del pensamiento sistémico es el “principio de la palanca”, esto es, buscar y encontrar aquellos lugares o situaciones, llamados también “puntos de apalancamiento”, donde con el mínimo esfuerzo se puede lograr una mejora significativa y duradera en el sistema. El único problema es, como nos recuerda Peter Senge, que las zonas de alto apalancamiento no son evidentes para la mayoría de integrantes del sistema porque los puntos de apalancamiento no están próximos en el tiempo y el espacio respecto de los síntomas. Sin embargo sí existe una pista para encontrarlos, como nos recuerda Donella H. Meadows: los mejores puntos de apalancamiento se encuentra en el cambio de los modelos mentales, es decir, cambios en el cómo nos representamos a nosotros mismos el sistema, esto es, el paradigma o filtro con el que observamos la realidad.

Al hilo de esto y como material didáctico para un seminario de pensamiento sistémico que estoy preparando he buscado algunos ejemplos reales de “puntos de apalancamiento” para el cambio efectivo de sistemas reales. Son ejemplos cotidianos que ya forman parte de nuestro paisaje y de tanto verlos o escucharlos puede que no nos demos cuenta de su importancia, pero cuando son mirados bajo la óptica del pensamiento sistémico “caemos en la cuenta” de su tremendo potencial de cambio en los sistemas en los que se implementan. Por otra parte se trata en realidad de pequeñas palancas, de pequeñas intervenciones en sistemas que logran unas mejoras espectaculares en el rendimiento de los sistemas: por lo general no se trata de grandes cambios sino de pequeños cambios, generalmente muy económicos, que provocan una gran mejora, de ahí el título de este post. Vamos allá.

1. Empoderamiento en el supermercado

En cualquier supermercado puedes observar el poder de la palanca de la autoorganización cuando cualquier cajero/a solicita la presencia de otro para agilizar la cola. No tienes más que darte cuenta que conseguir el mismo efecto mediante un sistema de supervisión jerárquico tendría un mayor coste (menor eficiencia) y una menor eficacia (el jefe no siempre está al tanto de lo que sucede en las cajas). Claro que para alcanzar este resultado es necesario otorgar confianza y empoderamiento en el puesto de trabajo, algo no siempre fácil en organizaciones fuertemente jerarquizadas. Evidentemente este ejemplo es extrapolable a muchas otras situaciones y organizaciones: allí donde exista la posibilidad de empoderar una función a las personas que están más próximas a la realidad a gestionar otorgándoles capacidad para tomar decisiones.



2. Autoorganización en la carretera

En cualquier rotonda o glorieta puedes observar el poder de la palanca en acción cuando los vehículos van a su salida sin retener el tráfico en los cruces de carreteras. Es otro ejemplo de autoorganización como el caso anterior. Y, como antes, observar que la eficiencia (coste, esperas) y eficacia (ordenar el tráfico) de otras alternativas (semáforos, guardias urbanos) serían menores en situaciones donde confluyen varias bifurcaciones, incidiendo negativamente en la fluidez del tráfico, y, como en el empoderamiento anterior, el efecto deseado se consigue fundamentalmente al otorgar la capacidad de decidir a los conductores.



3. Teoría de Juegos en la vigilancia.

Del “sabes donde miro” a “no sabes donde miro” hay una diferencia sustancial cuando se trata de la vigilancia de seguridad. Detrás de este cambio de diseño en las cámaras de vigilancia existe un principio básico de Teoría de Juegos: la información asimétrica. Si en una situación con dos jugadores, uno de ellos (vigilado) no sabe dónde está mirando el otro (vigilante), aquél se encuentra en inferioridad estratégica. Mientras que si el vigilado sabe dónde está mirando el vigilante, el que se encuentra en inferioridad estratégica es éste último. Un pequeño cambio en el diseño de la cámara permite que el vigilante obtenga una mayor superioridad estratégica sobre el vigilado (o potencial vigilado).



4. La sangre es gratis

La generosidad tiene un gran potencial autoorganizativo: donar sangre u órganos gratuitamente evita muchas desconfianzas y burocracias (en España está prohibida la venta de sangre desde 1985). Como en los casos anteriores, no hay más que imaginarse una situación en la sangre no fuera donada sino vendida (al mejor postor): probablemente no se asignaría al que más lo necesita sino al que más pague. La mercantilización de la sangre, probablemente, generaría unos indeseados efectos colaterales: necesidad de una mayor burocracia, mayores controles, mayores riesgos, etc.



5. De la comunidad de vecinos a la ONU: Subsidiariedad

El “principio de subsidiariedad” es el núcleo de la autoorganización: cada nivel de un sistema decide respecto de su área de competencia y sólo interviene el nivel superior cuando existe un conflicto entre los objetivos globales y las decisiones locales. El “principio de subsidiariedad” es uno de los principios sobre los que se sustenta la Unión Europea y la mayoría de Estados democráticos del mundo. Sin la subsidiariedad sería necesaria una centralización estatal (nivel macro) de todas las decisiones de ámbito local (nivel micro), algo que lógicamente conllevaría un sobredimensionamiento del Estado y las organizaciones supraestatales: no hay más que imaginar lo que supondría que las decisiones de cualquier comunidad de vecinos tuvieran que debatirse en la ONU.



6. Abriendo las puertas de la democracia 2.0

Si la democracia es un sistema restringido para la toma de decisiones, aunque con el marchamo de la “representatividad”, la post-democracia, de ser algo, será un sistema de “toma de decisiones aumentada” (p.ej. como sucede en Suiza, donde cada poco tiempo los ciudadanos pueden votar sobre variadas cuestiones) y donde los temas a votar no necesariamente pasen por el filtro de los partidos (p.ej. como las propuestas emanadas en la plataforma Change.org). Abrir las puertas de la democracia, implica necesariamente un enfoque 2.0, esto es, un abrirse a la participación on-line de los ciudadanos que permiten las nuevas tecnologías.



7. Del sillónbol al excedente cognitivo

¿Un pájaro, un avión?. No, es el “excedente cognitivo. El vector autoorganizativo más potente jamás imaginado y su fundamento es la suma de cuatro factores disponibles en el mundo actual: Internet, el creciente tiempo libre, la generosidad y las capacidades técnico-cognitivas de todas las personas. Con el “excedente cognitivo se consiguen unas economías de escala nunca antes imaginada. La idea es muy sencilla: las nuevas tecnologías junto con el creciente tiempo libre de las personas (tiempo libre muchas veces malgastado pasivamente ante la televisión) permiten que todos podamos utilizar ese tiempo libre colectivamente para poder hacer cosas que serían imposibles a nivel individual. El experto en redes sociales Clay Shirky nos muestra cómo.





1 de enero de 2014

¡¡No es el déficit... es la demanda, estúpido!!

A quien corresponda,

Lo que sigue es una reflexión sintética a modo de considerandos, leyes y corolarios. Estaba tentado a llamarla ley de Monzó sobre los sistemas energéticos, pero me pareció presuntuoso. Dejémoslo en una perspectiva sistémica del sistema energético nacional, fruto de una larga experiencia lidiando con sistemas de producción y de costes.

Vayamos pues al grano:

(las personas que quieran ahorrarse una lectura técnica, pueden consultar al final una versión simplificada con una metáfora):

Considerando 1º: En aras de la clarificación de los costes de producción de energía, en primer lugar propongo que se debería separar los costes del sistema energético por naturaleza y comportamiento económico y matemático ante la demanda, para no “mezclar churras con merinas” (full costing), teniendo presente como criterio discriminador el distinto impacto que la variación de la demanda representa a cada componente del coste, pues es bien sabido que existen costes del sistema energético que se comportan globalmente de manera variable en función de la demanda [1], mientras que otros costes del sistema son globalmente fijos o cuasi fijos respecto a la demanda [2]. En otras palabras, se trata de someter a un criterio de transparencia y racionalidad lo que en muchas ocasiones se trata como un dogmático e inapelable “coste real” como si se tratase de un ente monolítico cuyas partes constituyentes se comportasen todas de igual manera. Y no es así.

Considerando 2º: En la actual crisis económica es una tentación para los responsables del sistema energético transferir todos los costes y algo más al consumidor (sin transferirle las ventajas de la concavidad) por vía del incremento continuado de precios por unidad energética consumida, sin embargo es claro que esta política alcista (derivada de un mecanismo de formación de precios perverso, pues los Kw/h se producen a costes diversos, pero mediante el sistema de subasta actual todos se pagan igual: al precio más alto), lejos de contribuir a ser parte de la solución facilitando una salida a la crisis del sistema mayor (el sistema económico en su conjunto) o convertir al sistema energético en un vector de competitividad del sistema mayor, puede convertirse, se está convirtiendo de hecho, en parte del problema si el alza continuada de precios alienta y acelera el subconsumo de energía (pobreza energética), contribuyendo de manera procíclica al estancamiento económico con un coste de energía para las pymes y consumidores domésticos superior al promedio europeo, cuando paradójicamente contamos con un parque de centrales nucleares, térmicas e hidrológicas mayoritariamente amortizado, un notable sobredimensionamiento para cubrir picos de demanda y un mix tecnológico renovable/no renovable equilibrado en un sistema energético que nos permitiría disponer de una de las energías más fiables, económicas y limpias de Europa. Así, lo que he denominado una Tarifa Aceleradora del Subconsumo (TAS) podría ser el escenario final a una política de precios suicida para el propio sistema energético, con colapso sistémico como telón de fondo.

En consecuencia,

Ley 1ª: En un sistema energético no renovable, el único coste marginal lineal en función de la demanda es el combustible[3]. Todos los demás costes marginales, incluidos los costes operativos de la generación/transporte/distribución(GTD)[4], los indirectos, amortizaciones, financieros y generales del GTD, las subvenciones, primas e impuestos, es decir, todos los demás componentes del coste marginal del sistema[5] son cóncavos respecto a la demanda, incluido el “déficit de tarifa”[6].

Ley 2ª: En un sistema energético renovable, todos los costes marginales son cóncavos en función de la demanda, incluido el “déficit de tarifa”.

Ley 3ª: En un sistema energético con la mayoría de costes marginales cóncavos en función de la demanda, el precio tiene un doble objetivo en aras de la supervivencia del propio sistema: debe reflejar la interacción entre oferta/demanda y a la vez debe evitar el subconsumo.

Corolario 1º: Dado el mayor peso específico en el sistema energético de los costes de naturaleza no combustible, cuanto más se estimule el consumo energético, menor será el coste marginal por unidad de energía producida y mayor será el beneficio antes de impuestos (y consecuentemente mayores los impuestos recaudados).

Corolario 2º: Dado el mayor peso específico en el sistema energético de los costes de naturaleza no combustible, cuanto más se desanime el consumo energético (p.ej. vía tarifa de precios depresora del consumo y/o vía generación de más pobreza energética y/o vía creación artificial de escasez), mayor será el coste marginal por unidad de energía producida y menor será el beneficio antes de impuestos (y consecuentemente menores los impuestos recaudados).

Corolario 3º: Si la demanda promedio a un precio promedio dado sigue sin cubrir los costes correspondientes de naturaleza no combustible y excluyendo por inviable la opción de seguir incrementando el “déficit de tarifa” para “desplazar hacia el futuro” los costes de esta naturaleza, el sistema energético español estará abocado a una de estas cinco posibilidades (no necesariamente excluyentes) para que sea sostenible por sí mismo en la próxima década: (a) estimular la demanda y atraer a grandes consumidores de energía vía reducción de precios unitarios (obviamente sin incrementar el coste de naturaleza no combustible) y/o vía exportación de energía a Europa y Norte de África[8]; (b) reducir progresivamente los componentes del coste de naturaleza no combustible; (c) aumentar el sistema energético renovable y reducir el no renovable a fin de reducir aún más el componente de coste directo del combustible y sin aumentar el coste de naturaleza no combustible; (d) abrir el mercado a una competencia interna real para estimular la reducción de precios vía competencia, incluida la competencia de la autogeneración de los consumidores domésticos; o (e) quebrar y nacionalizarse ante el probable escenario de una reducción de la demanda inducida por una política de precios insensible a las circunstancias del mercado real y potencial.

Tengo la convicción que seguir incrementando año tras año el precio unitario de la energía muy por encima de la inflación como si las empresas energéticas oferentes tuvieran una invisible e inmutable “renta de situación” que les permita exprimir sin límite a los clientes como si estuvieran en un mercado cautivo, conduce inevitablemente a una situación de estrangulamiento sistémico de la demanda por tres vías: (a) fuga de clientes del segmento de grandes consumidores de energía hacia otros países con una mejor relación calidad/precio unitario de energía; (b) reducción de consumo a través de una mayor eficiencia energética de clientes y/o la cogeneración del segmento de grandes y medianos consumidores de energía; y (c) aliento y aceleración del subconsumo o TAS[10] vía reducción de consumo a través de medios sustitutivos, y/o pobreza energética[11] y/o autogeneración de la mayoría de clientes domésticos.

Sería una lástima que tras un duro ajuste por el lado del factor trabajo que nos ha situado en una situación de ventaja competitiva vía costes laborales, viniese la factura energética a “aguar la fiesta” con unos precios inaceptables para el país eficiente y competitivo en costes que queremos ser. Sería deseable que los responsables del sistema energético español actuasen de oficio y decidiesen de manera unilateral una reducción de precios para incentivar el consumo en lugar de esperar al colapso del sistema.

Ahora o nunca: ustedes tienen en su mano acometer los cambios para un diseño de costes que no gravite sobre un full costing indiscriminado que no refleja con claridad el origen por naturaleza de cada coste y el distinto comportamiento económico y matemático de los costes marginales que debería poder reflejarse en la factura al consumidor: ante un mundo que exige más y mejor transparencia no se puede seguir pensando en métodos que la impiden. Y, en fin, diseñar el futuro del sistema tarifario de la energía con tendencias que graviten sobre la estimulación de la demanda en lugar de alentar al subconsumo.

Es su turno.


[1] Por su carácter de costes directos y variables, a nivel global son sensibles a las variaciones de la demanda: a más demanda de energía más de este tipo de costes y viceversa. Sin embargo, en lenguaje de costes marginales (producir/consumir una unidad energética más) ocurre que a mayor demanda el coste marginal de esta naturaleza se mantiene relativamente constante, es decir, se beneficia poco del elevado consumo, mientras que el subconsumo apenas le perjudica (a excepción de algunas materias primas que puedan perder su capacidad energética por sobrestock). O en lenguaje de elasticidad-demanda-coste: el coste marginal de esta naturaleza es poco elástico ante variaciones de la demanda (la única elasticidad proviene de los descuentos por volumen de compra de materias primas o el sobreprecio por estas compras fuera de previsión). Resumiendo: Estos costes crecen globalmente (como coste total) pero suelen mantenerse constantes unitariamente (como coste marginal) si aumenta la demanda y, en principio, el subconsumo no les perjudica. Por lo general su comportamiento unitario (coste marginal de esta naturaleza) se pueden representar como una función lineal (coste marginal en el eje de ordenadas y demanda en el eje de abscisas). Estos costes se pueden estimar actualmente entre un 15% y un 25% del coste total actual (estimación propia).

[2] Por su carácter de costes estructurales o fijos, a nivel global son insensibles a las variaciones de la demanda. Sin embargo, en lenguaje de costes marginales (producir/consumir una unidad energética más) ocurre que a mayor demanda el coste marginal de esta naturaleza es decreciente y viceversa, es decir, se beneficia mucho del consumo elevado y por contra le perjudica mucho el subconsumo (más coste estructural a repartir entre menos unidades producidas/consumidas). O en lenguaje de elasticidad-demanda-coste: el coste marginal de esta naturaleza es elástico ante variaciones de la demanda. Resumiendo: Estos costes se mantienen constantes globalmente (como coste total) pero decrecen unitariamente (como coste marginal) si aumenta la demanda pero, ojo, el subconsumo le perjudica y mucho. Por lo general su comportamiento unitario (coste marginal de esta naturaleza) se puede representar como una función cóncava (coste marginal en el eje de ordenadas y demanda en el eje de abscisas). Estos costes se pueden estimar actualmente entre un 75% y un 85% del coste total actual (estimación propia).

[3] Se entiende por coste de combustible el coste directo, perfectamente identificable y trazable del suministro de terceros de cualquier materia prima o consumible directamente relacionado con la generación de energía, sea combustible nuclear (incluyendo el coste de arranque/parada), gas, fuel, carbón nacional (incluyendo el coste de la subvención al mismo), etc. En este sentido las subvenciones actuales al carbón u otras directamente imputables al combustible deberían ir a esta partida según el criterio de esta propuesta.

[4] Se entiende por coste de generación/transporte/distribución (GTD) el coste operativo, perfectamente identificable y trazable de la operación y mantenimiento de la red eléctrica de alta, media y baja tensión, incluyendo el coste operativo y de mantenimiento de las centrales. Por coste operativo y de mantenimiento se entiende el coste directo vinculado al funcionamiento del sistema GTD, esto es, se excluiría del coste relacionado con la obsolescencia o averías por no uso, etc. por estar más vinculadas a conceptos de inversión y renovación tecnológica (o la falta de ellas).

[5] Amortización por inversiones en activos fijos, deuda financiera, sueldos y salarios no vinculados directamente al sistema GTD, gastos generales, publicidad, consejeros, etc. es decir, el resto de costes no incluidos en el apartado anterior. Obsérvese que aunque algunos de estos costes pudieran contemplarse como directos en algunos sistemas de contabilidad de costes, en esta propuesta se asumirían como indirectos por su carácter de coste marginal cóncavo respecto a la demanda.

[6] El “déficit de tarifa” (CNE: Informe sobre el sector energético español 2012) es un auténtico “cajón de sastre”, un artificio contable fruto de una decisión política tomada en un momento en que “para salir en la foto” del Euro y no superar cierto umbral de inflación y deuda se decidió con la muy hispánica técnica de la “patada hacia adelante” desplazar hacia el futuro el “coste real” de la energía. El problema es que el futuro ya es hoy y lo que se inició con una solución temporal se ha ido transformando en una solución estructural donde se han mezclado posteriormente cosas tan dispares como las primas a la inversión en energías renovables, las diferencias de ingresos y costes (no diferenciados), subvenciones de todo tipo, etc. En lo que sigue y dado que es imposible retornar al pasado para resolver el entuerto generado o discriminar los costes genuinos de otros conceptos endosados subrepticiamente a la tarifa (a falta de una verdadera auditoría pública de costes del sistema energético es más que probable que el beneficio de explotación esté encubierto entre la selva de conceptos que conforman el “coste real”) propongo no seguir hablando más del “déficit de tarifa” y tratarlo como una deuda histórica que ya no debe crecer más [7] y que por su carácter distorsionador del “coste real” debería ser absorbida en un plazo de tiempo suficiente para que no tuviera un impacto importante en la factura eléctrica, con un criterio de amortización amplio: p.ej. 30 años y una financiación mixta (el principal de la deuda con cargo a la factura eléctrica durante 30 años y los intereses con cargo a los presupuestos generales del Estado).

[7] En la actualidad (diciembre 2013) el stock de deuda con origen en el mal llamado “déficit de tarifa” se acerca peligrosamente a los 30.000 millones de euros.

[8] En la actualidad (REE: Informe del sistema eléctrico 2012) existe un saldo neto exportador (exportamos más energía de la que importamos). Sin embargo entiendo que existe todavía mucho margen de crecimiento, tanto en el aprovechamiento de la sobrecapacidad[9] de generación de energía (gracias a las denostadas renovables: Estudio del Impacto macroeconómico de las Energías Renovables en España 2011) como en la competitividad vía precios, como en la acción comercial para ampliar la base de clientes en el exterior.

[9] En algunos círculos (Los males del sistema eléctrico: sobrecapacidad, subvenciones y mix poco competitivo) se critica la sobrecapacidad energética que ha provocado la irrupción de las energías renovables en el sistema eléctrico español como la causa de todos los males. No estoy de acuerdo, en primer lugar porque ya he comentado antes que mientras no se realice una verdadera auditoría pública al llamado “coste real” no sabremos si nos están dando “gato por liebre” en los costes, por tanto lo único razonable es sugerir, como hago en esta propuesta, un rediseño de los costes en función de su distinto comportamiento ante la demanda. Y en segundo lugar, desde una perspectiva sistémica, la existencia de sobrecapacidad en un sistema es la mejor opción cuando la demanda no es totalmente previsible o tiene fuertes picos de subida como de bajada (fluctuaciones estadísticas) tanto en la oferta como en la demanda por la metereología (exceso de calor o frío afecta a la demanda, falta de viento, lluvia o sol afecta a la oferta renovable) y el coste (social y económico) de la no cobertura de la demanda es importante: cuando algunas personas arremeten contra el sobrecoste operativo de esta sobrecapacidad del sistema eléctrico siempre les digo que muchos sistemas que damos por buenos socialmente tienen capacidad ociosa y no por ello cuestionamos su coste o su existencia: los bomberos de guardia ociosos, los servicios de urgencias médicas de guardia ociosos, los servicios de seguridad ciudadana de guardia ociosos, etc. pues exactamente lo mismo con la sobrecapacidad del sistema energético: está ahí ocioso pero listo, de guardia, en standby, para dar servicio cuando lo necesitemos, luego, por favor, no generemos artificialmente una escasez que no es aconsejable ni creíble. Y si alguien tiene dudas sobre las ventajas de la sobrecapacidad que vea lo que pasa en otros lugares cuando los ciudadanos reclaman capacidad eléctrica (La ola de calor eleva las protestas contra el Gobierno argentino por los cortes de luz): Esto es lo que suele ocurrir cuando un sistema está “demasiado ajustado” u optimizado para atender una demanda promedio y no tiene en cuenta las fluctuaciones estadísticas de la demanda: tarde o temprano los “picos de la demanda” colapsan el sistema.

[10] La Tarifa Aceleradora del Subconsumo (TAS) se puede definir como aquel precio de venta a partir del cual se provoca un subconsumo, contribuyendo vía precios a deprimir la demanda. Por lo general se puede representar como una función cóncava (demanda en el eje de ordenadas y precio de venta en el eje de abscisas). No hace falta volver a recordar el impacto negativo que representa el subconsumo en un sistema donde los costes fijos o cuasi fijos tienen mayor peso y la falsa salida que representa la “huida hacia adelante” de seguir trasladando al precio los nuevos costes marginales, contribuyendo a acelerar (dinámicamente, por retroalimentación) el subconsumo, pues al quedar menos demanda para soportar la misma estructura y si los responsables del sistema siguen miopes aplicando la misma política de precios, no verán otra salida que seguir repercutiendo los costes entre los consumidores que queden, así hasta el colapso o quiebra final del sistema.

[11] La pobreza energética es la dificultad o la incapacidad de mantener la vivienda en unas condiciones adecuadas de tempe­ratura (como referencia, se podría tener en cuenta la definición de la Organización Mundial de la Salud, que considera tempe­ratura de confort, 21 °C en la sala de estar y 18 °C en el resto de estancias, o bien, cualquier otra definición que se considere técnicamente adecuada) así como de disponer de otros servicios energéticos esenciales como la iluminación, el transporte o la electricidad para Internet u otros dispositivos a un precio razo­nable. Esta es una definición de carácter general, que puede ser completada utilizando también otros criterios que permitan ac­tualizar el concepto cuando sea necesario. Fuente: Dictamen del Comité Económico y Social Europeo sobre el tema «La pobreza energética en el contexto de la liberalización y de la crisis económica» (Dictamen exploratorio)


Versión Simplificada

Un edificio con 100 vecinos cuesta mantenerlo 100 euros/año, de los cuales 80 euros son coste fijo (incluyendo impuestos para el ayuntamiento, el mantenimiento y un beneficio para el propietario) y 20 euros son coste variable (puede subir o bajar) en función del consumo de energía para luz y climatización de los vecinos. Los vecinos pagan 100/100=1 euro cada uno y el sistema es estable.

Con el tiempo el propietario, aconsejado por el ayuntamiento, hace unas reformas en el edificio y en consecuencia aumenta el coste fijo (hay que amortizar la inversión, pagar intereses a los bancos, aumenta el coste de mantenimiento, etc.), y también el coste variable porque todo sube (menos los salarios)... Y, ahora el coste fijo es 125 y el variable 25. Ya estamos en 150 euros/año.

El propietario, aconsejado por el ayuntamiento, dice que esa diferencia (de 100 euros a 150) no lo paguemos todo ahora, sino que paguemos una parte en la factura y el resto en el futuro (en eso consiste el “déficit de tarifa”). Digamos que mitad/mitad, o sea, que en lugar de pagar 150/100=1,5 euros/vecino, los vecinos paguen solamente 1,25 euros/año cada uno y el 0,25 restante (por vecino) se aplaza al futuro, avalada por el ayuntamiento (deuda a largo plazo, más los intereses para la banca, claro, para que haya negocio para todos).

Pero en el ínterin, hay una crisis económica y hay vecinos que ya no pueden soportar esa subida del 25% y deciden consumir menos, otros se marchan, etc. así que pongamos que ahora quedamos 75 vecinos para soportar 150 euros/año de coste total, o sea, que en realidad tendríamos que pagar 2 euros por vecino (150/75), y en consecuencia, el propietario decide que hay que seguir subiendo el precio porque con la baja de vecinos “somos menos para pagar la misma estructura de costes” (que al ser mayoritariamente de costes fijos apenas se nota si se consume menos)... y, consecuentemente vuelve a subir al año siguiente a 1,50 euros por vecino y para apaciguarnos nos dice que los otros 0,50 se aplazan al futuro (más los intereses, que van engordando la deuda anterior).

Al año siguiente se marchan otros 25 vecinos... y entonces el coste a repercutir es ya de 150/50 = 3 euros (sin contar la deuda aplazada y los intereses)... una cantidad que ya solo algunos cuantos privilegiados pueden pagar.

¿Cómo termina la película?. Pues muy mal, quedando cada vez menos vecinos para soportar la misma estructura de costes (que, recordemos, no varía sustancialmente porque haya menos vecinos y consuman menos), al que añadir la deuda diferida (“déficit de tarifa”) más los intereses, que no dejan de crecer (ya se sabe, el efecto del interés compuesto) y que si la sumamos a la factura nos daría un patatús... al final sólo hay dos salidas: (1) bajan los precios para atraer nuevos vecinos al edificio y así soportar entre más vecinos la estructura de costes y el déficit acumulado... o (2) el propietario quiebra por exceso de coste estructural y falta de ingresos suficientes... quedándose el ayuntamiento con los activos (el edificio) y los pasivos (la deuda acumulada y el coste de estructura)... y ya se sabe que el ayuntamiento somos todos.


7 de diciembre de 2013

Desigualdad de Jensen: cuando más significa menos y viceversa

Johan Ludwig William Valdemar Jensen (1859-1925) más conocido como Johan Jensen, fue un ingeniero danés apasionado de las matemáticas que ha pasado a la historia por ser el primero en interesarse por un fenómeno característico de las funciones continuas no lineales (convexas o cóncavas), conocido hoy como “Desigualdad de Jensen”, una propiedad que aparece en múltiples contextos y que de pocos años para acá ha comenzado a encontrar aplicaciones interesantes, desde el ámbito financiero al campo sanitario y otros por descubrir. En lo que sigue me he basado en el excelente libro “Antifrágil” de Nassim Nicholas Taleb y otros documentos disponibles en la red para realizar una aproximación didáctica y a la vez divertida de esta interesante propiedad de las funciones no lineales.

Se suele decir que de niños aprendimos fácilmente lo que es una función lineal: cuando existe proporcionalidad entre “algo” (p.ej. la fuerza con la que lanzamos a ras de suelo una bola de billar o de bowling) y la “función de ese algo” (p.ej. la distancia que alcanza la bola), funciones que aprendimos a calcular y a representar como una recta en el sistema de coordenadas inventado por un señor francés llamado René Descartes y que en un esfuerzo de reduccionismo creímos o nos hicieron creer que todo lo que sucedía en el mundo podría entenderse aplicando linealidades escolares, o haciendo algo más sofisticado como simplificar las ecuaciones hasta hacerlas lineales. Toda una generación, la de nuestros padres, que como mucho inferían las cosas aplicando la simple regla de tres, todo un paradigma de la linealidad.

Tal vez por esa razón nos cuesta mucho más aprender las funciones no lineales, ya sabe, aquellas donde no hay proporcionalidad y la representación en el sistema de coordenadas de ese señor francés tan simpático no sea una línea recta sino algo más difícil de dibujar, una parábola, esto es cuando, siguiendo el ejemplo del balón, no existe proporcionalidad entre “algo” (p.ej. la fuerza con la que pegamos un puntapié a una pelota hacia arriba) y la “función de ese algo” (p.ej. la distancia que alcanza la pelota, sometida entonces a otras consideraciones como el ángulo de la trayectoria vertical u otras más sutiles como la resistencia del viento, etc.), es decir, puede ser suficiente incorporar una dimensión adicional (en este caso la inclinación o la altura) para que el mismo esfuerzo (el impulso a la pelota) tenga un resultado (en este caso la distancia) distinto.

La cosa se complica aún más cuando hablamos de cosas más reales y cotidianas como, por ejemplo, la recientemente comentada relación no proporcional (no lineal) entre la inversión en educación y el ranking del Informe PISA 2012 revelan algo inquietante para una mente lineal: “Los resultados de España son inferiores a los que se esperarían en función de su PIB per cápita”. Es decir, a igualdad de “algo” (PIB per cápita) otros países obtienen mejor rendimiento en las pruebas de PISA, es decir, España obtiene menos de la “función de ese algo” que cabría esperar. ¿Por qué?. Pues porque la realidad es no lineal por naturaleza. Así, en el caso concreto del Informe PISA 2012 se nos recuerda algo obvio desde el punto de vista no lineal: “Es importante cómo se gasta y no cuánto se gasta”. Otra vez nos encontramos con una limitación de la mente lineal, que no suele entender estas “sutilezas” de la realidad.

Otro ejemplo: A los portavoces del gobierno español últimamente les ha dado por repetir hasta la saciedad que hay que “redoblar esfuerzos” para salir de la crisis: todo un canto a la política de austeridad, un tópico de los últimos discursos políticos (más de 600.000 referencias en Google). En lenguaje matemático: si sustituimos la variable independiente (x) por “esfuerzo” y la variable dependiente f(x) por “resultado”, así x = esfuerzo y f(x) = resultado, es decir, cuando nos dicen “hay que redoblar el esfuerzo” están diciendo que hay que “hacer más esfuerzo, doblarlo, insistir en ello (en la misma dirección, en la misma política)”... o sea, “más de x”... ¿para qué?... eso no lo dicen pero es de suponer que es para “alcanzar un mayor y mejor resultado”... o sea, “más de f(x)”... pues (siguiendo con su lógica lineal) dado que los resultados todavía son pobres, si aumentamos los esfuerzos (la política de recortes) los resultados mejorarán (habrá más crecimiento y empleo)... y ahí es donde tropieza la falacia de una mente lineal... y es lo que estoy criticando, que la realidad no se comporta de manera lineal.

En un sistema lineal tiene su lógica, dado que a “+ de x” = “+ de f(x)”. Sin embargo, en un sistema no lineal (los que abundan en la realidad y en la Economía: curva de demanda, curva de oferta, curva de Laffer, curva de Phillips, curva de Engel, trampa de liquidez, ley de los rendimientos decrecientes, etc.) es incierto, porque “+ de x” no siempre significa “+ de f(x)”, como veremos a continuación. Y es que confundir las propiedades de la variable dependiente con las de la variable independiente es típico de políticos de mentalidad lineal. He aquí una simple pregunta para desenmascarar a los políticos que no ven más allá de la regla de tres: ¿doblar el esfuerzo implica doblar el resultado?... para los políticos que no lo entienden espero que cuando su médico les diga que se tomen una pastilla para dormir bien o una dosis de antibiótico para combatir una infección no se tomen doble ración por su cuenta esperando con ese proceder “el doble del resultado”... a lo mejor por ahí sí que entienden el mensaje de la no linealidad [1].

La Desigualdad de Jensen viene a ser la clave de bóveda que nos permite entender mejor las propiedades no lineales de la naturaleza. De manera informal, podemos definir esta desigualdad así: cuando la relación que liga una variable dependiente “y” (o variable efecto) con una variable independiente “x” (o variable causa) no es lineal, se cumple siempre que el valor esperado de “y” correspondiente al promedio de “x” es diferente (mayor o menor, según la forma de la función: cóncava o convexa) del promedio de los valores observados de “y”. Digámoslo de manera más informal: cuando no existe una relación de proporcionalidad entre dos variables, el promedio de la que se comporta como efecto resultará subestimado o sobreestimado si lo obtenemos a partir del promedio de la variable que funciona como causa. En otras palabras, es casi seguro que nos equivocaremos cuando estimemos el valor de la variable dependiente a partir de la variable independiente.

¿Y de dónde proviene esa subestimación o sobreestimación?. Pues proviene de nuestra habitual mente lineal, acostumbrada a la fácil extrapolación de la regla de tres (un poco de más aquí, es un poco de más allá; un poco de menos aquí, es un poco de menos allá), donde damos por supuesto que el comportamiento de la función va a ser equivalente, independientemente de que se trate de una función lineal o no lineal.

Veamos gráficamente las diferencias entre una función lineal y otras funciones no lineales para encontrar el fallo de nuestra forma de pensar. Comenzamos pues con una sencilla función lineal, donde veremos que en ellas si es cierto que la función del promedio de la variable (x) es igual a la media de la función (y), como muestra por ejemplo y=f(x)=2x


En este caso, la función del promedio de la variable (5,5) es 11, que es igual a la media de la función (11), como se puede ver en el ejemplo de la Excel que acompaña este post. Sin embargo cuando la función no es lineal, la cosa ya no es tan trivial, pues en una función no lineal (cóncava o convexa) la función de la media de una variable no es igual a la media de la función.

Así, si la función no lineal es convexa (forma de sonrisa), la función de la media de la variable será menor a la media de la función, o al revés, la media de la función será mayor que la función de la media de esa variable, como muestra por ejemplo y=f(x)=x2


En este caso, la función del promedio de la variable (5,5) es 30,25 mientras que la media de la función es 38,5. Es decir, si hubiéramos estimado el resultado promedio de la función a partir de la función del promedio de la variable nos habríamos equivocado en más de un 27% de error como se puede ver en el ejemplo de la Excel que acompaña este post. Mientras que si la función no lineal es cóncava (forma de puchero), la función de la media de la variable será mayor a la media de la función, o viceversa, como muestra por ejemplo y= f(x)=√(x) si bien esta es una función sólo ligeramente cóncava.


En este caso, la función del promedio de la variable (5,5) es 2,35 mientras que la media de la función es 2,25. Es decir, si hubiéramos estimado el resultado promedio de la función a partir de la función del promedio de la variable nos habríamos equivocado en más de un 4% de error como se puede ver en el ejemplo de la Excel que acompaña este post.

¿Qué implicaciones tiene la Desigualdad de Jensen?. Me atrevería decir que muchas y variadas. Tal vez la más importante sea aprender a reconocer dos sesgos típicos de convexidad (o concavidad): confundir la media de algo (p.ej. la fuerza con la que empujamos algo, el esfuerzo en perseguir un resultado, etc.), con la función de ese algo (p.ej. la distancia a la que se desplaza ese algo, el resultado de un esfuerzo), o también, el sesgo más sutil: confundir la función de la media con la media de una función... pues, como hemos visto, ante una función convexa nos podemos encontrar con la sorpresa de que al intentar estimar el resultado promedio a partir de la función de la media estemos subestimando el resultado y, viceversa, cuando estamos ante una función cóncava (convexidad negativa) nos encontraremos con la sorpresa de estar sobreestimando el resultado promedio a partir de la función de la media.

Otra implicación importante es la consideración estratégica, es decir, preguntarse por ¿qué pasará con la variable efecto si aumenta la variable causa (la variable que hasta cierto punto podemos controlar)?: si la respuesta es una aceleración positiva, entonces estamos ante una función convexa (suponiendo una función monótona en el intervalo estudiado), lo que implica un cierto “efecto palanca”, esto es, que podemos conseguir más de f(x) con menos esfuerzo de (x) y para ello deberíamos buscar los puntos de apalancamiento donde con menos esfuerzo se alcance un mayor resultado; mientras que si la respuesta es una aceleración negativa, entonces estamos ante una función cóncava (suponiendo monotonía) y en consecuencia deberíamos plantearnos un cambio, bien minimizando la variable causa (x) o bien, si esto no es posible por ser (x) una variable que escapa a nuestro control (exógena), entonces reducir o evitar nuestra exposición a los estados no deseables de f(x).

En conclusión, y volviendo al Informe PISA o al mantra del “redoble de esfuerzos” de nuestros políticos, la Desigualdad de Jensen nos recuerda que cuando el más de lo mismo no conduce a un mejor resultado (en lo personal, en lo empresarial, en lo político) es porque estamos ante una realidad no lineal y por tanto es el momento de realizar cambios cualitativos, pasando del cuánto (hacer más) al cómo (hacer diferente).

Como ya hice anteriormente con la ecuación logística, el modelo Lotka-Volterra y la inecuación de Gott para realizar simulaciones y observar el comportamiento del modelo nada mejor que un ejemplo basado en Excel. A practicar pues: Desigualdad de Jensen en Excel


[1] Desde un punto de vista sistémico, una relación lineal entre dos variables es una “rara avis” en la naturaleza, algo posiblemente único que sólo puede darse en un ambiente artificial, en un entorno controlado o aislado, es decir, en un sistema cerrado, sea real o por lo general abstracto. Sin embargo, en un sistema abierto como en la naturaleza o en la economía, lo habitual es encontrarse con relaciones no lineales, donde la intervención de más variables adicionales que interactúan con las variables estudiadas y/o de fenómenos de retroalimentación entre la (mal) llamada “variable causa” y la (mal) llamada “variable efecto” (en la retroalimentación, causa y efecto son indistinguibles, véase por ejemplo Ecuación Lotka-Volterra), generan esa percepción de no proporcionalidad entre la variable causa y la variable efecto escogidas de entre las muchas posibles. En otras palabras, es nuestro afán reduccionista, simplista, el que al abordar la complejidad del mundo escogiendo dos únicas variables observadas en lugar de todas las posibles y su calificación de causa (variable independiente) y efecto (variable dependiente) el que propicia la percepción de “extrañeza” por la no linealidad.

Para saber más: Johan Jensen en Wikipedia (inglés)

Biografía de Johan Jensen (inglés)

Desigualdad de Jensen en Wikipedia

Desigualdad de Jensen en Encyclopedia of Math (inglés)

Desigualdad de Jensen en Math World (inglés)

Función no Lineal en Wikipedia

No Linealidad en Wikipedia

Función convexa en Wikipedia

Función cóncava en Wikipedia

Esperanza Matemática en Wikipedia

El problema de la media, el problema con la media

Desigualdades


3 de noviembre de 2013

De espionaje masivo, correlaciones espurias y trampas de la inteligencia

Alguien tendría que poner un poco de sentido común en esto del espionaje masivo recientemente descubierto a raíz de las revelaciones del joven espía estadounidense Edward Snowden a varios medios de comunicación. Cuando entre los años 40 a los 80 del siglo XX se decidía “pinchar” un teléfono (fijo, por supuesto) había que dedicar muchas horas/hombre a escuchar, filtrar, tamizar, transcribir, sintetizar... o como se dice en la jerga de inteligencia, pasar del ruido al dato y del dato a la información de inteligencia.

Hoy cuando se decide “pinchar” se hace masivamente, indiscriminadamente, en todos los canales de comunicación (teléfonos fijos, móviles, correo electrónico, redes sociales, etc.) y por medios totalmente automáticos, “desatendidos”, es decir, sin necesidad de intervención humana... y eso ya no hay quien lo pare, porque cuando no sabes lo que buscas pero la tecnología te permite el acceso a todas las comunicaciones electrónicas, buscas en todas partes sin discriminación... como pollo sin cabeza. ¿Resultado?, amén del consabido problema de la infoxicación que ya abordé en una entrada anterior, resulta risible, por cómica, la contraposición entre la justificación estándar del espionaje masivo (luchar contra el narcotráfico y el terrorismo yihadista o convencional) con el hecho fáctico de espiar, entre otros, a los cardenales del Vaticano o a los líderes europeos. Patética justificación, ¡¡por Baal!!.

Sin embargo, lejos de acelerar el proceso de conversión del dato o metadato en información de inteligencia (un proceso que requiere, siempre, obligatoriamente, la intervención humana y por tanto es lento y caro), el que decide que ese modo de entender la “inteligencia” es absolutamente necesario para nuestra seguridad que estos sistemas funcionen masivamente y en “modo automático” registrando todas las transacciones siguiendo la doctrina del “just in case” (por si acaso) se mete en un callejón sin salida, porque por la propia naturaleza de estos sistemas, exacerbados por el “just in case”, cada vez necesitará más y más recursos informáticos, de velocidad (ayer megaflops, hoy gigaflops, mañana teraflops,...), de almacenamiento (ayer terabytes, hoy petabytes, mañana exabytes,...) y de construcción de algoritmos cada vez más sofisticados, en lo que se ha venido en llamar el “Big Data” o análisis de grandes bases de datos, una tecnología con efectos contraproducentes que el estadístico Stanley Young viene alertando contra el fenómeno que llama “la tragedia de los grandes conjuntos de datos”: cuantas más variables se estudian en un gran conjunto de datos, más son las correlaciones que pueden evidenciar una significación estadística espuria, es decir, que se puedan tomar como relaciones de causalidad simples relaciones de casualidad, o sea, que cuantos más datos tengamos más probabilidades de encontrar esas relaciones ilusorias sin ninguna significación real, aunque por pura “fuerza bruta” tengan alguna significación estadística (se sabe por ejemplo que por simulación mediante el método de Montecarlo para generar variables aleatorias, las correlaciones espurias crecen exponencialmente con el número de variables), lo que significa que en manos no adecuadas se pueden malinterpretar ciertas correlaciones y el analista termine por ser “engañado por los datos”, o, lo que es peor, que el que analiza o recibe la información termine con su salud mental alterada como le sucedió al célebre matemático y premio Nobel John Nash (recuerden las escenas del film “Una mente maravillosa” que transcurren en la Rand Corporation) cuando colaboró con los servicios de inteligencia de su país: al final veía al enemigo en todas partes porque veía correlaciones en todo.

Echo en falta que estas agencias de inteligencia muestren una verdadera medida para la “eficiencia de la información de inteligencia” para medir su productividad, a semejanza del TRE o Tasa de Retorno Energético (la relación entre energía obtenida frente a la energía invertida), es decir, algo como una Tasa de Retorno de Información de Inteligencia o TRI2 (que podría medirse como la información de inteligencia obtenida versus los recursos de procesamiento y almacenamiento invertidos), pero a tenor de cómo aumenta exponencialmente la presión por disponer de estos recursos (el denominador) es simple deducir que la TRI2 es cada vez más infinitesimal, es decir, irrelevante, vamos, como echar cada vez más paja en un pajar en busca de una aguja, en lugar de usar un detector de metales... lo que conlleva entonces preguntarse legítimamente si lo que se persigue es otro (u otros) objetivo(s) al verbalizado, por supuesto inconfesables.

Porque, no seamos ingenuos señores espías: una gran empresa, un gobierno o un ciudadano no tienen la opción de prescindir de las comunicaciones electrónicas, porque hacerlo les restaría competitividad o eficiencia... pero ay, amigos espías, una célula terrorista sí tiene la opción de prescindir de las comunicaciones electrónicas (de hecho les es más eficiente usar personas como correos para transmitir mensajes, lo mismo que los narcotraficantes), es más, si un terrorista quiere tener éxito en su misión debe prescindir obligatoriamente de las comunicaciones electrónicas, luego, por favor, no nos vengan con el cuento de la seguridad porque desde el llamado “sesgo de opcionalidad” [1] queda muy claro quien tiene opción y quien no, quien puede y quien no puede “pasar por el aro” de las comunicaciones electrónicas. En otras palabras, desde el “sesgo de opcionalidad” se desnuda el argumento de la seguridad, quedando en evidencia lo que persigue realmente el espionaje masivo: sacar ventaja económica y/o militar y/o política, es decir, el interés estratégico es el motivo último del espionaje masivo.

El hecho cierto que hayamos tenido en Occidente tres grandes atentados en los últimos doce años y decenas de pequeños atentados producidos por “lobos solitarios” (que emulando al desaparecido archienemigo líder yihadista Osama bin Laden prescinden, obviamente, de las comunicaciones electrónicas) a pesar de la presencia temprana de esta tecnología de espionaje, esos hechos demuestran la poca eficiencia práctica del espionaje masivo para impedir atentados (aunque, por el contrario, sí han sido muy eficientes como “argumento del miedo” para justificar una mayor inversión en estos sistemas), amén de inferirse de estas actuaciones que en realidad estas agencias no espían lo que deberían (financiación y reclutamiento de células terroristas, análisis del “motus” y génesis yihadista, etc.) y cómo deberían (infiltrándose, anticipar y proyectar situaciones de vulnerabilidad sistémica, modelizar sistémicamente el comportamiento terrorista, etc.), sino lo que les permite esta tecnología. Es decir y contradiciendo al presidente Obama, no se trata tanto de que la NSA o cualquier otra agencia no haga lo que (tecnológicamente) puede llegar a hacer, sino poner énfasis en lo que sí pueden hacer y no hacen. La mala noticia es que las posibilidades tecnológicas ciegan la visión de los límites de lo que se puede alcanzar y la buena noticia es que llegará un momento que esa locura se detendrá a sí misma: cuando se percaten que necesitan toda la energía del planeta para procesar todas las comunicaciones del planeta. Espero que en algún momento de lucidez los que deciden sobre estas cosas recuerden el cuento del genial Borges “El espejo y la máscara” donde relataba la ambición de unos cartógrafos imperiales chinos de trazar un mapa tan grande como el territorio.

Queridos espías, si de verdad queréis conocer y anticiparos a “los malos” no os queda otra que respetar aquello que hace muchos años decía uno de los padres de la Cibernética: “Solo la variedad puede absorber variedad” (W. Ross Ashby), dicho de otro modo, si sólo tenemos un modo de espiar (el que nos ofrece la tecnología descrita, que consideráis lo más de lo más), no podremos absorber todos los intentos de “los malos” por hacer daño (que de hecho ya descuentan en su conducta ese modo de proceder, reduciendo su exposición a la tecnología o sorteando sus obvios algoritmos de búsqueda), es decir, no queda otra que ser más listos, más inteligentes que “los malos”... pero para ser más inteligentes lo primero que tenéis que hacer es no caer en la estupidez de creeros muy inteligentes porque sobreponderáis la tecnología de la información a vuestro alcance, o caer, como decía el padre del Pensamiento Lateral en “la trampa de la inteligencia” (Edward de Bono), esto es, creer que la inteligencia consiste en ser más hábiles, rápidos y reactivos, sino en ser más sabios que habilidosos, más profundos que rápidos y más proyectivos que reactivos. La mala noticia es que estas cosas no se consiguen con más tecnología y la buena noticia es que para lograrlo sólo es necesaria una cosa que son tres: pensar más, mejor y diferente.


[1] El sesgo de opcionalidad es un sesgo de selección similar al que incurrieron las empresas de sondeos cuando en los albores de la telefonía decidieron ahorrarse costes haciendo las encuestas telefónicamente: atribuyeron erróneamente que la muestra de los encuestados telefónicamente era representativa del universo de la población... cuando sólo los ricos tenían teléfono. Hoy, a diferencia de entonces, prácticamente todo el mundo usa las comunicaciones electrónicas... porque entre otras cosas no tiene opción a no hacerlo, porque no hacerlo es un desincentivo (incurriría en unos costes y una ineficiencia que no se pueden permitir)... menos los que sí tienen opción (de ahí la opcionalidad) porque saben que para el “éxito” de su misión es obligatorio prescindir de las comunicaciones electrónicas, porque no hacerlo sí tiene incentivos para ellos, de ahí que le atribuya a este sistema de escuchas un sesgo de opcionalidad y, consecuentemente, porque imagino que las agencias de inteligencia no pueden ignorar este sesgo, deduzca que el verdadero objetivo no es el verbalizado... y si lo ignoran, entonces, como decía no sin cierta sorna el ensayista Luis Montoto, ¡¡apaga y vámonos!!.