10 de agosto de 2016

De investiduras, precipicios, rebeldes y gallinas

Vaya por delante que pienso que Rajoy (PP) y Sánchez (PSOE) son mayorcitos y saben perfectamente de qué va el juego que están practicando.

Desde la Teoría de Juegos, pienso que la mejor aproximación es el “juego de la gallina”, ya saben, “Rebelde sin causa” de Nicholas Ray con James Dean de protagonista: un precipicio, dos vehículos, dos pilotos... pierde el que frena antes, etc.

Aquí, el precipicio es obvio: las terceras elecciones, esas que nos dicen todos que sería lo peor de lo peor. Admitamos pulpo, de momento.

¿Y los otros jugadores?. Desde mi punto de vista, Ciudadanos, Unidos Podemos y otros son irrelevantes en este juego, porque solos o en compañía de otras combinaciones posibles, son aritméticamente irrelevantes. Eso sí, puntualmente estos partidos pueden utilizarse por los verdaderos jugadores para trasladarse mutuamente presión política y/o mensajes más o menos subliminales. Más adelante podrían cambiar su rol, pero en lo que concierne a este juego concreto de la investidura, el protagonismo está centrado en sólo estos dos jugadores: Rajoy (PP) con un objetivo claro de permanecer en el poder evitando otras elecciones; y Sánchez (PSOE), con un objetivo también claro de liderar el PSOE y la oposición al gobierno previa renuncia de Rajoy tras su probable fracaso en la investidura, una renuncia que Sánchez necesita como aval para aspirar a ambos liderazgos.

Rajoy sabe que si aguanta la presión del No de Sánchez y logra posicionar mediáticamente que la intransigencia del PSOE sea el culpable del fracaso colectivo por no evitar las terceras elecciones echándonos todos como país por el precipicio, y aquí muchos tertulianos se identifican con el gobierno en funciones sin interpretar perspicazmente el secular tacticismo del PSOE, dando alas así a una lectura emocional, de que la causa del bloqueo institucional que tenemos desde hace meses se debe a un desencuentro personal entre Rajoy y Sánchez, o una lectura conspiranóica: “Sánchez lo que quiere desde el principio es ser presidente con la ayuda de Podemos”, sin darse cuenta que Sánchez (PSOE) cuenta con el respaldo orgánico del partido, y tampoco quiere sentirse rehén del abrazo del oso que supondría su presunto pacto con Iglesias (Unidos Podemos) con un fracaso anunciado que daría con sus huesos en la dimisión como secretario general si acaso se le ocurriera presentarse una segunda vez como candidato y fracasar de nuevo en apenas seis meses con una nueva pareja de baile.

Por tanto, si la presión del PP triunfa, podría quebrar la posición del PSOE ante el riesgo del precipicio y en consecuencia que el PSOE frene antes y se abstenga, aunque esa decisión acarrease muy probablemente la dimisión de Sánchez como secretario general, convertido ya en el gallina de este juego, en el jugador quemado que no aguantó la presión política y mediática. Pero, además, dicha presión pro-abstención, si triunfa, significaría dejar en manos de Unidos Podemos la oposición real al gobierno, por más que la oposición formal recayese en el PSOE, una posibilidad que desde el punto de vista bi-partidista, objetivamente no le conviene al PP, que antes prefiriría una oposición hegemónica representada por el PSOE que darle alas a una presunta unidad de la izquierda.

Mientras que, del otro lado, Sánchez sabe que si hace creíble su posición orgánica como partido (y la existencia de “versos sueltos” del PSOE diciendo cosas distintas, contrariamente a lo que se piensa, ayuda a hacerla más creíble) entonces podría quebrar... pero, ¿quebrar qué?... obviamente a Rajoy como candidato a la presidencia.

Si observamos atentamente y no como hacen los tertulianos, el “No es No” de Sánchez, en realidad es un No dirigido a Rajoy, no al PP, aunque formalmente se interprete contra el todo.

Es decir, nada muy diferente a lo que nos tiene acostumbrados el PSOE desde los tiempos del condicional “OTAN, de entrada no”, el calculado tacticismo del PSOE viene a significar que su posición es reversible a la abstención si el PP nombrarse a otro candidato. Ese “triunfo” (la cabeza de Rajoy) sería el relato que necesitaría Sánchez para, además de garantizar su reelección como secretario general del PSOE, vender internamente la abstención y cambiar su posición ante la investidura de otro candidato del PP.

Claro que, lógicamente y para que no parezca un chantaje o un modo impropio de inmiscuirse en las decisiones internas de otro partido, el PSOE (en este caso sin ya la ayuda mediática de PRISA, más posicionada alentando a los “versos sueltos”) necesita que el PP llegue a esa conclusión por sí mismo y consecuentemente sea el PP, orgánicamente o por vía presidencial, quien viendo la determinación del PSOE y antes de asomarse al precipicio de unas terceras elecciones, frene antes y dimita o haga dimitir a Rajoy y nombre a otro candidato para conseguir la abstención del PSOE, una dimisión que eso sí, podría hacerse con todos los honores para evitar aparecer como el gallina que no aguantó la presión y aparecer en cambio como el que nos salvó del precipicio de unas terceras elecciones.

Suceda lo que suceda, lo que sí me parece muy probable es que el final de este juego tiene pinta de saldarse con la dimisión de uno de los dos, de Rajoy o de Sánchez... pues este tipo de juegos, por su maximalismo, terminan por quemar política y personalmente a quien frena a destiempo, porque quedará visualizado como el gallina que tira la toalla, y encumbrado a quien logra salirse con la suya apoyado en su capacidad para resistir el estrés, mucho oportunismo táctico disfrazado de aparente intransigencia y, sobretodo, conciencia del miedo ajeno al precipicio... un precipicio de unas terceras elecciones que dicen que nadie quiere pero en realidad son el incentivo perverso para lograr el objetivo del que logre frenar el último...

Por último: ¿quién será el James Dean de esta historia?: mi pronóstico: el más joven de los dos, esto es, el que tenga menos que perder (o más que ganar) en términos de vida política futura.

Adenda Técnica

Para realizar la modelización se procede a ordenar las preferencias (de mayor a menor) de cada jugador a tenor de la información que se desprende o se infiere de acuerdo a la reflexión anterior y asignándole valores relativos [1]. Por el lado del PP, la ordenación podría ser la siguiente: la primera preferencia del PP es conseguir que, presentando a Rajoy como candidato, el PSOE opte por la abstención [2]. En segundo lugar y como “mal menor”, que, presentando a un candidato distinto a Rajoy, el PSOE optara por la abstención [3]. En tercer lugar, que presentando al candidato Rajoy el PSOE optara por el No (posición actual) y, por último, que, aún presentando otro candidato, el PSOE diera igualmente su No. Las dos últimas preferencias (sin presentación de candidato alternativo) son lógicamente las más temidas por ambos jugadores dado que significaría ir directamente al precipicio (terceras elecciones).

Por el lado del PSOE, la ordenación de preferencias sería en primer lugar anteponer su reiterado No al candidato Rajoy (posición actual). En segundo lugar, ofrecer una abstención a modo de voto de confianza a otro candidato del PP distinto a Rajoy. En tercer lugar, estaría la posibilidad de votar No a otro candidato del PP distinto a Rajoy (esto es poco probable, pero podría suceder en el supuesto el candidato propuesto no fuera del agrado del PSOE). Por último, obviamente, el improbable supuesto de que cambiaran las tornas y sorpresivamente el PSOE instara a un cambio hacia la abstención del candidato Rajoy. Y, al igual que en el caso anterior, las dos últimas preferencias (sin presentación de candidato alternativo) son las nefastas para ambos jugadores, por mucho que ambos dos se echaran mutuamente la culpa/responsabilidad por esa posibilidad.

Así pues, de acuerdo con lo que podrían ser las ordenaciones de las preferencias se puede formular el siguiente esquema:


Mientras que de acuerdo a las anteriores preferencias, la interacción entre los dos jugadores se refleja en la siguiente matriz:


Se puede observar que la situación actual es inestable (primera fila, juego de suma cero para ambos jugadores). Es decir, lo que significa un éxito para uno (PP o PSOE) es un fracaso para el otro (PSOE o PP) y viceversa, algo que se ejemplifica con las presiones para que el PSOE cambie de su posición actual (votar No a Rajoy) hacia la abstención (flecha azul) y la correspondiente intransigencia del PSOE a moverse de su No es no. No obstante, intuyo, esa presión actual en dirección al PSOE, se cambiará en dirección al PP una vez fracase probablemente la investidura de Rajoy, en el sentido de que el PSOE entonces presionará al PP para que presente un candidato alternativo [4] (flecha roja). Se observará que esa opción arroja un saldo no cero sobre el que construir un equilibrio en el juego, si bien es muy probable que esa situación la valore el PP como cierta pérdida (pierde a Rajoy, pero mantiene la presidencia del gobierno con otro candidato), mientras que el PSOE la considere como un triunfo de su táctica (un logro interno para afianzar a Sánchez en la secretaría general y un logro externo para liderar la oposición y así neutralizar a Unidos Podemos).


[1] Los valores relativos son un método de estimar cuantitativamente las preferencias de acuerdo a la información disponible. En este caso se estiman valores entre -10 y +10 para las combinaciones de preferencias más probables y -100 para las más improbables (terceras elecciones).

[2] Se dejan fuera otras opciones como que el PSOE vote sí (al PP u otro) o que exista un candidato no presentado por el PP. Es decir, en el modelo no se considera probable, de acuerdo a la reflexión anterior, la presentación de un candidato del PSOE o un candidato independiente.

[3] Esta opción es el “tapado” del juego actual. Y lo es porque tanto el PP como el PSOE aunque por razones distintas no se atreven a formularla explícitamente (si bien algunos miembros del PSOE la han dejado caer). Mi sensación es que tras el previsible fracaso de la investidura de Rajoy, tanto PP como PSOE se avendrán a esta opción como “mal menor” para evitar la caída por el precipicio (terceras elecciones).

[4] De acuerdo al artículo 99.5 de la Constitución Española de 1978: “Si transcurrido el plazo de dos meses, a partir de la primera votación de investidura, ningún candidato hubiere obtenido la confianza del Congreso...” es evidente que nada impide al partido que ha ganado las elecciones (PP) presente otro candidato, una vez Rajoy, probablemente y salvo sorpresas abstencionistas de última hora, fracase en su investidura. Mi sensación es que dicho candidato, actualmente “tapado” y posiblemente “pactado” en el núcleo duro del PP, será alguien alejado del ruido de la corrupción, es decir, alguien más cercano a las labores de gobierno que de partido y probablemente sea una mujer. Mi pronóstico: Soraya Sáenz de Santamaría.


Para saber más: Gallinas en Wall Street: riesgo sistémico vs. riesgo moral

Ryanair vs. Fomento: The game must go on


24 de julio de 2016

Aforismos forecastianos

Siguiendo el hilo de los anteriores Aforismos Logísticos, me lanzo a reflexionar en voz alta sobre la gestión de las previsiones, el forecasting y el arte de pronosticar y planificar en general, a cuyas técnicas y procesos les tengo cierto aprecio. Posteriormente dedicaré algunos aforismos al arte de construir algoritmos, otra de mis debilidades.

Como ocurriera con los aforismos logísticos, estos no están estructurados y tampoco pretenden ser exhaustivos, aunque sí contienen cierta coherencia en el orden de presentación como no podía ser de otra forma. Y son también la síntesis entre el aprendizaje, la teoría y la práctica, de leer muchos datos y números e interpretarlos. O malinterpretarlos.

Por último, pero no menos importante, este opúsculo es también un pequeño homenaje al estupendo artículo lejano en el tiempo (1998) pero por el que no pasan los años: “Seven Keys to Better. Forecasting” de. Mark A. Moon, John T. Mentzer, Carlo D. Smith y Michael S. Garver. Como guía para forecasters no tiene igual. Abróchense los cinturones y disfruten de estos #AforismosForecastianos...

Pronosticar es como conducir: mirar hacia atrás y mirar adelante interprendo bien los datos.

Henri Poincaré: “It is far better to foresee even without certainty that not to foresee at all”. Sin un mínimo de previsión es como ir como pato sin cabeza...

Sherlock Holmes (Arthur Conan Doyle): “Mientras cada individuo puede ser un enigma insoluble, un conjunto de ellos se comporta con exactitud matemática”. Al forecaster le interesa el conjunto, no el detalle...

Pronosticar, hacer previsiones, no es un tema infor(mate)mático. El Forecasting no es un “programa” es (sobretodo) un “proceso”.

Confundir probabilidad y frecuencia es un error típico de principiante. Evítelo limitándose al análisis de los datos.

El Forecasting se aplica sobre lo sucedido para anticipar lo que puede suceder, no sobre lo no sucedido, aunque probable.

Stephen Jay Gould: “La mediana no es el mensaje”. En el Análisis de Datos y el Big Data hay que recordar estas cosas...

“A dos desviaciones típicas de la media” es una presunción de la desviación que tienen muchas previsiones. Para ese viaje...

Hacer Forecasting con distribuciones normales es aburrido... lo divertido comienza con distribuciones de larga cola.

La estadística sólo puede demostrar la existencia de asociaciones, tendencias y atractores, nunca su causalidad.

El análisis de afinidad (co-ocurrencia de tendencias) puede aportar alguna luz para encontrar atractores ocultos.

Para el forecaster lo importante es conocer la tendencia, no la inalcanzable exactitud de la previsión ni su causalidad.

No se puede luchar contra las tendencias, pero sí entenderlas, identificar su atractor y hacer cosas nuevas para influirlas. Recuerden la explicación de Albert Einstein a la recurrencia de los resultados indeseados: “Locura es hacer lo mismo una vez tras otra y esperar resultados diferentes”.

Lao Tsé: “Aquellos que tienen el conocimiento no predicen. Quienes predicen no tienen el conocimiento”. Por si había alguna duda...

Niels Bohr: “Hacer predicciones es muy difícil, especialmente cuando se trata del futuro”. Por si alguien pensaba que se trataba de otra cosa...

Fritz Roethlisberger: “Casi todo el mundo ve el futuro como el fin y el presente como el medio, cuando en realidad el presente es el fin y el futuro el medio”. No es un juego de palabras, sino la materia prima de todo forecaster...

Woody Allen: “Me interesa el futuro porque es el sitio donde voy a pasar el resto de mi vida”. Por si había alguna duda y 2...

Anónimo: “Un buen forecaster no es más listo que los demás, simplemente tiene su ignorancia mejor organizada”. No se trata de adivinar ante una bola de cristal sino de estructurar bien la información...

Edgar R. Fiedler: “If you have to forecast, forecast often”. También valdría ‘Dar cera, pulir cera’ del Sr. Miyagi... la práctica hace maestros...

Confundir previsiones, planificación y metas es otro error típico. Las metas derivan de la visión, la previsión del análisis de los datos y la planificación de ambas.

La demanda se pronostica, el suministro se planifica.

Just in case, just in time, just in forecast, es la progresión que determina la madurez de un sistema de planificación.

Carlo Dossi: “La mitad de la vida es deseo, y la otra mitad insatisfacción”. La demanda insatisfecha aporta muchísima más información que la satisfecha...

Tener en cuenta la demanda insatisfecha en el pasado es una prioridad del forecaster. No hacerlo es como ver con un solo ojo.

El Forecasting no es un coto privado de “cuánticos” sino una tarea colaborativa entre todas las áreas de la organización.

Hay que evitar islas de análisis de datos. El Forecasting es una función estratégica: afecta a todos los departamentos.

¿Herramientas? con prudencia. El Forecasting es un arte: hay que saber integrar los métodos cuantitativos y los cualitativos.

¿Conocemos el coste de obtener la información? El coste marginal de obtener un byte más de información puede ser prohibitivo.

Una previsión débil puede tener consecuencias financieras, mientras que una buena previsión puede ser un éxito.

Equívocos: “cuánticos” que no saben qué hacer con sus previsiones y gestores que no conocen las técnicas más importantes.

Debemos establecer métricas multidimensionales para conocer si mejoramos o no como organización en las previsiones.

Se deben revisar las desviaciones en equipo: conocer los errores y su origen para mejorar.

Las herramientas de análisis de desviaciones deben ser sencillas, pero potentes y confiables.

Nadie conoce el futuro... y sin embargo el futuro es en gran medida el resultado de las decisiones del presente.

No podemos prever los “cisnes negros” pero sí su impacto. ¿Qué pasa si ocurre lo altamente improbable? ¿estamos preparados?

“Nunca llegaremos a conocer lo desconocido ya que, por definición, es desconocido. Sin embargo, siempre podemos imaginar cómo podría afectarnos. Es decir, las probabilidades de los “cisnes negros” no son computables, pero sí podemos tener una idea muy clara de sus consecuencias…”. Nassim N. Taleb.

François-Marie Arouet (Voltaire): “Lo perfecto es enemigo de lo bueno”. Tener la última novedad en herramientas de forecasting está muy bien, pero siempre que los usuarios comprendan y asimilen su funcionamiento. De lo contrario, volverán a sus hojas Excel...

Las personas desconfiamos de lo que no entendemos. Nuestra seguridad no es suficiente para convencer de las bondades de nuestro forecast.

Tom Peters: “No se puede vivir sin goma de borrar”. El Forecasting es una herramienta y un proceso que nos ayuda a regresar del futuro para corregir el presente...

Albert Einstein: “La única cosa realmente valiosa es la intuición”. La meta del Forecasting no es otra que aumentar nuestra intuición sobre el comportamiento de la demanda...

Y sí, por supuesto: nuestro cerebro (colectivo) es el mejor forecaster.


Para saber más: Forecasting en Wikipedia (inglés)

Para saber más: Seven Keys to Better Forecasting (inglés)


11 de enero de 2016

Las coaliciones vistas como una apuesta extrema

Observo los intentos de formar coaliciones post 20-D como un ejercicio inútil por exorcizar la aritmética parlamentaria, que es la que es.

Por el centro-derecha, el dilema entre un gobierno al vaivén del "no" legislativo o una gran coalición sólo "vendible" en caso de emergencia nacional.

Por el centro-izquierda, el dilema entre dos coaliciones, a la izquierda con un frágil equilibrio, a la derecha con una pérdida identitaria.

Cada parte juega con las escasas cartas que dispone, siendo el que más puede perder Pedro Sánchez, de ahí su arriesgada apuesta: todo o nada.

Sánchez ejemplifica un conocido dilema probabilístico (apuestas extremas): Tienes que ganar 1 millón de euros a la ruleta para pagar una deuda, tienes poco tiempo y sólo dispones de 10.000 euros: ¿cómo apostarías los 10.000 euros: dividirías la apuesta para “aumentar” las probabilidades (a costa de reducir el premio) o apostarías todo a un sólo número (sabiendo que tienes poco tiempo)?.

Ante este tipo de dilemas, sólo cabe una heurística: “en los juegos desfavorables, jugar con audacia es bueno, jugar con timidez, malo” (Matemáticas y juegos de azar. John Haigh. Metatemas 2003).

Pedro Sánchez sabe que una "gran coalición" con PP y C's sería una pérdida a medio-largo plazo, pues dejaría a Podemos el "terreno abandonado" (Sun Tzu).

Mientras que una "gran coalición" con Podemos, IU... siendo una apuesta arriesgada (todo al mismo número) si le sale tiene muchas ventajas.

De orden interno: si Sánchez ocupa la Moncloa (el "millón de euros"), la contestación interna se diluirá, podrá acallar a los críticos y ser re-elegido. De orden externo: fiel a la tradición de "absorción" del PSOE (recordemos los diputados del PCE e IU que fueron captados por el PSOE), bien podría llegar suceder que llegase a absorber a parte de Podemos e IU.

Que la apuesta es difícil, arriesgada, sin duda, pero si no hace nada o deja que otros tomen la iniciativa, se lo "comerán" los de casa.

Así, sabiendo que cualquier otra opción que no le conduzca al “millón de euros” (la Moncloa) va a ser calificada como un fracaso por los de su casa... luego, a Sánchez sólo le queda una arriesgada (pero racional) jugada estratégica: jugarse el todo por el todo a una única apuesta.

28 de noviembre de 2015

Aforismos Logísticos

Algunas reflexiones y meditaciones en voz alta sobre la gestión logística en las organizaciones. En forma de aforismo porque es un formato adecuado para expresar algunas cosas que de otro modo requerirían largas explicaciones que pretendo ahorrar al lector. No están estructurados aunque mantienen un cierto hilo conductor. Son el fruto, la síntesis de cosas que he ido aprendiendo con la experiencia, los errores y los aciertos analizando e implantando sistemas... y también de las tendencias que observo que están aconteciendo aquí y ahora, muchas imperceptibles pero estoy seguro van a irrumpir pronto en los procesos logísticos de las organizaciones. Abróchense los cinturones y disfruten de estos #AforismosLogísticos...

El mejor almacén es el que no existe... siempre que tengas a los proveedores anclados a la cadena logística.

Tener un OEE superior al 95% está muy bien... siempre que el almacén no esté también por encima del 95%.

Bloques de mármol, cerdos o frutas son lo mismo: hasta su despiece/tría no se sabe la cantidad/calidad de subproductos.

Un director de operaciones está en la mejor posición para entender la interdependencia de los recursos de la empresa.

La tensión entre producción y comercial es de orden temporal: los primeros dicen “para mañana” los segundos “para ayer”.

Con una previsión fiable, planificar es un juego de niños. Pero los adultos ya sabemos que los reyes magos no existen.

La mejor logística es la que no existe. O existe con paradigma diferente al aprovisionar-producir-almacenar-distribuir.

La logística futura es sin-fricción: una impresora 3D en el lado cliente y software multipropósito en el lado servidor.

Mientras tanto, tendremos que seguir gestionando la cadena logística y sus servidumbres técnicas: ERP, MRP, APS, WMS...

Los errores en las listas de materiales no se suman, se multiplican.

Al crear una lista de materiales recuerda la leyenda: por un clavo se perdieron: herradura, caballo, batalla y reino.

Antes de terminar una lista de materiales piensa los componentes que realmente tienen accesible conocer su consumo real.

Los errores en la ruta de producción parten de simplificar una realidad equifinalista: muchas formas de hacer lo mismo.

El ritmo nominal en la ruta de producción hace magia: reduce ilusoriamente el coste marginal y los plazos de entrega.

Al terminar una ruta de producción pregunta en voz alta si no será esta la última vez que alguien la volverá a revisar.

El tiempo de preparación de máquinas es la madre de todas las batallas para reducir el tiempo de entrega.

El SMED es una buena técnica para racionalizar las preparaciones, aunque su meta declarada raye en la irracionalidad.

Ver organizar un quirófano para una intervención quirúrgica es buena metáfora para reducir el tiempo de preparación.

La competencia por reducir el coste marginal pasa obligatoriamente por reducir el tiempo de preparación.

El ideal del tiempo de preparación nulo es disponer de muchas máquinas dedicadas o lanzar grandes lotes de producción.

Desafortunadamente costes de inversión, modas, variantes y el stock cero conspiran contra las soluciones convencionales.

Además de SMED, para reducir el tiempo de cambio se pueden agrupar lanzamientos de órdenes con preparaciones comunes.

Desafortunadamente el foco en la competencia por la fecha de entrega conspira contra las agrupaciones de órdenes.

Por tanto, los objetivos de reducción del coste marginal y reducción del plazo de entrega terminan siendo antitéticos .

Cuando planificamos nos olvidamos del Sr. Murphy, aunque luego se presente sin avisar y rompa nuestro bonito plan.

Nos relajamos confiando en la probabilidad: “todo no puede fallar a la vez”, pero nos olvidamos del “efecto dominó”.

El Sr. Murphy nos recuerda continuamente que en un sistema interdependiente un fallo es como ese clavo de la leyenda.

Planificar es prever la conducta futura de un sistema vivo: una tarea imposible si partimos de una simplificación.

Los fallos en la planificación están estrechamente relacionados con la presunción de veracidad de los plazos de entrega.

Una buena planificación está estrechamente relacionada con la asunción de la variabilidad en el flujo logístico.

La base de toda planificación se sustenta en tres certidumbres: stocks correctos, listas exactas y tiempos realistas.

Un error en alguna de las tres certidumbres tenderá a amplificarse de manera inversamente proporcional a su percepción.

De todos los errores logísticos, el más tangible es el más escurridizo: cuando el inventario informático ≠ real.

En el futuro, el mejor almacén será el que las mercancías hacen organizándose, ubicándose e inventariándose a sí mismas.

El Internet de las cosas (IdC) es el futuro del almacén y el adiós al código de barras, el “cerrado por inventario”...

La logística actual está diseñada para gestionar mercancías sin inteligencia. El IdC obligará a rediseñar todo el SCM.

20 de septiembre de 2015

Ética para robots

Hace unos días observando levantar cajas a un robot paletizador (semejante al de la foto) para ubicarlas en un palet, el brazo robótico se encontró con un problema: no lograba asir la caja por la parte superior porque ésta cedía a la presión del brazo, tal vez por la pobre calidad del cartón o porque la caja no estaba llena en su interior.

El caso es que el robot, tras unos infructuosos intentos por agarrar la caja, desistió y se paró. Nadie se percató del hecho, ninguna alarma sonó y ningún “software robótico” previó que el robot tomase la “decisión” de retirar la caja en lugar de pararse.

Observando la situación pensé: el robot hace un trabajo perfecto, pero basta que le llegue un defecto del proceso anterior para que esta maravilla tecnológica se detenga y deje de “producir”.

Así, viendo al robot parado, recordé la “tolerancia a fallos” a la que tan acostumbrados estamos los humanos, para continuar el trabajo aunque el trabajo anterior al nuestro sea defectuoso.

Esto de la “tolerancia a fallos” es quizá el mejor subproducto cultural de la evolución, lo que más nos distingue de las máquinas, porque tal vez sea un despropósito entre humanos pretender que el trabajo anterior al nuestro sea perfecto. Aún así hay humanos intolerantes al fallo que en lugar de "hacer del error una oportunidad" optan por darle una patada hacia atrás.

Amigo robot: dada tu incapacidad para tolerar fallos, deberías exigir a tu programador la opción de darle una “patada” a la caja incordiante (patada es el término que usamos los humanos para designar el aplazamiento de un problema. Los hay de dos tipos: adelante y atrás. El caso que se aplica es el segundo), pues si él no puede hacer nada por aumentar tu creatividad para hacer de ese fallo una oportunidad, al menos que incremente tu opcionalidad ante los fallos que, seguro (seguro es el término que usamos los humanos para designar la probabilidad igual a 1) encontrarás en tu larga vida en las cadenas de montaje.

Recibe un robótico abrazo.

15 de febrero de 2015

Axiomas para una planificación óptima de la producción

Uno de los conflictos más reiterados en las empresas industriales es la no siempre comprendida tensión entre los departamentos de comercial y producción.

Por experiencia profesional reconozco que esta tensión inter-departamental no es una leyenda urbana o un lugar común sino un hecho real que obedece a causas profundas, sistémicas, que van más allá del desgaste personal o emocional de sus responsables o la existencia de buenos canales de información.

Con el ánimo de contribuir a resolver este conflicto de raíz, me permito enunciar algunas reflexiones en forma de axiomas y corolarios para aportar un grano de arena en orden a disipar este conflicto, ubicando su solución en la encrucijada estratégica entre el significado profundo de optimizar y el rol decisivo de la dirección general. Vamos allá.

Axioma 1: Una planificación óptima de la producción es aquella que mejor representa los objetivos de la Dirección General de la empresa en un momento histórico dado.

Axioma 2: Se entiende que los objetivos emanados de la Dirección General de la empresa se corresponden con preferencias estratégicas y que estas son transitivas, es decir, que existe una relación de orden o priorización entre ellas (a > b > c…), es decir, satisfacen el teorema de imposibilidad de Arrow (no es posible diseñar un sistema que permita reflejar las preferencias locales en una preferencia global), pues dado que en todo sistema de producción con recursos finitos e interdependientes es habitual la existencia de conflictos entre preferencias/objetivos (p.ej. el “eterno” conflicto entre los departamentos comercial y producción), no existe una solución que optimice de forma simultánea todas las funciones objetivo, dejando aparte las llamadas “soluciones de compromiso”, que no son óptimas en modo alguno o los llamados “óptimos de Pareto” que mediante “aproximaciones sucesivas” tienden a igualar la importancia o prioridad de las preferencias.

Corolario 1: No existe ningún sistema de optimización con preferencias transitivas que pueda satisfacer todas las preferencias/objetivos por igual. Se hace necesaria una subordinación y supraordinación entre preferencias/objetivos.

Axioma 3: Las reglas de programación estándar APS (Advanced Planning and Scheduling) tienden a priorizar una función objetivo o preferencia: Minimizar tiempos de preparación, Minimizar retrasos, minimizar WIP (Work in Process), Secuencia preferida por recurso, Campañas, Programación de Cuellos de Botella, Saturación de líneas, etc. atendiendo además a las restricciones de los recursos del sistema (calendarios, turnos, disponibilidad de sub-recursos, disponibilidad de materiales, etc.).

Axioma 4: Además de las reglas estándar APS, herramientas como Preactor-SIEMENS permiten crear reglas compuestas para aplicar selectivamente las reglas estándar, además de crear reglas personalizadas con las que poder satisfacer nuevas preferencias/objetivos.

Corolario 2: No existe una regla de programación que satisfaga por igual todas las preferencias/objetivos. Todo decisor debe elegir. Toda elección implica renunciar y toda renuncia implica un coste de oportunidad: conocer ese coste nos da la clave de la mejor preferencia/objetivo: la que mayor utilidad nos ofrezca (parábola de los cañones o la mantequilla de Paul Samuelson). No obstante, en ausencia de “objetivos fuertes” cabe la posibilidad de considerar el coste como objetivo o preferencia a minimizar, atendiendo al “principio de la palanca”: p.ej. es más interesante mover un cuerpo pesado haciendo palanca que con el sobreesfuerzo voluntarioso de muchos recursos. Los dos métodos son igual de eficaces (se obtienen resultados), pero el primero es más eficiente (se obtienen resultados minimizando los recursos).

Consecuentemente: se debe establecer un sistema de ordenación de las preferencias/objetivos (SOP), que no obstante puede variar en el tiempo por circunstancias del mercado, política de la compañía, segmentación de producto/mercado, etc. por tanto se entiende que el SOP puede ser configurable.

Una vez establecidas las preferencias/objetivos, se trata de que la Dirección General ordene de mayor a menor el conjunto de las mismas: p.ej. Minimizar costes de preparación (por agrupación de productos o formato) > Minimizar costes en un periodo determinado (por lanzamiento de campañas) > Maximizar la ocupación de recursos (programación “push” o Just in Case) > Minimizar WIP (valor del stock en curso) > Minimizar retrasos (programación “pull” o Just in Time) > Minimizar sobrecostes por retrasos (evitar penalizaciones de clientes mediante priorizaciones) > Maximizar margen de contribución por producto (por priorización de productos con mayor valor añadido)… (Ver Observación).

Corolario 3: Dados los Axiomas 3 y 4, cada regla de programación tenderá a maximizar un “indicador clave de rendimiento” o KPI (Key Performance Indicator).

Axioma 5: Para establecer un sistema de optimización basado en reglas con preferencias/objetivos excluyentes, se necesita una regla de reglas, es decir, una regla de alto nivel o metarregla que establezca la mejor regla de programación de acuerdo al criterio de ordenación que se establezca, considerando la propiedad de que toda metarregla tenderá a optimizar unas preferencias/objetivos mientras suboptimiza otras (p.ej. si quiero optimizar el consumo de combustible de mi vehículo deberá suboptimizar mis prisas por llegar).

Corolario 4: Existen dos posibles métodos de establecimiento de metarreglas:

Corolario 4.1: Método Iteractivo o en cascada: por cada regla de programación se comparan los KPI’s, de mayor a menor orden de preferencia/objetivo, seleccionado la regla que mayor KPI obtenga en la primera preferencia y en caso de empate de KPI con otra/s regla/s se selecciona de entre ellas la regla que mayor KPI obtenga en la segunda preferencia y así sucesivamente.

Corolario 4.2: Método Sintético: se establece un KPI de síntesis o “indicador sintético” que represente el valor compuesto de todos los KPI’s de cada regla para obtener un indicador sintético por cada regla, seleccionando la regla con el indicador sintético mayor. Hay varios métodos para calcular un indicador sintético, siendo la más sencilla la aplicación de una ponderación o peso a cada KPI, una ponderación en coherencia con la ordenación de preferencias/objetivos.

Observación: se puede observar que existen preferencias contradictorias entre sí, sin embargo estas pueden ordenarse de manera distinta según el periodo del año: p.ej. hacia el principio de la campaña puede ser más importante minimizar el coste por cambio de formato (mejorar los costes) que minimizar los retrasos (empeorando el servicio) al fabricar “tiradas más largas” contra stock o previsión, mientras que hacia mediados/finales de campaña puede ser más importante lo contrario, esto es, minimizar retrasos (mejorar el servicio) que minimizar el coste del cambio de formato (empeorando el coste) al fabricar “tiradas más cortas” o contra pedido. Estas contradicciones se pueden representar como un dilema coste vs. servicio en el siguiente gráfico.


El dilema coste vs. servicio



Por otra parte, la existencia de recursos dependientes y cuellos de botella hacen incompatibles la preferencia de una mayor ocupación de recursos y un menor coste de producción, pues la mera existencia de recursos más rápidos previos a un cuello de botella implicaría que si ponemos a su máxima capacidad a los recursos no cuello de botella, generaríamos un mayor inventario en curso y en consecuencia una mayor coste de producción. Por tanto tenemos que ser cautelosos a la hora de definir preferencias, sabiendo de antemano que en su mayoría pueden ser contradictorias entre sí, particularmente cuando tratamos de optimizar recursos, deberíamos prestar atención en la optimización de los cuellos de botella, no en los que no lo son.

Y para entender la dinámica de los cuellos de botella, nada mejor que recurrir a la Teoría de las Limitaciones (TOC) de Eliyahu M. Goldratt, autor del best seller “La Meta” y recientemente fallecido, donde extractamos las siguientes reglas de gestión de los cuellos de botella.


ALGUNAS REGLAS SOBRE LOS CUELLOS DE BOTELLA

1. Equilibrar el flujo, no la capacidad. 

Es decir, ajustar el flujo por el cuello de botella con la demanda del mercado. Si como hemos visto, la cadencia del Sistema está marcada por los cuellos de botella, hagamos que estos (y con ellos todo el Sistema) coincidan con el flujo de la demanda. De manera que cuando necesitemos aumentar la capacidad de la Empresa para acercarla a la demanda, esto signifique explotar sólo los cuellos de botella. En muchas ocasiones las empresas intentan aumentar la capacidad de tal o cual recurso esperando con ello ser más “competitivo”, cuando en realidad (si estamos de acuerdo con las implicaciones de la TOC) no es precisamente la mejor alternativa desde el enfoque sistémico. La mayor eficiencia de la empresa en su conjunto nos vendrá de una mayor fluidez y sincronización entre los recursos.

2. El grado de utilización de un no cuello de botella no vendrá determinado por su propia capacidad, sino por alguna otra restricción del sistema. 

Es decir, no intentemos aumentar la “productividad” de los recursos que no sean cuellos de botella. Produciremos Inventario y Gastos de Operación, pero no Facturación. Antes al contrario, que su “productividad” esté sincronizada con los recursos cuello de botella. O lo que es lo mismo, que los recursos no cuello de botella no produzcan más rápido de lo que pueden absorber los cuellos de botella. Esto tiene implicaciones importantes en los modelos de productividad clásica. En muchas empresas industriales se adquiere stock simplemente para que máquinas y empleados no estén “parados”. Evidentemente así quien controla el flujo de materiales y de trabajos no son los pedidos o los programas de producción sino la Inercia.

3. Activar un recurso no es lo mismo que utilizar ese recurso. 

Ya que, “utilizar” un recurso significa hacer uso de él para que el Sistema se dirija hacia la Meta. En la regla anterior, si hacemos un uso no sincronizado de un recurso no cuello de botella, no estamos utilizando ese recurso, sino simplemente activándolo en términos locales, es decir sin dirección hacia el objetivo último del Sistema. En un momento determinado en cualquier empresa pueden estar activados una gran cantidad de recursos: personas, locales, comunicaciones, energía, ordenadores, máquinas, etc. pero... ¿Cuáles realmente de esos recursos se están utilizando en orden a la Meta de la empresa?.

4. No se debe intentar optimizar cada uno de los recursos del Sistema. Un Sistema con óptimos locales no es un Sistema óptimo en su conjunto. De hecho es un Sistema muy ineficiente. 

Es la conclusión de las dos reglas anteriores. Ya lo hemos visto antes, dado que existen esos dos fenómenos, a saber, Fluctuaciones Estadísticas y Recursos Dependientes, cualquier intento de optimizar un recurso por sí mismo, de acuerdo exclusivamente a su capacidad, es como mínimo una falta de perspectiva. Desgraciadamente la Productividad se ha entendido como un parámetro excesivamente localista, lo que nos ha llevado a enormes stocks de materiales, obras en curso máximas, grandes cantidades de producto acabado y... rentabilidades mínimas.

5. Una hora perdida en un cuello de botella significa una hora perdida para todo el Sistema. 

Los sistemas contables tradicionales asignan los costes de los recursos en función de parámetros tales como amortización, energía, salarios, etc. es decir, otra vez el enfoque analítico, no sistémico de lo que ocurre en la Empresa. Si tal como hemos visto, los recursos cuello de botella determinan en última instancia el ritmo de todo el Sistema, cualquier parada o reducción de la capacidad de los mismos no nos “cuesta” sólo lo que contablemente podamos imputarle a ese recurso aisladamente, sino mucho más. ¿Cuánto?, pues tanto como cuesta el Sistema en su conjunto durante esa parada.

6. Una hora ganada en un no cuello de botella es un espejismo. 

Esta es la otra cara de la moneda. Lo que es cierto para los recursos cuello de botella no lo es para los que no lo son. Es un error perder tiempo en un recurso cuello de botella, sin embargo, perderlo en los recursos no cuello de botella es posible, incluso conveniente para el Sistema en su conjunto. ¿Por qué?, porque “ahorrar” tiempo en los no cuellos de botella no aumenta el rendimiento del Sistema para nada. El tiempo y el dinero ahorrado ahí son una ilusión. En otras palabras, si intentamos “ocupar todo el tiempo” de los recursos que no sean cuello de botella produciremos más Inventario y más Gastos de Operación, pero no más Facturación.


6 de julio de 2014

Esquemas Piramidales vs. Ventas Multinivel

Recientemente colapsaba otra pirámide financiera atrapando a miles de personas en varios países. Telexfree. 50.000 españoles pierden sus ahorros en una estafa piramidal. Este fenómeno no por menos sorprendente suele convertirse en una tragedia económica para quien lo sufre. En Enero del presente año tuve la ocasión responder a una persona que preguntaba mi opinión sobre esta red y mi conclusión fue: Si con las ventas se obtienen beneficios (una vez remunerados los “socios-trabajadores”, propietarios y soportados costes estructurales), entonces esta empresa NO se comporta como una pirámide financiera... PERO si las ventas no cubren siquiera los costes anteriores, entonces la empresa SÍ se comportaría como una pirámide financiera (se “comería el "capital” proveniente de las cuotas de sus socios). Comentarios al post “¿Por qué colapsan las pirámides financieras?. Caso Madoff”

Ciertamente, esta organización tenía una peculiaridad: en el fondo era una organización de esquema piramidal, pero aparentemente se comportaba como una organización de venta multinivel (un “sistema híbrido”, que luego comentaré). Y justo este tema, profundizar en las características, las claves y similitudes de estas organizaciones fue el núcleo central de una entrevista que me hicieron para el programa Equipo de Investigación de La Sexta que se emitirá próximamente. Para resumir el contenido de la entrevista he preparado este post a modo de resumen telegráfico, que también puede consultarse en pdf (ver enlaces al final).

Esquemas (Estafas) Piramidales. Características y Claves

En una organización de esquema piramidal (en adelante, OEP) los que están dentro no son conscientes de participar en un OEP. En una OEP los que están dentro son tratados como clientes. En una OEP la reclutación de nuevos clientes corre a cargo de los promotores de la OEP o de sus delegados. La OEP es una estafa y es ilegal. Ejemplo: caso Bernard Madoff. En una OEP la actividad principal es el reclutamiento de nuevos clientes para aportar capital. En una OEP los ingresos provienen del capital aportado por los clientes, que mayoritariamente se utiliza para pagar los intereses prometidos y las comisiones de los promotores. En una OEP se pone énfasis en garantizar un alto interés por el capital aportado, mientras se evita informar en qué se ha invertido y cómo se ha logrado el elevado beneficio o en practicar políticas de transparencia. En una OEP el capital se recicla de abajo hacia arriba.

Ventas Multinivel. Características y Claves

En una organización de ventas multinivel (en adelante, OVM) los que están dentro son conscientes de participar en una estructura piramidal. En una OVM los que están dentro son tratados como asociados o distribuidores. En una OVM la reclutación de nuevos asociados corre a cargo de los propios asociados para formar redes. La OVM es, hoy por hoy, un sistema de venta legal. Ejemplo: Herbalife. En una OVM la actividad principal es la venta de productos y el reclutamiento de nuevos asociados para extender (horizontalmente) y profundizar (verticalmente) la red. En una OVM los ingresos provienen de las ventas de productos o servicios y en menor medida de las cuotas de entrada. En una OVM se pone énfasis en motivar a los asociados para vender los productos y, sobretodo, para extender/profundizar la red. En una OVM los ingresos más importantes provienen de las comisiones por las ventas de la red descendente: los mayores ingresos circulan de abajo hacia arriba.

Esquemas Piramidales y Ventas Multinivel. Similitudes

Ambas, OEP y OVM son estructuras piramidales: esto significa que los primeros en entrar son los más beneficiados, mientras que los últimos en entrar son los menos beneficiados o los más perjudicados. Una OEP siempre termina colapsando por la contradicción entre el capital teórico (virtual) que crece exponencialmente y el capital real (dinero en la caja) que decrece exponencialmente (ver gráfico). Para aplazar el colapso, se tiene que “inyectar nuevos clientes” cada vez a mayor velocidad (ver “tasa de duplicación del capital”). Una OVM no colapsa en el sentido clásico mientras no garantice ingresos, sin embargo sí puede tener una importante tasa de abandono que impida su crecimiento, por la evidente distribución asimétrica propiciada por la estructura piramidal (ver gráfico). Para evitarlo, se tiene que “inyectar motivación” para afianzar la base de asociados e ingresar nuevos.

Esquemas (Estafas) Piramidales. Conclusiones

Los promotores de una OEP nunca reconocen que su sistema lo es. Una OEP se reconoce por publicitar y garantizar un elevado interés por el capital, muy por encima de la inflación y de las condiciones del mercado, sin fluctuaciones y “pase lo que pase”. Esta es su seña de identidad, que propicia su hundimiento si no es capaz de alcanzar la tasa de duplicación del capital: Periodos de Duplicación ≅ (70 / % interés garantizado del periodo). Alcanzado el punto de no retorno si no logra superar el límite de su sostenibilidad: (%tasa neta de altas > (%interés + %comisiones), la OEP colapsará mostrándose incapaz de garantizar la devolución del capital principal y el pago de los intereses prometidos.

Ventas Multinivel. Conclusiones

Los primeros niveles de una OVM son los mayores beneficiados del sistema. Una OVM reconoce que la garantía de ingresos depende de la “motivación”. Esta es su seña de identidad: “trabaja duro e ingresarás mucho”, sin embargo según la ley de potencias (ver gráfico): la distribución de ingresos se asemeja a una curva de “larga cola” donde > 80% de ingresos es para < del 1% de las personas. Es decir, cuanto más duro trabajan los niveles inferiores, más ingresos (indirectos, provenientes de la red) tendrán los niveles superiores. Además, en una distribución de “larga cola”, dada su asimetría, la media aritmética de ingresos no significa nada, no representa nada. Siendo un sistema legal, por su peculiar forma de distribución la OVM está en “el filo de la navaja de la legalidad”: en última instancia son rentas de posición, los primeros en entrar se lo llevan (casi) todo.

Esquemas Piramidales y Ventas Multinivel. Conclusiones

Ante la enorme repercusión pública de las estafas piramidales “puras”, algunos promotores de OEP han creado una nueva modalidad para hacerlas más indetectables y mucho más peligrosas: “sistemas híbridos” entre OEP y OVM. Estos “sistemas híbridos” incorporan a la OEP una actividad comercial de OVM, añadiendo conceptos de producto, red, distribuidores, etc. pero aunque se “disfracen” siguen siendo OEP por tres motivos: (1) imponen una cuota anual de acceso, que puede elevarse con el “cebo” de mayores ingresos (esto hace las veces de capital inicial en las OEP y generalmente es el principal “ingreso real” del sistema), (2) dan la apariencia de que “se hace algo a cambio de un ingreso” por unos trabajos de los que no se tiene información sobre su “venta real” (transparencia cero) y (3) incrementan la peligrosidad de la estafa al incorporar el efecto multiplicativo propio de las OVM. Estos “híbridos” son alegales y por ello más peligrosos. Ejemplo: Telexfree

Como ya hice anteriormente con el modelo de colapso de una pirámide financiera considero que estos modelos matemáticos se entienden mejor si se practican mediante simulaciones con la ayuda de una hoja electrónica. A tal fin he trasladado a una hoja Excel un modelo de Venta Multinivel para realizar simulaciones y observar la evolución de las variables clave tales como niveles, asociados por nivel, ventas medias por asociado, comisiones directas, comisiones indirectas, etc. para comprobar uno mismo la típica distribución de “larga cola”. A practicar pues: Modelo de Venta Multinivel en Excel Modelo de Colapso de una Pirámide Financiera en Excel Esquemas Piramidales vs. Ventas Multinivel en Pdf

Para saber más: Esquema Piramidal en Wikipedia [castellano]

Esquema Ponzi en Wikipedia [castellano]

Bernard Madoff en Wikipedia [castellano]

Marketing Multinivel en Wikipedia [castellano]

Ley Potencial en Wikipedia [castellano]



4 de mayo de 2014

Majestad, su avión no tiene un problema de mantenimiento

El Rey sufrió ayer la quinta avería en la flota de aviones oficiales en apenas seis meses, esta vez volviendo de Kuwait. El fallo se produjo en la transmisión que abre la válvula de entrada de combustible del motor izquierdo. El Gobierno de Kuwait ofreció al Monarca uno de sus aviones, pero finalmente no hizo falta porque los mecánicos españoles lograron reparar la avería en media hora, según Efe, a bordo del avión. La salida desde Kuwait se retrasó casi una hora, pero don Juan Carlos pudo llegar a tiempo para presidir en Valencia la final de la Copa del Rey.

El ministro de Defensa, Pedro Morenés, que acompañaba al Monarca en el vuelo de regreso desde Kuwait, aseguró que don Juan Carlos se tomó “con buen humor” el percance y que entendía que los aviones “de vez en cuando” dieran “algún problemilla”.

Las anteriores averías, de distinto origen, afectaron a dos aviones (un Airbus y un Falcon) y provocaron una cancelación (el vuelo del Príncipe a Brasil el pasado 24 de noviembre) y tres retrasos que afectaron a don Felipe, Rajoy y la Reina. Morenés encargó el pasado 25 de marzo —dos días después del fallo que retrasó el regreso de doña Sofía a España desde Guatemala— al jefe de Estado Mayor del Ejército del Aire que revise y refuerce los procedimientos de mantenimiento, tanto los que realiza Airbus (antes lo hacía Iberia), como los que hace el Ejército del Aire, así como un plan de renovación de la flota de transporte estratégico, aunque fuentes del Ministerio descartan la compra de nuevos aparatos exclusivamente para transporte de autoridades. No hay dinero y los dos A-310 en los que se desplaza el Gobierno y la familia real en sus viajes oficiales (adquiridos de segunda mano en 2003) están prácticamente a la mitad de su vida útil.
Diario El País [16-04-2014]

Es un comportamiento habitual en el pensamiento convencional [asistémico] que cuando ocurre una avería en un sistema se busquen las causas del mal funcionamiento dentro de los límites del sistema[1], es decir, el viejo tópico de buscar culpables bajo el supuesto de que “alguien no ha hecho bien su trabajo”. Esta forma de proceder se basa en el enfoque analítico, el cual tiene por costumbre buscar el problema [y la solución] dentro del sistema, asumiendo la idea errónea [por insuficiente] de que el mal funcionamiento de una máquina compleja como este tipo de aviones se explica por “el estado interno de la máquina y el estado de su contorno”[2] una explicación demasiado restrictiva para la clase de máquinas complejas que, siguiendo al padre de la cibernética W. Ross Ashby, se debería asumir una definición más abarcadora como el de una “máquina con input”, es decir contemplando el sistema-avión como un todo en el que también se incluya el diseño y el trabajo-intensidad para el que fue concebido y el uso que se le ha dado en los últimos tiempos.

La lógica de este proceder, por lo demás ampliamente extendido en el mundo de la gestión de las organizaciones, tiende a justificar los sistemas como fines en sí mismos, sin considerar que un sistema existe para satisfacer los requerimientos de sistemas mayores en los cuales este mismo está incluido. Por ejemplo, en el caso que nos ocupa, al focalizar la atención en el “mantenimiento” [dentro de los límites del sistema-avión] redoblando si es menester los esfuerzos con un “doble mantenimiento” [síndrome del más de lo mismo], no se está considerando el sistema mayor para el que fue concebido este tipo de aviones, esto es, por ejemplo, el nivel de actividad para el que fueron diseñados [probablemente muy superior al que actualmente se les tiene confinados].

Este error de enfoque al insistir en el aspecto “mantenimiento” eclipsa la razón de la existencia del sistema-avión y para qué fue diseñado. Es como si, pongamos por caso, alguien tuviera un caballo pura sangre bien alimentado y cuidado [es decir, bien mantenido] pero sólo le paseara una vez al mes: probablemente tendría muchos más “achaques” que si lo paseara todos los días.

Este error de enfoque significa también que no se comprende bien cómo hacer un buen uso de sistemas complejos como los aviones. Por tanto, la causa de este mal funcionamiento en la flota de aviones del Grupo 45 de la Fuerza Aérea Española no puede atribuirse solamente a las razones encontradas dentro del sistema, como por ejemplo, un mantenimiento incorrecto o insuficiente. Debe diagnosticarse y corregirse el funcionamiento defectuoso mediante la adecuación del sistema-avión en relación con el sistema-total, que incluye no sólo el mantenimiento sino el nivel de actividad para el que fue diseñado.

Así, bajo el prisma del pensamiento convencional-asistémico el mal funcionamiento aparente del sistema-avión tiende a resolverse con reparaciones parciales o cambios de algunos de sus componentes. Sin embargo, desde la perspectiva del pensamiento sistémico, lo que corresponde es una revisión completa del sistema total, entendido por tal el sistema-avión, los requerimientos de uso para el que fue diseñado y los supuestos erróneos que sustentan la lógica del mantenimiento por el mantenimiento.

En conclusión, discrepo con el diagnóstico del ministro de Defensa: no es un problema de mantenimiento [pensamiento asistémico] sino de subactividad [pensamiento sistémico].

Así, desde un enfoque sistémico, se puede resolver el problema restaurando el equilibrio entre inactividad/actividad de este parque de aviones del gobierno de España. Los sistemas complejos, como los aviones de última generación, se diseñan para un nivel de actividad. Si desde su adquisición como aviones de 2ª mano han bajado su ritmo de actividad en los últimos tiempos ahí está la respuesta, pues es típico de los sistemas complejos requerir variaciones en la intensidad de su uso[3] siendo contraproducente tanto los periodos prolongados de reposo como los funcionamientos a un mismo régimen constante de actividad [esto lo saben bien los pilotos de fórmula 1 y los ingenieros de motores].

Si reducen su actividad, los sistemas complejos [desde máquinas a personas] se resienten en su rendimiento y aparecen los “achaques”, no tanto por envejecimiento [fatiga estructural] como por falta de suficiente actividad y variabilidad. Para restablecer el equilibrio dinámico del sistema se necesita restaurar cierto nivel de actividad: por ejemplo, vuelos previos antes de un viaje real, a semejanza de lo que haría el propietario de un caballo pura sangre antes de una carrera o también asignar los aviones del Grupo 45 a otras misiones civiles o militares en caso de que se reduzca la agenda de viajes de la Casa Real o de Presidencia. Por tanto, la solución sistémica es más actividad, no más mantenimiento. O como diría el cantautor argentino Andrés Calamaro: “mi corazón es un músculo sano pero necesita acción”.


[1] John P. van Gigch (1990), Teoría General de Sistemas, pág. 20 y 21
[2] Pedro Voltes Bou (1978), La Teoría General de Sistemas, pág. 26 y 27
[3] Nassim Nicholas Taleb (2013), Antifrágil, pág. 422 y 423


12 de abril de 2014

¿Están las empresas preparadas para un mundo interactivo?

A la atención de Correos Express.

Buenos días, ayer y anteayer han pasado por mi domicilio para entregar un envío desde la empresa ORANGE, pero yo ni nadie de mi familia estaba.

Ayer, anteayer y hoy he intentado en vano contactar con ustedes a varios números de teléfono no gratuito (902) que me han facilitado, pero sin éxito, pues todos sus agentes estaban ocupados. He realizado varias llamadas con una espera media de 10 minutos. Imposible contactar y menos a ese coste.

Por otra parte también he intentado comunicarme vía la página web, indicando las referencias que me han dado: 200214xxxx. El código de envío: 142356246535xxxx y el Aviso de Paso de las dos entregas fallidas: (1) 7692xxxx y (2) 7692xxxx. Mi código postal es 46xxx. Sin embargo tampoco hay posibilidad de realimentación vía web para indicarles el mejor día/hora para la entrega pues no dejan un correo electrónico para comunicarles cuando voy a estar ni ustedes tampoco se han puesto en comunicación con el teléfono de contacto que dejé a la compañía ORANGE.

Sólo me dejan este formulario de contacto para sugerencias y quejas, pero así tampoco se resuelve un problema que no es de in-formación sino de co-municación, esto es, que el flujo de in-formación funcione en las dos direcciones. No sé si sus altos directivos son conscientes de este matiz, un matiz que en la era de la comunicación universal, interactiva y en tiempo real lo es todo. Y si sus altos directivos no lo entienden, que se pongan en contacto conmigo y les explicaré como resolver el problema.

Por todo ello, desisto de co-municarme con ustedes.

Mi diagnóstico es sencillamente que no funciona la co-municación hacia ustedes, y así es imposible coordinar la entrega. Sólo en el hipotético caso de que siempre hubiera alguien en casa (algo impensable hoy en día) funcionaría su sistema de entregas. Pienso que haciendo un simple cambio en su sistema de entregas de tal modo que permitiera coordinar la entrega con el destinatario se ahorrarían muchas entregas fallidas con el consiguiente coste de combustible, desplazamientos y tiempo de sus trabajadores.

Mi teléfono es el 6xx-04xxxx y mi correo electrónico es josemonzomarco@xxxx.com

Cuando tengan a bien, ya saben donde localizarme. Gracias.



2 de marzo de 2014

Micropalancas para macroproblemas

«Dadme un punto de apoyo y moveré el mundo» Arquímedes de Siracusa.

Uno de los aspectos más interesantes y creativos del pensamiento sistémico es el “principio de la palanca”, esto es, buscar y encontrar aquellos lugares o situaciones, llamados también “puntos de apalancamiento”, donde con el mínimo esfuerzo se puede lograr una mejora significativa y duradera en el sistema. El único problema es, como nos recuerda Peter Senge, que las zonas de alto apalancamiento no son evidentes para la mayoría de integrantes del sistema porque los puntos de apalancamiento no están próximos en el tiempo y el espacio respecto de los síntomas. Sin embargo sí existe una pista para encontrarlos, como nos recuerda Donella H. Meadows: los mejores puntos de apalancamiento se encuentra en el cambio de los modelos mentales, es decir, cambios en el cómo nos representamos a nosotros mismos el sistema, esto es, el paradigma o filtro con el que observamos la realidad.

Al hilo de esto y como material didáctico para un seminario de pensamiento sistémico que estoy preparando he buscado algunos ejemplos reales de “puntos de apalancamiento” para el cambio efectivo de sistemas reales. Son ejemplos cotidianos que ya forman parte de nuestro paisaje y de tanto verlos o escucharlos puede que no nos demos cuenta de su importancia, pero cuando son mirados bajo la óptica del pensamiento sistémico “caemos en la cuenta” de su tremendo potencial de cambio en los sistemas en los que se implementan. Por otra parte se trata en realidad de pequeñas palancas, de pequeñas intervenciones en sistemas que logran unas mejoras espectaculares en el rendimiento de los sistemas: por lo general no se trata de grandes cambios sino de pequeños cambios, generalmente muy económicos, que provocan una gran mejora, de ahí el título de este post. Vamos allá.

1. Empoderamiento en el supermercado

En cualquier supermercado puedes observar el poder de la palanca de la autoorganización cuando cualquier cajero/a solicita la presencia de otro para agilizar la cola. No tienes más que darte cuenta que conseguir el mismo efecto mediante un sistema de supervisión jerárquico tendría un mayor coste (menor eficiencia) y una menor eficacia (el jefe no siempre está al tanto de lo que sucede en las cajas). Claro que para alcanzar este resultado es necesario otorgar confianza y empoderamiento en el puesto de trabajo, algo no siempre fácil en organizaciones fuertemente jerarquizadas. Evidentemente este ejemplo es extrapolable a muchas otras situaciones y organizaciones: allí donde exista la posibilidad de empoderar una función a las personas que están más próximas a la realidad a gestionar otorgándoles capacidad para tomar decisiones.



2. Autoorganización en la carretera

En cualquier rotonda o glorieta puedes observar el poder de la palanca en acción cuando los vehículos van a su salida sin retener el tráfico en los cruces de carreteras. Es otro ejemplo de autoorganización como el caso anterior. Y, como antes, observar que la eficiencia (coste, esperas) y eficacia (ordenar el tráfico) de otras alternativas (semáforos, guardias urbanos) serían menores en situaciones donde confluyen varias bifurcaciones, incidiendo negativamente en la fluidez del tráfico, y, como en el empoderamiento anterior, el efecto deseado se consigue fundamentalmente al otorgar la capacidad de decidir a los conductores.



3. Teoría de Juegos en la vigilancia.

Del “sabes donde miro” a “no sabes donde miro” hay una diferencia sustancial cuando se trata de la vigilancia de seguridad. Detrás de este cambio de diseño en las cámaras de vigilancia existe un principio básico de Teoría de Juegos: la información asimétrica. Si en una situación con dos jugadores, uno de ellos (vigilado) no sabe dónde está mirando el otro (vigilante), aquél se encuentra en inferioridad estratégica. Mientras que si el vigilado sabe dónde está mirando el vigilante, el que se encuentra en inferioridad estratégica es éste último. Un pequeño cambio en el diseño de la cámara permite que el vigilante obtenga una mayor superioridad estratégica sobre el vigilado (o potencial vigilado).



4. La sangre es gratis

La generosidad tiene un gran potencial autoorganizativo: donar sangre u órganos gratuitamente evita muchas desconfianzas y burocracias (en España está prohibida la venta de sangre desde 1985). Como en los casos anteriores, no hay más que imaginarse una situación en la sangre no fuera donada sino vendida (al mejor postor): probablemente no se asignaría al que más lo necesita sino al que más pague. La mercantilización de la sangre, probablemente, generaría unos indeseados efectos colaterales: necesidad de una mayor burocracia, mayores controles, mayores riesgos, etc.



5. De la comunidad de vecinos a la ONU: Subsidiariedad

El “principio de subsidiariedad” es el núcleo de la autoorganización: cada nivel de un sistema decide respecto de su área de competencia y sólo interviene el nivel superior cuando existe un conflicto entre los objetivos globales y las decisiones locales. El “principio de subsidiariedad” es uno de los principios sobre los que se sustenta la Unión Europea y la mayoría de Estados democráticos del mundo. Sin la subsidiariedad sería necesaria una centralización estatal (nivel macro) de todas las decisiones de ámbito local (nivel micro), algo que lógicamente conllevaría un sobredimensionamiento del Estado y las organizaciones supraestatales: no hay más que imaginar lo que supondría que las decisiones de cualquier comunidad de vecinos tuvieran que debatirse en la ONU.



6. Abriendo las puertas de la democracia 2.0

Si la democracia es un sistema restringido para la toma de decisiones, aunque con el marchamo de la “representatividad”, la post-democracia, de ser algo, será un sistema de “toma de decisiones aumentada” (p.ej. como sucede en Suiza, donde cada poco tiempo los ciudadanos pueden votar sobre variadas cuestiones) y donde los temas a votar no necesariamente pasen por el filtro de los partidos (p.ej. como las propuestas emanadas en la plataforma Change.org). Abrir las puertas de la democracia, implica necesariamente un enfoque 2.0, esto es, un abrirse a la participación on-line de los ciudadanos que permiten las nuevas tecnologías.



7. Del sillónbol al excedente cognitivo

¿Un pájaro, un avión?. No, es el “excedente cognitivo. El vector autoorganizativo más potente jamás imaginado y su fundamento es la suma de cuatro factores disponibles en el mundo actual: Internet, el creciente tiempo libre, la generosidad y las capacidades técnico-cognitivas de todas las personas. Con el “excedente cognitivo se consiguen unas economías de escala nunca antes imaginada. La idea es muy sencilla: las nuevas tecnologías junto con el creciente tiempo libre de las personas (tiempo libre muchas veces malgastado pasivamente ante la televisión) permiten que todos podamos utilizar ese tiempo libre colectivamente para poder hacer cosas que serían imposibles a nivel individual. El experto en redes sociales Clay Shirky nos muestra cómo.





1 de enero de 2014

¡¡No es el déficit... es la demanda, estúpido!!

A quien corresponda,

Lo que sigue es una reflexión sintética a modo de considerandos, leyes y corolarios. Estaba tentado a llamarla ley de Monzó sobre los sistemas energéticos, pero me pareció presuntuoso. Dejémoslo en una perspectiva sistémica del sistema energético nacional, fruto de una larga experiencia lidiando con sistemas de producción y de costes.

Vayamos pues al grano:

(las personas que quieran ahorrarse una lectura técnica, pueden consultar al final una versión simplificada con una metáfora):

Considerando 1º: En aras de la clarificación de los costes de producción de energía, en primer lugar propongo que se debería separar los costes del sistema energético por naturaleza y comportamiento económico y matemático ante la demanda, para no “mezclar churras con merinas” (full costing), teniendo presente como criterio discriminador el distinto impacto que la variación de la demanda representa a cada componente del coste, pues es bien sabido que existen costes del sistema energético que se comportan globalmente de manera variable en función de la demanda [1], mientras que otros costes del sistema son globalmente fijos o cuasi fijos respecto a la demanda [2]. En otras palabras, se trata de someter a un criterio de transparencia y racionalidad lo que en muchas ocasiones se trata como un dogmático e inapelable “coste real” como si se tratase de un ente monolítico cuyas partes constituyentes se comportasen todas de igual manera. Y no es así.

Considerando 2º: En la actual crisis económica es una tentación para los responsables del sistema energético transferir todos los costes y algo más al consumidor (sin transferirle las ventajas de la concavidad) por vía del incremento continuado de precios por unidad energética consumida, sin embargo es claro que esta política alcista (derivada de un mecanismo de formación de precios perverso, pues los Kw/h se producen a costes diversos, pero mediante el sistema de subasta actual todos se pagan igual: al precio más alto), lejos de contribuir a ser parte de la solución facilitando una salida a la crisis del sistema mayor (el sistema económico en su conjunto) o convertir al sistema energético en un vector de competitividad del sistema mayor, puede convertirse, se está convirtiendo de hecho, en parte del problema si el alza continuada de precios alienta y acelera el subconsumo de energía (pobreza energética), contribuyendo de manera procíclica al estancamiento económico con un coste de energía para las pymes y consumidores domésticos superior al promedio europeo, cuando paradójicamente contamos con un parque de centrales nucleares, térmicas e hidrológicas mayoritariamente amortizado, un notable sobredimensionamiento para cubrir picos de demanda y un mix tecnológico renovable/no renovable equilibrado en un sistema energético que nos permitiría disponer de una de las energías más fiables, económicas y limpias de Europa. Así, lo que he denominado una Tarifa Aceleradora del Subconsumo (TAS) podría ser el escenario final a una política de precios suicida para el propio sistema energético, con colapso sistémico como telón de fondo.

En consecuencia,

Ley 1ª: En un sistema energético no renovable, el único coste marginal lineal en función de la demanda es el combustible[3]. Todos los demás costes marginales, incluidos los costes operativos de la generación/transporte/distribución(GTD)[4], los indirectos, amortizaciones, financieros y generales del GTD, las subvenciones, primas e impuestos, es decir, todos los demás componentes del coste marginal del sistema[5] son cóncavos respecto a la demanda, incluido el “déficit de tarifa”[6].

Ley 2ª: En un sistema energético renovable, todos los costes marginales son cóncavos en función de la demanda, incluido el “déficit de tarifa”.

Ley 3ª: En un sistema energético con la mayoría de costes marginales cóncavos en función de la demanda, el precio tiene un doble objetivo en aras de la supervivencia del propio sistema: debe reflejar la interacción entre oferta/demanda y a la vez debe evitar el subconsumo.

Corolario 1º: Dado el mayor peso específico en el sistema energético de los costes de naturaleza no combustible, cuanto más se estimule el consumo energético, menor será el coste marginal por unidad de energía producida y mayor será el beneficio antes de impuestos (y consecuentemente mayores los impuestos recaudados).

Corolario 2º: Dado el mayor peso específico en el sistema energético de los costes de naturaleza no combustible, cuanto más se desanime el consumo energético (p.ej. vía tarifa de precios depresora del consumo y/o vía generación de más pobreza energética y/o vía creación artificial de escasez), mayor será el coste marginal por unidad de energía producida y menor será el beneficio antes de impuestos (y consecuentemente menores los impuestos recaudados).

Corolario 3º: Si la demanda promedio a un precio promedio dado sigue sin cubrir los costes correspondientes de naturaleza no combustible y excluyendo por inviable la opción de seguir incrementando el “déficit de tarifa” para “desplazar hacia el futuro” los costes de esta naturaleza, el sistema energético español estará abocado a una de estas cinco posibilidades (no necesariamente excluyentes) para que sea sostenible por sí mismo en la próxima década: (a) estimular la demanda y atraer a grandes consumidores de energía vía reducción de precios unitarios (obviamente sin incrementar el coste de naturaleza no combustible) y/o vía exportación de energía a Europa y Norte de África[8]; (b) reducir progresivamente los componentes del coste de naturaleza no combustible; (c) aumentar el sistema energético renovable y reducir el no renovable a fin de reducir aún más el componente de coste directo del combustible y sin aumentar el coste de naturaleza no combustible; (d) abrir el mercado a una competencia interna real para estimular la reducción de precios vía competencia, incluida la competencia de la autogeneración de los consumidores domésticos; o (e) quebrar y nacionalizarse ante el probable escenario de una reducción de la demanda inducida por una política de precios insensible a las circunstancias del mercado real y potencial.

Tengo la convicción que seguir incrementando año tras año el precio unitario de la energía muy por encima de la inflación como si las empresas energéticas oferentes tuvieran una invisible e inmutable “renta de situación” que les permita exprimir sin límite a los clientes como si estuvieran en un mercado cautivo, conduce inevitablemente a una situación de estrangulamiento sistémico de la demanda por tres vías: (a) fuga de clientes del segmento de grandes consumidores de energía hacia otros países con una mejor relación calidad/precio unitario de energía; (b) reducción de consumo a través de una mayor eficiencia energética de clientes y/o la cogeneración del segmento de grandes y medianos consumidores de energía; y (c) aliento y aceleración del subconsumo o TAS[10] vía reducción de consumo a través de medios sustitutivos, y/o pobreza energética[11] y/o autogeneración de la mayoría de clientes domésticos.

Sería una lástima que tras un duro ajuste por el lado del factor trabajo que nos ha situado en una situación de ventaja competitiva vía costes laborales, viniese la factura energética a “aguar la fiesta” con unos precios inaceptables para el país eficiente y competitivo en costes que queremos ser. Sería deseable que los responsables del sistema energético español actuasen de oficio y decidiesen de manera unilateral una reducción de precios para incentivar el consumo en lugar de esperar al colapso del sistema.

Ahora o nunca: ustedes tienen en su mano acometer los cambios para un diseño de costes que no gravite sobre un full costing indiscriminado que no refleja con claridad el origen por naturaleza de cada coste y el distinto comportamiento económico y matemático de los costes marginales que debería poder reflejarse en la factura al consumidor: ante un mundo que exige más y mejor transparencia no se puede seguir pensando en métodos que la impiden. Y, en fin, diseñar el futuro del sistema tarifario de la energía con tendencias que graviten sobre la estimulación de la demanda en lugar de alentar al subconsumo.

Es su turno.


[1] Por su carácter de costes directos y variables, a nivel global son sensibles a las variaciones de la demanda: a más demanda de energía más de este tipo de costes y viceversa. Sin embargo, en lenguaje de costes marginales (producir/consumir una unidad energética más) ocurre que a mayor demanda el coste marginal de esta naturaleza se mantiene relativamente constante, es decir, se beneficia poco del elevado consumo, mientras que el subconsumo apenas le perjudica (a excepción de algunas materias primas que puedan perder su capacidad energética por sobrestock). O en lenguaje de elasticidad-demanda-coste: el coste marginal de esta naturaleza es poco elástico ante variaciones de la demanda (la única elasticidad proviene de los descuentos por volumen de compra de materias primas o el sobreprecio por estas compras fuera de previsión). Resumiendo: Estos costes crecen globalmente (como coste total) pero suelen mantenerse constantes unitariamente (como coste marginal) si aumenta la demanda y, en principio, el subconsumo no les perjudica. Por lo general su comportamiento unitario (coste marginal de esta naturaleza) se pueden representar como una función lineal (coste marginal en el eje de ordenadas y demanda en el eje de abscisas). Estos costes se pueden estimar actualmente entre un 15% y un 25% del coste total actual (estimación propia).

[2] Por su carácter de costes estructurales o fijos, a nivel global son insensibles a las variaciones de la demanda. Sin embargo, en lenguaje de costes marginales (producir/consumir una unidad energética más) ocurre que a mayor demanda el coste marginal de esta naturaleza es decreciente y viceversa, es decir, se beneficia mucho del consumo elevado y por contra le perjudica mucho el subconsumo (más coste estructural a repartir entre menos unidades producidas/consumidas). O en lenguaje de elasticidad-demanda-coste: el coste marginal de esta naturaleza es elástico ante variaciones de la demanda. Resumiendo: Estos costes se mantienen constantes globalmente (como coste total) pero decrecen unitariamente (como coste marginal) si aumenta la demanda pero, ojo, el subconsumo le perjudica y mucho. Por lo general su comportamiento unitario (coste marginal de esta naturaleza) se puede representar como una función cóncava (coste marginal en el eje de ordenadas y demanda en el eje de abscisas). Estos costes se pueden estimar actualmente entre un 75% y un 85% del coste total actual (estimación propia).

[3] Se entiende por coste de combustible el coste directo, perfectamente identificable y trazable del suministro de terceros de cualquier materia prima o consumible directamente relacionado con la generación de energía, sea combustible nuclear (incluyendo el coste de arranque/parada), gas, fuel, carbón nacional (incluyendo el coste de la subvención al mismo), etc. En este sentido las subvenciones actuales al carbón u otras directamente imputables al combustible deberían ir a esta partida según el criterio de esta propuesta.

[4] Se entiende por coste de generación/transporte/distribución (GTD) el coste operativo, perfectamente identificable y trazable de la operación y mantenimiento de la red eléctrica de alta, media y baja tensión, incluyendo el coste operativo y de mantenimiento de las centrales. Por coste operativo y de mantenimiento se entiende el coste directo vinculado al funcionamiento del sistema GTD, esto es, se excluiría del coste relacionado con la obsolescencia o averías por no uso, etc. por estar más vinculadas a conceptos de inversión y renovación tecnológica (o la falta de ellas).

[5] Amortización por inversiones en activos fijos, deuda financiera, sueldos y salarios no vinculados directamente al sistema GTD, gastos generales, publicidad, consejeros, etc. es decir, el resto de costes no incluidos en el apartado anterior. Obsérvese que aunque algunos de estos costes pudieran contemplarse como directos en algunos sistemas de contabilidad de costes, en esta propuesta se asumirían como indirectos por su carácter de coste marginal cóncavo respecto a la demanda.

[6] El “déficit de tarifa” (CNE: Informe sobre el sector energético español 2012) es un auténtico “cajón de sastre”, un artificio contable fruto de una decisión política tomada en un momento en que “para salir en la foto” del Euro y no superar cierto umbral de inflación y deuda se decidió con la muy hispánica técnica de la “patada hacia adelante” desplazar hacia el futuro el “coste real” de la energía. El problema es que el futuro ya es hoy y lo que se inició con una solución temporal se ha ido transformando en una solución estructural donde se han mezclado posteriormente cosas tan dispares como las primas a la inversión en energías renovables, las diferencias de ingresos y costes (no diferenciados), subvenciones de todo tipo, etc. En lo que sigue y dado que es imposible retornar al pasado para resolver el entuerto generado o discriminar los costes genuinos de otros conceptos endosados subrepticiamente a la tarifa (a falta de una verdadera auditoría pública de costes del sistema energético es más que probable que el beneficio de explotación esté encubierto entre la selva de conceptos que conforman el “coste real”) propongo no seguir hablando más del “déficit de tarifa” y tratarlo como una deuda histórica que ya no debe crecer más [7] y que por su carácter distorsionador del “coste real” debería ser absorbida en un plazo de tiempo suficiente para que no tuviera un impacto importante en la factura eléctrica, con un criterio de amortización amplio: p.ej. 30 años y una financiación mixta (el principal de la deuda con cargo a la factura eléctrica durante 30 años y los intereses con cargo a los presupuestos generales del Estado).

[7] En la actualidad (diciembre 2013) el stock de deuda con origen en el mal llamado “déficit de tarifa” se acerca peligrosamente a los 30.000 millones de euros.

[8] En la actualidad (REE: Informe del sistema eléctrico 2012) existe un saldo neto exportador (exportamos más energía de la que importamos). Sin embargo entiendo que existe todavía mucho margen de crecimiento, tanto en el aprovechamiento de la sobrecapacidad[9] de generación de energía (gracias a las denostadas renovables: Estudio del Impacto macroeconómico de las Energías Renovables en España 2011) como en la competitividad vía precios, como en la acción comercial para ampliar la base de clientes en el exterior.

[9] En algunos círculos (Los males del sistema eléctrico: sobrecapacidad, subvenciones y mix poco competitivo) se critica la sobrecapacidad energética que ha provocado la irrupción de las energías renovables en el sistema eléctrico español como la causa de todos los males. No estoy de acuerdo, en primer lugar porque ya he comentado antes que mientras no se realice una verdadera auditoría pública al llamado “coste real” no sabremos si nos están dando “gato por liebre” en los costes, por tanto lo único razonable es sugerir, como hago en esta propuesta, un rediseño de los costes en función de su distinto comportamiento ante la demanda. Y en segundo lugar, desde una perspectiva sistémica, la existencia de sobrecapacidad en un sistema es la mejor opción cuando la demanda no es totalmente previsible o tiene fuertes picos de subida como de bajada (fluctuaciones estadísticas) tanto en la oferta como en la demanda por la metereología (exceso de calor o frío afecta a la demanda, falta de viento, lluvia o sol afecta a la oferta renovable) y el coste (social y económico) de la no cobertura de la demanda es importante: cuando algunas personas arremeten contra el sobrecoste operativo de esta sobrecapacidad del sistema eléctrico siempre les digo que muchos sistemas que damos por buenos socialmente tienen capacidad ociosa y no por ello cuestionamos su coste o su existencia: los bomberos de guardia ociosos, los servicios de urgencias médicas de guardia ociosos, los servicios de seguridad ciudadana de guardia ociosos, etc. pues exactamente lo mismo con la sobrecapacidad del sistema energético: está ahí ocioso pero listo, de guardia, en standby, para dar servicio cuando lo necesitemos, luego, por favor, no generemos artificialmente una escasez que no es aconsejable ni creíble. Y si alguien tiene dudas sobre las ventajas de la sobrecapacidad que vea lo que pasa en otros lugares cuando los ciudadanos reclaman capacidad eléctrica (La ola de calor eleva las protestas contra el Gobierno argentino por los cortes de luz): Esto es lo que suele ocurrir cuando un sistema está “demasiado ajustado” u optimizado para atender una demanda promedio y no tiene en cuenta las fluctuaciones estadísticas de la demanda: tarde o temprano los “picos de la demanda” colapsan el sistema.

[10] La Tarifa Aceleradora del Subconsumo (TAS) se puede definir como aquel precio de venta a partir del cual se provoca un subconsumo, contribuyendo vía precios a deprimir la demanda. Por lo general se puede representar como una función cóncava (demanda en el eje de ordenadas y precio de venta en el eje de abscisas). No hace falta volver a recordar el impacto negativo que representa el subconsumo en un sistema donde los costes fijos o cuasi fijos tienen mayor peso y la falsa salida que representa la “huida hacia adelante” de seguir trasladando al precio los nuevos costes marginales, contribuyendo a acelerar (dinámicamente, por retroalimentación) el subconsumo, pues al quedar menos demanda para soportar la misma estructura y si los responsables del sistema siguen miopes aplicando la misma política de precios, no verán otra salida que seguir repercutiendo los costes entre los consumidores que queden, así hasta el colapso o quiebra final del sistema.

[11] La pobreza energética es la dificultad o la incapacidad de mantener la vivienda en unas condiciones adecuadas de tempe­ratura (como referencia, se podría tener en cuenta la definición de la Organización Mundial de la Salud, que considera tempe­ratura de confort, 21 °C en la sala de estar y 18 °C en el resto de estancias, o bien, cualquier otra definición que se considere técnicamente adecuada) así como de disponer de otros servicios energéticos esenciales como la iluminación, el transporte o la electricidad para Internet u otros dispositivos a un precio razo­nable. Esta es una definición de carácter general, que puede ser completada utilizando también otros criterios que permitan ac­tualizar el concepto cuando sea necesario. Fuente: Dictamen del Comité Económico y Social Europeo sobre el tema «La pobreza energética en el contexto de la liberalización y de la crisis económica» (Dictamen exploratorio)


Versión Simplificada

Un edificio con 100 vecinos cuesta mantenerlo 100 euros/año, de los cuales 80 euros son coste fijo (incluyendo impuestos para el ayuntamiento, el mantenimiento y un beneficio para el propietario) y 20 euros son coste variable (puede subir o bajar) en función del consumo de energía para luz y climatización de los vecinos. Los vecinos pagan 100/100=1 euro cada uno y el sistema es estable.

Con el tiempo el propietario, aconsejado por el ayuntamiento, hace unas reformas en el edificio y en consecuencia aumenta el coste fijo (hay que amortizar la inversión, pagar intereses a los bancos, aumenta el coste de mantenimiento, etc.), y también el coste variable porque todo sube (menos los salarios)... Y, ahora el coste fijo es 125 y el variable 25. Ya estamos en 150 euros/año.

El propietario, aconsejado por el ayuntamiento, dice que esa diferencia (de 100 euros a 150) no lo paguemos todo ahora, sino que paguemos una parte en la factura y el resto en el futuro (en eso consiste el “déficit de tarifa”). Digamos que mitad/mitad, o sea, que en lugar de pagar 150/100=1,5 euros/vecino, los vecinos paguen solamente 1,25 euros/año cada uno y el 0,25 restante (por vecino) se aplaza al futuro, avalada por el ayuntamiento (deuda a largo plazo, más los intereses para la banca, claro, para que haya negocio para todos).

Pero en el ínterin, hay una crisis económica y hay vecinos que ya no pueden soportar esa subida del 25% y deciden consumir menos, otros se marchan, etc. así que pongamos que ahora quedamos 75 vecinos para soportar 150 euros/año de coste total, o sea, que en realidad tendríamos que pagar 2 euros por vecino (150/75), y en consecuencia, el propietario decide que hay que seguir subiendo el precio porque con la baja de vecinos “somos menos para pagar la misma estructura de costes” (que al ser mayoritariamente de costes fijos apenas se nota si se consume menos)... y, consecuentemente vuelve a subir al año siguiente a 1,50 euros por vecino y para apaciguarnos nos dice que los otros 0,50 se aplazan al futuro (más los intereses, que van engordando la deuda anterior).

Al año siguiente se marchan otros 25 vecinos... y entonces el coste a repercutir es ya de 150/50 = 3 euros (sin contar la deuda aplazada y los intereses)... una cantidad que ya solo algunos cuantos privilegiados pueden pagar.

¿Cómo termina la película?. Pues muy mal, quedando cada vez menos vecinos para soportar la misma estructura de costes (que, recordemos, no varía sustancialmente porque haya menos vecinos y consuman menos), al que añadir la deuda diferida (“déficit de tarifa”) más los intereses, que no dejan de crecer (ya se sabe, el efecto del interés compuesto) y que si la sumamos a la factura nos daría un patatús... al final sólo hay dos salidas: (1) bajan los precios para atraer nuevos vecinos al edificio y así soportar entre más vecinos la estructura de costes y el déficit acumulado... o (2) el propietario quiebra por exceso de coste estructural y falta de ingresos suficientes... quedándose el ayuntamiento con los activos (el edificio) y los pasivos (la deuda acumulada y el coste de estructura)... y ya se sabe que el ayuntamiento somos todos.