tesis_optimizacion economica de la disponibilidad
DESCRIPTION
Optimizacion Economica de La DisponibilidadTRANSCRIPT
PONTIFICIA UNIVERSIDAD CATOLICA DE CHILE ESCUELA DE INGENIERIA DEPARTAMENTO DE INGENIERIA ELECTRICA IEE 3372 - MERCADOS ELECTRICOS
OPTIMIZACIÓN ECONÓMICA
DE LA DISPONIBILIDAD
ALUMNOS:
♦ Cristián M. Lincovil B. ♦ G. Ivonne Gutiérrez M.
PROFESOR:
♦ Dr. Hugh Rudnick Van de Wyngard
Página: 1
I N D I C E Resumen…………………………………………………………………………..3
1.Introducción …………………………………………………..………………3 1.1 Motivación ……………………………………………………….……………. 3
1.2 Antecedentes ……………………………………………………………………3
2. Criterios Actuales de Medición de la Disponibilidad. ……………...7 2.1. Indicadores técnicos de Desempeño. …………………………………………..7
3. Criterios Basados en Factores Técnicos y Económicos …………...11 3.1 Situación actual del mercado: La necesidad de nuevos índices de desempeño. 11
3.2. El concepto de Disponibilidad Comercial y un ejemplo de Aplicación. ……...12
3.2.1. Un pequeño ejemplo. …………………………………………….…14
3.2.2. Aplicación de la Disponibilidad Comercial
en el mercado Sudafricano. ………………………………………….15
3.2.2.1. Medidas de Disponibilidad Comercial aplicadas. ………………....19
3.2.2.1.1.Balance de Disponibilidad Valorada
(Valuable Availability Balance, VAB)…………………………....19
3.2.2.1.2. Valor de Disponibilidad Depositado
(Banked Availability Value, BAV) ………………………………20
3.2.2.2. Aplicación directa a la comparación de dos centrales Sudafricanas.21
3.2.3. Metodologías de predicción. ………………………………………...25
3.3. Fijación de una meta de Disponibilidad:
El Método del Análisis de Frontera. …………………………………………..28
4. El Mantenimiento como Fuente de Rentabilidad …………………..36
4.1 Evolución del concepto de Mantenimiento ……………………………………37
4.2 Técnicas de Mantenimiento …………………………………………………...42
4.2.1 Mantenimiento Centrado en la Confiabilidad (RCM) ……………...43
Página: 2
4.2.2 Mantenimiento Productivo Total (TPM) ……………………………44
4.2.3 Análisis Causa Raíz (ACR) ………………………………………….45
4.3 Mejoramiento de la Confiabilidad Operacional (MCO) ………………………45
4.4 Inspección Basada en Riesgo ………………………………………………….47
4.5 Modelos de Optimización del Mantenimiento ………………………………...48
4.6 Relación entre Mantenimiento, Disponibilidad y Rentabilidad ……………….50
4.6.1 Análisis de un caso particular 1 ……………………………………...50
4.6.2 Análisis de un caso particular 2 ……………………………………...53
5. Conclusiones ……………………………………………………….………...60
6. Referencias …………………………………………………………..……….63
Página: 3
Resumen
En este trabajo se realiza una investigación respecto los métodos publicados para la
determinación de la Disponibilidad Optima Económica de una planta de generación
eléctrica. Se da cuenta de algunas de las prácticas, aplicaciones o experiencias que se están
dando en la industria eléctrica internacional respecto de este tema. Se revisan los criterios e
indicadores actuales de disponibilidad y desempeño, y se informa como nuevas políticas y
técnicas Optimas de Mantenimiento ayudan a alcanzar estos objetivos.
1. Introducción
1.1 Motivación
Hoy en día las empresas de generación locales, funcionan con la óptica de
maximizar disponibilidad, sin embargo esto ,como se discutirá en este trabajo, no
necesariamente es sinónimo de alta rentabilidad. En efecto el hecho de trabajar con la
premisa antes mencionada hace que las estrategias de mantenimiento esten orientadas
normalmente a la confiabilidad de la unidad o equipo y/o a la “exelencia técnica” y no a la
rentabilidad de la empresa.
Un grupo de especialistas de las areas técnica, comercial y de estudios de una de estas
empresas generadoras estan refleccionando en estos temas de manera de generar metas y
metricas desagregadas de optimización de la disponibilidad basados en una combinación
adecuada de criterios técnicos y económicos.
1.2 Antecedentes
La disponibilidad de una central eléctrica es un indicador crítico para valorar el
desempeño total de la planta y su servicio al cliente.
Página: 4
Hasta hace algunos años en un ambiente regulado, el rendimiento de la planta fue en
gran parte medido por su capacidad de entregar la carga que le era requerida (es decir, la
obligación de suministro), y en la eficiencia de cubrir los costos de ese suministro.
Tradicionales indicadores fueron usados para medir la disponibilidad, tales como ratios de
interrupciones planeadas o de interrupciones forzadas o no planeadas.
En años recientes la necesidad de desarrollar y usar nuevos índices de confiabilidad,
que reflejen más exactamente, el lugar actual del mercado, ha tomado un alto grado de
urgencia. Esto es causado por necesidades de grandes consumidores de energia por bajos
precios a fin de competir en una economía global. Para responder a esta necesidad, los
generadores de electricidad están siendo obligados a reducir sus costos. La toma de
decisiones en todos los niveles está siendo afectada y las viejas definiciones "técnicas" de
confiabilidad están siendo corregidas para incorporar aspectos económicos a fin de conectar
de mejor forma el desempeño de la planta con el costo actual del suministro de electricidad.
El término Disponibilidad Comercial (CA) surgió en el Reino Unido a principios de
los años 1990 siguiendo a la desregularización de la industria Electrica del Reino Unido y
la introducción de un sistema "de mercado". Ya que la disponibilidad de la planta sólo tenía
valor para su dueño, si esta podía generar energía con un beneficio, éste era sólo medido
durante el tiempo en que el precio de mercado estaba por encima del costo variable de la
planta. Al principio, CA no fue "ponderado" y se asumió que cada hora que la unidad era
económicamente viable tenía la misma influencia en CA.
Con el tiempo, algunos usuarios de CA han desarrollado la definición para incluir la
influencia de la magnitud de la brecha precio/coste que produce un indicador más exacto
del impacto de la planta en la rentabilidad de la compañía. Por ejemplo, durante las horas
en que la brecha es $10X/MWh, la disponibilidad actual de la planta tendría diez veces
mayor influencia en la rentabilidad que una hora en cual la brecha fuera sólo de $X/MWh.
Por lo tanto, CA intenta medir el beneficio actual entregado por la planta con
relación al beneficio potencial, que tiene la planta siendo capaz de entregar cada MWh
Página: 5
requerido al precio actual de mercado. (El beneficio aquí es definido como el beneficio
bruto, es decir, generalmente la diferencia entre costo variables de producción de la planta y
el precio de mercado, o coste marginal del sistema).
Estas nuevas realidades y necesidades, requieren que el alma (centro) de los factores
de desempeño (disponibilidad, eficiencia, costos de producción, y flexibilidad de unidad)
sean fuertemente conectados a objetivos comerciales. Análisis y los marcos de toma de
decisiones deben ser, por su parte, direccionados hacia objetivos totales y/o fuentes
específicas de oportunidades presentadas en el mercado.
Este ambiente lleva a la industria "a redefinir" su desempeño, para cambiar las
perspectivas técnicas tradicionales a una visión más global de manejar eficientemente todos
los procesos claves . Obviamente, " las ganancias" resultan una función objetivo mucho
más compleja que podría incluir:
• Rentabilidad/ manejo costos;
• Obligación de suministro;
• Cumplimiento Ambiental (bajo marcos regulatorios actual y futuro);
• Maximización del retorno del capital invertido;
•Optima estrategia de retiro/reposición de instalaciones envejecidas de generacion, de
seguridad, ambiental, de combustible, o otros factores técnico-económicos.
Página: 6
Fig 1.1: Todos los Procesos Claves orientados a la Rentabilidad
Finalmente durante las últimas décadas el benchmarking se ha hecho un instrumento
clave en la mayoría de las compañías de generación para ejecutar esfuerzos en mejorar el
desempeño . Un método recomendado es primero identificar otras plantas “par" cuyo
diseño y características operacionales son similares a la de la unidad en cuestión.
Organizaciones, consultoras y compañías han usado esta técnica estadística avanzada,
analizando simultáneamente muchos rasgos o carácterísticas de plantas, para identificar
“unidades par” de diferentes partes del mundo y luego comparar sus índices de
confiabilidad "tradicionales".
Página: 7
2. Criterios Actuales de Medición de la Disponibilidad.
Como se ha mencionado anteriormente, el trabajo que se presenta busca exponer y
proponer distintas metodologías que permitan, primero, fijar una meta de disponibilidad
acorde a las exigencias de un mercado competitivo y, segundo, desarrollar una política de
mantenimiento que sea capaz de alcanzar estas metas. Con el fin de introducir al lector en
el contexto que se tratará luego, se realizará un breve análisis de las métricas utilizadas en
la industria y se revisará la situación de mercado desregulado en generación que lleva a la
necesidad de producir índices de desempeño que no reflejen sólo criterios técnicos, sino
también criterios de orden netamente económico.
2.1. Indicadores técnicos de Desempeño.
En un mercado regulado, el desempeño de una planta se medía a través de la
maximización de su disponibilidad, independiente de factores comerciales. Numerosos
intentos por definir un conjunto de criterios que fuesen utilizados a nivel internacional
fueron realizados, siendo el más fructífero el que llevó a cabo el Institute of Electric and
Electronic Engineers (IEEE). En el IEEE Standard Definition for Use in Reporting Electric
Generating Unit Reliability, Availability, and Productivity (en adelante, Norma IEEE762)
se define una serie de criterios que guardan relación con salidas de una central de
funcionamiento (ya sea, planeada o forzada), la disminución de la potencia que entrega una
central, tiempo que permanece en determinado estado, capacidad máxima, etc.
La norma IEEE762 nace en 1985 como una forma de homogenizar criterios y
nomenclatura en torno a la generación eléctrica. Aprobada en 1987, la norma IEEE762 se
aplica a unidades generadoras, aunque puede ser usada para centrales completas sin
mayores modificaciones.
Cuando la norma IEEE762 fue propuesta, existía una nomenclatura aceptada por la
industria, pero se refería básicamente a la disponibilidad de las unidades. La IEEE762
agrega nuevas divisiones a estas categorías (señalando distintas clases de salidas o
Página: 8
disminución de potencias forzadas, dependiendo de su urgencia), además de fijar
parámetros de medición basados en Capacidad, Tiempo que se encuentre en determinado
estado, Energía y Desempeño. El listado completo de estados propuesto por esta norma es:
1. Unidad Activa
a) Disponible
1) En Servicio
2) En Reserva (Apagada)
b) No Disponible
1) Salida Planeada
a) Salida Planeada Básica.
b) Salida Planeada Extendida.
2) Salida No Planeada
a) Clase 0 (Falla de Partida).
b) Clase 1 (Inmediata).
c) Clase 2 (Retrasada).
d) Clase 4 (Pospuesta).
e) Clase 5 (Diferida).
2. Unidad Inactiva.
Se crea una clasificación análoga para las bajas de capacidad de una unidad
(planeadas y no planeadas), así como un criterio de urgencia ante fallas. De la misma
forma, se definen distintos tipos de capacidad en una unidad, estos son: Capacidad Máxima,
Capacidad Formal (sujeta a condiciones de la temporada) y Capacidad Disponible (sujeta a
condiciones del momento). En base a estos criterios de disponibilidad y capacidad se
sugieren parámetros de desempeño relacionados con el tiempo y calidad del servicio
entregado, en un período de tiempo dado.
Página: 9
La norma IEEE762 es de uso voluntario para los generadores, pero ha sido avalada
por el ANSI (American National Standards Institute) y es utilizada actualmente por la
NERC (North American Electric Reliability Council)
A continuación se revisarán algunos de los índices que se definen en la norma
IEEE762, poniendo énfasis en aquellos que resultan de interés en el análisis posterior de
nuevos índices que tienen presente la dimensión económica del problema.
- Capacidad Máxima (Maximum Capacity, MC): La máxima potencia que
una unidad puede generar en un instante de tiempo cualquiera. Debe ser medida mediante métodos técnicos.
- Capacidad Confiable (Dependable Capacity): La máxima capacidad, modificada por factores ambientales o temporales.
- Capacidad Disponible (Available Capacity): La capacidad confiable, modificada por limitaciones del equipo en cualquier momento
- Baja de capacidad temporal (Seasonal Derating): Diferencia entre capacidad máxima y capacidad confiable.
- Baja de capacidad de la unidad (Unit Derating): La diferencia entre la capacidad confiable y la capacidad disponible.
- Baja de capacidad Planeada (Planned Derating): Porción del Unit Derating que está programada.
- Baja de capacidad no planeada (Unplanned Derating): La porción del Unit Derating que no está planeada.
- Horas disponibles (Available Hours, AH): Número de horas en el período en que la unidad está en estado disponible.
- Horas de servicio (Service Hours, SH): Número de horas en que la unidad se encuentra despachando energía en el período.
- Horas de baja de capacidad (Unit Derating Hours, UNDH): Número de Horas en el período en que la unidad se encontró disponible, pero en estado de Baja de capacidad (Unit Derating).
- Horas de baja de capacidad Temporal (Seasonal Derated Hours, SDH): Número de Horas en el estado disponible en que se llevaba a cabo una baja de capacidad temporal (Seasonal Derating).
- Horas de Baja de Capacidad Forzada (Forced Derating Hours, FODH): Número de horas en el período en que se produjo una baja de la capacidad no planeada de clase 0, 1, 2 ó 3. Se puede dividir entre las horas en que ello ocurrió en el estado de servicio (In-Service Forced Derating Hours, IFDH) o en el estado de reserva (Reserve Shutdown Forced Derating Hours, RSFDH).
- Horas en apagado de reserva (Reserve Shutdown Hours, RSH): Número de horas en el período en que la unidad se encuentra disponible, pero en reserva.
Página: 10
- Horas No Disponible (Unavailable Hours, UH): Número de horas en que la unidad se encuentra en estado No disponible.
- Horas de salida planeada (Planned Outage Hours, POH): Número de horas en el período en que la unidad se encuentra en una salida planeada.
- Horas de salida no planeada (Unplanned Outage Hours, UOH): Número de horas en el período en que la unidad está en una salida no planeada de clase 0, 1, 2, 3 ó 4.
- Horas de salida Forzada (Forced Outage Hours, FOH): Número de horas en el período en que la unidad está en una salida no planeada de clase 0, 1, 2 ó 3.
- Horas de Salida de Mantenimiento (Manteinance Outage Hours, MOH): Número de horas en el período en que la unidad está en una salida no planeada de clase 4.
- Horas del período (Period Hours, PH): Número total de horas del período. - Horas equivalentes (Equivalent Hours, E): Número de horas en que la
unidad se encontró en una categoría que implica baja de capacidad, expresadas como horas equivalentes de salida completa a máxima capacidad. Corresponde a la suma de la duración de las bajas de capacidad ponderadas por la magnitud de esa baja, y divididas por la capacidad máxima. Puede ser calculado para cada indicador de Horas de Baja en la Capacidad que se ha definido y para indicarlo se antepone la letra E al indicador en cuestión (por ejemplo, las Horas Equivalentes de Baja de Capacidad Temporal, ESDH).
- Generación Máxima (Maximum Generation, MG): Cantidad de Energía generada si la planta operara el período completo a máxima capacidad.
MG = PH · MC - Generación Disponible (Available Generation, AG): Cantidad de Energía
Generada si la planta operara todo el período a Capacidad Disponible. AG = PH · AC
- Generación No Disponible (Unavailable Generation, UG): La diferencia entre la energía que se habría generado si se operara todo el período a capacidad confiable y aquella que se generaría operando todo el periodo a capacidad disponible.
UG = (POH + UOH +EUNDH) · MC - Factor de Salida Planeada (Planned Outage Factor, POF):
POF = 100 · POH / PH - Factor de Salida No Planeada (Unplanned Outage Factor, UOF):
UOF = 100 · UOH / PH - Factor de Salida Forzada (Forced Outage Factor, FOF):
FOF = 100 · FOH / PH - Factor de Disponibilidad (Availability Factor, AF):
AF = 100 · AH / PH - Factor de Servicio (Service Factor, SF):
SF = 100 · SH / PH - Factor de Disponibilidad Equivalente (Availability Equivalent Factor,
EAF): La fracción de la generación máxima que puede ser producida si se está limitado solo por salidas y bajas de capacidad.
Página: 11
EAF = AG / MG = (AH – ESDH + EUNDH) / PH - Tasa de Salida Forzada (Forced Outage Rate, FOR):
FOR = 100 · FOH / (FOH + SH) - Tasa Equivalente de Salidad Forzada (Equivalent Forced Outage Rate,
EFOR) EFOR = 100 · (FOH + EFDH) / (SH + FOH + ERSFDH)
3. Criterios Basados en Factores Técnicos y Económicos.
3.1 Situación actual del mercado: La necesidad de nuevos índices de
desempeño.
Hasta hace poco, la obligación de servicio que recaía sobre los generadores obligaba
a mantener como meta una disponibilidad cercana al máximo. Los indicadores de
desempeño utilizados eran, sobre todo el Factor de Disponibilidad Equivalente, El Factor
de Salida Forzada y la Tasa Equivalente de Salida Forzada, definidos anteriormente. Con
un sistema que pagaba cubriendo, a lo menos en gran medida, los costos de mantención y
operación, estos índices resultaban óptimos, pues una mejora técnica de ese tipo implicaba
el acceso a beneficios por buen desempeño de parte del ente regulador.
Con la aparición de un mercado abierto y competitivo en la generación, la utilidad
de estos índices es altamente cuestionable. La industria de la Energía Eléctrica ha pasado de
ser una estructura verticalmente integrada a una disgregación donde se divide claramente
entre las etapas de generación, transmisión y distribución (y en algunos casos, se agrega
una cuarta etapa de comercialización de la energía). Junto a ello, se ha producido una
convergencia entre distintos sectores relacionados a la energía (como el gas natural y la
electricidad), y se ha comenzado a tratar a ésta como un commodity en algunos mercados
mediante la introducción de diversos agentes e instrumentos financieros que transan la
energía representando bloques de potencia. Existe, además, libertad para crear nuevas
centrales sin una planificación centralizada, y quienes llevan a cabo estas inversiones
asumen el riesgo relacionado al retorno de la inversión.
Página: 12
Es en este escenario, marcado por la libre competencia, donde aparecen los
conceptos de Disponibilidad y Seguridad de Suministro. La presencia de suministro
suficiente ha pasado a ser responsabilidad del mercado, y la legislación debe premiar esa
suficiencia para crear las señales de mercado que permitan mantenerla. El tema de la
disponibilidad resulta, por otro lado, de gran interés para el generador, pues, siendo el
precio fijado por el mercado, puede resultar conveniente para el generador dejar de producir
cuando los precios son menores que el costo que tiene la generación. En efecto, el costo de
no generar pasa a ser una alteración en el retorno, cuyos efectos dependerán de la situación
del mercado en el momento en que se deja de producir. Frente a esta realidad surge la
necesidad de contar con una metodología que permita cuantificar las pérdidas o ganancias
que se producen al dejar de generar. Generar estas metodologías resulta enormemente
complicado, dada la enorme cantidad de factores involucrados en la determinación del
precio de la energía y la potencia, y su alta aleatoriedad, pero aún así se han desarrollado
algunos métodos que buscan cumplir con este desafío. En adelante se revisarán los métodos
de mayor impacto en los últimos años.
3.2. El concepto de Disponibilidad Comercial y un ejemplo de Aplicación.
Ya se ha mencionado que los criterios de desempeño de orden técnico no consideran
aspectos económicos, pero no se puede negar que el desempeño técnico de una planta está
relacionado con su desempeño económico, y es por ello que dichos índices pueden ser
tomados como punto de partida a la hora de buscar índices más completos. El concepto de
disponibilidad comercial nace en el Reino Unido durante la desregulación que se llevó a
cabo en los años 90, y tiene como objetivo principal desarrollar indicadores que permitan
conocer el valor de generar (o disponer de) 1kWh en un período de tiempo determinado, y
así decidir si es conveniente para la compañía mantener sus unidades disponibles en ese
momento. En otras palabras, los indicadores asociados a la Disponibilidad Comercial
buscan ser una señal del Costo de Oportunidad del generador.
Se propone, entonces, dar a las medidas de desempeño de carácter técnico la
posibilidad de otorgar distintos pesos a cada hora de disponibilidad medida, de modo que
Página: 13
los pesos de los distintos períodos siempre sumen 1 (y por lo tanto, permitan entregar una
señal de la importancia financiera de cada sub-período con respecto al período total en el
que se mide la disponibilidad)
Para poder realizar estas mediciones, y asignar a cada sub-período un valor que
refleje su real importancia económica, se debe tener presente el costo marginal de la unidad
generadora, el precio del mercado de la generación y, con ello, la ganancia instantánea del
generador. Surgen, entonces, dos problemas: El precio de mercado depende de un amplio
grupo de factores externos, y es altamente volátil en el corto plazo, por lo que calcular el
valor de la producción en términos cortoplacistas es prácticamente imposible. Por otro lado,
las ganancias producto de la generación se reparten, por lo general, entre varias unidades
pertenecientes a una sola entidad, por lo que un criterio de desempeño desarrollado en base
a cada unidad podría resultar ineficiente. El desafío es, entonces, generar indicadores de
indisponibilidad que representen la pérdida de ganancias a través de una relación entre esta
pérdida a costos de mercado y el máximo beneficio que pudo haberse obtenido, si la planta
hubiese tenido total disponibilidad.
Un camino para recolectar la información necesaria para generar estos índices, dada
la dificultad para tratar con la enorme variedad de máquinas disponibles, es trabajar en base
a grupos de máquinas de características similares en lo que respecta a cargas anuales u
horas de operación. A cada grupo se le asignará así cierto patrón de operación y se
desarrollará un modelo de precios de mercado basado en análisis estadístico. Esto implica,
en realidad, simular numerosos patrones de operación de la planta, y también numerosas
estructuras de precios, y obtener un valor esperado del desempeño comercial de la planta
(mediante un promedio ponderado por las probabilidades de ocurrencia de cada escenario).
Para cada escenario se debe definir además un conjunto de precios de generación distintos,
y la simulación de las variaciones de precios a través del año. Se deben crear entonces
bloques para cada temporada del año, para los horarios punta, standard y off-peak, días de
trabajo y fines de semana, etc., lo que hace todavía más complejo el problema.
Página: 14
Surge, además, otro problema relacionado con la recolección de información: se
debe medir la indisponibilidad de una planta de acuerdo a la fecha y hora en que comienza,
y su duración, de modo de poder realizar la correcta correlación con los bloques horarios
definidos anteriormente.
El análisis de estos criterios resulta fundamental en el desarrollo de la estrategia de
mantenimiento de la compañía, pues permite determinar un costo de mantención óptimo
para cada planta (aunque este sea de carácter teórico). Esta relación entre costos de
mantención y disponibilidad cobra vital importancia en unidades antiguas, que tienen
mayor posibilidad de generar valor agregado en períodos de alta demanda (donde aún
pueden competir, a pesar de los menores costos de plantas más modernas), y por lo tanto,
dado que estos períodos son inusuales, podría resultar conveniente para estas plantas tener
un factor de disponibilidad bastante más bajo.
3.2.1. Un pequeño ejemplo.
Un ejemplo simple de disponibilidad comercial que ayuda a entender el concepto
con mayor claridad se muestra a continuación. Este indicador otorga distintos pesos a las
horas del día a través de la semana, revisando luego que tan provechoso resulta para la
empresa el sistema de generación que ha mantenido durante la semana. La tabla en que se
definen estos pesos es la que sigue:
Período de Disponibilidad. (Availability Period <AP>)
Factor de peso de la Disponibilidad (Availability Weighting Factor
<AWF>) Días de semana de 00:00 a 08:00 horas 0.8 Días de semana entre 08:00 a 24:00 horas 1.5 Fines de semana y festivos 0.6
Tabla 3.1: Períodos de Disponibilidad y Factores de Ponderación.
Página: 15
Para un período de disponibilidad dado (digamos, una semana) se debe multiplicar
el AWF por un factor que permita asegurar que AWF/N=1, donde N es el número de
periodos de disponibilidad total. Por ejemplo, para una semana normal se tiene:
AWF Duración Horas semanales
0.8 5 días, 8 horas diarias 40 horas 1.5 5 días, 16 horas diarias 80 horas 0.6 2 días, 24 horas diarias 48 horas
TOTAL 144 horas
Tabla 3.2: Factor de corrección de los pesos.
Factor de corrección = 144 / (0.8*40 + 1.5*80 + 0.6*48) = 0.8
Esto, con el fin de que los pesos no hagan más que representar una proporción de la
importancia de cada período con respecto al período mayor.
3.2.2. Aplicación de la Disponibilidad Comercial en el mercado Sudafricano.
El ejemplo anterior no es más que una forma de explicar a grandes rasgos a que se
refiere la disponibilidad comercial, pero no refleja ninguna técnica usada en la actualidad.
Sin embargo, se puede ejemplificar la implementación de medidas de disponibilidad
comercial con el caso Sudafricano.
Sudáfrica forma parte del Southern African Power Pool, un mercado eléctrico
común para los países del Sur de África que comenzó a funcionar en 1996 con la unión de
las líneas de 6 países, y ya cuenta con 11 miembros (y un doceavo miembro, Zambia,
pronto a firmar).
En este mercado Sudafricano recientemente desarrollado se ha combinado el
expertise técnico con los conceptos de costo y valor. A continuación se muestra una figura
que detalla dichas relaciones, y luego se explica como la combinación de estos conceptos
resulta en una familia de indicadores que sirven como medidas de disponibilidad comercial.
Página: 16
Figura 3.1: Relación entre disponibilidad técnica y criterios comerciales.
Las relaciones de la figura 3.1 implican que la disponibilidad comercial debe
reflejar la relación tradicional entre suministro y demanda con el valor de un MWh sujeto a
variaciones producto de incrementos o disminuciones en alguno de los dos factores. Tanto
la demanda como el suministro tienen una componente predecible, como también una
componente estocástica. Sin embargo, es posible (a través de técnicas estadísticas) obtener
un valor esperado para los eventos, aunque el comportamiento aleatorio de la demanda y la
oferta pueden alterar significativamente la validez de los pronósticos del precio en el corto
plazo.
Los indicadores que surjan a partir del proceso deben reflejar como la empresa
puede capitalizar las oportunidades económicas que se presentan en los mercados
liberalizados, tanto en el corto como en el largo plazo. Para ello, la empresa puede usar el
proceso que se sugiere a continuación en la formulación de estos índices.
El primer paso consiste en, simplemente, revisar si la unidad está disponible. La
segunda pregunta es si esa unidad está disponible cuando estaba previsto, para luego
preguntarse si la unidad fue utilizada durante dicho período. Finalmente, el indicador
Disponibilidad Comercial.
(p.e BAV [add])
Disponibilidad Técnica
(p.e. EAF)
Desempeño Comercial
(Beneficios)
Disponibilidad Potencial
(Capacidad Instalada)
Disponibilidad Actual
(Capacidad Promedio)
Costos de Generación
Valor (Precio de Mercado)
Página: 17
desarrollado deberá reflejar si vale la pena o no, en términos financieros, despachar la
unidad en cuestión. La figura 3.2 explica gráficamente este proceso.
Figura 3.2: Proceso de formulación de índices de Disponibilidad Comercial.
Para poder determinar si valió la pena estar ahí es necesario evaluar el precio de la
energía o potencia despachada adecuadamente. Para ello, se debe tener presente el precio
Spot, que representa el valor de un MWh en el mercado en un período de tiempo específico.
Obviamente, si el precio Spot es mayor que el costo marginal de la generación, la unidad
tiene una oportunidad en el mercado. Bajo estas circunstancias, la unidad es competitiva y
debe generar para incrementar el valor para los accionistas. Si la unidad no puede generar
(debido a salidas planeadas o forzadas, o a limitaciones de capacidad), se ha perdido la
oportunidad de generar este valor para los accionistas.
Es importante notar que no sólo se trata de generar valor, sino también de no
destruirlo. Al generar cuando el precio Spot es menor que los costos marginales, la planta
está perdiendo dinero, quitando valor a los accionistas, y sería más provechoso no generar
bajo esas circunstancias.
En vista de lo anterior, surgen para la planta cuatro “dominios” de la Disponibilidad
Comercial. Estos son:
Unidad Disponible.
Unidad Ofertada.
Unidad Utilizada.
Valor de la Unidad en
la Red.
¿Estabas allí? Estabas allí, ¿Cuándo dijiste que estarías?
Estabas allí cuando dijiste que estarías, ¿era necesario?
Ratio Estabas allí cuando dijiste que estarías y era necesario. ¿Valió la pena?
Página: 18
Retornos > Costos Retornos < Costos
Energía Despachada (MW actuales) Agregar Valor Destruir Valor
Energía No Despachada (Elección de NO generar)
Oportunidad Perdida No Competitiva
Tabla 3.3: Los Cuatro Dominios de la Disponibilidad Comercial.
Para poder cuantificar estos cuatro dominios es necesario definir cuidadosamente
como serán medidos los costos, retornos y beneficios de la planta. Los costos deben
considerar, de todos modos, la mantención y operación de la planta. En el caso de estudio
(Sudáfrica), se ha elegido la siguiente definición para los parámetros ya señalados:
- Retornos: Precio Marginal del Sistema, junto a retornos por servicios
suplementarios y beneficios. Se excluyen instrumentos financieros, como
los contratos, dado que son independientes del desempeño técnico de la
planta.
- Costos: Reflejan los costos marginales de operación. Son declarados en el
inicio de cada período y sólo pueden ser alterados bajo consenso del
Gerente General y el encargado de las medidas de desempeño de la
empresa. Con ellos se suponen los costos de la simulación, y es necesario
que sean expresados en la misma unidad que los retornos, de modo que
puedan ser comparados.
- Beneficios: Diferencia entre Retornos y Costos.
Teniendo estas definiciones presentes, se desarrollaron dos familias de indicadores
que representan la Disponibilidad Comercial de una planta, las que se tratan en lo que
sigue.
Página: 19
3.2.2.1. Medidas de Disponibilidad Comercial aplicadas.
3.2.2.1.1. Balance de Disponibilidad Valorada (Valuable Availability Balance,
VAB)
Esta familia de indicadores de disponibilidad comercial mide la frecuencia en que se
presenta cada uno de los dominios señalados anteriormente, revisando lo ocurrido en las
horas en que ocurre cada evento. Esto es ponderado por los MW despachados vs.
Capacidad Instalada.
Basándose en la tabla 3.3, y en como se definen los cuatro dominios de la
Disponibilidad Comercial, se sugieren cuatro indicadores:
VAB (add) : Porcentaje en que se ha agregado valor a las acciones.
VAB (dest) : Porcentaje en que se ha destruido valor de las acciones.
VAB (mo) : Porcentaje que refleja las oportunidades perdidas.
VAB (nc) : Porcentaje que refleja la no operación debida a falta de
competitividad (la planta no era rentable).
Por ejemplo, si una unidad de 200 MW de Capacidad Instalada despacha 180 MW
en una hora en particular donde los retornos excedían a los costos, entonces:
VAB (add) = 180MW / 200 MW = 0.9
VAB (mo) = 20MW / 200 MW = 0.1
Es claro que, en el caso ideal, la planta debería buscar la maximización del VAB
(add) y minimización del VAB (mo) si los retornos exceden a los costos, mientras se
debería evitar el aumento del VAB (dest) cuando los costos son mayores que los retornos.
De cualquier modo, muchas veces se cae en una especie de costo hundido debido a
parámetros técnicos de la unidad, como una potencia mínima (que lleva a generar un nivel
Página: 20
mínimo aunque no sea rentable, si se prevé que en horas siguientes la relación costo-retorno
puede cambiar).
3.2.2.1.2. Valor de Disponibilidad Depositado (Banked Availability Value,
BAV)
Aunque el VAB representa un muy buen parámetro para medir hora a hora el
desempeño de una planta en función del mercado, no considera el valor que se genera, se
destruye o se pierde producto de esta operación. Para poder llevar una contabilidad del
impacto financiero de la relación retornos – costos, se ha desarrollado el valor de
disponibilidad depositado, familia de indicadores de disponibilidad comercial que se basan
en la medición de las utilidades según la tabla 3.4.
Retornos > Costos Retornos < Costos
Energía Despachada (MW actuales)
Beneficios x Capacidad
Despachada
Beneficios x Capacidad
Despachada
Energía No Despachada
(Elección de NO generar)
Beneficios Potenciales x Capacidad No
utilizada
Beneficios Potenciales x Capacidad No
utilizada
Tabla 3.4: Valorización del BAV.
De este modo, surgen cuatro indicadores que miden la ganancia o pérdida generada.
Estos son, de forma análoga al VAB:
BAV (add) : Valor agregado al generar cuando los precios exceden el costo.
BAV (dest) : Pérdida al generar cuando los costos exceden a los retornos.
BAV (mo) : Ganancia potencial que se produce al no generar cuando los
retornos exceden los costos.
Página: 21
BAV (nc): Pérdida evitada al no generar cuando los costos exceden a los beneficios.
Resulta claro que, para el caso en que la unidad despacha energía, el valor agregado
o destruido corresponde a la ganancia o pérdida en que se cae, multiplicada por el número
de MWh despachados durante el período. En el caso en que la unidad no genera, o no lo
hace a su máxima capacidad, es importante considerar los beneficios potenciales que se
hubiesen percibido. La capacidad no utilizada puede medirse, como la diferencia entre la
capacidad Instalada y la despachada, o reemplazando la capacidad máxima por un límite
más realista impuesto siguiendo criterios técnicos, aunque se debe tener cuidado de no estar
justificando pérdidas en base a dichos criterios.
Como se señaló anteriormente, es importante destacar que no sólo se trata de revisar
estos indicadores de forma de aprovechar al máximo el dominio de Agregar Valor, sino
también evitando la Pérdida de Valor.
3.2.2.2. Aplicación directa a la comparación de dos centrales Sudafricanas[18].
Basándose en distintos datos entregados por plantas Sudafricanas, el World Energy
Council (WEC) desarrolló una comparación entre dos de ellas utilizando los criterios de
Balance de Disponibilidad Valorada y Valor de Disponibilidad Depositado. La figura 3.3
muestra un extracto de los datos utilizados en la medición de estos parámetros, y
posteriormente se revisa la aplicación de ellos a la comparación entre las plantas.
Página: 22
Figura 3.3: Muestra de algunos datos usados por e WEC.
Cabe señalar que las plantas para el estudio fueron elegidas al azar, y en una
ventana de tiempo también seleccionada aleatoriamente. La comparación realizada posee
un carácter netamente académico, y no buscaba directamente fines comerciales.
Los resultados son ilustrados en las tablas y gráficos que siguen:
Estación A Estación B Agregar Valor (VAB[add]) 41.95% 84.27% Destruir Valor (VAB[dest]) 54.2% 6.29% Oportunidad Perdida (VAB[mo]) 2.45% 9.44% No Competitiva (VAB[nc]) 1.4% 0%
Tabla 3.5: VAB aplicado a las plantas sudafricanas.
Página: 23
Figura 3.4: Representación gráfica del VAB para la estación A.
Figura 3.5: Representación gráfica del VAB para la estación B.
Página: 24
Para el reporte de los datos relacionados con el BAV se ha decidido normalizar cada
uno de los valores, en torno al porcentaje del flujo de recursos que representan para la
estación. De otro modo no hubiese sido posible realizar la comparación. La tabla 3.6 y las
figuras 3.6 y 3.7 muestran los resultados.
Normalizado Absoluto
Estación A
Estación B
Estación A
Estación B
Agregar Valor (VAB[add]) 67.4% 90.4% 696.511 2.305.692 Destruir Valor (VAB[dest]) -28.9% -1.9% (299.002) (47.709) Oportunidad Perdida (VAB[mo]) -2.7% -7.7% (27.699) (197.386) No Competitiva (VAB[nc]) -0.9% 0% (9.716) -
Tabla 3.6: Resultados de la comparación de BAV.
Figura 3.6: BAV absoluto para las plantas A y B.
Página: 25
Figura 3.7: BAV relativo al flujo total de recursos para las Estaciones A y B. 3.2.3. Metodologías de predicción.
Dada la naturaleza estocástica de muchos de los elementos involucrados en el
desarrollo y la utilización de estos instrumentos de medición comercial, es necesario
desarrollar una metodología que permita obtener los estimadores más eficaces posibles.
Frente a este problema, dos son los caminos frecuentemente recomendados para el
manejo de los datos recolectados. El primero de ellos es el Acercamiento de Harkov
(Harkov Approach), que permite obtener un predictor confiable al definir una Tasa de
Salida Forzada basada en la demanda (EFORd).
El acercamiento de Harkov simplemente usa la salida forzada promedio histórica,
salida a reserva, y duración de los periodos de servicio, para calcular un factor de descuento
Página: 26
que aproxime que porción de salidas forzadas podría producirse bajo las actuales
condiciones de demanda.
Si bien el actual índice EFOR propuesto en la norma IEE763 aproxima un índice
EFOR de manera relativamente adecuada, ello sólo ocurre para las plantas con mayor
prioridad de servicio en la industria. El acercamiento de Markov proporciona un índice
EFOR basado en la demanda que puede ser aplicado a cualquier unidad, independiente de
su período de operación.
A pesar de que los procesos de Markov son regularmente complejos, el
acercamiento de Markov sugerido simplemente calcula el factor de descuento a través de la
ecuación que sigue:
EFORd = [(f*FOH) + (EFDH – EFDHRS)*100] / (SH + f*FOH)
Donde:
FOH : Horas de Salida Forzada
EFDH : Horas equivalentes de reducción forzada de la capacidad
EFHDRS : Horas equivalentes de reducción forzada de capacidad durante la salida de
reserva.
SH : Horas de servicio
F : Factor de Descuento para las horas de salida forzada FOH,
f = (1/r + 1/T) / (1/r + 1/T + 1/D)
con:
r : Duración promedio de las salidas forzadas (f = FOH/Número de salidas forzadas)
T : Tiempo promedio de salida de reserva / Número de partidas intentadas.
D : Tiempo de demanda promedio (D = SH / Número de Partidas Satisfactorias)
T+D : Horas disponibles / Número de partidas.
Página: 27
La aproximación de Markov tiene la ventaja de proporcionar directamente un índice
EFORd, que es bastante usado en planificación, producción y diseño de instalaciones en
Estados Unidos y otros países. Es, además, aplicable a unidades de distintos patrones de
funcionamiento, al utilizar el factor de descuento. Rebaja, además, el período de salida
forzada cuando la demanda no exige urgente reparación.
Sin embargo, el método presenta también algunas desventajas que es necesario
considerar para su correcto uso. Primero, resulta más complejo que el método actual
utilizado por la IEEE en el Standard 762, aunque no requiere el seguimiento de datos
adicionales. Por último, no se debe olvidar que este método corresponde a una
aproximación, y que el único método para calcular una tasa del tipo EFORd real es medir la
demanda de cada unidad junto a los eventos relevantes para esta unidad, lo que resulta
enormemente costoso y difícil de implementar.
Otro tema que concierne al desarrollo y uso de métricas que se basan en
aproximaciones y pronósticos es la aplicación de la probabilidad condicional. Para la
correcta recolección de datos, muchas veces es necesario realizar un proceso de
benchmarking, y elegir la planta que será utilizada en él. Un buen indicador para la elección
de la planta son las horas de apagado en reserva (Reserve Shutdown Hours, RSH) definidas
en la norma IEEE762, que reflejan las horas en que la unidad estuvo disponible, pero no fue
despachada por motivos económicos. Ello guarda directa relación con el patrón que sigue la
operación de la unidad, y de este modo, unidades con un RSH similar debiesen funcionar
con ciclos de generación/salida del sistema relativamente similares.
Una vez elegidas las plantas para el Benchmarking aparece el problema de calcular
la disponibilidad comercial de las plantas que servirán de benchmark. Acceder a estos datos
no es fácil, y más aún, su cálculo es complicado y muchas veces es conveniente usar
probabilidades condicionales. Esta probabilidad condicional debe representar la
probabilidad de que esa unidad pueda despachar la cantidad requerida de energía durante
un período de tiempo dado. Se definirá en base a la posición de la planta en la lista de orden
de mérito y a diferentes períodos de demanda (peak o fuera de peak, día de semana o fuera
Página: 28
de semana, día o noche y otros). El primer acercamiento al cálculo de la probabilidad
condicional estará dado por la forma de la curva de precios del mercado, que entregará
indicaciones sobre los incentivos para la generación.
Utilizando estos criterios de selección para el benchmarking, (que no se basan sólo
en criterios técnicos, sino también en variables comerciales), y comparando las
probabilidades condicionales de dichas plantas con la unidad a evaluar, se puede establecer
un benchmark mucho más confiable que refleje la contribución real de la planta a la
rentabilidad de la compañía.
3.3. Fijación de una meta de Disponibilidad: El Método del Análisis de
Frontera [8], [15].
Como se ha señalado en numerosas ocasiones a lo largo de este informe, la meta de
los generadores fue, durante mucho tiempo, maximizar la disponibilidad. Un ejemplo
típico, es fijar como meta lograr un aumento porcentual del EAF (Factor de Disponibilidad
Equivalente), y el manejo de la unidad se enfocará completamente a ello. De cualquier
modo, como se ha mencionado, utilizar medidas de desempeño indirectas como el EAF
puede no reflejar las necesidades reales de la planta y, por lo tanto, fijar metas usándolas
como base puede ir en contra del desempeño económico de ella. Otro error puede ser fijar
una meta en que se trate de disminuir, arbitrariamente, los costos de operación y
mantención, sin tener en cuenta los efectos de una disminución sin rigurosa planificación
sobre el desempeño de la planta.
El camino a seguir, en realidad, no tiene que ver con minimizar los costos de
Operación y mantenimiento (O&M) para aumentar la disponibilidad y el desempeño, sino
en encontrar el punto óptimo que permita bajos costos y una disponibilidad que no es
máxima (necesariamente), sino que se adapta a las necesidades del mercado.
Para realizar un análisis que permita encontrar este óptimo es necesario contar con
información sobre costos que es difícil de medir, sin embargo, no es imposible obtener una
Página: 29
aproximación relativamente certera utilizando diversos métodos estadísticos. Uno de los
métodos más usados es el denominado Análisis de Frontera, y en lo que sigue trataremos
sobre sus características básicas y su aplicación a la determinación de un óptimo en lo
relativo a costos y nivel de disponibilidad.
Revisemos primero un ejemplo académico. La curva de la figura 3.8 representa los
costos de los diferentes niveles de disponibilidad que puede alcanzar una unidad generadora
(para efectos prácticos no se ha considerado el costo del combustible). La curva presentada
fue generada en función de los datos sobre las utilidades entregados por las empresas
generadoras estadounidenses a la FERC (Federal Energy Regulatory Commission) y los
datos sobre disponibilidad que se entregaron al NERC (North American Electric Reliability
Council) a través de su sistema de recolección de datos (el GADS, Generating Availability
Data System). Sin embargo, los datos que se obtuvieron de estas instancias son sumamente
dispersos (como se puede ver en la representación de la figura 3.9) y, por lo tanto, usar un
análisis de regresión lineal resulta en un coeficiente de correlación demasiado bajo como
para reflejar costos reales.
Figura 3.8: Costos versus nivel de disponibilidad.
Página: 30
Figura 3.9: Representación de los datos usados para el estudio.
Esta baja correlación lineal de los datos, sin embargo, no significa que sea imposible
obtener información de ellos. La técnica de análisis de frontera permite obtener la curva
que se muestra en la figura 3. Vale la pena señalar que los resultados del Análisis de
Frontera serán aplicables sólo cuando la colección de datos utilizada para generar el
proceso de benchmarking provenga de plantas con características similares a la planta que
se desea intervenir. Como se mencionó antes, una buena medida de comparación es la
cantidad de horas en reserva durante un período (RSH).
Figura 3.10: Resultado de la aplicación del Análisis de Frontera a los datos.
Página: 31
Aquellas plantas que se encuentran cerca de la curva el Análisis de Frontera son las
que presentan los menores costos de disponibilidad para una amplia gama de EAF, y
claramente ello es logrado mediante las mejores prácticas de mantenimiento, que serán
tratadas en una sección posterior. Luego, una excelente decisión es comparar a la planta en
estudio con aquellas que se encuentran cerca de la frontera.
Figura 3.11: Costos totales de Operación y Mantenimiento (O&M)
Sin embargo, obtener la curva de la frontera de costos de Operación y
Mantenimiento no es suficiente para encontrar un óptimo. Numerosos factores intervienen
en la rentabilidad de una planta, y es necesario buscar una relación entre todos ellos. Se
deben incluir, por ejemplo, los costos de reparación producto de mantenimiento correctivo.
Así, mientras los primeros costos, aquellos que son previsibles, corresponden a los costos
de mantenimiento proactivo, se deben tener también presente los costos reactivos,
relacionados con la segunda serie de variables. La figura 3.11 muestra estos costos
proactivos y reactivos, y la suma de ambos, entregando los costos totales. Es posible
observar también en la figura 3.11 la existencia de curvas que marcan el Mejor Cuarto, o el
Mejor Décimo. Estas curvas se sitúan justo sobre el 25% y 10% de los datos que muestran
el mejor desempeño, respectivamente, y son usadas generalmente para fijar metas de costo
Página: 32
más realistas y menos ambiciosas en el corto plazo. Un detalle importante tiene que ver con
que, a medida que aumenta la disponibilidad, los costos proactivos tienden a aumentar
(siendo exponencialmente altos para una disponibilidad completa), mientras los costos
reactivos se reducen con el aumento de disponibilidad. Ello se debe a que una alta
disponibilidad requiere de un excelente (y costoso) mantenimiento predictivo (aumento de
costos proactivos), y resulta en una mínima posibilidad de fallas del sistema (disminución
de costos reactivos).
Del análisis de costos de la figura 3.11 nace inmediatamente la noción de que existe
un nivel óptimo de disponibilidad que minimiza los costos de operación y mantenimiento,
pero no sólo ello, sino que también indica que para un mismo nivel de costos existen dos
niveles de disponibilidad posibles. Resulta básico, entonces, mantenerse en la porción
derecha de la curva, de modo de tener siempre el mayor nivel de disponibilidad posible
para los costos en que se ha incurrido.
Otro costo que se debe considerar en el análisis de los datos es el costo de
indisponibilidad. Este costo es aquel en que incurre la planta al no generar en un momento
determinado, y puede obtenerse por el costo de reemplazar la energía no producida. Desde
el punto de vista de una planta inserta en un mercado competitivo, el costo de
indisponibilidad corresponde al costo de oportunidad de producir energía al precio del
mercado, mientras para una planta que funcione en base a ventas de energía por contrato,
será éste el que defina el valor de la indisponibilidad. Generalmente, el costo de
indisponibilidad se puede aproximar por una recta de pendiente negativa, como se muestra
en la figura 3.12, en la que también se puede apreciar la determinación de los costos totales,
incluyendo los costos de O&M y de la indisponibilidad.
Página: 33
Figura 3.12: Costos totales de la planta.
Es claro que, en la búsqueda de la reducción de costos de la planta, esta debe operar
en el punto más bajo de su curva de costos totales. La línea vertical de la figura 3.12
muestra el nivel óptimo de costos de Operación y Mantenimiento (al intersectar a la curva
correspondiente) y el nivel de disponibilidad óptimo para la planta, desde el punto de vista
económico (al cortar el eje de la disponibilidad).
Figura 3.13: Disponibilidad Optima Económica y Metas de Costos
Página: 34
Si ahora consideramos también el punto en que la línea vertical corta a las curvas de
costos de O&M proactivos y reactivos, podemos obtener la relación óptima que debe existir
entre estos factores para lograr las metas de disponibilidad de la empresa, como se muestra
en la figura 3.13. Esta multiplicidad de factores que se desprenden de encontrar el óptimo
de costos de generación nos recuerda que éste óptimo de disponibilidad económica (OEA,
por sus siglas en inglés) tiene un valor que varía dependiendo de las características técnicas,
operacionales y económicas de la planta y su entorno. La figura 3.14 Muestra como se ve
afectado el óptimo económico de disponibilidad si el costo de indisponibilidad de la planta
decrece. La curva de costos totales se desplazará hacia la izquierda, y con ello también el
Óptimo Económico de la Disponibilidad, y ya no será necesario mantener el alto nivel de
disponibilidad inicial. Esta sensibilidad del OEA a las condiciones de la planta y su entorno
obliga a realizar una periódica revisión de las metas de disponibilidad que la planta se ha
propuesto.
Figura 3.14: Desplazamiento del OEA debido a una disminución del costo de
indisponibilidad.
El concepto de Análisis de Frontera y su utilización en la definición de metas de
disponibilidad para la empresa ha sido puesto en práctica por la multinacional AES, con
113 plantas y 45.000 MW de capacidad instalada en 26 países, y en palabras de, Paul
Página: 35
Hanrahan, AES’S CEO “lo que diferenciará a AES no es la disponibilidad de su flota, sino
que tan bien es capaz de capturar el margen disponible de sus plantas a través de una
mejor operación. Queremos que nuestras plantas optimicen el valor de mercado de la
disponibilidad y cómo alcanzarlo”. El enfoque en términos marginalistas en lugar de una
alta disponibilidad está claro, y al parecer a AES le ha dado resultado.
Página: 36
4. El Mantenimiento como Fuente de Rentabilidad
Para evaluar la gestión del mantenimiento, se han de definir claramente los
objetivos que el mantenimiento pretende conseguir. Estos objetivos se fijarán en función de
los objetivos de la empresa (rentabilidad, en mercados competitivos). La mejor manera de
saber si dichos objetivos se consiguen o no y cómo contribuyen a mejorar la competitividad
de la empresa es cuantificarlos en términos monetarios.
Hoy en día, las estrategias del mantenimiento están encaminadas a garantizar la
disponibilidad y eficacia requerida de las unidades, equipos e instalaciones, asegurando la
duración de su vida útil y minimizando los costos de mantenimiento, dentro del marco de la
seguridad y el medio ambiente.
Los factores críticos de éxito de la gestión del mantenimiento son la Disponibilidad
y la Eficiencia, que van a indicarnos la fracción de tiempo en que las unidades o equipos
están en condiciones de servicio (Disponibilidad) y la fracción de tiempo en que su servicio
resulta efectivo para la producción.
La disponibilidad se ha de tener sólo cuando se requiere, lo cual no quiere decir que
haya de ser por igual en todos los recursos (unidades), pues depende mucho de la criticidad
de los mismos, y esa criticidad puede variar según las condiciones del mercado. Tener una
disponibilidad demasiado elevada en recursos (unidades) que no la necesitan sólo ocasiona
un exceso de costos, al hacer un uso excesivo de los recursos de mantenimiento.
La mejora en los dos ratios de Disponibilidad y eficiencia y la disminución de los
costos de mantenimiento suponen el aumento de la rentabilidad de la empresa y por tanto
tiene influencia directa sobre las utilidades.
Página: 37
4.1 Evolución del concepto de Mantenimiento
Antes de esta mirada a aspectos del mantenimiento revisemos algunas definiciones
básicas:
Mantenimiento Preventivo: Tarea que involucra cambios/reconstrucciones de
partes/equipo bajo una base regular, sin importar el estado de las mismas.
Mantenimiento Predictivo: Busca mediante inspecciones periódicas determinar cuando
cambiar o reconstruir una parte/equipo en función del estado actual de los mismos.
Mantenimiento Detectivo: Busca detectar la ocurrencia de fallas ocultas en equipos de
protección y/o respaldo.
Mantenimiento Correctivo: Restitución del equipo al estado operativo óptimo después de
la ocurrencia de una falla.
Riesgo: Dado matemáticamente por el producto de la probabilidad de ocurrencia de un
evento y sus consecuencias
El objetivo fundamental del mantenimiento, es preservar la función y la
operabilidad, optimizar el rendimiento y aumentar la vida útil de los activos, procurando
una inversión óptima de los recursos. Este enfoque del mantenimiento es resultado de una
evolución importante a través del tiempo. La literatura [1] distingue entre tres generaciones
diferentes de mantenimiento. Cada una de las cuales representa las mejores prácticas
utilizadas en una época determinada.
En los últimos años se ha vivido un crecimiento muy importante de nuevos
conceptos de mantenimiento y metodologías aplicadas a la gestión del mantenimiento.
Página: 38
Hasta finales de la década de los 90, los desarrollos alcanzados en la 3º generación
del mantenimiento incluían:
• Herramientas de ayuda a la decisión, como estudios de riesgo, modos de falla y
análisis de causas de falla.
• Nuevas técnicas de mantenimiento, como el monitoreo de condición
• Equipos de diseño, dando mucha relevancia a la confiabilidad y mantenibilidad.
• Un cambio importante en pensamiento de la organización hacia la participación, el
trabajo en equipo y la flexibilidad.
A estos usos, se han ido añadiendo nuevas tendencias, técnicas y filosofías de
mantenimiento hasta nuestros días, de tal forma que actualmente se puede hablar de una
“cuarta generación” del mantenimiento.
El nuevo enfoque se centra en la eliminación de fallas utilizando técnicas
proactivas. Ya no basta con eliminar las consecuencias de la falla, sino que se debe
encontrar la causa de esa falla para eliminarla y evitar así que se repita.
Asimismo, existe una preocupación creciente en la importancia de la mantenibilidad
y confiabilidad de los equipos, de manera que resulta clave tomar en cuenta estos valores
desde la fase de diseño del proyecto. Otro punto importante es la tendencia a implantar
sistemas de mejora continua de los planes de mantenimiento preventivo y predictivo, de la
organización y ejecución del mantenimiento.
A parte de estas características descritas anteriormente, existen otros dos temas
importantes dentro del mantenimiento actual cuya importancia ha aumentado de manera
muy importante en los últimos años:
• La Gestión del Riesgo: Cada día cobra más importancia la identificación y control
de los posibles sucesos que presentan una baja probabilidad pero consecuencias
graves, sobre todo en organizaciones que operan en industrias con riesgo. El
mantenimiento se está viendo como un participante clave en este proceso. En el
Página: 39
pasado, este tipo de sucesos se controlaban simplemente con una extensión de los
Sistemas de Gestión de Seguridad y Medio Ambiente implantados en cada empresa.
Sin embargo, existe una creciente percepción de que la aplicación de estos sistemas
de gestión a los sucesos de “baja probabilidad / consecuencias graves” no es
efectiva, por lo que es necesario desarrollar otras metodologías.
• Patrones de Falla: Las nuevas investigaciones están cambiando muchas de las
tradicionales creencias sobre la relación existente en una máquina entre el
envejecimiento y la falla. En particular, se ha demostrado que para muchos equipos
existe muy poca relación entre el tiempo de operación y la probabilidad de falla. El
enfoque inicial del mantenimiento suponía que la probabilidad de que una máquina
falle aumenta según el tiempo de operación, siendo mayor la probabilidad de falla
en la “vejez” de la máquina. La segunda generación de mantenimiento introdujo el
concepto de “mortalidad infantil”. De esta forma la tasa de fallas de una máquina
puede ser representada con una curva de bañera, existiendo, por tanto, más
probabilidad de falla durante el principio y el final de su vida útil.
Sin embargo, en el mantenimiento actual se ha demostrado que podemos definir seis
patrones diferentes de tasa de fallas, según el tipo de máquina que estemos
utilizando.
Tener en cuenta el patrón al que se ajusta cada elemento es fundamental si se quiere
conseguir una óptima planificación del mantenimiento.
Debemos estar seguros de que el mantenimiento que ha sido planificado es el
adecuado, ya que de nada sirve realizar el trabajo planificado de manera correcta, si
éste no es el más adecuado.
Página: 40
Figura 4.1: Nuevos patrones de tasas de falla.
Para los patrones de falla A, B y C, la probabilidad de falla aumenta con la edad
hasta alcanzar un punto en el que es conveniente reemplazar el componente antes de
que falle y así reducir su probabilidad de falla. En el caso de los componentes que
presentan una probabilidad de falla del modelo E, reemplazar el componente no
mejorará en ningún caso su confiabilidad, ya que el nuevo elemento tendrá la misma
probabilidad de falla que el antiguo.
Si el patrón de falla al que se ajusta el componente es el F, reemplazar el elemento a
intervalos fijos por un componente nuevo, no sólo no mejorará la confiabilidad, sino
que aumentará la probabilidad de falla, ya que en la“infancia” presenta más
mortalidad que en la vejez.
En el gráfico se observa que más del 50% de los componentes presentan fallas en la
“infancia”. Esto quiere decir que cada vez que se repara o reemplaza un equipo, las
posibilidades de falla prematura debido a esa operación de mantenimiento son muy
elevadas. Alguna de las posibles explicaciones que se pueden dar a este hecho, son
errores humanos, errores del sistema, errores de diseño o errores de piezas.
Por lo visto anteriormente, está claro que el mantenimiento actual debe centrarse en
reducir las operaciones de mantenimiento provocadas por fallas que se ajustan al modelo F.
Es decir, fallas ocurridos en la “infancia” de los equipos. Para los elementos que ajusten su
Página: 41
tasa de fallas a este patrón F, un mantenimiento planificado a intervalos fijos aumentará las
posibilidades de falla, ya que el equipo nuevo presentará más probabilidad de falla que el
antiguo. Por ese motivo existe una tendencia generalizada a “mantener lo mínimo posible”,
debido a que cualquier operación de mantenimiento realizada puede aumentar la
probabilidad de falla.
Otra posibilidad, es centrarse en reducir de manera global las probabilidades de falla
sobre todos los modelos. La forma de realizar esto, es mediante la utilización de un
Mantenimiento Proactivo, es decir buscar la forma de eliminar los fallas, más que eliminar
sus consecuencias.
Para eliminar las fallas, hay que eliminar sus causas, lo que implica conocerlas.
Existen herramientas como el Análisis Causa-Raíz que ayudan a identificar y eliminar las
causas de los fallas, aunque en muchas ocasiones se utiliza como una herramienta reactiva
más que proactiva.
A modo de resumen, en las siguientes gráficas se presenta como han ido
evolucionando las expectativas y técnicas del mantenimiento durante el último siglo:
Figura 4.2: Objetivos del Mantenimiento.
Página: 42
Figura 4.3: Evolución de las Técnicas de Mantenimiento.
4.2 Técnicas de Mantenimiento
Hoy en día existen infinidad de diferentes herramientas, técnicas, metodologías y
filosofías de mantenimiento. Algunas de las más utilizadas entre otras pueden ser:
• Mantenimiento Autónomo / Mantenimiento Productivo Total (TPM)
• Mejoramiento de la Confiabilidad Operacional (MCO)
• Mantenimiento Centrado en la Confiabilidad (RCM)// (MCC)
• Mantenimiento Basado en el Riesgo (MBR)
• Asset Integrity
• Mantenimiento Centrado en Confiabilidad en Reversa (MCC-R)
• Análisis Causa raíz (ACR)
• Análisis de Criticidad (AC)
• Optimización Costo Riesgo (OCR)
• Inspección Basada en Riesgo (RBI)(IBR)
En efecto los métodos para mejorar la confiabilidad se podrían dividir en dos:
Página: 43
• Métodos Proactivos: Buscan la mejora de la confiabilidad mediante la utilización
de técnicas que permitan la paulatina eliminación de las fallas tanto crónicas como
potenciales. Claros ejemplos son el Mantenimiento Centrado en la Confiabilidad y
el Mantenimiento Productivo Total.
• Métodos Reactivos: Buscan de una manera rápida y eficaz la solución de
problemas cotidianos y evitar repetición de eventos mayores. En líneas generales se
trata de métodos sobre todo "post-morten". Actualmente su mejor exponente es el
Análisis Causa Raíz.
Nos referiremos a continuación muy brevemente a algunas de ellas:
4.2.1 Mantenimiento Centrado en la Confiabilidad (RCM)
Esta técnica surge a finales de los años sesenta como respuesta al incremento de
costos y actividades del mantenimiento de las aeronaves (básicamente preventivo). En esta
industria demuestra ser muy valioso, no sólo bajando los costos y actividades de
mantenimiento, sino que además mejora los niveles de confiabilidad, disponibilidad y
seguridad. Estos éxitos lo hicieron apetecible a otras industrias, como la militar, petrolera y
de generación de electricidad.
Esta técnica se basa en seleccionar mantenimiento sólo donde las consecuencias de
las fallas así lo requieren, para esto se necesita hacer un estudio exhaustivo de todas las
funciones, fallas, modos y consecuencias de las fallas, para luego decidir donde y que tipo
de mantenimiento hacer. Establece un orden de prioridades: la seguridad y ambiente,
producción, costos de reparación. Esto ha hecho que sea una herramienta valiosa en las
industrias que requieren elevados niveles de seguridad, generando a cambio de los
esfuerzos, buenos resultados.
Bajo su enfoque tradicional resulta muy difícil de aplicar en grandes industrias
debido a que no resuelve algunas interrogantes mayores como ¿Cuándo hacer el
mantenimiento? y ¿Cómo generar una jerarquía de implantación?
Página: 44
Es una técnica bastante analítica, lo cual ha traído problemas de implantación,
debido a que a veces resulta difícil pasar del papel a la realidad. Conduciendo esto a fuertes
perdidas de dinero y esfuerzos, degenerando al final en frustración de los equipos de
trabajo.
Se trata de una práctica recomendada por el Energy Power Research Institute
(EPRI) para sistemas eléctricos.
4.2.2 Mantenimiento Productivo Total (TPM)
Conocido por los grandes beneficios que ha obtenido en empresas manufactureras.
Demostró su poder en Japón y ha comenzado a diseminarse a lo largo del mundo. Hace un
gran esfuerzo en el trabajo en equipos. Se apoya fuertemente en limpieza y lubricación
como fuentes que eliminan problemas crónicos. Requiere de una profunda cultura de
trabajo en equipo y sentido de propiedad de los bienes por parte de los trabajadores. De no
poseer estos se requiere de un fuerte trabajo en el cambio cultural.
Está muy ligado a los conceptos de mejoramiento continuo de la calidad y filosofías
cero defectos. Difícil de aplicar en empresas de procesos, debido en muchos casos a lo
ambiguo que resultan los conceptos de calidad y defectos, por otra parte el problema
cultural puede entorpecer la implantación a niveles de frustración.
Donde se ha logrado su implantación exitosa, se han tenido grandes logros respecto
a seguridad, ambiente, confiabilidad, disponibilidad y costos de mantenimiento.
Tampoco responde a las interrogantes ¿Cuándo hacer el mantenimiento? y ¿Cómo
generar una jerarquía de implantación?
Página: 45
4.2.3 Análisis Causa Raíz (ACR)
Técnica poderosa que permite la solución de problemas, con enfoque a corto y
mediano plazo. Usa técnicas de investigación bastante exhaustivas, con la intención de
eliminar las causas de los problemas/fallas. Su valor no sólo reside en la eliminación de
grandes eventos, sino en la eliminación de los eventos crónicos, que tienden a devorar los
recursos de mantenimiento. Al eliminar paulatinamente los problemas crónicos y pequeños,
este genera tiempo para análisis más profundos (RCM, por ejemplo).
4.3 Mejoramiento de la Confiabilidad Operacional (MCO)
El mejoramiento en la confiabilidad operacional desarrollada en U.K. con la
intención de agrupar las mejores practicas de mantenimiento y operaciones con una
orientación al negocio. Reconoce las limitaciones que el mantenimiento como función tiene
para lograr una confiabilidad adecuada de las instalaciones.
La figura ilustra un poco mas la idea:
Figura 4.4: Confiabilidad Operacional.
Página: 46
Para mejorar los 4 sectores nombrados en la gráfica anterior, el MCO divide las técnicas de
mejoramiento:
• Diagnóstico Aquí mediante uso de técnicas asociadas al manejo de riesgo se
cuantifican las oportunidades a corto plazo (reactivas) y mediano largo plazo
(proactivas). Como resultado se obtiene una jerarquía de implementación. Aquí se
hace uso de herramientas de análisis de criticidad y de oportunidades perdidas (a
modo de ejemplo), estas permiten establecer las oportunidades de mejoramiento y
que herramientas de control podrían usarse para capitalizar las oportunidades
halladas.
• Control Aquí se usa el RCM+ (que combina algunas ventajas del TPM con el
RCM) como técnica proactiva y el ACR como técnica reactiva, también se puede
hacer uso del IBR para equipos estáticos. Como resultado se obtienen una serie de
tareas de mantenimiento, operaciones, rediseño a ejecutar para mejorar el
desempeño.
Estas técnicas de control por lo general son técnicas del tipo cualitativo y basadas en
reglas fijas para la toma de decisión (por ejemplo: diagramas lógicos).
• Optimización Aquí mediante el uso de herramientas avanzadas de cálculo costo
riesgo se hallan los intervalos óptimos de mantenimiento, paradas de planta,
inspecciones, etc.
Se trata de técnicas del tipo numérico e involucran el modelado de los equipos y/o
sistemas.
Los resultados de implementar estas herramientas de esta manera son
impresionantes en diversas industrias, logrando en algunos casos incluso la transformación
de las empresas llevándolas a la implementación de Gerencia de Activos (Asset
Management)
Grandes resultados se han encontrado en Centrales Eléctricas con la implantación
del Mantenimiento Centrado en la Confiabilidad y con el Análisis Causa Raíz. Un requisito
Página: 47
que no debe dejarse de cumplir es el establecimiento previo de prioridades antes de la
ejecución de ambas técnicas (simultaneas). Se han desarrollado herramientas como el
análisis de criticidad y el análisis de oportunidades perdidas que pueden resolver dicha
inquietud eficazmente.
Por otra parte normalmente ambas técnicas generarán soluciones que podrían ser
agrupadas en:
• Cambios de diseño.
• Tareas preventivas.
• Tareas de Inspección (Detección y Predicción).
• Tareas correctivas.
La respuesta a cuando ejecutar dichas tareas no es simple, y en muchos casos no
puede ser fijada por la ley del dedo. Grandes beneficios económicos han sido reportados
con el uso de software, que pueden calcular el punto de ejecución con menor costo/riesgo
posible para las tareas anteriores.
4.4 Inspección Basada en Riesgo
Un capitulo especial se abre con esta técnica, que establece patrones de inspección
de equipos estáticos (calderas, líneas de transmisión, etc.) en función de su riesgo asociado,
nuevas aproximaciones permiten usar software para tomar en cuenta también el estado
actual del equipo, lo que desencadena una continua optimización por costo/riesgo y no una
frecuencia de inspección fija. Los reportes económicos han sido cuantiosos, además de los
beneficios por disponibilidad y producción. También es posible optimizar con este tipo de
técnicas la frecuencia de búsqueda de fallas ocultas (pesquisa de fallas, mantenimiento
detectivo), dejándose de usar entonces formulas mágicas que no generan una frecuencia
óptima por costo/riesgo, pudiéndose simular factores como probabilidad de éxito de la
prueba y probabilidad de destrucción del equipo probado.
Página: 48
4.5 Modelos de Optimización del Mantenimiento
Los modelos de optimización de mantenimiento se definen [3] como aquellos
modelos matemáticos cuyo objetivo es encontrar el equilibrio óptimo entre los costos y
beneficios de éste, tomando en cuenta todo tipo de restricciones. En casi todos los casos, las
ventajas del mantenimiento consisten en ahorros de costos en los cuales de otro modo se
incurriría (por ej, menor costo de fallas). Esta definición no incluye todos los modelos de
investigación de operaciones aplicados en el mantenimiento. La programación de
interrupciones de plantas de energía eléctrica para mantenimiento no es considerada, a
menos que los aspectos de mantenimiento típicos (como el deterioro) sean modelados
explícitamente. Se excluyen técnicas de dirección de proyecto, aunque algunas sean usadas
en la planificación de cierre de instalaciones principales en la industria de proceso, cuando
éstos carecen de los aspectos costo-beneficio del mantenimiento.
También se excluye los modelos de reemplazo de repuestos cuando éstos se enfocan
principalmente en el control de inventario.
En general, los modelos de optimización de mantenimiento cubren cuatro aspectos:
(i) una descripción de un sistema técnico, su función y su importancia,
(ii) un modelado del deterioro del sistema en el tiempo y consecuencias posibles
para el sistema,
(iii) una descripción de la información disponible acerca del sistema y las acciones
dispuestas por la dirección
(iv) una función objetivo y una técnica de optimización que ayuda en el
descubrimiento del mejor equilibrio.
En [4] los modelos se clasifican según la modelación del deterioro en:
• Modelos deterministicos
• Modelos estocásticos
• En Riesgo
Página: 49
• Bajo Incertidumbre.
Ellos distinguen entre un sistema simple (componente unico) y un sistema
complejo. La diferencia entre riesgo e incertidumbre es que en caso del riesgo se asume que
una distribución de probabilidad del tiempo de falla está disponible, lo que no ocurre en el
caso de la incertidumbre. Este por lo tanto incluye modelos con políticas adaptativas. Los
métodos de optimización empleados incluyen programación lineal y no lineal,
programación dinámica, métodos de decisión de Markov, técnicas de análisis de decisión,
técnicas de búsqueda y metodologia heurística.
Los modelos de optimización de mantenimiento proporcionan varios resultados. En
primer lugar, las políticas pueden ser evaluadas y comparadas con respecto a las
características de confiabilidad y rentabilidad. En segundo lugar, los resultados pueden ser
obtenidos en la estructura de monitoreo(vigilancia) óptimas, como la existencia de una
política optima en los límites de control. En tercer lugar, los modelos pueden asistir en el
aspecto del tiempo: con que frecuencia inspeccionar o mantener. Todos estos resultados se
refieren al concepto de mantenimiento; el último también se refiere adicionalmente a la
planificación del mantenimiento. Finalmente, los modelos también pueden ayudar en la
determinación efectiva y eficiente de programas y planes, tomando en cuenta todos los
tipos de restricciones.
Cuando la dirección de un departamento de mantenimiento se encuentra en una
condición de “mantenimiento reactivo”. Una de las mejores maneras de afrontar los inicios
de la gestión para pasar a la condición de “mantenimiento planificado” es utilizando
métodos sencillos de optimización de cadenas de valor como la teoría de restricciones y los
modelos de colas La teoría de restricciones [5 ]se centra, básicamente, en la búsqueda del
flujo perfecto de bienes o servicios a través de una cadena de valor balanceada, coordinada
y sincronizada de estaciones de trabajo, logrando así, bajar los costos de operación, reducir
los inventarios y aumentar las ventas.
Página: 50
En el caso de un departamento de mantenimiento aplica todo lo anterior, ya que por
un lado, la función mantenimiento no es otra cosa que un conjunto ordenado de actividades
que agregan valor a un “servicio prestado”, desde una condición inicial conocida hasta una
condición final que debe cumplir con los parámetros de calidad y seguridad establecidos o
convenidos entre el ente encargado de agregar valor (Departamento de Mantenimiento) y el
que lo recibe (clientes internos) en un tiempo determinado. Siendo el servicio prestado un
bien intangible podemos tomar la “solicitud de trabajo” como elemento tangible del
servicio en su condición inicial, la “orden de trabajo en proceso” como elemento tangible
del servicio en tránsito y la “orden de trabajo culminada” como elemento tangible del
servicio en su condición final.
Por otro lado, en cuanto a los resultados esperados, podemos establecer una relación
directa, ya que, los costos de operación son los gastos de mantenimiento, los inventarios
estarían representados por las ordenes de trabajo (sin atender y en tránsito) y las ventas se
pueden asociar directamente con el nivel de servicio (cantidad de solicitudes atendidas en
una cantidad de tiempo determinada).
Según la teoría de restricciones, el primer paso para la implantación es identificar
los cuellos de botella (estaciones de servicio que determinan la velocidad del flujo en el
sistema), luego se asignan las prioridades a los trabajos a ser ejecutados y finalmente se
balancea el sistema. Este proceso es reiterativo, ya que al cambiar las condiciones externas
o internas del sistema, van apareciendo nuevos cuellos de botella, lo que trae consigo
nuevas acciones correctivas.
4.6 Relación entre Mantenimiento, Disponibilidad y Rentabilidad
4.6.1 Análisis de un caso particular 1
Relación entre el Mantenimiento Programado y las salidas forzadas, su impacto
Económico en la elección de Metas de Disponibilidad [7].
Página: 51
Las técnicas para estimar la Disponibilidad Optima Económica (OEA) de una
unidad generadora se ha enfocado en la comparación del costo "frontera" [8] de la unidad
por el porcentaje de mejora de su valor marginal. Aunque ha sido normalmente aceptado
que la cantidad de salidas no planeadas que una planta experimenta es, en parte, una
función de la cantidad del mantenimiento programado, aquella relación no ha sido bien
determinada. El estudio [7] explora aquella relación y examina su impacto económico en la
elección de metas de disponibilidad.
Análisis
Usando una base de datos del Edison Electric Institute (un predecesor del actual
GADS system administered by the North American Electric Reliability Council) para
grandes unidades carbón de 1971 a1978, fue deducida una relación lineal entre la
indisponibilidad planeada y la indisponibilidad no planeada. El coeficiente de correlación
fue 0.895, informando de una fuerte relación. Como los datos tienen ahora más años y la
disponibilidad de la industria ha mejorado considerablemente desde aquel tiempo, la
constante en la ecuación ya no es acertada o verdadera. Sin embargo, se considera que la
pendiente (slope) de la curva permanece cerca del original calculado en un valor de -0.5897
[6]. Esto significa que por cada punto porcentual adicional que aumentamos nuestras
salidas programadas (el total planeado, salidas por mantenimiento y derating equivalent)
las salidas forzadas y derating equivalent decrecerán en 0.5897 puntos porcentuales.
Maximizar Disponibilidad
Como se puede ver fácilmente, a fin de maximizar disponibilidad usando la
ecuación deducida de estos datos, se debería minimizar la cantidad de interrupciones
programadas dado que, por cada punto porcentual que se reducen las interrupciones
planeadas, se podría esperar un aumento de la disponibilidad de la unidad en 0.4103 puntos
porcentuales (1-0.5897) (Obviamente este se aplica sólo dentro de los límites de los datos;
fuera de aquellos límites la relación es probablemente no- lineal).
Si maximizar disponibilidad fuera la tarea de una compañía de generación, entonces
este modelo o estrategia sería óptimo. Sin embargo, no se esta simplemente encargados de
Página: 52
maximizar la disponibilidad, sino mas bien de minimizar los costos de producir y distribuir
energia para satisfacer la demanda de los clientes (o maximizar la ganancia de la compañia
en caso de sistemas desregulados). Aunque maximizar disponibilidad ha usualmente sido
considerado sinónimo de minimizar costos, el análisis siguiente demuestra que esta
aseveración no es necesariamente válida.
Minimizar Costos
Ha sido siempre reconocido que una hora o día o un porcentaje de salida
programada es normalmente mucho menos costoso (en términos de reeplazar el costo de la
energía) que una hora o día o porcentaje de estos de salida forzada, ya que una compañía de
generación intenta programar sus interrupciones durante períodos de demanda mínima (o
de costos minimos para la empresa- otra forma de verlo es en que lo que se deja de ganar
sea minimo). Durante muchos años algunas compañías de generación han estado
calculando estos costos por hora, diariamente, semanalmente y estacionalmente. Un análisis
de estos costos ha mostrado que para grandes unidades a carbón base-carga la razon
"promedio" entre el costo “de salidas forzadas” y el “costo de salidas programadas” varía
entre 3.0 y 4.5 (excepcionalmente durante condiciones “ajustadas" entre la oferta y
demanda esta razón puede ser mucho más alta y la volatilidad puede ser mucho mayor
durante peaks estacionales). También, esta razón de costos para unidades cíclicas y
unidades de punta es mucho mayor (al menos uno a dos órdenes de magnitud mayor).
Por lo tanto, cuando se calcula el costo de interrupciones y se usa la razón mas baja
para grandes unidades de carbón, osea 3.0 según lo dicho anteriormente, en efecto se
cambia la pendiente de la ecuación (en términos monetarios, no porcentuales) en un factor
de 3.0 de modo que ahora:
Pendiente(Slope) = 3.0 x -0.5897 =-1.7691
Esto significa que por cada dólar que se "ahorra" reduciendo el mantenimiento
programado, se puede esperar “gastar o pagar" un promedio de 1.7691 dólares extra por
efecto de interrupciones forzadas incrementadas. Entonces si el objetivo es minimizar el
costo total se debería obviamente aumentar la programación y salidas por mantenimiento a
Página: 53
efectos de reducir nuestro costo de salidas no programadas, sin tener en cuenta el efecto que
podría tener en nuestra disponibilidad.
Nueva Medida
Algunas compañías que han identificado el problema de utilizar el Factor de
Disponibilidad Equivalente (EAF) para evaluar el rendimiento de la planta han comenzado
a usar el término Disponibilidad Comercial (CA), anteriormente analizado, que intenta
enfrentar el tema "ponderando o “pesando" las medidas de disponibilidad tradicionales por
algún indicador de costo marginal o costo de mercado. Entre tanto se mantienen estas
grandes promesas de medir adecuadamente el verdadero impacto económico de las
interrupciones de una planta en el rendimiento financiero (rentabilidad) de la compañía,
ninguna definición única ha sido adoptada por la industria y aún hay otras implicaciones
que no han sido totalmente resueltas [9]y[10].
4.6.2 Análisis de un caso particular 2
Optimizar Costos de O&M para Maximizar Rentabilidad [11]
A menudo en la proforma de una central eléctrica propuesta, los costos O&M son
tratados como un commodity (activo); un número para ser reducido tanto como sea posible.
Sin embargo, varias estudios de la industria han mostrado que hay una correlación directa
entre un cambio en el gasto de O&M en una central eléctrica dada y el resultante
desempeño de aquella planta. El objetivo entonces, sería encontrar el nivel óptimo de gasto
O&M que minimice el coste TOTAL ($ diseño + $ O&M + $ desempeño) y que
maximice la rentabilidad.
Este proceso es muy difícil porque la relación entre el gasto de O&M y el
desempeño de la planta no esta bien determinado o cuantificado. Varios estudios han
mostrado que numerosos factores afectan esta relación, extendiendose hacia atrás por todas
partes a las decisiones iniciales de diseño (tecnología, equipamiento, calidad y
configuración, tipo de combustible y calidad, etc.) y a través de la construcción, puesta en
Página: 54
servicio y operaciones de ciclo de vida y mantenimiento, y decisiones de renovación o
reemplazo.
O&M es especialmente importante ya que como se mostrará, como el 75% de una
variación en la confiabilidad de la planta es inflluido por la calidad de la O&M, sólo el 25%
es inflluido por el diseño o modo de operación
Todos estos factores interrrelacionados y la filosofia de O&M óptimo debe tomar en
cuenta todas sus influencias, incluyendo factores “near-term” como ciclo de vida
Pero, no es suficiente determinar simplemente el mejor plan de O&M una vez que el
diseño esta determinado. Debería haber un diálogo activo entre el equipo de diseño y el
equipo de O&M para encontrar la mejor combinación que producirá el máxima beneficio
para cualquier proyecto en particular.
Antecedentes
La Southern Company es una de las grandes compañias privadas de servicios en los
Estados Unidos. Establecido en Atlanta, Georgia, tiene activos por sobre los 25 mil
millones de dólares y opera aproximadamente 35.000 MW . En 1993, sus plantas generaron
más de 144 billones de kWh de electricidad con un 78 % de plantas de carbón , 17%
nuclear, 14 %hidro y 1 % gas y petroleo. Sus unidades de carbón y nucleares tienen una
confiabilidad promedio de 96 % (1- Indice de Interrupción Forzado equivalente - EFOR),
este valor experimentó un incremento de 19 puntos porcentuales desde 1976 en que era de
77%. (Figura 1a)., Muchos factores se combinaron para conseguir esta importante mejora
[12], un aumento significativo en gastos de capital en O&M y mejoras . Muchas de las
plantas más viejas experimentaron el mismo patron en distintos grados. Esto es, que al
principio se disminuia el gasto en O&M, seguido por un deterioro en la confiabilidad; se
disponia entonces el dinero para las mejoras de la planta e invertir en incrementar la
confiabilidad, aunque amenudo los gastos se postergaban por años. Esto condujo a analistas
Página: 55
de la Compañía en un esfuerzo por intentar cuantificar la relación gastos/confiabilidad de
las centrales eléctricas de la Southern Company.
Unidad Beanchmarking “par”
En 1991, el North American Electric Reliability Council (NERC) and Southern
Electric Internacional (SEI) (el brazo desregulado de la Southern Company) desarrolló una
metodología para determinar según estadísticas las caracteristicas de diseño y operación,
mas significativas, para comparar el desempeño de unidades de generación similares [13]
El proceso de la unidad “par” beanchmarking actualmente empleado en NERC/SEI
join ventures es el resultado de una evolución de ideas asociadas con el objetivo común de
predecir o pronosticar el desempeño de las unidades de generación eléctrica. Los sistemas
de planificación de las organizaciones confían en estas predicciones, y la exactitud o la
inexactitud de tales proyecciones pueden ahorrar o bien costar millones de dólares en
utilidades.
Por años, el método utilizado para hacer estas proyecciones en el Southern electric
system fue una especie de “fuzzy trending”, donde los datos históricos y la información
acerca de los planes de mantenimiento futuros de la unidad, modificaciones, y nivel de la
utilización estan todos considerados en la predicción del desempeño de la unidad en el
futuro. En un paper presentado en 1988 en la American Power Conference titulado,
"Trends in Generating Unit Performance and the 1990's Power System," la General
Electric Company desarrolló una ecuación para predecir la disponibilidad de unidades
térmicas basada en la operación histórica y en la estructura o patron de gastos de
mantenimiento. Este paper nos condujo a preguntarnos si una metodología con una base
matemática estadística podría producir resultados más exactos que el método “fuzzy
trending” usado en el pasado. La ecuación fue aplicada a datos a nivel de sistema del
Southern electric system con buenos resultados; sin embargo, los resultados eran erráticos
cuando la ecuación fue aplicada a datos a nivel de unidades. En un esfuerzo para conseguir
datos mas adecuados a nivel de unidades, el siguiente paso fue desarrollar una nueva
Página: 56
ecuación usando análisis de regresión y datos de 85 unidades termicas del Southern
electric system (25,000 MW). Más que asumir desde el comienzo que los factores
principales que afectan la disponibilidad de la unidad eran ya conocidos, el proceso que fue
desarrollado evaluaba el desempeño de la unidad (EFOR) relativo a numerosas
características de diseño y de operación a fin de determinar los factores más importantes.
La ecuación de regresión que resulta incluyó algunos años recientes y variables
operacionales anteriores (EFOR, factor de servicio, y factor de interrupciones planeadas),
algunas características de diseño (tipo de combustible, fabricante de la caldera, y fabricante
de la turbina), y históricos desembolsos de O&M. Una comparación de la exactitud de las
proyecciones hechas con el nuevo modelo matemático versus el viejo método fuzzy
trending mostró que el modelo matemático fue superior. Aproximadamente el 80 % de las
proyecciones del viejo método fueron altas, mientras que las proyecciones con el nuevo
método fueron más cercanas a valores reales tanto con estimaciones bajas como altas. Fue
alentador que aun en sus inicios, el modelo matemático apareció superior al método
previamente usado. (Fig. b y c)
Hasta este punto, la metodología resultó en una gran ecuación que se aplicó a todas
las unidades incluidas en la base de datos. Adicionalmente, el método usado para
incorporar variables nominales en el análisis de regresión, como tipo de combustible,
fabricante de la caldera y fabricante de la turbina fue un proceso engorroso. Fue decidido
que el mismo, o aún mejor, los resultados podrían ser logrados subagrupando los datos por
variables nominales importantes y aplicando el análisis de regresión a nivel de subgrupo.
Este es el punto en cual la primera generación de unidades benchmarking pares se
desarrolla. NERC y SEI firmaron un joint ventur para dar servicio a clientes en
benchmarking de desempeño de sus unidades versus el de las unidades “par”. Los grupos
“pares” para las unidades del cliente fueron desarrollados usando el análisis estadístico para
determinar la característica que tenia el mayor impacto en el desempeño de la unidad, y
dividiendo la base de datos en subgrupos basados en esta característica. El proceso fue
seguido a niveles de subgrupo, con una división tras otra, hasta que ninguna característica
restante fuera significativa para aquella division, o hasta que el número de unidades de par
en la division cayera a un nivel mínimo aceptable. El resultado divide las 1213 unidades
Página: 57
térmicas de la industria en 19 grupos de “unidades par” generales, con las características
más significativas que son criticas, vintage, modo de operación, tamaño, tipo de diseño,
tipo de combustible y el fabricante de caldera (Fig d). El diseño y los datos operacionales
de las unidades de clientes fueron usados para localizar cada una de las unidades de clientes
dentro de los 19 grupos de par, y fueron proporcionadas distribuciones mostrando el
desempeño de las unidades del cliente con relación a aquel de sus pares.
Nuevas Perspectivas
Cuando los resultados de los estudios anterior de benchmarking fueron examinados
en profundidad, nuevas relaciones fueron reveladas. Cuando los mejores exponentes
(EFOR) en cada grupo par (10º percentil ) fueron comparados uno a otro, la función
densidad de probabilidad resultante tenía una anchura relativamente estrecha ( Fig e) en
otras palabras, la diferencia entre el mejor exponente en el mejor grupo par tenía un EFOR
de sólo 5 puntos porcentuales más abajo que el mejor exponente en el peor grupo par (la
selección del grupo par esta basada sólo en parámetros de diseño o modo de operación).
Si ahora comparamos a los exponentes más pobres uno a otro (90º percentil) en cada
grupo par, conseguimos la función de densidad de probabilidad mostrada en la Fig f.
Finalmente, cuando sacamos el mejor exponente EFOR del peor exponente EFOR en cada
grupo, podemos ver el rango o la variabilidad entre el mejor y el peor (Fig g). De esta
curva, se puede ver que la diferencia entre los mejores exponentes y los peores con los
mismos factores estadisticamente significativos de diseño/modo de operación es de
aproximadamente 20 %. Por lo tanto, la percepción de los analístas es que sólo entre el 20
y 25% de la variación en la confiabilidad de unidades generadoras, en general puede ser
explicado debido a diferencias en el diseño o modo de operación. El 75-80% restante de la
variación es debido a otros factores. Se estima que la mayoría de aquel impacto es debido a
la calidad de los programas de Operación y Mantenimiento de las unidades
(entrenamiento, procedimientos, staffing lavels, herramientas, equipo, datos, etc.) así como
los gastos de O&M.
Página: 58
La relación entre parámetros de diseño, operación, y calidad de O&M debe ser
bien entendida a fin de determinar la mejor combinación que conducirá al costo más bajo
del producto. Las figuras h e i muestran como esta interrelación afecta el costo total y la
rentabilidad de las plantas.
d)
(h)
(i)
Figura 4.5: Southern Company SystemFossil – Fired Units Reliability .
Página: 59
(a) (b)
(c) (e)
(f) (g) Figura 4.6: Southern Company SystemFossil – Fired Units Reliability .
Página: 60
5. Conclusiones
En la actualidad, el sector eléctrico se sitúa dentro de un nuevo marco desregulado,
donde nadie asegura la recuperación de los costos a las empresas de generación. En esta
situación la rentabilidad de la generación depende en gran medida de la capacidad de
producir la energía a un precio competitivo sin alterar la confiabilidad (seguridad, fiabilidad,
mantenibilidad y disponibilidad) de las plantas de generación. Mantener la capacidad
productiva con un alto nivel de eficiencia se convierte en un factor fundamental para
asegurar la rentabilidad económica de una planta de generación
Al utilizar el concepto de Disponibilidad Comercial se debe tener presente la
consistencia y confiabilidad de los cálculos de costos, la necesidad de formas de recolección
automática de los datos (dado el constante y rápido cambio), el impacto que deben tener los
índices de medición sobre la rentabilidad de la compañía y la urgencia de que esos factores
permitan realizar una comparación entre la planta y otras plantas similares.
De los estudios analizados pudimos observar que la Disponibilidad Optima
Económica de la planta es un objetivo dinámico que varia en función de su ambiente técnico,
operacional, y económico.
Actualmente uno de los mayores retos para las personas encargadas en temas de
mantenimiento no es sólo aprender todas las técnicas existentes, sino identificar cuales son
las adecuadas para aplicar en su propia organización y cuales no, tanto desde el punto de
vista técnico como económico. Tomando una decisión correcta es posible mejorar el
desempeño de los activos, reducir los costos de mantenimiento e incrementar la
rentabilidad.
Varios de los estudios revisados mostraban en situaciones concretas que un aumento
en la disponibilidad no necesariamente es sinónimo de minimización de costos (o
incremento en la rentabilidad) y que tal supuesto en empresas generadoras, podría conducir
a decisiones que no están en el mejor interés del consumidor y ni de la compañia.
Página: 61
Por otro lado el incremento de la disponibilidad es siempre un objetivo deseable,
pero la manera en la cual aquel objetivo es alcanzado debe ser evaluada con mucho cuidado,
dicho de otra manera este objetivo no deberá ser alcanzado a cualquier costo.
Usar simplemente las medidas tradicionales de la disponibilidad para juzgar el
desempeño o rendimiento de una planta puede engañar y posiblemente ser contraproducente
al verdadero objetivo de minimizar costos (o maximizar la rentabilidad).
Queda de manifiesto que la relación entre parámetros de diseño, operación, y
calidad de O&M debe ser bien entendida a fin de determinar la mejor combinación que
conducirá al costo más bajo del producto. Esta interrelación afecta el costo total y la
rentabilidad de las plantas eléctricas.
En las discusiones precedentes queda claro que por otro lado tomar con ligeraza el
reducir los costos de Operación y Mantenimiento a un mínimo absoluto podría redundar en
un deterioro en la confiabilidad, un incremento de costos totales y por tanto una disminución
de la rentabilidad de la Compañía.
Un proceso de Benchmarking exitoso debe tener presentes las características
señaladas en el informe en lo que respecta a la similitud entre las plantas en criterios como
capacidad y patrón de funcionamiento, pero no se puede dejar de lado las similitudes o
diferencias que existen en el entorno que rodea a la planta. La estructura del mercado, la
regulación a la que se está sometido o la existencia de subsidios deben ser ponderados y
corregidos a la hora de elegir una empresa como benchmark
El Benchmarking de la Disponibilidad Comercial requerirá de que un nuevo
aspecto de la planta sea incluido en el análisis para determinar el “grupo de par” óptimo.
Aquel nuevo aspecto es un indicador del desempeño económico de la planta. Nos parece
que esto es algo muy nuevo que sólo a partir del 2004 se esta registrando. En efecto las
bases de datos para benchmarking disponibles no registran aquella información
Página: 62
Considerando el comentario anterior y el hecho de que la desregulación de los
mercados de generación es relativamente reciente y por lo tanto la existencia de información
limitada, la recopilación de información a ratos fue muy compleja, considerando los plazos
de esta tarea. Por otro lado, mucha de la información requerida para un estudio detallado del
tema es confidencial desde el punto de vista de las empresas y a pesar de haber sido
debidamente solicitada, hasta la fecha de entrega de este informe no se pudo acceder a ella.
Esta investigación se hace muy válida sobre todo cuando se accede a información
por ejemplo del Comité WEC Performance of Generating Plant (PGP) [16] quien durante
más de 30 años ha recopilado y publicado datos del desempeño de plantas electricas de
generación al rededor del mundo y generado informes regulares con ejemplos de técnicas y
métodos avanzados para mejorar el desempeño de centrales a través de benchmarking. En
efecto en su informe del 2004 señala :
“El análisis de los datos de rendimiento de plantas eléctricas recopilados por el Comité ha
mostrado una brecha sustancial entre el rendimiento promedio mundial y el que han
conseguido plantas top. Se ha estimado que la eliminación de aquella brecha causaría
ahorros de US$80 billones por año. Como las plantas existentes podrían operar con una
disponibilidad más alta, no sería necesario diseñar, financiar, construir y operar capacidad
adicional. Además, estas mejoras del desempeño reducirían las emisiones de GHG en un
millon de toneladas de CO2 (aproximadamente el 4 % de las emisiones globales totales) por
año, junto con la reducción proporcional de otros contaminantes. Este podría ser
implementado en una razón promedio beneficio-costo de 4:1. Los casos de estudio
recopilados por los miembros de Comité PGP de servicios y compañías alrededor del
mundo han indicado que aunque algunas mejoras de la tecnología y actualizaciones del
equipo serán requeridos, a mayoría de las mejoras seran consecuencia del enfoque a temas
de factor humano y del gerenciamiento de la central eléctrica. En efecto, si estas áreas no
son mejoradas, las nuevas tecnologias de las plantas serán incapaces de conseguir su
inherente potencial de rendimiento superior”
Página: 63
6. Referencias
[1] John Moubray, Libro: Reliability-centered Maintenance II, (RCM II) 1997.
[2] Rommert Dekker & Philip A. Scarfb; “On the impact of optimization models in
maintenance decision making: The state of the art”, Reliability Engineering and
System Safety 60 ( 1998) 111 - 119
[3] Rommert Dekker “Applications of maintenance optimization models: a review
and analysis”, Reliability Engineerring and System Safety 51 ( 1996) 229 - 240
[4] Sherif, Y.S. & Smith, M.L., “Optimal maintenance models for systems subject
to failure--a review”. Nay. Res. Log. Quart., 28 (1981) 47-74.
[5] Rafael Suárez, “Uso de la Teoría de Restricciones y Manejo de Colas al Inicio
de la Gestión de la Función Mantenimiento”
[6] Richwine R.R “Correlation of the Effect of Planned Maintenance on Unplanned
Outages: The Economic Impact on Selecting Availability Goals”; 1981, Portland
Or
[7] Robert R. Richwine “The Relationship between Scheduled Maintenance and
Forced Outages and its Economic Impact on Selecting Availability Goals”
Performance of Generating Plant Committee, Case Study of the Month July- 2003
[8] Robert R. Richwine “Maximizing Availability may not Optimize Plant
Economics” Performance of Generating Plant Committee, Case Study of the
Month – October 2004.
[9] Robert Richwine, “¿Are Reliability Measures Unreliable?“, Performance of
Generating Plant Committee, Case Study of the Month - May 2003.
Página: 64
[10] Robert Richwine, “¿Are Reliability Measures Unreliable?- Part 2 – Using
Commercial Availability” Performance of Generating Plant Committee Case
Study of the Month - June 2003.
[11] Robert R. Richwine & A. K. Jenkins, “Optimizing O&M Cost to Maximize
Profitability”, International Joint Power Generation Conference 1995
[12] R.R Richwine, A. D. Quin, J.B. Mills, S.D. Lowe “Results of the availability
Improvement Program in the southern Electric System”, Power Generation
Conference 1989
[13] R.R. Richwine R.J Niefo, “Peer Unit Benchmarking Assessing Factors
Affecting Availability” International Joint Power Generation Conference 1992,
Atlanta
[14] The Institute of Electric and Electronical Engineers (IEEE). IEEE “Standard
Definitions for Use in Reporting Electric Generating Unit Reliability,
Availability and Productivity”. New York, USA. 1985
[15] Robert R. Richwine, “Optimum Economic Availability”. Performance of
Generating Plant Committee Case Study of the Month - July 2002
[16] World Energy Council (WEC). http://www.worldenergy.org
[17] G.S Stallard, V. Micali, A.L. de Sebastian, G. Shackleton, L. Salvaderi, R.
Richwine, D. Glorian, J Heithoff. “International Availability Data Exchange
For Thermal Generating Plant”. Working Performance Of Generating Plant,
Section 3: Group 3 of the World Energy Council, 2001.
Página: 65
[18] Robert R. Richwine, “Estimating a Generating Plant's future Maintenance Cost
Performance of Generating Plant” Committee Case Study of the Month - October
2003