Técnicas avanzadas de predicción y optimización aplicadas a ...

293
etsii Escuela Técnica Superior de Ingeniería Informática Universidad de Sevilla Departamento de Lenguajes y Sistemas TÉCNICAS AVANZADAS DE PREDICCIÓN Y OPTIMIZACIÓN APLICADAS A SISTEMAS DE POTENCIA TESIS DOCTORAL por Alicia Troncoso Lora Memoria presentada para optar al grado de Doctora por la Universidad de Sevilla Directores: D. José Cristóbal Riquelme Santos D. José Luis Martínez Ramos Sevilla, Junio de 2005.

Transcript of Técnicas avanzadas de predicción y optimización aplicadas a ...

Page 1: Técnicas avanzadas de predicción y optimización aplicadas a ...

etsii Escuela Técnica Superior de Ingeniería Informática

Universidad de SevillaDepartamento de Lenguajes y Sistemas

TÉCNICAS AVANZADAS DE PREDICCIÓNY OPTIMIZACIÓN APLICADAS A

SISTEMAS DE POTENCIA

TESIS DOCTORAL

por

Alicia Troncoso Lora

Memoria presentada para optar al grado deDoctora por la Universidad de Sevilla

Directores: D. José Cristóbal Riquelme SantosD. José Luis Martínez Ramos

Sevilla, Junio de 2005.

Page 2: Técnicas avanzadas de predicción y optimización aplicadas a ...
Page 3: Técnicas avanzadas de predicción y optimización aplicadas a ...

José Cristóbal Riquelme Santos, Profesor Titular de Universidad, adscritoal área de Lenguajes y Sistemas Informáticos y José Luis Martínez Ramos,Profesor Titular de Universidad, adscrito al área de Ingeniería Eléctrica,

CERTIFICAN QUE

Alicia Troncoso Lora ha realizado bajo nuestra supervisión el trabajo de in-vestigación titulado:

Técnicas Avanzadas de Predicción y Optimización aplicadas aSistemas de Potencia

Una vez revisado, autorizan la presentación del mismo como Tesis Doctoral enla Universidad de Sevilla y estiman oportuna su presentación al tribunal quehabrá de valorarlo.

Fdo. José C. Riquelme SantosProfesor Titular de UniversidadÁrea de Lenguajes y Sistemas Informáticos

Fdo. José Luis Martínez RamosProfesor Titular de UniversidadÁrea de Ingeniería Eléctrica

Sevilla, Junio de 2005

Page 4: Técnicas avanzadas de predicción y optimización aplicadas a ...
Page 5: Técnicas avanzadas de predicción y optimización aplicadas a ...

etsii Escuela Técnica Superior de Ingeniería Informática

Universidad de SevillaDepartamento de Lenguajes y Sistemas

TÉCNICAS AVANZADAS DE PREDICCIÓNY OPTIMIZACIÓN APLICADAS A

SISTEMAS DE POTENCIA

TESIS DOCTORAL

Autora: Dña. Alicia Troncoso LoraDirectores: D. José Cristóbal Riquelme Santos

D. José Luis Martínez Ramos

TRIBUNAL CALIFICADOR

Presidente: D. José Miguel Toro BonillaSecretario: D. Rafael Morales BuenoVocales: D. Antonio Gómez Expósito

Dña. María Amparo Vila MirandaD. Antonio Jesús Conejo Navarro

Obtuvo la calificación de Sobresaliente “Cum Laude” por unanimidad

Sevilla, 3 de Junio de 2005

Page 6: Técnicas avanzadas de predicción y optimización aplicadas a ...
Page 7: Técnicas avanzadas de predicción y optimización aplicadas a ...

Esta Tesis Doctoral ha obtenido el premio de investigación “Fun-dación Sevillana de Electricidad” para Licenciados, Ingenieros yArquitectos de las Universidades de Andalucía. Programa conjuntoque realiza la Consejería de Educación y Ciencia de la Junta deAndalucía y la Fundación Sevillana Endesa.

Tesis Doctoral financiada por el Ministerio de Ciencia y Tecno-logía (PB97-0719) y la Junta de Andalucía (ACC-1021-TIC-2002).

Page 8: Técnicas avanzadas de predicción y optimización aplicadas a ...
Page 9: Técnicas avanzadas de predicción y optimización aplicadas a ...

A mi futuro sobrino

Page 10: Técnicas avanzadas de predicción y optimización aplicadas a ...
Page 11: Técnicas avanzadas de predicción y optimización aplicadas a ...

“El libro de la naturaleza está escrito en unlenguaje matemático”.

Galileo Galilei.

Page 12: Técnicas avanzadas de predicción y optimización aplicadas a ...
Page 13: Técnicas avanzadas de predicción y optimización aplicadas a ...

AgradecimientosQuisiera que las primeras líneas de esta tesis fueran el agradecimiento a

todas las personas que me han ayudado a la realización de la misma.En primer lugar quiero agradecer la buena dirección realizada por D. José

C. Riquelme Santos y D. José Luis Martínez Ramos. A Pepe le quiero reconocerque bajo su dirección no hayan faltado buenos consejos en todos los aspectosy un punto de vista práctico. La confianza que siempre ha depositado en mídesde un primer momento y la paciencia que en estos años me ha mostradohan sido ejemplares. A José Luis le agradezco todo lo que he aprendido de él,tanto a nivel técnico como personal. Su meticulosidad y su claridad de ideas enla dirección de este trabajo de investigación siempre han sido de gran ayuda.

A D. Antonio Gómez Expósito porque su admirable capacidad de trabajoy su gusto por las cosas bien hechas es una fuente inagotable de estímulo paracualquier investigador que esté a su lado.

También quisiera recordar a D. Carlos Izquierdo Mitchell por la paz quesiempre transmitía en el día a día de un departamento.

A D. Miguel Toro Bonilla por la constante innovación docente que transmitea todo el departamento de Lenguajes y Sistemas Informáticos.

A todos mis compañeros del Departamento de Ingeniería Eléctrica de laUniversidad de Sevilla porque sin ese ambiente de trabajo en equipo y esa ale-gría que transmiten, hacer una tesis sería algo muy diferente a lo que ha sido.A Esther porque en estos años no ha sido sólo una compañera de trabajo; aJosé María mi mejor vecino por su ambición y voluntad de trabajo; a ManuelBurgos por su incondicional apoyo desde un principio. En especial a Jesús notengo palabras para agradecerle todo el tiempo que me ha dedicado desinte-resadamente, tengo que destacar su brillantez como investigador y su calidadhumana puesto que siempre está luchando por lo que considera justo. A Re-medios por el ahorro de trabajo que supone tener a la eficiencia personalizadacomo secretaria de un departamento.

A mis compañeros del grupo de investigación por toda la ayuda desinte-resada que me han ofrecido: a Jesús por su inagotable fuerza en todo lo querespecta a investigación; a Paco por las horas de tutoría que me ha regalado enmi primer año de docencia; a Raúl por facilitarme ayuda en muchos aspectostanto técnicos como de organización; a Dani por su buen entendimiento en losgrupos de práctica que hemos compartido; a Roberto porque siempre me haanimado; a Domingo e Isa por su constante interés.

A mis compañeras y compañeros del Departamento de Lenguajes y Siste-mas de la Universidad de Sevilla por su constante ánimo y su predisposiciónsiempre a ayudarme en todo lo que he necesitado. En especial a Rafa, Mayte,

Page 14: Técnicas avanzadas de predicción y optimización aplicadas a ...

Toñi y Octavio porque sin ellos la adaptación hubiera sido mucho más dura.A mi familia por creer en mí en todo momento de mi carrera profesional.

Mi ilusión por la realización de esta tesis también ha sido su ilusión.A mis amigas y amigos por los buenos momentos que me han aportado,

momentos necesarios para desconectar del trabajo que supone la realizaciónde una tesis.

Page 15: Técnicas avanzadas de predicción y optimización aplicadas a ...

Índice general

1. Introducción 31.1. Motivación de la Investigación . . . . . . . . . . . . . . . . . . . 71.2. Objetivos de la Tesis . . . . . . . . . . . . . . . . . . . . . . . . 81.3. Principales Contribuciones . . . . . . . . . . . . . . . . . . . . . 101.4. Estructura de la Memoria . . . . . . . . . . . . . . . . . . . . . 14

2. Estado del Arte 172.1. Minería de Datos . . . . . . . . . . . . . . . . . . . . . . . . . . 172.2. Preprocesado de Series Temporales . . . . . . . . . . . . . . . . 182.3. Métodos de Predicción . . . . . . . . . . . . . . . . . . . . . . . 21

2.3.1. Predicción basada en reglas . . . . . . . . . . . . . . . . 212.3.2. Métodos Lineales . . . . . . . . . . . . . . . . . . . . . . 22

2.3.2.1. Metodología de Box and Jenkins . . . . . . . . 222.3.2.1.1. Modelos ARMA . . . . . . . . . . . . 232.3.2.1.2. Modelos ARIMA . . . . . . . . . . . . 24

2.3.2.2. Árboles de Regresión . . . . . . . . . . . . . . . 262.3.3. Métodos no Lineales . . . . . . . . . . . . . . . . . . . . 28

2.3.3.1. Métodos Globales . . . . . . . . . . . . . . . . . 282.3.3.1.1. Redes Neuronales Artificiales . . . . . 282.3.3.1.2. Programación Genética . . . . . . . . 30

2.3.3.2. Métodos Locales: Vecinos . . . . . . . . . . . . 332.4. Técnicas de Optimización . . . . . . . . . . . . . . . . . . . . . 36

2.4.1. Programación Dinámica . . . . . . . . . . . . . . . . . . 402.4.2. Programación Lineal Entera-Mixta: Ramificación y Cota 412.4.3. Relajación Lagrangiana . . . . . . . . . . . . . . . . . . . 422.4.4. Métodos de Punto Interior . . . . . . . . . . . . . . . . . 432.4.5. Algoritmos Genéticos . . . . . . . . . . . . . . . . . . . . 48

i

Page 16: Técnicas avanzadas de predicción y optimización aplicadas a ...

Índice General

I Predicción de Series Temporales 53

3. Método basado en los Vecinos más Cercanos 553.1. Representación de los Datos . . . . . . . . . . . . . . . . . . . . 553.2. Método basado en los Vecinos más Cercanos . . . . . . . . . . . 603.3. La función distancia . . . . . . . . . . . . . . . . . . . . . . . . 623.4. Número de Vecinos . . . . . . . . . . . . . . . . . . . . . . . . . 633.5. Acotación del Error . . . . . . . . . . . . . . . . . . . . . . . . . 64

4. Aplicación a los Precios de laEnergía en el Mercado Eléctrico 674.1. Precios. Optimización de Venta/Compra de Energía . . . . . . . 674.2. Descripción del problema . . . . . . . . . . . . . . . . . . . . . . 724.3. Obtención del modelo . . . . . . . . . . . . . . . . . . . . . . . . 72

4.3.1. Con predicción directa . . . . . . . . . . . . . . . . . . . 724.3.2. Con predicción iterada . . . . . . . . . . . . . . . . . . . 79

4.4. Predicción. Resultados . . . . . . . . . . . . . . . . . . . . . . . 864.4.1. Con predicción directa . . . . . . . . . . . . . . . . . . . 864.4.2. Con predicción iterada . . . . . . . . . . . . . . . . . . . 92

4.5. Análisis heurístico del error . . . . . . . . . . . . . . . . . . . . 974.6. Comparación con Redes Neuronales . . . . . . . . . . . . . . . . 98

4.6.1. Estructura de la red neuronal . . . . . . . . . . . . . . . 984.6.2. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . 100

4.7. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

5. Aplicación a la Demanda de Energía Eléctrica. 1055.1. Demanda. Programación Horaria de Centrales . . . . . . . . . . 1055.2. Descripción del problema . . . . . . . . . . . . . . . . . . . . . . 1085.3. Obtención del modelo . . . . . . . . . . . . . . . . . . . . . . . . 1095.4. Predicción. Resultados . . . . . . . . . . . . . . . . . . . . . . . 1135.5. Estudio Cualitativo y Comparativo de la Demanda y los Precios

de la Energía en el Mercado Eléctrico Español. . . . . . . . . . . 1195.6. Comparación con Árboles de Regresión: Algoritmo M5’ . . . . . 126

5.6.1. Transformación de atributos no numéricos . . . . . . . . 1275.6.2. Valores perdidos . . . . . . . . . . . . . . . . . . . . . . 1285.6.3. Cortes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1295.6.4. Suavizado . . . . . . . . . . . . . . . . . . . . . . . . . . 1295.6.5. Poda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1305.6.6. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . 130

5.7. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

ii

Page 17: Técnicas avanzadas de predicción y optimización aplicadas a ...

Índice General

II Programación con Múltiples Mínimos Locales 133

6. Programación no Lineal no Convexa 1356.1. Variables reales . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

6.1.1. Formulación del problema . . . . . . . . . . . . . . . . . 1356.1.2. Método propuesto . . . . . . . . . . . . . . . . . . . . . . 136

6.1.2.1. Solución de los subproblemas . . . . . . . . . . 1376.1.2.2. Condiciones de optimalidad . . . . . . . . . . . 1386.1.2.3. Dirección de búsqueda . . . . . . . . . . . . . . 1396.1.2.4. Actualización de variables . . . . . . . . . . . . 1416.1.2.5. Inicialización y reducción del parámetro barrera 1426.1.2.6. Test de convergencia . . . . . . . . . . . . . . . 1436.1.2.7. Valor inicial y actualización de la cota de la

función objetivo . . . . . . . . . . . . . . . . . 1446.1.3. Un ejemplo de una variable . . . . . . . . . . . . . . . . 145

6.2. Variables reales y enteras . . . . . . . . . . . . . . . . . . . . . . 1466.2.1. Formulación del problema . . . . . . . . . . . . . . . . . 1466.2.2. Método propuesto . . . . . . . . . . . . . . . . . . . . . . 147

6.2.2.1. Solución de los subproblemas continuos . . . . . 1496.2.2.2. Solución de los subproblemas discretos . . . . . 1496.2.2.3. Valores iniciales y actualización de las cotas de

la función objetivo . . . . . . . . . . . . . . . . 1506.2.3. Un ejemplo de dos variables . . . . . . . . . . . . . . . . 151

7. Aplicación: Programación Horaria de Centrales 1557.1. Formulación del problema . . . . . . . . . . . . . . . . . . . . . 155

7.1.1. Función objetivo. . . . . . . . . . . . . . . . . . . . . . . 1567.1.1.1. Costes de producción . . . . . . . . . . . . . . . 1567.1.1.2. Costes de arranque . . . . . . . . . . . . . . . . 1567.1.1.3. Costes de parada . . . . . . . . . . . . . . . . . 157

7.1.2. Restricciones . . . . . . . . . . . . . . . . . . . . . . . . 1597.1.2.1. Restricciones técnicas de las centrales térmicas 1597.1.2.2. Restricciones técnicas de las centrales hidráulicas1607.1.2.3. Restricciones de demanda . . . . . . . . . . . . 1627.1.2.4. Restricciones de reserva rodante . . . . . . . . . 163

7.2. Solución mediante el método propuesto . . . . . . . . . . . . . . 1657.2.1. Subproblema continuo . . . . . . . . . . . . . . . . . . . 1657.2.2. Subproblema discreto . . . . . . . . . . . . . . . . . . . . 168

7.3. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1717.3.1. Comparación con algoritmos genéticos . . . . . . . . . . 173

iii

Page 18: Técnicas avanzadas de predicción y optimización aplicadas a ...

Índice General

7.4. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179

8. Conclusiones y Futuras Líneas de Investigación 1818.1. Predicción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1828.2. Optimización . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1838.3. Futuras líneas de investigación . . . . . . . . . . . . . . . . . . . 184

8.3.1. Predicción . . . . . . . . . . . . . . . . . . . . . . . . . . 1848.3.2. Optimización . . . . . . . . . . . . . . . . . . . . . . . . 185

A. Árboles de Regresión 187A.1. Sin selección de atributos . . . . . . . . . . . . . . . . . . . . . . 187A.2. Con selección de atributos . . . . . . . . . . . . . . . . . . . . . 215

B. Datos 223B.1. Caso test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223B.2. Caso realista . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225

C. Soluciones obtenidas 231C.1. Caso test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231C.2. Caso realista . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231

D. Subproblemas 245D.1. Subproblema continuo . . . . . . . . . . . . . . . . . . . . . . . 245D.2. Subproblema discreto . . . . . . . . . . . . . . . . . . . . . . . . 255

iv

Page 19: Técnicas avanzadas de predicción y optimización aplicadas a ...

Índice de figuras

2.1. Fase de Minería de Datos . . . . . . . . . . . . . . . . . . . . . . 182.2. Representación de un individuo. . . . . . . . . . . . . . . . . . . 312.3. Algoritmo de Punto Interior . . . . . . . . . . . . . . . . . . . . 48

3.1. Vecinos Falsos. . . . . . . . . . . . . . . . . . . . . . . . . . . . 583.2. Vecinos falsos versus longitud de la ventana. . . . . . . . . . . . 603.3. Aproximación local. . . . . . . . . . . . . . . . . . . . . . . . . . 61

4.1. Media horaria de los precios. . . . . . . . . . . . . . . . . . . . . 694.2. Distribución de los precios. . . . . . . . . . . . . . . . . . . . . . 694.3. Histograma de los precios del año 2000 y 2001. . . . . . . . . . . 704.4. Precios de dos días de marzo. . . . . . . . . . . . . . . . . . . . 714.5. Coeficiente de correlación. . . . . . . . . . . . . . . . . . . . . . 714.6. Vecinos falsos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 734.7. Pseudocódigo del algoritmo FNN para la serie temporal Precios. 744.8. Número de vecinos cercanos falsos. . . . . . . . . . . . . . . . . 764.9. Pseudocódigo del algoritmo para obtener el número de vecinos. . 774.10. Número óptimo de vecinos usando la distancia Euclídea. . . . . 784.11. Número óptimo de vecinos usando la distancia Manhattan. . . . 784.12. Pseudocódigo del algoritmo FNN para la serie temporal Precios. 814.13. Número de vecinos cercanos falsos. . . . . . . . . . . . . . . . . 834.14. Pseudocódigo del algoritmo para obtener el número de vecinos. . 844.15. Número óptimo de vecinos usando la distancia Euclídea. . . . . 854.16. Número óptimo de vecinos usando la distancia Manhattan. . . . 854.17. Pseudocódigo del algoritmo para obtener predicciones. . . . . . 874.18. Media horaria de la predicción usando la distancia Euclídea. . . 894.19. Media horaria de la predicción usando la distancia Manhattan. . 894.20. Media diaria de la predicción usando la distancia Euclídea. . . . 904.21. Media diaria de la predicción usando la distancia Manhattan. . 904.22. Media diaria del error relativo usando la distancia Euclídea. . . 914.23. Media diaria del error relativo usando la distancia Manhattan. . 91

i

Page 20: Técnicas avanzadas de predicción y optimización aplicadas a ...

Índice de Figuras

4.24. Pseudocódigo del algoritmo para obtener predicciones. . . . . . 934.25. Media horaria de la predicción usando la distancia Euclídea. . . 944.26. Media horaria de la predicción usando la distancia Manhattan. . 944.27. Media diaria de la predicción usando la distancia Euclídea. . . . 954.28. Media diaria de la predicción usando la distancia Manhattan. . 954.29. Media diaria del error relativo usando la distancia Euclídea. . . 964.30. Media diaria del error relativo usando la distancia Manhattan. . 964.31. Error medio de la predicción. . . . . . . . . . . . . . . . . . . . 994.32. Error absoluto de la mejor y peor predicción. . . . . . . . . . . . 1004.33. Media horaria de la predicción de los precios para el mes de marzo.101

5.1. Media horaria de la demanda. . . . . . . . . . . . . . . . . . . . 1075.2. Histograma de la demanda del año 2000 y 2001. . . . . . . . . . 1075.3. Coeficiente de Correlación. . . . . . . . . . . . . . . . . . . . . . 1085.4. Número de vecinos cercanos falsos. . . . . . . . . . . . . . . . . 1115.5. Número óptimo de vecinos usando la distancia Manhattan. . . . 1125.6. Número óptimo de vecinos usando la distancia Euclídea. . . . . 1125.7. Media horaria de la predicción usando la distancia Euclídea. . . 1145.8. Media horaria de la predicción usando la distancia Manhattan. . 1145.9. Media diaria de la predicción. . . . . . . . . . . . . . . . . . . . 1155.10. Media horaria del error absoluto. . . . . . . . . . . . . . . . . . 1165.11. Mejor predicción semanal. . . . . . . . . . . . . . . . . . . . . . 1165.12. Peor predicción semanal. . . . . . . . . . . . . . . . . . . . . . . 1175.13. Mejor predicción diaria. . . . . . . . . . . . . . . . . . . . . . . 1185.14. Peor predicción diaria. . . . . . . . . . . . . . . . . . . . . . . . 1185.15. Relaciones entre los precios de horas consecutivas. . . . . . . . . 1205.16. Relaciones entre la demanda de horas consecutivas. . . . . . . . 1205.17. Relación entre los precios de la hora 7 y la hora 8. . . . . . . . . 1215.18. Relación entre la demanda de la hora 7 y la hora 8. . . . . . . . 1215.19. Relación entre los precios de días consecutivos. . . . . . . . . . . 1225.20. Relación entre la demanda de días consecutivos. . . . . . . . . . 1225.21. Relación entre los precios de la hora 1 en días consecutivos. . . . 1235.22. Relación entre la demanda de la hora 1 en días consecutivos. . . 1235.23. Atractor de los precios. . . . . . . . . . . . . . . . . . . . . . . . 1245.24. Atractor de la demanda. . . . . . . . . . . . . . . . . . . . . . . 125

6.1. Múltiples mínimos de una función no convexa. . . . . . . . . . . 1456.2. Superficie definida por una función no lineal no convexa. . . . . 1516.3. Superficie definida por una función no lineal no convexa. . . . . 1526.4. Sucesión de mínimos locales para el ejemplo mixto-entero. . . . 153

ii

Page 21: Técnicas avanzadas de predicción y optimización aplicadas a ...

Índice de Figuras

7.1. Coste de producción. . . . . . . . . . . . . . . . . . . . . . . . . 1567.2. Coste de arranque. . . . . . . . . . . . . . . . . . . . . . . . . . 1577.3. Curva de demanda de potencia. . . . . . . . . . . . . . . . . . . 1637.4. a) Matriz de optimización, b) Elementos de llenado . . . . . . . 1677.5. a) Matriz de optimización reordenada, b) Elementos de llenado . 1677.6. a) Matriz de optimización, b) Elementos de llenado . . . . . . . 1707.7. a) Matriz de optimización reordenada, b) Elementos de llenado . 1707.8. Operador de cruce por filas . . . . . . . . . . . . . . . . . . . . 1757.9. Operador de cruce por columnas . . . . . . . . . . . . . . . . . 1757.10. Evolución del mejor individuo para caso test. . . . . . . . . . . . 1767.11. Evolución del mejor individuo para caso realista. . . . . . . . . . 1767.12. Tiempo de ejecución según actividades . . . . . . . . . . . . . . 177

A.1. Árbol de regresión con 151 reglas. . . . . . . . . . . . . . . . . . 195A.2. Modelos lineales en cada hoja del árbol de regresión formado

por 151 reglas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215A.3. Árbol de regresión con 53 reglas. . . . . . . . . . . . . . . . . . 218A.4. Modelos lineales en cada hoja del árbol de regresión formado

por 53 reglas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221

iii

Page 22: Técnicas avanzadas de predicción y optimización aplicadas a ...
Page 23: Técnicas avanzadas de predicción y optimización aplicadas a ...

Índice de Tablas

2.1. Dimensión del problema. . . . . . . . . . . . . . . . . . . . . . . 40

4.1. Porcentaje de vecinos falsos según distancias. . . . . . . . . . . . 754.2. Porcentaje de vecinos falsos según distancias. . . . . . . . . . . . 824.3. Media y desviación estándar del conjunto test. . . . . . . . . . . 884.4. Errores según distancias. . . . . . . . . . . . . . . . . . . . . . . 924.5. Errores según distancias. . . . . . . . . . . . . . . . . . . . . . . 974.6. Influencia de la distancia en la optimización de los distintos tipos

de errores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 984.7. Resumen de los errores de la predicción. . . . . . . . . . . . . . 1014.8. Errores obtenidos con ambos métodos. . . . . . . . . . . . . . . 102

5.1. Porcentaje de vecinos falsos según distancias. . . . . . . . . . . . 1105.2. Media y desviación estándar del conjunto test. . . . . . . . . . . 1135.3. Errores diarios de la mejor y la peor predicción semanal. . . . . 1175.4. Errores según distancias. . . . . . . . . . . . . . . . . . . . . . . 1195.5. Exponentes de Lyapunov. . . . . . . . . . . . . . . . . . . . . . 1265.6. Transformación de atributos no numéricos en variables binarias. 1285.7. Comparación de los errores de la predicción de la demanda usan-

do ambos métodos. . . . . . . . . . . . . . . . . . . . . . . . . . 131

7.1. Verificación de una restricción lógica. . . . . . . . . . . . . . . . 1597.2. Secuencia de mínimos locales. . . . . . . . . . . . . . . . . . . . 1727.3. Secuencia de mínimos locales. . . . . . . . . . . . . . . . . . . . 1727.4. Secuencia de mínimos locales. . . . . . . . . . . . . . . . . . . . 1737.5. Comparación de resultados para el caso test. . . . . . . . . . . . 1787.6. Comparación de resultados para el caso realista. . . . . . . . . . 178

B.1. Características técnicas de las centrales térmicas del caso test. . 224B.2. Costes de las centrales térmicas del caso test. . . . . . . . . . . . 224B.3. Demanda para el caso test. . . . . . . . . . . . . . . . . . . . . . 224

i

Page 24: Técnicas avanzadas de predicción y optimización aplicadas a ...

Índice de Tablas

B.4. Características técnicas de las centrales térmicas del caso rea-lista (Centrales 1 a 25). . . . . . . . . . . . . . . . . . . . . . . . 225

B.5. Características técnicas de las centrales térmicas del caso rea-lista (Centrales 26 a 49). . . . . . . . . . . . . . . . . . . . . . . 226

B.6. Costes de las centrales térmicas del caso realista (Centrales 1 a25). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227

B.7. Costes de las centrales térmicas del caso realista (Centrales 26a 49). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228

B.8. Demanda para el caso realista. . . . . . . . . . . . . . . . . . . . 229

C.1. Matriz de acoplamiento de la mejor solución para el caso testpor: a) el método propuesto, b) el Algoritmo Genético. . . . . . 232

C.2. Potencias (MW) de la mejor solución para el caso test por: a)el método propuesto, b) el Algoritmo Genético. . . . . . . . . . 233

C.3. Matriz de acoplamiento de la mejor solución para el caso realistapor el método propuesto (Horas 1 a 18). . . . . . . . . . . . . . 234

C.4. Matriz de acoplamiento de la mejor solución para el caso realistapor el método propuesto (Horas 19 a 24). . . . . . . . . . . . . . 235

C.5. Potencias (MW) de la mejor solución para el caso realista porel método propuesto (horas 1 a 8). . . . . . . . . . . . . . . . . 236

C.6. Potencias (MW) de la mejor solución para el caso realista porel método propuesto (horas 9 a 16). . . . . . . . . . . . . . . . . 237

C.7. Potencias (MW) de la mejor solución para el caso realista porel método propuesto (horas 17 a 24). . . . . . . . . . . . . . . . 238

C.8. Matriz de acoplamiento de la mejor solución para el caso realistapor el Algoritmo Genético (Horas 1 a 18). . . . . . . . . . . . . 239

C.9. Matriz de acoplamiento de la mejor solución para el caso realistapor el Algoritmo Genético (Horas 19 a 24). . . . . . . . . . . . . 240

C.10.Potencias (MW) de la mejor solución para el caso realista porel Algoritmo Genético (horas 1 a 8). . . . . . . . . . . . . . . . . 241

C.11.Potencias (MW) de la mejor solución para el caso realista porel Algoritmo Genético (horas 9 a 16). . . . . . . . . . . . . . . . 242

C.12.Potencias (MW) de la mejor solución para el caso realista porel Algoritmo Genético (horas 17 a 24). . . . . . . . . . . . . . . 243

ii

Page 25: Técnicas avanzadas de predicción y optimización aplicadas a ...

Resumen

Esta tesis está enmarcada básicamente dentro de dos campos de investiga-ción, la minería de datos y la optimización. Principalmente tiene un carácteraplicado, ya que se han investigado tanto técnicas de predicción como de op-timización con el objetivo de ser aplicadas a problemas que aparecen en elcampo de Ingeniería Eléctrica. No obstante, los algoritmos desarrollados sepodrán aplicar a problemas similares en futuras líneas de investigación.

Un primer objetivo de la tesis ha sido el análisis, desarrollo y mejora detécnicas que ayuden a descubrir las principales características de una serietemporal con el objetivo principal de predecir su comportamiento en un fu-turo cercano. La investigación ha estado centrada principalmente en seriestemporales financieras que se modelen a través de reglas de mercado, debido ala dificultad que tienen este tipo de series en lo que respecta a reconocimientode patrones, clasificación y predicción.

Estas técnicas se han aplicado a la predicción de los precios de la energíaeléctrica en el Mercado Eléctrico Español en el que, debido a su reciente libe-ralización son poco usuales en la literatura, siendo un campo de investigaciónactualmente en estudio. De igual forma, se han aplicado a la demanda de ener-gía eléctrica y los resultados obtenidos han sido comparados con los existentesde la aplicación de otras técnicas.

Hoy día, los métodos más usados para la predicción de los precios y la de-manda de la energía en el mercado eléctrico son, a grandes rasgos, los distintostipos de Redes Neuronales Artificiales (RNA) y los métodos estadísticos tra-dicionales, siendo en este contexto la primera vez que se aplica un clasificadorbasado en los vecinos más cercanos.

El segundo objetivo es consecuencia directa del primero, puesto que el ob-jeto último de realizar una predicción siempre es la planificación o explotaciónóptima de algún sistema teniendo en cuenta la predicción realizada anterior-mente. Así, la segunda parte de la tesis se enmarca dentro del amplio campode la optimización y consiste en el desarrollo de un algoritmo de optimizaciónque explote técnicas globales de búsqueda de mínimos, ya que actualmente enla literatura los algoritmos clásicos de optimización usan técnicas locales debúsqueda. En los últimos años, las técnicas de Punto Interior han sido usadasen un número amplio de problemas de optimización local de distintas áreas deconocimiento, debido a los buenos resultados obtenidos.

Así se ha desarrollado una herramienta capaz de recorrer una trayectoria demínimos locales cada vez “mejores” sin quedar atrapado en el primer mínimoque encuentre. La herramienta desarrollada tiene un bajo coste computacionaly presenta un tiempo de ejecución inferior a cualquier técnica computacionalevolutiva, que son una de las únicas alternativas a este tipo de problemas.

Esta nueva herramienta es totalmente novedosa y para validarla se ha apli-cado a un problema real de planificación denominado Programación Horariade Centrales Térmicas (PHCT), que consiste en determinar el plan de aco-plamiento y la generación de energía eléctrica de las centrales para satisfacerla demanda a coste mínimo. Para resolver este problema de planificación esnecesario tener una predicción de la demanda (primera parte de la tesis).

Page 26: Técnicas avanzadas de predicción y optimización aplicadas a ...
Page 27: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 1

Introducción

La predicción de eventos futuros siempre ha fascinado al género humanoy se puede decir que las técnicas de predicción existen desde que éste existe.Sin embargo, con el paso del tiempo estas técnicas se han ido sofisticando y sehan aplicado en distintas áreas, con fines científicos y económicos, como en lapredicción del tiempo, en la predicción del cambio entre monedas...

Hoy día, se puede decir que estamos en la era de la tecnología y la infor-mación, ya que en la mayoría de las actividades se generan grandes bancos dedatos que son almacenados en bases de datos. Gracias a la tecnología estosdatos se pueden manejar y usar para sacar algún rendimiento de ellos, ya quedebido al gran volumen de información es imposible de analizar e interpre-tar manualmente. Esto hace que desde finales de los años 90 los conceptos deDescubrimiento del Conocimiento en Bases de Datos (Knowledge Discovery inDatabases, KDD) o Minería de Datos (Data Mining, MD) [32] hayan incre-mentado su importancia dando lugar a campos de investigación actualmenteemergentes. La minería de datos es el proceso de inferir conocimiento, a prio-ri desconocido, que sea útil y comprensible, a partir de grandes cantidadesde datos, con el objetivo de predecir de una manera automática tendencias ycomportamientos y describir modelos que simulen el sistema.

Anteriormente al desarrollo de la minería de datos, la predicción de laevolución en el tiempo de alguna variable, es decir la predicción de una serietemporal, se llevaba a cabo mediante la elaboración de modelos a través demétodos estadísticos, los cuales estiman los valores actuales de la variable enfunción de los valores de dicha variable en el pasado. Sin embargo, aunque laventaja de estos métodos es su inherente simplicidad no muestran resultadossatisfactorios cuando se trata de predecir series temporales del mundo real,puesto que las dependencias que existen entre las variables son no lineales.

En las últimas décadas, el diseño de algoritmos de aprendizaje automático

3

Page 28: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 1 Introducción

(Machine Learning, ML) ha constituído una de las ramas de mayor interéspara los investigadores de MD. De esta manera, se diseñan las RNA comométodo capaz de aprender las relaciones no lineales entre las variables de en-trada (principalmente valores pasados de la serie y valores de otras variablesque influyen en la serie) y las variables de salida (valores futuros de la serie).Éstas han sido aplicadas a la predicción de series temporales dando lugar aresultados más eficientes que los métodos clásicos, sin embargo presentan unadesventaja que es el tiempo de aprendizaje que requieren.

En la primera parte de esta tesis se presenta una técnica, basada en latécnica de los vecinos más cercanos, para la predicción de series temporales,que presenta las ventajas de una red neuronal en lo que respecta al aprendizajede las relaciones no lineales existentes entre las variables y que mejora el tiempode aprendizaje puesto que éste es mínimo. Estas técnicas se han aplicado a lapredicción de dos series temporales del mundo real: los precios de la energíaen el nuevo mercado eléctrico y la demanda de energía eléctrica.

El objetivo principal y último de cualquier predicción de un evento futurosiempre es la optimización, puesto que la optimización es un proceso que senutre de las predicciones realizadas para obtener algún beneficio, como porejemplo reducir costes en el caso de los clientes de un servicio o incrementarbeneficios en el caso de una empresa. De esta forma, el obtener una predicciónsimplemente proporciona ayuda para elaborar las estrategias necesarias y lasdecisiones adecuadas siempre con vistas a optimizar algún objetivo.

En el caso de los precios de la energía en el mercado eléctrico, una vezobtenida la predicción, las compañías eléctricas deben determinar la progra-mación de generación de energía horaria para maximizar el beneficio obtenidopor la venta de energía. El problema de obtener la planificación óptima dela producción de energía para una compañía de generación se puede modelarcomo un problema de optimización que se detalla a continuación [21].

Función objetivo:La función objetivo viene dada por:

BT =24∑t=1

λt · Pt − CT (1.1)

CT = C(Pt) · Ut + CA(St) · Yt + CP · Zt (1.2)

donde:

BT es el beneficio total de la compañía de generación.

λt es la predicción del precio de la energía en el mercado en la hora t.

4

Page 29: Técnicas avanzadas de predicción y optimización aplicadas a ...

Introducción

Pt es la potencia media generada en la hora t.

CT es el coste total formado por los costes de producción, C(Pt), loscostes de arranque, CA(St), que dependen del número de horas que elgenerador lleve apagado, St, y los costes de parada, CP .

Ut es una variable binaria que es igual a 1 si el generador está funcio-nando en la hora t, y Yt y Zt son variables binarias que son igual a 1 siel generador se enciende o se apaga al principio de la hora t, respectiva-mente.

Restricciones:Las restricciones del problema de optimización son las siguientes:

La limitación máxima y mínima de la generación:

Pm · Ut ≤ Pt ≤ PM · Ut (1.3)

donde PM y Pm son las potencias máximas y mínimas del generador,respectivamente.

Las rampas de subida y bajada:

P t = mın {PM · (Ut − Zt+1) + SD · Zt+1,

Pt−1 +RS · Ut−1 + SU · Yt} (1.4)P t = max {Pm, Pt−1 − RB · Ut} (1.5)

donde P t y P t son la potencia mínima y máxima disponible generada enla hora t, RS y RB son las rampas máximas de subida y bajada, y SUy SD son las rampas máximas de arranque y parada, respectivamente.

Tiempos mínimos de funcionamiento y parada:

(Xt − UT ) · (Ut−1 − Ut) ≥ 0 (1.6)(Xt +DT ) · (Ut − Ut−1) ≤ 0 (1.7)

donde Xt es el número de horas que el generador ha estado encendidoo apagado al final de la hora t y UT y DT son los tiempos mínimos defuncionamiento y parada del generador, respectivamente.

5

Page 30: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 1 Introducción

Restricciones lógicas:

Yt − Zt = Ut − Ut−1 (1.8)Yt + Zt ≤ 1 (1.9)

En un mercado liberalizado las herramientas de predicción son muy importan-tes, ya que en base a una predicción de precios, las compañías de generaciónelaboran sus estrategias de ofertas para maximizar los beneficios obtenidos porla venta de energía en el mercado.

En el caso de la demanda de energía eléctrica, una vez obtenida la predic-ción, las empresas eléctricas deben planificar la producción de energía de lascentrales eléctricas de manera que se satisfaga la demanda predicha a costemínimo. El problema de la programación horaria de centrales (PHC), descritobrevemente en la sección 2.4 y de una manera más detallada en el Capítulo 7,tiene por objeto determinar los arranques y paradas de las centrales térmicasy la programación conjunta de potencia generada por los grupos térmicos ehidráulicos durante un horizonte temporal de corto plazo, normalmente 24 ho-ras, de manera que se satisfaga la demanda horaria, en base a una predicción,y se minimice el coste de explotación del sistema.

Una gran variedad de problemas, que aparecen en campos como la Inge-niería o la Economía, basados en casos reales, se pueden modelar como unproblema de optimización. Existen distintas clasificaciones de los problemasde optimización según el criterio que se elija. Los problemas de optimizaciónse pueden clasificar dentro de dos grandes grupos: Programación Lineal y Pro-gramación no Lineal, donde tanto la función objetivo como las ecuaciones quemodelan las restricciones del problema son lineales o no lineales, respectiva-mente. A su vez dependiendo de si existen algunas variables enteras, estosdos grupos de subdividen en otros dos: Programación Lineal Entera Mixta yProgramación no Lineal Entera Mixta. Atendiendo a la convexidad de la fun-ción objetivo y las restricciones, también se pueden clasificar en ProgramaciónConvexa o Programación No Convexa.

La principal característica de los problemas de optimización no linealesy no convexos, tanto continuos como discretos, es la presencia de múltiplesmínimos locales. Hoy día, la mayoría de los algoritmos aplicados a este tipo deproblemas obtienen un mínimo local pero no se puede asegurar que el mínimolocal encontrado sea un mínimo global, por tanto el mínimo encontrado puededistar de la mejor solución del problema.

La segunda parte de esta tesis, se centra en la resolución de problemas deoptimización con múltiples mínimos locales y presenta un algoritmo novedosoque resuelve de forma eficiente y satisfactoria este tipo de problemas de una

6

Page 31: Técnicas avanzadas de predicción y optimización aplicadas a ...

Introducción

forma simple. Este algoritmo básicamente consiste en resolver una sucesión deproblemas de optimización obteniendo una sucesión decreciente de mínimoslocales. Aunque no se puede asegurar que el mejor mínimo local encontradosea el mínimo global, esta técnica consigue recorrer una trayectoria de mínimoslocales cada vez “mejores” sin quedar atrapado en el primer mínimo local quese encuentre.

1.1. Motivación de la Investigación

La principal motivación de la realización de esta investigación es la apli-cación de las mejoras obtenidas tanto en las técnicas de predicción como deoptimización a la resolución de problemas reales.

Todos los avances en el desarrollo de sistemas inteligentes, y técnicas deextracción de conocimiento para la decisión, control y predicción de seriestemporales, en el campo de MD, se han aplicado a la demanda de energíaeléctrica y a los precios de la energía en el Mercado Eléctrico Español.

Existen una amplia variedad de centrales eléctricas: térmicas, hidráulicas,de bombeo, eólicas. Es importante conocer la demanda con anticipación paradecidir, en función de su capacidad y costes, qué centrales suministrarán laenergía necesaria, de manera que el sistema sea seguro, económico, fiable y seusen de manera eficiente los recursos energéticos tanto de nuestra región comoimportados. Mejoras en la exactitud de la estimación de la demanda puedeconducir a un mayor desarrollo económico de una región.

En los últimos años, las empresas eléctricas que, habían funcionado en régi-men de monopolio, están tendiendo progresivamente a un contexto liberalizadocon el objeto de que, al eliminar el régimen de monopolio, se genere compe-tencia en el mercado, lo que debería llevar consigo un efecto beneficioso sobrelos consumidores, tanto en calidad de servicio como en precios. El Sector Eléc-trico Español desde 1998 ha puesto en marcha un proceso de reestructuraciónsiguiendo criterios de libre competencia, al igual que un gran número de paísesen el mundo. En este nuevo mercado, las herramientas de predicción son muyimportantes, ya que en base a una estimación de precios, los consumidores ygeneradores elaboran sus ofertas de compra/venta de energía a coste mínimo.Debido a la reciente liberalización del mercado eléctrico, las técnicas de pre-dicción aplicadas a los precios de la energía son bastante innovadoras y pocousuales en la literatura actual, siendo un campo de investigación actualmenteen alza. En lo que respecta a la literatura sobre técnicas de predicción aplica-das a la demanda eléctrica y a los precios de la energía, no se han encontradoreferencias en las cuales se haya aplicado una técnica basada en los vecinos más

7

Page 32: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 1 Introducción

cercanos para predecir ambas series, aunque sí se han encontrado aplicacionesde técnicas basadas en los vecinos más cercanos a otras series temporales.

El problema de la optimización en sistemas eléctricos de potencia surge apartir del momento en que dos o más unidades de generación deben alimentarvarias cargas, obligando al operador a decidir cómo se reparte la carga. Histó-ricamente, los primeros esfuerzos se hicieron respecto al control de la potenciaactiva [136], lo que se conoce hoy día con el nombre de Despacho Económi-co, en el cual el objetivo es determinar la potencia a generar por las distintasunidades minimizando los costes de generación. En los últimos años [30, 137],las técnicas de Punto Interior se han constituido en una alternativa prácticay viable para la resolución de problemas de optimización en el marco de lossistemas eléctricos de potencia.

Por este motivo, se ha desarrollado e implementado un algoritmo basadoen técnicas de Punto Interior para resolver el problema de la PHCT. En laliteratura este problema no ha sido resuelto de una manera satisfactoria [82,40], debido principalmente al carácter no lineal y no convexo proporcionadopor las variables discretas que aparecen al modelar el arranque y parada delas centrales térmicas. Los resultados obtenidos son de gran relevancia, debidoal papel crucial que tienen los algoritmos de optimización en la explotación ycontrol de la red de transporte de energía eléctrica, con vistas a asegurar unsuministro de energía a la vez fiable, de calidad y lo más económico posible.

1.2. Objetivos de la Tesis

Los objetivos concretos de la presente tesis son:

Desarrollar un método, basado en técnicas de vecinos, para la predic-ción de series temporales, principalmente series temporales financierasque presentan unas características peculiares como la no linealidad, noestacionariedad y la presencia de un alto porcentaje de valores inusuales.

Aplicar el método de predicción desarrollado a la predicción de dos seriestemporales reales: la demanda de energía eléctrica y los precios de laenergía en el nuevo Mercado Eléctrico Español. Se han elegido estas dosseries debido al papel importante que tienen en el sector eléctrico hoydía.

Comparar el comportamiento del método desarrollado ante la predicciónde las dos series anteriores. Esto llevará a establecer una comparacióncualitativa entre ambas series.

8

Page 33: Técnicas avanzadas de predicción y optimización aplicadas a ...

Introducción

Comparar los resultados obtenidos de la aplicación de la técnica desarro-llada a la demanda de energía eléctrica, con los obtenidos de la aplicaciónde un árbol de regresión obtenido con el algoritmo M5’.

Desarrollar una RNA para la predicción de los precios de la energía, de-bido a que actualmente en un entorno liberalizado como el español, lapredicción de los precios son un factor determinante para la gestión ópti-ma de ofertas de compra y venta de energía por parte de los consumidoresy empresas de generación.

Comparar los resultados obtenidos de la aplicación de la técnica desarro-llada a los precios de la energía, con los obtenidos de la aplicación de lared neuronal.

Desarrollar un algoritmo para la resolución de problemas de optimiza-ción no lineales no convexos, basado en técnicas de Punto Interior, queresuelva de manera satisfactoria, eficiente y robusta este tipo de proble-mas. Teniendo en cuenta que estos problemas presentan múltiples mí-nimos locales y que la principal desventaja de los algoritmos existentesen la literatura para resolver este tipo de problemas es la obtención deun mínimo local que puede distar mucho del mínimo global, se proponemejorar esto obteniendo al menos una sucesión de mínimos locales cadavez “mejores” que tiendan al mínimo global.

Aplicar el algoritmo desarrollado para problemas no lineales no conve-xos al problema de la PHCT, el cual cumple esas características de nolinealidad y no convexidad, debido principalmente a las variables discre-tas que modelan los arranques y paradas de las centrales. Para resolvereste problema se necesita primero una predicción de la demanda, que seobtiene como se describe en la primera parte de la tesis.

Desarrollar un Algoritmo Genético (AG) para la resolución del problemade la PHCT. Este problema es relevante tanto para el operador de unsistema de energía eléctrica como para las compañías de generación. Laprogramación horaria es un problema de optimización no lineal, entero-mixto, combinatorio y, para sistemas de tamaño realista, de gran dimen-sión. Estas características hacen que no haya ningún método que seacapaz de obtener su solución exacta. Los algoritmos genéticos son téc-nicas de resolución que pueden modelar cualquier tipo de restricción ycualquier no linealidad o no convexidad, por lo que son buenos candidatospara obtener la solución de este problema.

9

Page 34: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 1 Introducción

Comparar los resultados obtenidos de la aplicación del algoritmo desarro-llado a dos casos de estudio basados en el parque de generación español,un sistema test de pequeña dimensión y un sistema realista de gran di-mensión, con los obtenidos de la aplicación del AG.

1.3. Principales Contribuciones

En el marco de las series temporales, se ha diseñado un algoritmo de pre-dicción, basado en la técnica de los vecinos más cercanos, que ha sido aplicadoa la predicción de dos series temporales: la demanda de energía eléctrica y losprecios de la energía. En este algoritmo se aporta un estudio exhaustivo delcálculo óptimo de todos los parámetros que afectan al rendimiento del algorit-mo y un análisis de cuándo el error cometido con este método de predicción esmínimo. Los resultados obtenidos de su aplicación a ambas series son compara-dos con los obtenidos de la aplicación de otras técnicas como redes neuronalesy árboles de regresión. Por último, para demostrar la importancia de obteneruna buena predicción se ha hecho un análisis de cómo afectan los errores dela predicción de la demanda en la planificación de la producción de energíaeléctrica y los errores de la predicción de los precios en la gestión óptima delas ofertas de compra y venta de energía por parte de los consumidores y com-pañías de generación, respectivamente. En lo que respecta a la literatura sobrepredicción de estas series, ha sido la primera vez que se ha aplicado un mé-todo de estas características obteniéndose resultados competitivos con otrastécnicas e incluso en algunos casos mejores.

Estos resultados han dado lugar a las siguientes publicaciones:

Algoritmo de predicción basado en los vecinos más cercanos aplicado ala predicción de los precios. En este algoritmo la métrica elegida es ladistancia euclídea ponderada por unos pesos, los cuales son determinadosmediante un algoritmo genético a partir de un conjunto de entrenamien-to. Los resultados obtenidos de su aplicación son comparados con losobtenidos de la aplicación de una regresión multivariable, donde los co-eficientes son actualizados cada vez que se predice un día del conjuntotest.

• “A Comparison of Two Techniques for Next-Day Electricity PriceForecasting”. IDEAL Intelligent Data Engineering and AutomatedLearning. Lecture Notes in Computer Science. Vol. 2412, pp. 384-390, Agosto 2002. Ed. Springer-Verlag. ISSN 0302-9743.

10

Page 35: Técnicas avanzadas de predicción y optimización aplicadas a ...

Introducción

RNA aplicada a la predicción de los precios. Los resultados obtenidosde su aplicación son comparados con los obtenidos de la aplicación deun algoritmo de predicción basado en los vecinos más cercanos, dondela métrica elegida es la distancia euclídea ponderada por unos pesos loscuales son determinados mediante un algoritmo genético a partir de unconjunto de entrenamiento.

• “Electricity Market Price Forecasting: Neural Networks versusWeighted-Distance k Nearest Neighbours”. DEXA Database and Ex-pert Systems Applications. Lecture Notes in Computer Science.Vol. 2453, pp. 321-331, Septiembre 2002. Ed. Springer-Verlag. ISSN0302-9743.

Estudio de los parámetros que afectan al algoritmo de predicción basadoen los vecinos más cercanos para mejorar la predicción obtenida de losprecios de la energía y análisis heurístico de cuándo el error cometidocon este método es mínimo.

• “Predicción de Series Temporales Económicas: aplicación a los Pre-cios de la Energía en el Mercado Eléctrico Español”. IBERAMIA2002 VIII Iberoamerican Conference on Artificial Intelligence. Works-hop de Minería de Datos y Aprendizaje. pp. 1-11, Sevilla, Noviembre2002. ISBN 84-95499-88-6.

Algoritmo de predicción basado en los vecinos más cercanos aplicadoa la predicción de la demanda. Un estudio de los parámetros óptimosque afectan al método es analizado antes de realizar la predicción. Losresultados obtenidos de su aplicación son comparados con los obtenidosde la aplicación de una regresión multivariable, donde los coeficientes sonactualizados cada vez que se predice un día del conjunto test.

• “Predicción de Series Temporales: Aplicación a la Demanda de Ener-gía Eléctrica en el Corto Plazo”. X Conferencia de la AsociaciónEspañola sobre Inteligencia Artificial (CAEPIA’03), San Sebastián,Noviembre, 2003. pp. 79-88. ISBN 84-8373-564-4.

• “Time-Series Prediction: Application to the Short-Term ElectricEnergy Demand”. Lecture Notes in Artificial Intelligence. Vol. 3040,pp. 577-586, Junio 2004. ISSN 0302-9743. Edición de trabajos se-leccionados de CAEPIA’03.

11

Page 36: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 1 Introducción

Análisis del efecto de los errores cometidos en la predicción de los preciosen la gestión óptima de ofertas de compra/venta de energía por parte delos clientes o compañías de generación, respectivamente.

• “Influence of ANN-Based Energy Price Forecasting Uncertainty onOptimal Bidding”. 14th Power Systems Computation Conference.Sevilla, Junio 2002.

Análisis del efecto de los errores cometidos en la predicción de la de-manda en la programación óptima de centrales. Algoritmo de predicciónbasado en los vecinos más cercanos, donde los resultados obtenidos de suaplicación son comparados con los obtenidos de la aplicación de un árbolde regresión (algoritmo M5’ [49, 98])

• “Influence of kNN-Based Load Forecasting Errors on Optimal EnergyProduction”. EPIA Portuguese Conference on Artificial Intelligen-ce. Lecture Notes in Artificial Intelligence. Vol. 2902, pp. 189-203,Diciembre 2003. ISSN 0302-9743.

En el marco de la optimización, se ha resuelto el problema de la PHCT conun algoritmo novedoso propuesto en esta tesis, y un AG. En el AG se aportauna nueva forma de generar la población inicial para disminuir el númerode individuos no factibles en lo que respecta a las restricciones de rampasde subida y bajada. La restricción de potencia mínima ha sido modelada deforma dinámica para considerar factibles aquellos individuos que se encuentranen estados intermedios, “arrancando” o “parando”, estados que en la mayoríade la literatura se modelan con nuevas variables binarias. Por tanto en este AGse usa el mínimo número de variables binarias, sólo las correspondientes a losestados: “arrancado” y “parado”. La evaluación de los individuos consiste en laresolución de un problema de optimización cuadrático mediante un algoritmode Punto Interior. Dado que la evaluación de los individuos es una de lascausas del elevado coste computacional de un AG, se ha implementado elalgoritmo de Punto Interior haciendo una reordenación de los elementos de lamatriz del sistema lineal que hay que resolver, para así disminuir el número deelementos de llenado que surgen al factorizar ésta y así disminuir el tiempo decomputación del AG.

Este AG ha sido utilizado para establecer una comparación con los resul-tados obtenidos de la aplicación del algoritmo que se propone en esta tesis,al problema de la PHCT. En este algoritmo novedoso se aporta una nuevatécnica de búsqueda global de la solución de un problema de optimización nolineal no convexo, obteniéndose una sucesión decreciente de mínimos localesdel problema.

12

Page 37: Técnicas avanzadas de predicción y optimización aplicadas a ...

Introducción

Estas contribuciones han dado lugar a las siguientes publicaciones:

Programa de optimización basado en un algoritmo de Punto Interioraplicado a la PHCT, suponiendo la programación de arranques y paradasconocida, es decir sin variables discretas. Los resultados obtenidos de laaplicación de este algoritmo a un sistema real son comparados con losobtenidos de la aplicación de un algoritmo de Punto Interior Predictor-Corrector [138].

• “Despacho Económico de Centrales Térmicas e Hidráulicas en elCorto Plazo Mediante Técnicas de Punto Interior”. 7a JornadasHispano-Lusas de Ingeniería Eléctrica. Madrid, 2001. Vol. III, pp.261-266. ISBN 84-95821-03-6.

Algoritmo evolutivo aplicado a la PHCT para determinar la programa-ción de arranques y paradas. La evaluación de los individuos se obtienemediante la resolución de un problema de optimización con un algoritmode Punto Interior donde todas las variables son continuas.

• “Short-term Hydro-thermal Coordination Based on Interior PointNonlinear Programming and Genetic Algorithms”. IEEE Power Te-ch’2001 Conference. Oporto, Portugal, 2001. Vol. 3, PSO2-267. ISBN0-7803-7139-9.

• “Aplicación de Técnicas de Computación Evolutiva a la Planifica-ción Óptima de la Producción de Energía Eléctrica en el Corto Pla-zo”. V Jornadas de Transferencia Tecnológica de Inteligencia Artifi-cial (TTIA’03), San Sebastián, Noviembre, 2003. pp. 419-428. ISBN84-8373-564-4

• “Application of Evolutionary Computation Techniques To OptimalShort-Term Electric Energy Production Scheduling”. Lecture Notesin Artificial Intelligence. Vol. 3040, pp. 656-665, Junio 2004. ISSN0302-9743. Edición de trabajos seleccionados de TTIA’03.

Algoritmo para la resolución de problemas de optimización no lineales yno convexos con múltiples mínimos locales.

• “Finding Improved Local Minima of Power System OptimizationProblems by Interior-Point Methods”. IEEE Transactions on PowerSystem. Vol. 18, no 1, pp. 238-244, Febrero 2003. ISSN 0885-8950.

13

Page 38: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 1 Introducción

1.4. Estructura de la Memoria

La memoria de esta tesis se organiza como sigue:En el Capítulo 2, en primer lugar se hace un recorrido por las contribuciones

más relevantes que han aparecido en la literatura sobre análisis y predicciónde series temporales. Los métodos más utilizados para la predicción de seriestemporales se pueden clasificar a grandes rasgos en dos grupos: los métodos es-tadísticos clásicos y las técnicas de aprendizaje automático. Entre los métodosestadísticos se han destacado los modelos ARMA y ARIMA y las técnicas deaprendizaje automático descritas han sido los árboles de regresión, los sistemasde predicción basados en reglas, la programación genética, las redes neurona-les artificiales y los vecinos más cercanos. De una forma paralela, se analizantrabajos donde se usan estas técnicas aplicadas a la predicción de los precios yla demanda de energía eléctrica. En segundo lugar, se describen los algoritmosde optimización más conocidos en la literatura y se hace un breve recorridopor las contribuciones que han aparecido de su aplicación a la PHCT.

La técnica de clasificación y reconocimiento de patrones basada en la bús-queda de los vecinos más cercanos aplicada a la predicción de una serie tem-poral es descrita en el Capítulo 3. Primero, se analiza cuál es la forma óptimade representar el conjunto de datos de entrada y se estudia la influencia de dosparámetros que afectan a dicho algoritmo: el número de vecinos, es decir elnúmero de ejemplos que serán usados en el momento de efectuar la predicción,y la métrica elegida como medida de similitud entre dos ejemplos del conjuntode datos. Después, se analiza de forma heurística cuál es el error mínimo quese comete en la predicción de una serie temporal con este método.

En los Capítulos 4 y 5 se presentan los resultados obtenidos al aplicar elmétodo descrito en el Capítulo 3 a dos series temporales reales: los preciosy la demanda de energía en el Mercado Eléctrico Español. En primer lugar,se obtienen los modelos de predicción para ambas series, que consiste básica-mente en determinar la estructura óptima del conjunto de datos de entraday los parámetros que afectan al método. En segundo lugar, se presentan losresultados obtenidos de la predicción de ambas series, comparándose con losresultados obtenidos de la aplicación de una red neuronal en el caso de la serietemporal formada por los precios y los obtenidos de la aplicación de un árbolde regresión en el caso de la serie temporal formada por la demanda.

El objeto del Capítulo 6 es la resolución de problemas de optimización conrestricciones, donde la función objetivo y las restricciones tanto de igualdadcomo de desigualdad son no lineales y no convexas. En primer lugar, se describeel modelo matemático de un problema de estas características cuando todaslas variables son reales y varían de una forma continua, y se propone un nuevo

14

Page 39: Técnicas avanzadas de predicción y optimización aplicadas a ...

Introducción

método que resuelve el problema de manera eficiente, con una ventaja frentea los métodos existentes: su habilidad de escapar de un mínimo local. Ensegundo lugar, se describe el modelo matemático cuando las variables son realesy enteras y se propone un método de resolución que consiste básicamente enrelajar el carácter discreto de las variables y aplicar el método propuesto en elcaso anterior. Por último, se presentan dos ejemplos tutoriales para ilustrar elcomportamiento de los métodos presentados en este capítulo.

En el Capítulo 7 se aplica el método propuesto en el Capítulo 6 a unproblema real: la planificación de la producción de energía eléctrica. Primero,el problema es modelado dando lugar a un problema no lineal no convexo, elcual es resuelto haciendo especial énfasis en la reordenación de las matricesresultantes para mejorar el tiempo de computación del algoritmo. Por último,se presentan resultados obtenidos de la aplicación del método propuesto en elCapítulo 6 a dos casos de estudio basados en el parque de generación español,un sistema test de pequeña dimensión y un sistema realista de gran dimensión.Los resultados obtenidos se comparan con los obtenidos de la aplicación de unAG.

Por último, el Capítulo 8 recoge las principales conclusiones del traba-jo realizado en el ámbito de la presente tesis, proponiendo asimismo futurosdesarrollos y líneas de investigación.

A continuación se incluyen los siguientes apéndices:En el Apéndice A se muestran los árboles de regresión y los modelos lineales

obtenidos en las hojas de los árboles mediante el algoritmo M5’ con y sinselección de atributos.

El Apéndice B muestra los datos de entrada utilizados en los casos deestudio presentados en el Capítulo 7.

El Apéndice C presenta las programaciones de arranques y paradas y laspotencias de salida de las mejores soluciones obtenidas de la aplicación del AGdesarrollado en el Capítulo 7, y la aplicación del procedimiento propuesto enel Capítulo 6 de esta tesis basado en técnicas de Punto Interior al problemade la PHCT para los dos casos de estudio analizados, cuyos datos de entradase describen en el Apéndice B.

El Apéndice D muestra las ecuaciones y la estructura por bloques de lamatriz del sistema lineal resultante de la aplicación de un algoritmo Primal-Dual de Punto Interior a los subproblemas, tanto continuos como discretos,que aparecen de la aplicación del método propuesto en el Capítulo 6 a laplanificación de la producción de energía eléctrica.

15

Page 40: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 1 Introducción

16

Page 41: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 2

Estado del Arte

En este capítulo se hace un recorrido por las contribuciones más relevan-tes que han aparecido en la literatura sobre análisis y predicción de seriestemporales y su aplicación a la predicción de los precios y la demanda de ener-gía eléctrica, y sobre algoritmos de optimización y su aplicación a la PHCT,respectivamente.

2.1. Minería de DatosAunque la idea de MD parece estar generalmente aceptada en la comuni-

dad científica, no existe una definición clara de este término. Informalmente,podríamos definir la minería de datos como el análisis de bases de datos con elfin de descubrir o extraer información inherente a los datos objeto de análisis,de modo que sea de utilidad en la toma de decisiones. Tal información puedevenir representada como patrones, relaciones, reglas, asociaciones, dependen-cias o incluso excepciones entre los datos analizados. El desarrollo tecnológicoha permitido que la creciente cantidad de información que diariamente se ge-nera en el mundo, pueda ser transferida de forma casi instantánea, así comoalmacenada en grandes bases de datos. La competitividad existente hoy día encampos como la economía, el comercio, la industria y la propia ciencia entreotros, ha fomentado el aprovechamiento de esta información para la toma dedecisiones. Tradicionalmente, la estadística ha cubierto este campo, ofrecien-do resúmenes de los datos en forma de medias, desviaciones, distribuciones,correlaciones, entre otras muchas medidas. Sin embargo, el simple estudio es-tadístico de esta cantidad de información resulta insuficiente para la toma dedecisiones, pues aporta un conocimiento muy limitado del comportamiento delos datos. Además de las medidas estadísticas, la información oculta patronesy relaciones inherentes de gran utilidad y que la minería de datos se encarga de

17

Page 42: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 2 Estado del Arte

extraer mediante un algoritmo de aprendizaje automático adecuado. La figura2.1 muestra un esquema más detallado sobre las fases existentes en MD.

Algoritmode

AprendizajeMODELO

Validación

APRENDIZAJE

Datosde

Entrada

PREDICCION

MINERÍA

xx xx xxxxx xx xx xxxxx xx xx xxxxx

xx xx xxxxx

Figura 2.1: Fase de Minería de Datos

El Aprendizaje Automático (Machine Learning) es la rama de la Inteligen-cia Artificial que estudia el desarrollo de técnicas para extraer de forma auto-mática conocimiento subyacente en los datos. Uno de los modelos de aprendi-zaje más estudiados es el aprendizaje inductivo, el cual engloba todas aquellastécnicas que aplican inferencias inductivas sobre un conjunto de datos paraadquirir el conocimiento inherente a ellos. Existen principalmente dos tipos deaprendizaje inductivo: supervisado y no supervisado. En el aprendizaje super-visado, los casos pertenecientes al conjunto de datos tienen a priori asignadauna clase o categoría, siendo el objetivo encontrar patrones o tendencias de loscasos pertenecientes a una misma clase. Sin embargo, el aprendizaje no super-visado no goza de una agrupación de los casos previa al aprendizaje, por lo quese limita a buscar la regularidades entre éstos. Los métodos de predicción quese analizan en esta sección se clasifican básicamente en dos grandes grupos: lastécnicas de aprendizaje supervisado y las técnicas estadísticas.

2.2. Preprocesado de Series TemporalesEsta sección se centra en la etapa previa a la predicción de una serie tempo-

ral conocida como etapa de preprocesado en la cual se aplican técnicas especí-ficas para estudiar la calidad de los datos. Una serie temporal es una sucesiónde observaciones de una variable en distintos momentos de tiempo. Aunqueel tiempo es una variable continua, en la práctica se usan mediciones en pe-riodos equidistantes. El análisis de series temporales ha sido un campo de

18

Page 43: Técnicas avanzadas de predicción y optimización aplicadas a ...

Estado del Arte

investigación desde principios del siglo XX, actualmente en alza con el recientedesarrollo de las técnicas de aprendizaje automático. Los aspectos claves en elanálisis de series temporales son el preprocesado de datos y la obtención delmodelo de predicción. En la preparación de los datos se pueden destacar lareducción del ruido mediante la detección de outliers, la reducción de datosmediante técnicas de selección de atributos y la discretización de valores conti-nuos. A continuación se describen brevemente en qué consisten estas técnicasque tienen lugar en la etapa previa de preparación de los datos.

Detección de outliers: Los outliers son valores de la serie temporal quese alejan de los patrones de comportamiento del resto de la serie. Estas des-viaciones pueden ser debidas bien a la ocurrencia de algún hecho no previsibleo bien a mecanismos de mercado como es el caso de las series temporales eco-nómicas o financieras. Para mitigar los efectos del ruido en el aprendizaje seaplican las denominadas técnicas de suavizado (smoothing). El método de sua-vizado más sencillo, conocido como binning, consiste en reemplazar los outlierspor la media, mediana o moda de los valores precedentes y siguientes. En [2]se describe un detector automático de distintas características que suelen pre-sentar las series temporales como los outliers, el nivel de las discontinuidades,los cambios en la tendencia... Para la detección de los outliers se observan lassegundas diferencias de los valores de la serie, un valor grande para algunade estas segundas diferencias indica la presencia de un outlier en ese punto oen el punto precedente. Los patrones de los residuos de una regresión puedenconfirmar la presencia de un outlier, puesto que la presencia de un incrementoo decremento abrupto en los residuos justo en el punto precedente al puntodonde las diferencias de segundo orden son grandes indica la presencia de unoutlier. Una vez detectados los outliers son reemplazados por la media de losvalores precedentes y siguientes de la serie.

Técnicas de Reducción: Los algoritmos de selección de características eindexado tienen dos objetivos principales: reducir el coste computacional aso-ciado tanto al aprendizaje como al propio modelo de conocimiento generado(eliminando atributos irrelevantes o redundantes) y aumentar la precisión dedicho modelo (eliminando atributos perjudiciales para el aprendizaje). En [89]se presenta un modelo que permite determinar de manera dinámica qué valo-res previos influyen en el valor actual observado en una serie temporal. Unade las ventajas del modelo propuesto es que permite capturar la existencia dedistintas relaciones temporales en cada hora. El modelo de selección de va-riables descrito se ha aplicado a un problema real para determinar las horasprevias que influyen en el valor de radiación solar sobre superficie recibido enuna hora determinada. En [108] se presenta una técnica de selección de atri-butos que utiliza una medida basada en proyecciones para guiar la selección

19

Page 44: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 2 Estado del Arte

de los atributos que sean relevantes. Esta técnica tiene algunas característicasinteresantes como su bajo coste computacional y su aplicabilidad a conjuntosde datos que contengan tanto variables continuas como discretas. En [62] sepresenta un algoritmo de indexado que da lugar a una reducción de la dimen-sionalidad lo que hace que se pueda efectuar una búsqueda más rápida de lasimilaridad entre dos curvas. Esta técnica de reducción de datos se muestra enel siguiente ejemplo: sea X una serie temporal formada por 8 valores, es decir:

X = (−1,−2,−1, 0, 2, 1, 1, 0) (2.1)

Entonces la serie temporal se divide en un número determinado de subcon-juntos y se proyecta en esos subconjuntos usando para ello las medias de losvalores que corresponden a cada subconjunto. En este caso la serie temporalse proyecta en dos dimensiones de la siguiente forma:

X = (−1, 1) (2.2)

donde -1 es la media de los 4 primeros valores de la serie y 1 es la media delos 4 últimos valores de la serie.

Discretización: Un gran número de algoritmos de aprendizaje operan ex-clusivamente con espacios discretos. Sin embargo, muchas bases de datos con-tienen atributos de dominio continuo, lo que hace imprescindible la aplicaciónprevia de algún método que reduzca la cardinalidad del conjunto de valores,dividiendo su rango en un conjunto finito de intervalos. Esta trasformación deatributos continuos en discretos se denomina discretización. En [88] se propo-nen dos métodos de discretización dinámicos y cualitativos para transformarlos valores continuos de una serie temporal en valores discretos. Estos métodosson dinámicos puesto que el valor discreto asociado a un determinado valorcontinuo puede cambiar con el paso del tiempo, es decir el mismo valor con-tinuo puede ser discretizado con distintos valores dependiendo de los valoresprevios de la serie y son cualitativos porque sólo aquellos cambios los cuales soncualitativamente significativos aparecen en la serie discretizada. Un método sebasa en el t-estadístico ya que se pretende usar toda la información estadísticade los valores previos observados de la serie para seleccionar los valores dis-cretos que corresponden a un nuevo valor continuo de la serie. El otro métodopropuesto se basa en la definición de una distancia que mide la relación entrevalores consecutivos de la serie. Entonces dos valores continuos consecutivoscorresponden al mismo valor discreto cuando la distancia entre ellos es menorque un determinado umbral. A continuación se hará un breve recorrido por losmétodos más usados en la literatura para la predicción de series temporales,centrando la atención en aquellos que han sido usados para la predicción delos precios de la energía y la predicción de la demanda de energía eléctrica.

20

Page 45: Técnicas avanzadas de predicción y optimización aplicadas a ...

Estado del Arte

2.3. Métodos de Predicción

La mayoría de los métodos de predicción están basados en el descubrimientode patrones regulares que ayuden a la obtención de un modelo para realizarpredicciones de futuro sobre el comportamiento de una serie. El descubrimientode patrones ha estado sujeto a una gran investigación en las últimas décadas[60]. Sin embargo la alta correlación entre los atributos, la alta dimensionalidady la gran cantidad de ruido que caracteriza a las series temporales ha hechoque la mayoría de los investigadores se centren en encontrar una nueva medidade la similaridad entre dos curvas para mejorar un algoritmo de clustering yaexistente [61]. En [94] para descubrir patrones de comportamiento similaresen un conjunto de series temporales se propone un algoritmo de aprendizajeincremental que intenta identificar en qué conjuntos se distingue una serietemporal de otra habiendo sido las dos generadas a partir del mismo proceso.

2.3.1. Predicción basada en reglas

En general, una regla de decisión es una regla del tipo “Si P EntoncesC”, donde P es un predicado lógico sobre los atributos, cuya evaluación ciertaimplica la clasificación con etiqueta de clase C. Desde el punto de vista de lainterpretación humana, esta representación del conocimiento resulta a menudomás clara que los árboles de decisión, sobre todo en aplicaciones reales donde elnúmero de nodos de éstos tiende a aumentar. Esto es debido tanto a la propiaestructura como a las técnicas utilizadas para generar éstas. La construcciónde los árboles de decisión se basa en una estrategia de división, esto es, dividirel conjunto de datos en dos subconjuntos considerando un único atributo selec-cionado por una heurística particular. Por el contrario, el aprendizaje de reglassigue una estrategia de cobertura, esto es, encontrar condiciones de reglas te-niendo en cuenta todos los atributos de forma que se cubra la mayor cantidadde ejemplos de una misma clase, y la menor del resto de las clases. Existeuna extensa literatura sobre cómo generar reglas para posteriormente usarlasen un problema de predicción. Algunas contribuciones están relacionadas conla forma de generarlas [38] y otras se centran en la estructura a partir de lacual se generan, bien un árbol de regresión [49] bien a partir de la etapa deentrenamiento de una red neuronal [111]. La teoría de conjuntos difusos relajael concepto de pertenencia de un elemento a un conjunto. En la teoría tradi-cional, un elemento simplemente pertenece o no a un conjunto. Sin embargo,en la teoría de conjuntos difusos, un elemento pertenece a un conjunto con uncierto grado de certeza. Aplicando esta idea, el uso de la lógica difusa permiteun mejor tratamiento de la información cuando ésta es incompleta, imprecisa

21

Page 46: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 2 Estado del Arte

o incierta. Por ello, ha sido aplicada por muchos autores en tareas de predic-ción y detección de fallos, usando a menudo reglas difusas como representacióndel conocimiento [6]. Estos sistemas son denominados tradicionalmente FuzzyRule-Based Classification Systems. En la literatura se pueden encontrar al-gunas aplicaciones a la predicción de series financieras usando reglas difusasextraídas a partir de algoritmos genéticos. En [64] se propone un método depredicción basado en un conjunto de reglas difusas para series caóticas y noestacionarias. En una primera etapa se genera mediante un algoritmo genéti-co un conjuntos de reglas difusas que cubran el número máximo de ejemplosdel conjunto de entrenamiento. En una segunda etapa las funciones miembrodel conjunto de reglas obtenidas en la etapa previa se ajustan mediante unalgoritmo genético de manera que el error de predicción sea mínimo. Estas dosetapas son repetidas para distintas particiones del conjunto de entrenamientoobteniendo así un conjunto de predictores difusos. Finalmente, la predicción deun valor de la serie es una combinación lineal de las predicciones obtenidas apartir del conjunto de predictores difusos ponderada por unos pesos que vienendados por:

wi =1

σi ·∑|P |

j=11σj

(2.3)

donde |P | es el número de predictores difusos y σi es la desviación estándardel error de predicción obtenido a partir del predictor difuso i. Este método seha aplicado a la serie temporal caótica de Mackey-Glass y a la predicción delcambio del franco suizo frente al dólar.

2.3.2. Métodos Lineales

Los métodos de predicción lineales son aquellos que intentan modelar elcomportamiento de una serie temporal mediante una función lineal. Entre estosmétodos se destacan los modelos ARMA y ARIMA y los árboles de regresión.

2.3.2.1. Metodología de Box and Jenkins

En esta sección se describen dos modelos lineales para el análisis de seriestemporales: el modelo ARMA y el modelo ARIMA. Estos modelos son unaclase de procesos estocásticos y tienen una metodología común, cuya aplicaciónal análisis de series temporales se debe a Box y Jenkins [13]. Para construirambos modelos se siguen los pasos siguientes:

1. Identificación del modelo bajo ciertas hipótesis

2. Estimación de parámetros

22

Page 47: Técnicas avanzadas de predicción y optimización aplicadas a ...

Estado del Arte

3. Validación del modelo

4. Predicción

2.3.2.1.1. Modelos ARMAUn proceso estacionario es aquel cuya media, varianza y covarianza son cons-tantes. Los modelos de predicción de series temporales están diseñados paraprocesos estacionarios, aunque en el mundo real la mayoría de las series tempo-rales, sobre todo las financieras, no son estacionarias. Un proceso estocásticoestacionario con una componente autoregresiva (AR) y una componente demedias móviles (MA) se puede modelar como sigue:

ϕ(B)Xt = θ(B)εt (2.4)

donde:

Xt es la variable que se quiere predecir en la hora t, es decir, se trata deuna serie horaria.

εt es un ruido blanco en la hora t, que representa los errores y otorga elcarácter aleatorio a la serie.

ϕ(B) y θ(B) son funciones polinomiales del operador de retardos B quevienen definidos por:

ϕ(B) = 1 −n∑

l=1

ϕlBl (2.5)

θ(B) = 1 −m∑l=1

θlBl (2.6)

BlXt = Xt−l (2.7)

donde n es el orden del proceso Autoregresivo (AR) y m es el orden delproceso de Medias Móviles (MA).

Una vez determinado el modelo se trata de determinar los parámetros n, m, ϕl

y θl. Tradicionalmente, los parámetros n ym se calculan mediante la función deautocorrelación y la función de autocorrelación parcial [128] y los parámetrosϕl y θl se hallan mediante la resolución de un problema de optimización dondela función objetivo es el error cuadrático medio cometido en la predicción. Co-mo esta función objetivo tiene múltiples mínimos locales no se garantiza queel mínimo encontrado sea el mínimo global. Para evitar esto, algunos autores

23

Page 48: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 2 Estado del Arte

[141] han usado algoritmos evolutivos en la fase de estimación de parámetrostanto para determinar ϕl y θl como los órdenes n y m para la predicciónde la demanda de energía eléctrica. En otras áreas, como la biomedicina, labúsqueda de los parámetros óptimos de un modelo ARMA se ha basado entécnicas geométricas [71]. Una vez determinados todos los parámetros, el mo-delo es validado mediante algunos test estadísticos y observando la función deautocorrelación y la función de autocorrelación parcial de los residuos.

2.3.2.1.2. Modelos ARIMACuando una serie temporal no es estacionaria se suelen aplicar una serie detransformaciones que hagan que la serie sea estacionaria. Entre estas transfor-maciones, una de las más simples es aplicar el operador diferencias tantas vecescomo haga falta. Así, un modelo ARIMA tradicional consiste en aplicar un mo-delo ARMA a la serie temporal ∆dXt donde ∆d son las diferencias de orden d.El parámetro d se determina de tal forma que la serie ∆dXt sea estacionaria.El resto de parámetros se determinan como se ha descrito anteriormente enlos modelos ARMA. Los modelos ARIMA y algunas modificaciones de estosmodelos han sido muy usados para la predicción de la demanda de energía eléc-trica, dando una especial importancia a la predicción de las horas en las quela demanda es alta (horas punta). En [5] se presenta una modificación de unmodelo ARIMA para predecir la demanda horaria y la demanda en las horaspunta del sistema Iraní. Esta modificación consiste en añadir un único términoal modelo el cual representa una primera aproximación de la predicción dela demanda y se obtiene a través de un operador técnico. Así la estimaciónde la demanda que hace el operador es incluida en el modelo ARIMA comoun término más y en la fase de cálculo de parámetros este nuevo término setrata como un dato de entrada. Además antes de aplicar el modelo ARIMAse hace una clasificación de la demanda iraní a partir de un estudio estadís-tico obteniendo modelos ARIMA distintos según el tipo de día que se quierapredecir. Desde un punto de vista matemático, esta modificación consiste enusar la estimación de los operadores como una predicción inicial lo que haceque se obtengan mejores resultados que los obtenidos con un modelo ARIMAclásico. La demanda horaria y la demanda de las horas punta del sistema ira-ní en el año 1998 se predicen con un error absoluto medio en porcentaje de1.7% y 4.65% respectivamente. Tanto a los modelos ARMA como ARIMA seles pueden añadir variables exógenas que influyan en la serie temporal, comopor ejemplo la temperatura cuando se trata de predecir la demanda de ener-gía eléctrica o la demanda de energía eléctrica cuando se trata de predecir losprecios de la energía. En [141] se presenta un modelo ARMA para predecir lademanda de Taiwan en algunas semanas del año 1992. En este modelo se usan

24

Page 49: Técnicas avanzadas de predicción y optimización aplicadas a ...

Estado del Arte

como datos de entrada la temperatura actual y la temperatura de horas ante-riores. Para el cálculo de los órdenes del proceso autoregresivo y del proceso demedias móviles y para determinar el número de valores pasados de la tempe-ratura que se necesitan en el modelo se implementa un algoritmo genético. Laestimación de los parámetros también se lleva a cabo mediante un algoritmogenético. El cálculo de los parámetros óptimos se obtiene minimizando el errorcuadrático obtenido al realizar la predicción en un conjunto de entrenamiento.La principal desventaja de esta función error es la presencia de múltiples mí-nimos lo que hace que los métodos de optimización basados en el gradiente noobtengan un modelo adecuado puesto que pueden obtener como solución unóptimo local. Para solucionar esto se usa un algoritmo evolutivo que hace unabúsqueda global del espacio, no necesita que la función que se minimiza seadiferenciable y es capaz de converger asintóticamente hacia el óptimo global.Se presentan los resultados de la predicción de la demanda en cuatro sema-nas laborables de distintas estaciones del año: desde el día 10 hasta el día 14de agosto, desde el día 27 hasta el día 31 de Enero, desde el día 12 hasta eldía 16 de Octubre y desde el día 23 hasta el día 27 de marzo, obteniendo enesas semanas unos errores relativos medios de 1.5%, 1.17%, 1.28% y 0.98%respectivamente. En [93] se presentan dos modelos para obtener la predicciónde los precios de la energía en el Mercado Eléctrico Español y en el Merca-do Eléctrico Californiano. Ambos modelos incluyen como variable exógena lademanda de energía y son obtenidos mediante una regresión dinámica y unafunción de transferencia, respectivamente. Los resultados se muestran en dossemanas concretas del año 2000 con el fin de semana incluido para el mercadoeléctrico español: una semana típica de demanda baja (desde el 21 hasta el 27de agosto) y una semana típica de demanda alta (desde el 13 hasta el 19 denoviembre) y para el mercado eléctrico californiano los resultados se muestranen una semana de abril (desde el día 3 hasta el 9). En las semanas elegidaspara validar ambos modelos se obtienen unos errores relativos medios de 5%en el mercado español y de 3% en el mercado californiano, no existiendo unmejor comportamiento de un modelo frente al otro. Cuando una serie no es es-tacionaria pero el valor esperado de la serie sí tiene un comportamiento cíclico,se dice que la serie es estacional. Por ejemplo, una serie horaria es estacionalsi toma valores similares a las 8 de la mañana de todos los días. Un modeloARIMA estacional consiste en un modelo ARIMA multiplicado por factoresde la forma (1 −Bs) donde s es un parámetro que indica la estacionalidad dela serie (24 en el caso de estacionalidad diaria, 168 en el caso de estacionalidadmensual...). Los modelos ARIMA estacionales han sido aplicado recientementea la serie temporal formada por los precios de la energía en el Mercado Eléc-trico Español y Californiano. En [31] se presentan tres métodos aplicados a la

25

Page 50: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 2 Estado del Arte

predicción de los precios de la energía en ambos mercados eléctricos: una re-gresión dinámica, una función de transferencia y un modelo ARIMA estacionalen el que se usa como una variable exógena la demanda de energía. Los resul-tados se muestran en dos semanas concretas del año 2001 con el fin de semanaincluido para el mercado eléctrico español: una semana típica de demanda ba-ja (desde el 25 hasta el 31 de agosto) y una semana típica de demanda alta(desde el 11 hasta el 17 de mayo) y para el mercado eléctrico californiano losresultados se muestran en una semana de abril del año 2000 (desde el día 3hasta el 9). En las semanas elegidas para validar los tres métodos se obtienenen el mercado español unos errores relativos medios de 5% cuando se usa unaregresión dinámica o función de transferencia y unos errores relativos mediosde 8% cuando se usa un modelo ARIMA estacional sin variable exógena. En elmercado californiano se obtienen unos errores relativos medios de 3% cuandose usa una regresión dinámica o función de transferencia y unos errores rela-tivos medios de 5% cuando se usa un modelo ARIMA estacional sin variableexógena. También se muestran los resultados obtenidos en el mercado españolal predecir los precios de la energía en la última semana de los primeros 10meses del año 2000 con dos modelos ARIMA estacionales, uno que no usa va-riables exógenas y otro que usa como variables exógenas: la demanda, el aguaalmacenada y la producción de energía disponible por las centrales hidráuli-cas. En este caso ambos modelos se comportan de una manera parecida yaque se obtienen errores relativos medios de 10.89% sin ningún tipo de variableadicional y 10.45% añadiendo las variables exógenas anteriormente citadas.En [22] la predicción de los precios de la energía se basa en modelos ARIMAestacionales tanto con variables explicativas como sin ellas. Para el mercadoespañol los resultados se muestran en tres semanas concretas elegidas del año2000 y en la última semana de los primeros 10 meses del año 2000 dando lugara unos errores medios relativos de 10% independientemente de que se usen ono se usen algunas variables adicionales.

2.3.2.2. Árboles de Regresión

Un árbol de regresión se puede interpretar como una regresión lineal portrozos ya que las hojas de estos árboles contienen distintas rectas de regresión.Por tanto, un ejemplo recorrerá el árbol hasta alcanzar una determinada hojay la recta de regresión que ésta contenga será el modelo de predicción usa-do para estimar el atributo deseado. Los problemas de clasificación donde losvalores de los atributos son etiquetas han sido resueltos mediante algoritmosde aprendizaje que generan árboles de decisión los cuales han resultado serrobustos, eficientes y simples [99]. En un árbol de decisión, cada nodo interno

26

Page 51: Técnicas avanzadas de predicción y optimización aplicadas a ...

Estado del Arte

establece una condición o conjunto de condiciones sobre uno o varios atributos,representando en cada rama saliente el cumplimiento de una de esas condicio-nes. Cada hoja contiene una etiqueta de clase indicando la clasificación. Laclasificación de un ejemplo se lleva a cabo recorriendo el árbol desde la raízhasta una de las hojas, siguiendo el camino determinado por el cumplimientode las condiciones. El ejemplo se clasifica con la etiqueta contenida en el nodohoja alcanzado finalmente. En la última década se ha intentado extender losalgoritmos de aprendizaje que generan árboles de decisión para predecir valoresde atributos cuando éstos son numéricos. Así, surgen los árboles de regresiónque son árboles de decisión pero difieren de éstos en que en las hojas del árbolen lugar de tener clases tienen valores, el algoritmo más popular que construyeárboles de regresión es conocido como CART [14], en el cual el valor de la pre-dicción en cada hoja es el valor medio de todos los ejemplos de un conjunto deentrenamiento que alcanzan esa hoja. Basándose en los árboles de regresión, elalgoritmo M5 [98] construye árboles en cuyas hojas tiene modelos lineales devarias variables, lo que se conoce con el nombre de model tree. Estos árbolesson así análogos a funciones lineales a trozos y el algoritmo M5 extiende alalgoritmo CART en el sentido de que éste es un caso particular de estos árbo-les cuando las funciones lineales consideradas son constantes. Básicamente, losalgoritmos CART y M5 construyen un árbol inicial mediante un algoritmo deinducción de árboles de decisión. Sin embargo, en los árboles de decisión loscortes se determinan maximizando la ganancia de información mientras queen estos algoritmos los puntos de corte se determinan maximizando la reduc-ción de la varianza puesto que es más apropiado en un problema de predicciónnumérica. En [118] se aplica el algoritmo M5 a la predicción de cinco seriestemporales industriales obteniendo los doce siguientes valores de dichas seriescon unos errores absolutos medios de 21.5, 1.39, 4.46, 263.08 y 242.35 respecti-vamente. Estos resultados muestran muy buena aproximación para la segundaserie temporal frente a los malos resultados obtenidos para las dos últimas se-ries. Estas series industriales son muy pequeñas pues están formadas por 100ejemplos lo cual es una desventaja ya que el número tan pequeño de ejemplospuede afectar a la capacidad de aprendizaje del algoritmo. En [132] se describeun algoritmo, llamado M5’, que se basa en el algoritmo M5, ya que tambiénconstruye un árbol en cuyas hojas se obtiene una función lineal de los atributosy se presentan resultados donde se establece una comparación entre ambos al-goritmos mostrando el algoritmo M5’ una mayor capacidad de predicción queel algoritmo M5. El algoritmo M5’ combina la idea de construcción de un árboladoptada del algoritmo M5 con un método para el tratamiento de los valoresperdidos y un método para la transformación de atributos cuyos valores sonetiquetas en atributos cuyos valores sean 0 ó 1, puesto que ambas caracterís-

27

Page 52: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 2 Estado del Arte

ticas tanto la presencia de atributos sin valor como la mezcla de atributos nonuméricos con atributos numéricos se suelen dar en las series temporales reales.Los algoritmos para tratar estas dos características de las series han sido adop-tados del algoritmo CART. El algoritmo M5’ ha sido usado en esta tesis paraestablecer una comparación entre los resultados obtenidos de su aplicación conlos obtenidos de la aplicación del método de predicción propuesto basado enlos vecinos más cercanos a la predicción de la demanda de energía eléctrica. En[90] se genera un árbol de regresión cuyos cortes en los nodos se determinanasignando dos funciones difusas al valor de corte determinado por el algoritmoCART y que representan los lados izquierdo y derecho del subárbol que cuelgade ese nodo. Estos árboles de regresión difusos clasifican los datos de entradade una red neuronal con la que se predice la demanda maxima diaria para losmeses comprendidos entre junio y septiembre del año 1999 obteniéndose unerror medio de 1.67% y un máximo error de 4.20%.

2.3.3. Métodos no Lineales

Los métodos de predicción no lineales son aquellos que intentan modelar elcomportamiento de una serie temporal mediante una función no lineal. Estafunción no lineal suele ser combinación lineal de funciones no lineales cuyosparámetros hay que determinar.

2.3.3.1. Métodos Globales

Los métodos globales se basan en encontrar una función no lineal que mode-le los datos de salida en función de los datos de entrada. Dentro de los métodosglobales no lineales se encuentran las RNA que presentan la ventaja de que nonecesitan conocer la distribución de los datos de entrada y la ProgramaciónGenética (PG) donde se puede elegir qué tipo de función no lineal modela elcomportamiento de los datos.

2.3.3.1.1. Redes Neuronales ArtificialesLa teoría de redes neuronales está inspirada en los conocimientos existentesdel funcionamiento del sistema nervioso de los seres vivos. A partir de éste,surgen modelos que intentan simular el proceso de aprendizaje de las neuronasinterconectadas en el cerebro. Para ello se definen una serie de capas, dondecada una tiene un número determinado de nodos que se relacionan con la capaanterior. La primera capa se llama vector de entrada, que toma los datos delfichero de aprendizaje y la última capa se denomina vector de salida. Las redesse pueden dividir según el tipo de aprendizaje en tres grupos: con aprendizaje

28

Page 53: Técnicas avanzadas de predicción y optimización aplicadas a ...

Estado del Arte

supervisado, redes auto-organizadas con aprendizaje no supervisado y redeshíbridas que tratan de explotar las ventajas de los dos modelos anteriores.Los paradigmas más extendidos dentro de cada uno de estos tipos de apren-dizaje son: el perceptrón multicapa [107] donde el algoritmo de aprendizajeutiliza una técnica de búsqueda por gradiente y los pesos de la función querelaciona el vector de salida con el de entrada se calculan con un algoritmo deretropropagación (feedforward) [109], las redes auto-organizadas [65] y la redde función de base radial (Radial Basis Function, RBF) [87]. Recientementedistintas arquitecturas y tipos de redes neuronales han sido aplicadas al pro-blema de la predicción de la demanda [46] y los precios [143] para las 24 horasdel día siguiente. En [110] se implementa una red neuronal perceptron mul-ticapa con dos capas intermedias para la predicción del pico de demanda enel sistema eléctrico indio. En el aprendizaje de esta red se emplean distintastécnicas de descenso del gradiente conjugado: método del gradiente conjugadode Fletcher-Reeves, método del gradiente conjugado de Polak-Ribiere, méto-do del gradiente conjugado de Powell-Beale y método del gradiente conjugadoescalado. El número de datos de entrada de la red son 28 y este número esreducido hasta 11 mediante un análisis de componentes principales. Los núme-ros de neuronas de la primera y segunda capa intermedia son 5. Los resultadosmuestran un mejor comportamiento del método del gradiente conjugado dePowell-Beale frente al resto. En [114] se usa una red neuronal perceptron mul-ticapa para la predicción del precio de la energía en el mercado eléctrico deVictoria (Australia) para la hora siguiente. La red implementada tiene unacapa intermedia con 15 neuronas. El número de datos de entrada de la red son15, donde 9 corresponden a valores pasados de la demanda, la reserva y losprecios y 6 corresponden a variables relacionadas con el tiempo que influyenen la demanda. Para el entrenamiento de la red utiliza los meses compren-didos entre octubre del año 1996 y mayo del año 1997. Los resultados de lapredicción de los precios en una semana (desde el 14 de mayo hasta el 20 demayo del año 1997) muestran un error cuadrático medio en esa semana de1.37%. En [67, 19] se usan redes híbridas para predecir la demanda de díasanómalos en el sistema eléctrico italiano. En una primera etapa, mediante unaprendizaje no supervisado se hace un clustering de la demanda obteniendo asíuna clasificación de los tipos de días. Esta clasificación se usa en una segundaetapa en la que se realiza la predicción mediante un aprendizaje supervisadocon un modelo de red perceptrón multicapa. En [67] se implementa una redneuronal con una capa intermedia compuesta de 31 neuronas. El vector deentrada está formado por 51 valores, los 48 valores pasados de la demanda quese quiere predecir y tres variables binarias que codifican la relación entre losdos días previos al que se quiere predecir y éste. La red devuelve como salida

29

Page 54: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 2 Estado del Arte

la demanda de las 24 horas del día siguiente. Para los meses de diciembre yabril considerados meses anómalos por el gran número de días festivos quecomprenden se obtienen unos errores máximos diarios de 7.7% en diciembrey 2.7% en abril. En [19] los resultados obtenidos de la aplicación de una redde función de base radial a la predicción del 30 de diciembre de 1997 y 25 deabril de 1997 (fiesta nacional en Italia) muestran unos errores relativos mediosde 4%. En [76] han sido usadas este tipo de redes híbridas también para lapredicción de la demanda horaria del día siguiente en el sistema eléctrico es-pañol. El clasificador de Kohonen obtiene 15 clusters y una red neuronal esaplicada para cada clase obtenida. El conjunto de entrenamiento está formadopor los días comprendidos entre el 1 de enero del año 1989 y el 31 de diciembredel año 1996. El conjunto test está formado por los días comprendidos entreel 1 de enero del año 1997 y el 17 de febrero de 1999. Los resultados mues-tran un error relativo medio de 1.45% para los días laborables de la semana,un 1.46% para los sábados, un 1.62% para los domingos, un 1.65% para loslunes y un 1.87% para los días de la semana santa. En [102] se usan dos redesneuronales para la predicción de los precios de la energía en Inglaterra y en elpaís de Gales, una red neuronal para los días festivos y otra para los fines desemana, obteniendo unos errores medios de 9.40% para los sábados, un 8.93%para los domingos y un 12.19% para los días festivos. Recientemente para lapredicción de la demanda y los precios se han usado redes neuronales difusasdonde se combinan técnicas conocidas con el nombre de lógica difusa con redesneuronales. El módulo de lógica difusa se encarga de generar reglas del tipoSi-Entonces cuyos parámetros se determinan con el propio aprendizaje de lared y a la vez alimentan a ésta [1], o mediante algún algoritmo evolutivo [63],y las reglas obtenidas se usan después de obtener una predicción provisionalcon la red neuronal para modificar ésta en base a la temperatura, tipo de día,etc.

2.3.3.1.2. Programación GenéticaLa PG [66] es una rama de los AG [43] cuya principal diferencia con éstos sebasa en la codificación de los individuos. En los AG la solución es representa-da por una cadena lineal mientras que en la PG los individuos son funcionesque se representan en estructura de árbol cuyas hojas representan constantesy variables y el resto de nodos representan operadores y funciones matemá-ticas. Uno de los aspectos más importantes en la PG es la representación delos individuos ya que inicialmente hay que elegir el tamaño máximo de losindividuos (profundidad del árbol) y la forma de la función que se busca, esdecir elegir las funciones matemáticas, operadores, constantes y variables quevan a formar los nodos internos y las hojas del árbol. Por ejemplo si se eligen

30

Page 55: Técnicas avanzadas de predicción y optimización aplicadas a ...

Estado del Arte

los operadores +, -, *, /, las variables x, y y z y como conjunto de constanteslos números enteros, un posible individuo puede ser la función (3z+y−x)∗2zcuya representación en árbol se muestra en la figura 2.2. El algoritmo básico

*

- *

*

z2x+

z3

y

Figura 2.2: Representación de un individuo.

es como sigue:

1. Se genera una población inicial formada por composiciones aleatorias defunciones, operadores, constantes y variables.

2. Cálculo de la medida de la calidad de cada individuo.

3. Creación de una nueva población.

Copia de los mejores individuos.

Selección de los padres aleatoriamente. Los padres son cruzadospara crear nuevos individuos.

Los individuos son mutados.

4. Si no se alcanza el número máximo de generaciones, ir al paso 2.

En el caso de aplicar PG a un problema de predicción de una serie temporalla función que mide la calidad de un individuo obviamente sería la inversadel error medio de predicción cometido al usar ese individuo para predecir losejemplos de un conjunto de entrenamiento. El operador cruce consiste en laselección aleatoria de un nodo interior en el árbol padre y otro en el árbolmadre, intercambiando los subárboles que cuelgan de los nodos seleccionados.

31

Page 56: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 2 Estado del Arte

Nótese que no hay ningún inconveniente en aplicar el operador cruce a padresiguales, lo cual es un aspecto importante de la PG, la habilidad que presenta decrear dos individuos a partir de uno sólo. El operador mutación es otra carac-terística importante de la PG. La mutación puede consistir en reemplazar unnodo hoja y un operador o función seleccionados aleatoriamente por otro nodohoja y por otro operador o función. También se puede reemplazar un subárbolseleccionado aleatoriamente por otro subárbol cualquiera. Los estudios sobrePG se pueden dividir en dos grandes grupos, aquéllos que intentan mejorarla eficiencia de la PG y aquéllos que aplican la PG para obtener un modelocualitativo que explique el comportamiento del sistema en función de los datosde entrada y así poder usar el modelo obtenido para predecir en un futuro.En [33] se propone una codificación lineal de longitud fija para los individuosen lugar de individuos no lineales de distinto tamaño y forma. En [103] sereduce el espacio de búsqueda de las soluciones mediante una PG dirigida poruna gramática simple. Existen algunas aplicaciones de la PG a la predicciónde series temporales. En [54] se presenta una medida de probabilidad de lapredecibilidad de una serie temporal. Esta medida viene dada por:

µ = 100 · (1 − SSEY

SSES

) (2.8)

donde Yt es la serie temporal que se pretende predecir, St es la serie tempo-ral que se obtiene a partir de Yt haciendo una reordenación aleatoria de ésta,SSE es la suma de los errores cuadráticos para el mejor individuo obtenidode la aplicación de PG a una serie temporal determinada y SSE es la mediade los errores cuadráticos obtenidos para los mejores individuos en un númerodeterminado de ejecuciones del algoritmo de PG. Si la serie temporal Yt es es-tocástica entonces la PG no tiene poder predictivo ya que la serie temporal nose puede modelar mediante una función y en este caso, al menos teóricamente,el cociente SSEY /SSES es aproximadamente 1. Entonces µ es aproximada-mente cero, lo cual quiere decir que la serie temporal Yt no es predecible. Sila serie temporal Yt es determinista, se tiene que SSEY < SSES y mientrasmás pequeño sea el error SSEY mayor será la medida µ y por tanto la pre-decibilidad de la serie. En [55] se predice la serie temporal mensual formadapor el precio del crudo utilizando tres técnicas distintas: PG, RNA y un cami-no aleatorio. Como conjunto de entrenamiento usa los valores mensuales delprecio del crudo para los años comprendidos entre 1993 y 1997 (60 datos). Elconjunto test está formado por los valores mensuales del año 1999 (12 datos).El año 1998 no es considerado ni en el entrenamiento ni en el test debido aque en este año tuvo lugar la Guerra del Golfo. Los resultados que se obtienende la aplicación de estas técnicas muestran un mejor comportamiento de la

32

Page 57: Técnicas avanzadas de predicción y optimización aplicadas a ...

Estado del Arte

PG frente a la RNA y al camino aleatorio ya que los errores relativos mediosson de 7% para la PG, 7.6% para el camino aleatorio y 9.4% para la RNA.En [36] se predice el color del océano utilizando PG. Para predecir el colordel océano basta con predecir la concentración de fitoplancton que hay en elocéano. Para ello se busca una función que depende de las concentraciones deotras sustancias que influyen en la concentración de fitoplancton.

2.3.3.2. Métodos Locales: Vecinos

Dada la complejidad de encontrar una función no lineal que modele el siste-ma, surgen los modelos locales como métodos de aprendizaje para la predicciónde series temporales. Estos modelos consisten en predecir un punto usando sólolos puntos vecinos de los datos de entrada. Dentro de los métodos locales no li-neales se encuentran las técnicas de los vecinos más cercanos que suelen generarpredicciones más aproximadas que los métodos globales. Las técnicas de veci-nos más cercanos (NN, Nearest Neighbours) basan su criterio de aprendizaje enla hipótesis de que los miembros de una población suelen compartir propieda-des y características con los individuos que los rodean, de modo que es posibleobtener información descriptiva de un individuo mediante la observación desus vecinos más cercanos. En 1967 Cover y Hart [25] enuncian formalmente laregla del vecino más cercano y la desarrollan como herramienta de clasifica-ción de patrones. Desde entonces, este algoritmo se ha convertido en uno delos métodos de clasificación más usados [23, 24, 27]. La regla de clasificaciónNN se resume básicamente en el siguiente enunciado: Sea D = {e1, . . . , eN} unconjunto de datos con N ejemplos etiquetados, donde cada ejemplo ei contienem atributos (ei1, . . . , eim), pertenecientes al espacio métrico Em, y una claseCi ∈ {C1, . . . , Cd}. La clasificación de un nuevo ejemplo e′ cumple que

e′ � Ci ⇔ ∀j �= i · d(e′, ei) < d(e′, ej) (2.9)

donde e′ � Ci indica la asignación de la etiqueta de clase Ci al ejemplo e′; yd expresa una distancia definida en el espacio m-dimensional Em. Así, unejemplo es etiquetado con la clase de su vecino más cercano según la métricadefinida por la distancia d. La elección de esta métrica es primordial, ya quedetermina qué significa más cercano. La aplicación de métricas distintas sobreun mismo conjunto de entrenamiento puede producir resultados diferentes. Sinembargo, no existe una definición previa que indique si una métrica es buena ono. Esto implica que es el experto quien debe seleccionar la medida de distanciamás adecuada. En el caso de clases continuas, la regla NN puede generalizarsecalculando los k vecinos más cercanos y asignando una media ponderada de lasetiquetas continuas de esos vecinos. Tal generalización se denomina k-NN. Este

33

Page 58: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 2 Estado del Arte

algoritmo necesita la especificación a priori de k, que determina el número devecinos que se tendrán en cuenta para la predicción. Al igual que la métrica,la selección de un k adecuado es un aspecto determinante. El problema dela elección del parámetro k ha sido ampliamente estudiado en la bibliografía.Existen diversos métodos para la estimación de k [134]. Otros autores [28]han abordado el problema incorporando pesos a los distintos vecinos paramitigar los efectos de la elección de un k inadecuado. Otras alternativas [104]intentan determinar el comportamiento de k en el espacio de característicaspara obtener un patrón que determine a priori cuál es el número de vecinosmás adecuado para clasificar un ejemplo concreto dependiendo de los valoresde sus atributos. En un estudio más reciente [34] se desarrolla un algoritmode clasificación NN no parametrizado que adapta localmente el valor k. Elalgoritmo k-NN se engloba dentro de las denominadas técnicas de aprendizajeperezoso (lazy learning), ya que no genera una estructura de conocimientoque modele la información inherente del conjunto de entrenamiento, sino queel propio conjunto de datos representa el modelo. Cada vez que se necesitaclasificar un nuevo ejemplo, el algoritmo recorre el conjunto de entrenamientopara obtener los k vecinos y predecir su clase. Esto hace que el algoritmosea computacionalmente costoso tanto en tiempo, ya que necesita recorrer latotalidad de los ejemplos en cada predicción, como en espacio, por la necesidadde mantener almacenado todo el conjunto de entrenamiento. Para reducir elcoste computacional de la búsqueda del vecino más cercano en el año 2000Ramasubramanian y Paliwal [100] proponen un esquema de búsqueda poraproximación y eliminación que se resume como sigue:

Se selecciona un candidato a vecino más cercano de entre los ejemplosde un conjunto de entrenamiento (aproximación).

Se calcula la distancia d de este candidato a la muestra

Si esa distancia es menor que la del vecino más cercano hasta el momento,se actualiza el vecino más cercano y se eliminan del conjunto de entrena-miento aquellos ejemplos que no puedan estar más cerca de la muestraque el vecino cercano actual. Para determinar si un ejemplo puede es-tar más cerca de la muestra que el vecino más cercano actual hace faltacalcular su distancia a la muestra, por lo que muchos algoritmos lo quehacen es obtener de alguna manera una cota inferior de dicha distanciay eliminar aquellos ejemplos cuya cota inferior sea mayor que d.

Estos autores se basan en el algoritmo AESA [130] que se caracteriza princi-palmente por calcular un número reducido de distancias que no depende del

34

Page 59: Técnicas avanzadas de predicción y optimización aplicadas a ...

Estado del Arte

tamaño del conjunto de entrenamiento. Esta característica es interesante cuan-do el cálculo de la distancia entre dos elementos es muy costoso, por ejemplo silos elementos son representados en una estructura de árbol y para computar ladistancia hay que recorrer el árbol. El algoritmo AESA tiene un inconveniente,en la etapa de preprocesado hay que calcular una matriz de distancias dondese almacenan todas las distancias entre todos los ejemplos del conjunto de en-trenamiento por lo que la complejidad espacial de este algoritmo es cuadrática.De esta forma surge el algoritmo LAESA [85] que supera el problema de lacomplejidad espacial cuadrática. Para ello, en la etapa de preprocesado se eligea partir del conjunto de entrenamiento un conjunto B de ejemplos base, se cal-cula la distancia de cada ejemplo base a todos los demás ejemplos del conjuntode entrenamiento y se almacena en una matriz que ya no es cuadrada. Así, lacomplejidad espacial del LAESA es lineal con respecto al tamaño del conjuntode entrenamiento. Pese a los numerosos inconvenientes respecto a la eficiencia(coste computacional) y la eficacia (elección de la métrica y el k adecuados),k-NN tiene en general un buen comportamiento. Cover y Hart [25] demostra-ron que, cuando el número de ejemplos tiende a infinito, el error asintótico deNN está acotado superiormente por el doble del error de Bayes, considerado elerror óptimo. La técnica de los vecinos más cercanos y algunas variantes hansido aplicadas a la predicción de series temporales. En [52] se presenta unanueva estrategia para la elección del número de vecinos cercanos que se usaen la predicción de una serie temporal formada por datos hidrológicos. Estaestrategia consiste en estimar la varianza del error en función del número devecinos. Entonces el mejor modelo para predecir es aquel que da lugar a lamenor varianza. Por tanto la estrategia consiste en determinar el número devecinos que hace la varianza mínima. En [81] se presenta un modelo local parala predicción de series temporales donde algunos parámetros que afectan a laaproximación del modelo son determinados minimizando el error mediante unalgoritmo de optimización basado en el descenso del gradiente. El error quese minimiza es el error de cross-validación dejando uno fuera (Leave-One-OutCross Validation) el cual se obtiene de la siguiente manera: se entrena con to-dos los ejemplos del conjunto de entrenamiento para determinar el modelo depredicción dejando un ejemplo fuera para realizar el test y se calcula el errorobtenido de la predicción de este ejemplo test. Esto se repite con todos losejemplos y la media de todos los errores obtenidos es el error que se minimiza.La técnica de búsqueda basada en el gradiente tiene el inconveniente de quepuede alcanzar un mínimo local de la función error lo que afectaría a la aproxi-mación del modelo. En [9] se presenta un algoritmo evolutivo para determinarla longitud de la ventana óptima la cual es uno de los parámetros necesariospara poder reconstruir la dinámica del sistema a partir de una serie temporal.

35

Page 60: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 2 Estado del Arte

Es decir, para la predicción de una serie temporal Xt se pretende encontraruna función f tal que los valores futuros se estimen en función de los valorespasados de la serie de la siguiente forma:

Xt+δ � f([Xt, Xt−1, Xt−2, . . . , Xt−(m−1)]) (2.10)

La longitud de la ventana, es decir, el parámetro m, influye en la aproxima-ción del modelo de predicción obtenido. En [112] se presenta un método depredicción basado en el vecino más cercano para predecir las ventas de cuatroproductos de una compañía localizada en el suroeste de Inglaterra. Para me-dir la proximidad entre dos puntos yi y yn de la serie temporal se define unafunción difusa dada por:

µ =1

(d(yi, yn)/Fd)Fe(2.11)

donde Fd y Fe son constantes determinadas mediante experimentos y d es ladistancia Euclídea entre los puntos yi y yn. Entonces dos puntos se consideranvecinos cercanos si esta función miembro es mayor que un umbral que se de-termina mediante experimentos. En [41] se aplica el algoritmo de los vecinosmás cercanos a la predicción de series temporales artificiales y datos realesprocedentes de una planta dedicada al tratamiento de aguas residuales de Ge-rona. En este trabajo se definen dos distancias, una distancia donde los valoresexactos son relevantes y otra donde la forma de la curva que forman los va-lores es lo importante a la hora de decidir si dos puntos son vecinos. En [45]se presenta un método de predicción basado en las trayectorias vecinas máscercanas y una vez determinadas las trayectorias más cercanas se determinanlos vecinos más cercanos localizados en estas trayectorias. La métrica usadapara el cálculo tanto de las trayectorias vecinas como de los vecinos más cer-canos en estas trayectorias es la distancia Euclídea ponderada por unos pesosexponenciales de la forma λi. Los pesos y el número de trayectorias vecinas sedeterminan mediante un algoritmo de optimización cuya función objetivo esel error de cross-validación.

2.4. Técnicas de Optimización

Una gran variedad de problemas, que aparecen en campos como la Inge-niería o la Economía, basados en casos reales, se pueden modelar como unproblema de optimización. Existen distintas clasificaciones de los problemasde optimización según el criterio que se elija. Los problemas de optimización

36

Page 61: Técnicas avanzadas de predicción y optimización aplicadas a ...

Estado del Arte

se pueden clasificar dentro de dos grandes grupos: Programación Lineal y Pro-gramación no Lineal, donde tanto la función objetivo como las ecuaciones quemodelan las restricciones del problema son lineales o no lineales, respectiva-mente. A su vez dependiendo de si existen algunas variables enteras, estos dosgrupos de subdividen en otros dos: Programación Lineal Entera Mixta y Pro-gramación no Lineal Entera Mixta. Atendiendo a la convexidad de la funciónobjetivo y las restricciones, también se pueden clasificar en Programación Con-vexa o Programación No Convexa. En esta sección se describe brevemente elproblema de la PHC y las técnicas de optimización existentes en la literaturaque han sido aplicadas para la resolución de dicho problema destacando lasprincipales ventajas y desventajas de cada técnica. El problema de la PHCconsiste en determinar los arranques y paradas de las centrales térmicas (UnitCommitment) y la producción de energía eléctrica de los grupos térmicos e hi-dráulicos (Coordinación Hidrotérmica) durante un horizonte temporal de cortoplazo, normalmente 24 horas, de manera que se satisfaga la demanda horaria,estimada en base a una predicción, y se minimice el coste de explotación delsistema. La formulación matemática de este problema se detalla a continua-ción. Función Objetivo: La función objetivo a minimizar representa el coste

total del sistema y esta formado por los costes de producción y los costes dearranque y parada de las centrales. El coste total viene dado por:

CT =

nt∑t=1

ng∑i=1

Ci,t · Ui,t + CAi,t(Si,t) · Yi,t + CPi · Zi,t (2.12)

donde

CT es el coste total.

nt es el número de horas del horizonte de programación y ng el númerode centrales térmicas.

Ui,t es una variable binaria que es igual a 1 si el generador i está acopladoen la hora t.

Yi,t y Zi,t son variables binarias que son igual a 1 si el generador i seacopla o se desacopla al principio de la hora t, respectivamente.

Ci,t son los costes de producción dados por la siguiente curva cuadrática:

Ci,t = C(Pi,t) = aiP2i,t + biPi,t + ci (2.13)

37

Page 62: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 2 Estado del Arte

CAi,t(Si,t) son los costes de arranque que dependen del número de horas,St, que el generador lleva apagado.

CPi son los costes de parada que se consideran independientes del tiempo.

Restricciones: Las distintas restricciones que aparecen en el problema de laPHC son las restricciones propias de las centrales y las restricciones del sistemaentre las que se encuentran las restricciones de demanda y las de reserva.Restricciones de las centrales: Las restricciones técnicas de las centrales

que se imponen al problema son:

Límites máximos y mínimos sobre la producción de energía horaria delas centrales térmicas e hidráulicas.

Pmi ≤ Pi,t ≤ PM

i i = 1, . . . , ng t = 1, . . . , nt (2.14)PHm

h ≤ PHh,t ≤ PHMh h = 1, . . . , nh t = 1, . . . , nt (2.15)

donde nh es el número de centrales hidráulicas, PHh,t es la producciónde energía generada por la central hidráulica h en la hora t y Pm

i , PMi ,

PHmh y PHM

h son los límites sobre la producción de energía de la centraltérmica i y de la central hidráulica h, respectivamente.

Las rampas de subida y bajada. Las centrales térmicas no pueden aumen-tar o disminuir la producción de energía de una hora a la siguiente másde una determinada cantidad.

−RBi ≤ Pi,t − Pi,t−1 ≤ RSi i = 1, . . . , ng t = 1, . . . , nt (2.16)

donde RSi y RBi son las rampas máximas de subida y de bajada de lacentral térmica i respectivamente.

Limitación del agua disponible. Las centrales hidráulicas tienen restric-ciones de combustible, ya que su combustible, el agua, es un recursolimitado. Así la energía hidráulica de una central está limitada por elvolumen de agua disponible en el embalse asociado a ésta. A su vez lacapacidad de cada embalse está sujeta a límites de capacidad, es decir:

V Hmh ≤ V Hh,t ≤ V HM

h h = 1, . . . , nh t = 1, . . . , nt (2.17)

donde V Hh,t es el volumen de agua del embalse h, asociado a la centralh, en la hora t; V Hm

h y V HMh son los límites mínimos y máximos sobre el

volumen del embalse asociado a la central hidráulica h, respectivamente.

38

Page 63: Técnicas avanzadas de predicción y optimización aplicadas a ...

Estado del Arte

Acoplamiento entre volúmenes. Al tratarse de centrales situadas en unacuenca hidráulica, existe un acoplamiento espacio-tiempo entre las dis-tintas centrales de la cuenca, pues parte del agua que turbina una centralpara generar energía es usada por la central situada justo aguas abajocuando llega a su embalse con un cierto retraso temporal. Esto se modelacomo sigue:

V Hh,t = V Hh,t−1 − PHh,t +∑

sig(k)=h

PHk,t−ret(k) +Wh (2.18)

donde ret(h) es el tiempo en horas desde que se vierte el agua turbinadaen la central h hasta que llega al siguiente embalse, sig(h), situado aguasabajo de la central h y Wh son las aportaciones externas de agua en elembalse asociado a la central h.

Tiempo mínimo de parada y funcionamiento. El tiempo mínimo de fun-cionamiento , UTi, es el número mínimo de horas que una central debepermanecer acoplada una vez que se pone en funcionamiento. De formaanáloga, el tiempo mínimo de parada, DTi, representa el número mínimode horas que una central debe mantenerse desacoplada una vez que dejade funcionar. Esto se modela como sigue:

(Xi,t − UTi) · (Ui,t−1 − Ui,t) ≥ 0 (2.19)(Si,t +DTi) · (Ui,t − Ui,t−1) ≤ 0 (2.20)

donde Xi,t es una variable que indica el número de horas que lleva aco-plada la central i al final de la hora t.

Restricciones del sistema:

La producción total de energía horaria debe ser igual a la demanda deenergía en esa hora, Dt, estimada en base a una predicción.

ng∑i=1

Pi,t · Ui,t +

nh∑h=1

PHh,t = Dt t = 1, ..., nt (2.21)

La reserva, Rt, es la energía que el sistema debe ser capaz de proporcionarde forma rápida en caso de fallo en alguna central o algún incidente noprevisto.

ng∑i=1

PMi · Ui,t +

nh∑h=1

PHMh ≥ Dt +Rt t = 1, ..., nt (2.22)

39

Page 64: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 2 Estado del Arte

La PHC es un problema de naturaleza combinatoria, no lineal, no convexo,entero-mixto y de gran dimensión cuando se trata de un sistema realista. Latabla 2.1 muestra el número de restricciones, variables binarias y variables con-tinuas que establecen la complejidad computacional del problema. Por ejemplo,para un sistema formado por 49 centrales térmicas, una cuenca hidráulica for-mada por dos centrales y un horizonte de programación de 24 horas se obtienen2642 restricciones, 1176 variables binarias y 1272 variables continuas. En las

Número de VariablesNúmero de Restricciones Binarias Continuas

(2 · ng + 3 · nh + 2) · nt + 2 · ng ng · nt (ng + 2 · nh) · nt

Tabla 2.1: Dimensión del problema.

siguientes secciones se describen los algoritmos de optimización más relevantesque han sido aplicados para la resolución del problema de optimización descritoanteriormente.

2.4.1. Programación Dinámica

La solución de problemas de optimización mediante esta técnica se basaen el llamado principio de optimalidad enunciado por Bellman en 1957 [11]y que dice: “En una secuencia óptima de decisiones toda subsecuencia ha deser también óptima”. Obsérvese que aunque este principio parece evidente nosiempre es aplicable y por tanto es necesario verificar que se cumple para elproblema en cuestión. Para que un problema pueda ser abordado por estatécnica ha de cumplir dos condiciones:

La solución al problema ha de ser alcanzada a través de una secuenciade decisiones, una en cada etapa.

Dicha secuencia de decisiones ha de cumplir el principio de optimalidad.

En grandes líneas, el diseño de un algoritmo de Programación Dinámica (PD)consta de los siguientes pasos:

Planteamiento de la solución como una sucesión de decisiones y verifica-ción de que ésta cumple el principio de optimalidad.

Definición recursiva de la solución.

Cálculo del valor de la solución óptima mediante una tabla en donde sealmacenan soluciones a problemas parciales para reutilizar los cálculos.

40

Page 65: Técnicas avanzadas de predicción y optimización aplicadas a ...

Estado del Arte

Construcción de la solución óptima haciendo uso de la información con-tenida en la tabla anterior.

La esencia de la PD aplicada al problema de la PHCT, conocido en la literaturacomo Unit Commitment (UC) [136], consiste en que la potencia generada porla unidad N debe ser tal que la demanda total menos esa potencia sea generadapor las N − 1 unidades restantes a coste mínimo. Las aproximaciones basadasen PD fueron de los primeros algoritmos de optimización que se usaron enla resolución de la PHCT [113, 51]. La principal ventaja de esta técnica essu capacidad de resolver problemas de distintos tamaños y su facilidad demodificación para modelar algunas características específicas. Es relativamentefácil añadir restricciones que afectan a una hora determinada aunque resultamás difícil añadir restricciones que afecten a una unidad [69], sin embargo haceun tratamiento subóptimo de las restricciones de rampas de subida y bajaday de los costes de arranques cuando éstos dependen del tiempo [70].

2.4.2. Programación Lineal Entera-Mixta: Ramificacióny Cota

Un problema de programación lineal entera mixta [92] es un problema deprogramación lineal en el que algunas variables son enteras. El método desolución más habitualmente empleado en la resolución de problemas de pro-gramación lineal entera mixta es el denominado “ramificación y cota” (branchand bound). El método de ramificación y cota resuelve un problema de progra-mación lineal entera mixta mediante la resolución de múltiples problemas deprogramación lineal, es decir, problemas en los que se relajan las restriccionesrelacionadas con las variables enteras. Estos problemas incluyen restriccionesadicionales en cada paso del procedimiento de resolución, por lo que están ca-da vez más restringidos. Estas restricciones adicionales separan la región defactibilidad en subregiones complementarias. El procedimiento de ramificacióny cota establece inicialmente una cota superior y otra cota inferior al valor óp-timo de la función objetivo del problema a resolver. Mediante procedimientosde “ramificación”, el valor de la cota superior se reduce y el de la cota inferiorse aumenta de forma sistemática a medida que se generan mejores solucionesfactibles del problema de programación lineal entera mixta. La diferencia entreel valor de la cota superior y el de la cota inferior es una medida de la proxi-midad de la cota superior al valor óptimo de la función objetivo del problema.En [68] y [20] se resuelve el problema de la PHCT mediante un algoritmo deramificación y cota en el cual se incorporan todas las restricciones que depen-den del tiempo y no requiere una ordenación de las unidades térmicas. En

41

Page 66: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 2 Estado del Arte

[50] se modela el problema de la PHCT como un problema de programacióncon restricciones lógicas y se resuelve con una técnica de ramificación y cotadando lugar a una solución eficiente. Otros problemas en la literatura han sidomodelados como un problema de optimización lineal entera mixta. En [7] seformula el problema de la programación óptima de una central térmica en unmercado de electricidad liberalizado mediante un problema de programaciónlineal entera mixta. Los costes de operación no diferenciables y no convexos,los costes de arranques que dependen del tiempo, las restricciones de tiempomínimo de parada y funcionamiento de la central y la restricción de reser-va teniendo en cuenta las restricciones de rampas se modelan de una manerarigurosa mediante ecuaciones lineales.

2.4.3. Relajación Lagrangiana

La Relajación Lagrangiana (RL) [10] es una técnica que permite determi-nar la solución de un problema de optimización general denominado problemaprimal mediante la resolución de un problema alternativo de más fácil solucióndenominado problema dual. Basado en la teoría de la dualidad, el método deRL busca aquellos valores de los multiplicadores de Lagrange que maximicenla función objetivo del problema dual. Sin embargo, debido a la no convexi-dad de la mayoría de los problemas de optimización, la solución óptima delproblema dual no coincide exactamente con la solución óptima del problemaprimal. A la diferencia entre el mínimo del problema primal y el máximo delproblema dual se le llama agujero de dualidad. El óptimo del problema duales un límite inferior del valor óptimo de la función objetivo del problema pri-mal, debido a la relajación de las restricciones. La principal desventaja de larelajación lagrangiana es que la solución óptima del problema dual puede pro-porcionar una solución infactible para el problema primal. Esto implica quelas variables del problema dual deben modificarse mediante estrategias heu-rísticas para obtener una solución primal factible. Mediante la técnica de larelajación lagrangiana se obtienen una cota superior y una cota inferior delóptimo del problema primal. La cota superior se obtiene de la mejor soluciónfactible encontrada para el problema primal, y la cota inferior se obtiene de lasolución del problema dual. Típicamente, para sistemas de tamaño realista, ladiferencia relativa entre estos dos valores es un pequeño tanto por ciento. Losmétodos más utilizados para actualizar los multiplicadores del problema dualhan sido el método del subgradiente [97] y el método de los planos cortantes yvariantes [58, 47, 53]. Esta técnica es mucho más reciente que la PD y presentaun buen comportamiento en problemas con un gran número de variables yaque el grado de suboptimalidad, que es su principal desventaja, tiende a cero

42

Page 67: Técnicas avanzadas de predicción y optimización aplicadas a ...

Estado del Arte

cuando el número de variables aumenta. En el problema de la PHCT, la me-todología de relajación lagrangiana emplea multiplicadores de Lagrange paraincorporar las restricciones de carga (demanda y reserva rodante) a la funciónobjetivo para formar la función lagrangiana. La restricción de demanda con-siste en la igualdad entre la energía que se genera y la energía que se consumey la restricción de reserva consiste en la potencia que el sistema debe ser capazde proporcionar de forma rápida en caso de fallo en alguna central. Para ellose impone que la suma de los márgenes de potencia disponibles sea mayor oigual que una cantidad determinada llamada reserva. Para unos valores fijos delos multiplicadores de Lagrange la función lagrangiana es separable por cen-tral. Por lo tanto, la minimización de la función lagrangiana se descompone enproblemas de minimización más pequeños, uno por cada central. Existen en laliteratura algunas mejoras y reducción de la complejidad de esta técnica. En[116] se propone la resolución de un problema entero-mixto para obtener unasolución del problema de la PHCT a partir de una solución factible óptimaobtenida por RL. La idea principal que motiva esta mejora es el hecho de queusando RL las programaciones de arranques y paradas de las unidades térmicasse repiten después de unas cuantas iteraciones. Además cuando los multiplica-dores se actualizan tampoco se obtienen nuevas programaciones de arranquesy paradas, sino que se intenta obtener una solución factible combinación linealde soluciones factibles ya existentes. Incluso aunque en las últimas iteracionesse generen nuevas programaciones de arranques y paradas su contribución a lacalidad de la solución es mínima. Por tanto después de las primeras iteracionesla solución obtenida mediante RL es mejorada mediante un problema de op-timización entero-mixto. En [18] se mejora el método de RL incorporando unalgoritmo genético para actualizar los multiplicadores, ya que una dificultadde los métodos basados en RL es que su comportamiento depende del métodode actualización de los multiplicadores de la función de Lagrange.

2.4.4. Métodos de Punto Interior

En los últimos años los métodos de Punto Interior [119, 133, 42, 44, 73]han sido adaptados para resolver problemas de optimización no lineales, debi-do principalmente a su eficiencia en la resolución de problemas lineales de grandimensión. Una de sus principales ventajas es su capacidad en lo que respectaal tratamiento de las restricciones de desigualdad [137, 30]. En 1984 Karmarkar[56] demostró que estos algoritmos eran de un tiempo de computación polino-mial para problemas lineales, mientras que el método del simplex no lo es. En1992 Mehrotra [84] desarrolló una variante conocida como algoritmo de PuntoInterior Predictor-Corrector, cuya principal diferencia está en la resolución del

43

Page 68: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 2 Estado del Arte

sistema de ecuaciones. El sistema lineal se resuelve en dos pasos, despreciandoen primer lugar los términos de penalización y calculando a continuación unmejor valor de la penalización antes de volver a resolver el sistema, incluyendoahora términos de segundo orden. El resolver dos sistemas en cada iteraciónno es mucho más costoso computacionalmente puesto que la matriz en los dossistemas es la misma, con lo que la factorización se realiza sólo una vez. Es-ta variante ha sido usada en muchas aplicaciones [138, 78]. Muchas mejorashan sido propuestas para extender la aplicación de los métodos de Punto In-terior a problemas no lineales no convexos. Estas mejoras están relacionadascon el control del tamaño del paso [139, 140], técnicas de búsqueda en líneapara forzar la convergencia hacia un mínimo local desde un punto inicial ar-bitrario [37, 129] y uso de regiones de confianza [16]. Las técnicas de PuntoInterior básicamente consisten en optimizar mediante Penalización de BarreraLogarítmica.

Se trata de convertir las restricciones de límites en ecuaciones mediante laintroducción de variables de holgura y asegurar la positividad de estas variablespenalizando la función objetivo a través de términos logarítmicos ponderadospor el factor de penalización µ. En lo que sigue, por simplicidad de notación,se describirá el algoritmo de Punto Interior para un problema de una únicavariable sujeta a límites con sólo una restricción de igualdad. Se considera elproblema siguiente,

Minimizar f(x)

sujeto a h(x) = 0xm ≤ x ≤ xM

(2.23)

donde x es una variable, xm es una cota inferior, xM es un cota superior, f(x)es la función objetivo a minimizar y h(x) es una restricción de igualdad. Sedefinen las variables de holgura:

xs = xM − x (2.24)xi = x− xm (2.25)

De esta manera en vez de resolver el problema (2.23) se pretende resolver elsiguiente problema:

Minimizar f(x)

sujeto a h(x) = 0xs + x− xM = 0

xi − x+ xm = 0

xs, xi ≥ 0

(2.26)

44

Page 69: Técnicas avanzadas de predicción y optimización aplicadas a ...

Estado del Arte

Así se ha pasado de un problema con restricciones de desigualdad a un pro-blema con restricciones de igualdad salvo la condición de no negatividad delas variables de holgura que se han introducido. Estas condiciones de no ne-gatividad se tratan añadiendo a la función objetivo una “función de barreralogarítmica”. Básicamente, consiste en penalizar una función que tome valorescada vez mayores cuando estas variables de holgura se vayan acercando a cero.Así el problema (2.26) se transforma en:

Minimizar f(x) − µ(ln xs + ln xi)

sujeto a h(x) = 0xs + x− xM = 0

xi − x+ xm = 0

(2.27)

donde µ es un parámetro, factor de penalización, que tiende a cero cuandoel algoritmo converge al óptimo. Como se pone de manifiesto la penalizaciónlogarítmica asegura que todas las variables permanezcan dentro de sus límites(“Punto Interior”). El problema (2.27) sólo tiene restricciones de igualdad y sele puede aplicar el Método de los Multiplicadores de Lagrange. Se define lafunción Lagrangiana:

Lµ = f(x) + λh(x) + zs(xs + x− xM ) + zi(xi − x+ xm) − µ(lnxs + lnxi) (2.28)

donde λ, zs y zi son los Multiplicadores de Lagrange o variables duales. Deri-vando respecto a cada variable e igualando a cero, se obtienen las condicionesde optimalidad siguientes:

∇xLµ = f ′(x) + h′(x)λ− zi + zs = 0

∇xsLµ = − µxs

+ zs = 0 =⇒ xszs = µ

∇xiLµ = − µ

xi+ zi = 0 =⇒ xizi = µ

∇zsLµ = xs + x− xM = 0

∇ziLµ = xi − x+ xm = 0

∇λLµ = h(x) = 0

El algoritmo de Punto Interior (“Algoritmo Primal-Dual de Barrera Logarítmi-ca”) consiste en resolver iterativamente las ecuaciones de optimalidad reducien-do al mismo tiempo el factor de penalización µ. Las ecuaciones de optimalidad,debido a su carácter no lineal, se resuelven con el Método de Newton. Apli-cando el Método de Newton a las ecuaciones de optimalidad, las correcciones

45

Page 70: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 2 Estado del Arte

a las variables del problema vienen dadas por el sistema de ecuaciones:

a(x, λ)∆x +h′(x)∆λ +∆zs −∆zi = −b(x, λ)h′(x)∆x = −h(x)

∆x +∆xs = −(xs + x− xM )

−∆x +∆xi = −(xi − x+ xm)

zi∆xi +xi∆zi = −(xizi − µ)zs∆xs +xs∆zs = −(xszs − µ)

donde

a(x, λ) = f ′′(x) + λh′′(x) (2.29)b(x, λ) = f ′(x) + h′(x)λ− zi + zs (2.30)

De la tercera y cuarta ecuación se tiene:

∆xs = −(xs + x− xM ) − ∆x

∆xi = −(xi − x+ xm) + ∆x.(2.31)

Sustituyendo estas expresiones de ∆xs y ∆xi en la quinta y sexta ecuación seobtiene:

∆zs = µ 1xs

+ zs

xs(x− xM ) + zs

xs∆x

∆zi = µ 1xi

+ zi

xi(xm − x) − zi

xi∆x.

(2.32)

Introduciendo estas expresiones en la primera ecuación el sistema que hay queresolver es:

a′(x, λ)∆x +h′(x)∆λ = b′(x, λ)h′(x)∆x = −h(x) (2.33)

donde

a′(x, λ) = a(x, λ) +zixi

+zsxs

(2.34)

b′(x, λ) = −b(x, λ) + µ(1

xi− 1

xs) +

zixi

(xm − x) +zsxs

(xM − x) (2.35)

Matricialmente,[a′(x, λ) h′(x)h′(x) 0

]·[

∆x∆λ

]=

[b′(x, λ)−h(x)

](2.36)

46

Page 71: Técnicas avanzadas de predicción y optimización aplicadas a ...

Estado del Arte

De esta manera el problema se reduce a resolver un sistema de ecuaciones lineal,cuya matriz es simétrica y en general no es definida positiva. Una vez resueltoel sistema para los incrementos ∆x y ∆λ se obtienen el resto de variablesde las ecuaciones (2.31) y (2.32). El sistema se resuelve con sólo una únicaiteración del Método de Newton, pues las condiciones de optimalidad que hayque resolver cambian al actualizar µ. Así el Algoritmo de Punto Interior sepuede describir de una manera general como sigue:

1) Inicialización de variables primales y duales, x, λ, xs, xi, zs, zi.

Inicialización de µ.

2) Resolución del sistema de ecuaciones, obteniendo como solución: ∆x, ∆λ,∆xs, ∆xi, ∆zs, ∆zi.

3) Actualización de variables primales y duales, teniendo en cuenta que setienen que mantener dentro de la región factible, en este caso positivas.Para asegurar esto, se calcula una longitud de avance que multiplica atodos los incrementos obtenidos en el paso 2. Actualización del factor depenalización.

4) Test de parada. Si éste no se cumple, ir al paso 2.

Se han propuesto múltiples técnicas para reducir sucesivamente µ en cadaiteración [119, 82, 140], pero la más inmediata viene dada por las condicionesde optimalidad. Si se define el Error de Dualidad como el producto siguiente:

El = zl · xl (2.37)

donde xl es cualquier variable de holgura y zl su variable dual asociada, setiene que:

µ = El (2.38)

Luego se calcula el factor de penalización proporcional al error de dualidadmedio en cada iteración, una vez que se han actualizado las variables:

µ =β

L

L∑l=1

El, 0 ≤ β ≤ 1 (2.39)

donde L es el número de variables de holgura introducidas para resolver elproblema. La figura 2.3 describe de una manera general la estructura de unalgoritmo de Punto Interior. En lo que respecta a la resolución del problema de

47

Page 72: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 2 Estado del Arte

Inicialización

Cálculo del Error Dual yGradiente

Cálculo del factor depenalización

¿Convergencia?

Actualización devariables

Cálculo del avance

Solución del sistemalineal

SoluciónÓptima

SI

NO

Figura 2.3: Algoritmo de Punto Interior

la PHCT existen numerosos trabajos basados en algoritmos de Punto Interior.En [83] se comparan distintos códigos comerciales y sus principales ventajas.En [82] se aplica una técnica de clipping-off que consiste en resolver el proble-ma relajando las variables de naturaleza discreta. Una vez resuelto el problemarelajado la mayoría de las variables binarias alcanzan sus límites excepto unnúmero reducido, las cuales se determinan mediante un procedimiento heurís-tico.

2.4.5. Algoritmos Genéticos

Un algoritmo genético [48, 43, 86] es una técnica de optimización de propó-sito general basada en principios inspirados en la evolución biológica, es decir,

48

Page 73: Técnicas avanzadas de predicción y optimización aplicadas a ...

Estado del Arte

la selección natural, recombinación genética y supervivencia de los mejores dela especie. La búsqueda comienza con un conjunto (población) suficientementegrande de soluciones (individuos) generadas aleatoriamente. Este conjunto desoluciones forma la primera generación. Mediante procesos de selección, crucey mutación se obtienen nuevas generaciones de soluciones del problema. Lascaracterísticas del conjunto inicial de soluciones mejoran en términos de lafunción objetivo de generación en generación. Tras un número suficiente de ge-neraciones se obtienen soluciones consideradas “buenas”. Recientemente [35], seha demostrado la convergencia asintótica al óptimo de esta técnica de optimi-zación. Un programa evolutivo es un algoritmo probabilista que converge trasuna serie de iteraciones. Este algoritmo mantiene una población de individuosen cada iteración, donde cada individuo representa una solución potencial delproblema a resolver y en cualquier técnica se implementa o codifica como unaestructura de datos más o menos compleja. Cada solución es evaluada paratener una medida de su calidad en términos de la función objetivo. A con-tinuación, se forma una nueva población escogiendo a los mejores individuossegún el índice de calidad anteriormente definido. Para producir nuevas solu-ciones e introducir diversidad en el espacio de búsqueda, algunos miembros dela nueva población se ven sometidos a determinadas transformaciones en suestructura por medio de los llamados operadores genéticos. Este proceso se re-pite durante una serie de iteraciones (denominadas generaciones por analogíacon la naturaleza), de forma que la calidad de las soluciones va mejorando ite-ración a iteración. Otra característica común a todas las técnicas evolutivas esla independencia entre el método de búsqueda y la naturaleza de la función ob-jetivo, así como su flexibilidad en el modelado. Las técnicas convencionales deoptimización tales como la programación lineal entera-mixta, la programacióndinámica, los métodos de punto interior o la relajación lagrangiana requierenque la función objetivo y las restricciones reúnan una serie de características dediferenciabilidad, convexidad, linealidad o independencia del tiempo. Es decir,cualquier problema, aunque no pueda ser resuelto por ninguna técnica conven-cional de forma directa, es resoluble por una técnica evolutiva. Las diferenciasque presentan los distintos programas evolutivos residen en: tipos de opera-dores genéticos empleados, número de individuos en la población, codificaciónempleada, etc. Es decir, una representación natural de las soluciones del proble-ma junto con un grupo de operadores genéticos compatibles con la naturalezadel problema son las cualidades determinantes para que una técnica evolutivaconcreta sea elegida para resolver el problema en cuestión. Existen numerosostrabajos de la aplicación de algoritmos genéticos al problema de la PHCT enlos cuales la factibilidad de las restricciones es tratada a través de penalizacio-nes. En [57] se presenta un algoritmo genético para resolver el problema de la

49

Page 74: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 2 Estado del Arte

PHCT. En este algoritmo genético la factibilidad de las restricciones se aseguraañadiendo a la función objetivo una penalización proporcional a la cantidadnecesaria para que cada restricción infactible se cumpla. El factor de penali-zación usado es dinámico, puesto que este factor crece cuando el número degeneraciones aumenta y es despreciable durante las primeras generaciones. Deesta manera en las últimas generaciones los individuos de la población que nocumplen una determinada restricción son altamente penalizados. Para evitaruna convergencia prematura hacia una solución cuasi-óptima o una diversidadexcesiva en la población que convierta la búsqueda en un proceso completa-mente aleatorio, las probabilidades de ocurrencia de los operadores genéticosse modifican adaptándose a la situación existente. En [74] se propone un al-goritmo genético para la PHCT en el que también se emplean penalizaciones,aunque aquí se denominan costes de las restricciones. Si se produce algún tipode infactibilidad, ésta se introduce en la función objetivo mediante lo que eneste trabajo se llaman costes de restricciones, que representan lo que el siste-ma estaría dispuesto a pagar en caso de incumplimiento de alguna restricción.El operador mutación se aplica con una probabilidad que aumenta exponen-cialmente con el número de generaciones. En esta contribución se desarrollannuevos operadores heurísticos de mutación. Una de las principales desventajasde las técnicas evolutivas es el tiempo de CPU que requieren. Sin embargo,son algoritmos fácilmente paralelizables lo que reduce el tiempo de cálculo. En[142] se han desarrollado dos implementaciones paralelas de un algoritmo gené-tico para así reducir el tiempo de cálculo de éste. En la primera se ha empleadouna configuración “maestro-esclavo”, en la que cada procesador esclavo lleva acabo los operadores de cruce y mutación sobre un subconjunto de la pobla-ción y el procesador maestro realiza la selección proporcional a las medidas decalidad. En la segunda implementación, llamada de anillo bidireccional, cadaprocesador lleva a cabo la evolución completa de una subpoblación y, al cabode un número determinado de generaciones, los mejores individuos de cadaprocesador son transferidos a las poblaciones que se encuentran a su derecha eizquierda en el anillo de procesadores. En [91] se presentan algoritmos genéticosparalelos aplicados a la PHCT. A cada procesador se le asigna una subpobla-ción a la que se le aplican los operadores genéticos. Una vez que el algoritmogenético ha convergido en una subpoblación los mejores individuos migran alos cuatro procesadores adyacentes sustituyendo a los peores individuos de laspoblaciones correspondientes. Este proceso se lleva a cabo de forma asíncronapara evitar que haya procesadores inactivos. Existen numerosos trabajos dela aplicación de algoritmos genéticos al problema de la PHCT en los cualesla factibilidad de las restricciones es reparada mediante algún mecanismo dereparación. En [8] se propone un algoritmo genético de reparación conducido

50

Page 75: Técnicas avanzadas de predicción y optimización aplicadas a ...

Estado del Arte

mediante heurísticas para la resolución de la PHCT. El algoritmo propues-to preserva la factibilidad de todos los individuos en todas las generaciones.La principal ventaja de un algoritmo de reparación se encuentra en que notrabaja sobre un espacio de búsqueda amplio, lleno de soluciones infactibles,sino en espacios de búsqueda acotados compuestos de soluciones factibles. Porello, la exploración es más reducida y aumenta la eficiencia del algoritmo. Sinembargo, los algoritmos de reparación requieren un elevado tiempo de cálculopara convertir las soluciones infactibles en factibles. En este trabajo se han de-sarrollado tres implementaciones paralelas para reducir el tiempo de cálculo.La primera implementación paralela consiste en una configuración maestro-esclavo donde la tarea realizada por los procesadores esclavos es la reparaciónde la factibilidad. En segundo lugar desarrolla una implementación paralelade grano grueso, que permite explorar un espacio de búsqueda más extenso.Finalmente, estas dos implementaciones paralelas se combinan para dar lugaral algoritmo genético paralelo híbrido definitivo que se aprovecha de las ven-tajas de ambas. En [135] se propone un algoritmo genético combinado con lacristalización simulada. La principal contribución de este trabajo, además dela combinación de ambas técnicas de búsqueda, es el uso de procedimientos dereparación de las restricciones de demanda y reserva. La solución se descartasi se producen infactibilidades en otras restricciones. En [75] se presenta unalgoritmo genético de reparación en el que la matriz de acoplamiento se codi-fica mediante una cadena para ahorrar espacio de almacenamiento. Se partede una población factible de soluciones y el proceso de reparación sólo afectaa la restricción de reserva.

51

Page 76: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 2 Estado del Arte

52

Page 77: Técnicas avanzadas de predicción y optimización aplicadas a ...

Parte I

Predicción de Series Temporales

53

Page 78: Técnicas avanzadas de predicción y optimización aplicadas a ...
Page 79: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 3

Método basado en los Vecinos másCercanos

En este capítulo se describe una técnica de clasificación y reconocimientode patrones basada en la búsqueda de los vecinos más cercanos aplicada ala predicción de una serie temporal. El criterio de aprendizaje de este tipode algoritmos se fundamenta en que los individuos de una población convivenalrededor de otros que suelen tener unas propiedades y características similares.Una vez descrito el método, se analiza cuál es la forma óptima de representarel conjunto de datos de entrada y se estudia la influencia de dos parámetrosque afectan a dicho algoritmo: el número de vecinos, es decir el número deejemplos que serán examinados en el momento de efectuar la predicción y lamétrica elegida como medida de similitud entre dos ejemplos del conjunto dedatos. Por último, se analiza de forma heurística cuál es el error mínimo quese comete en la predicción de una serie temporal con este método.

3.1. Representación de los Datos

Una serie temporal es un conjunto finito de observaciones de una variableen distintos momentos del tiempo. Aunque el tiempo es una variable continua,estas observaciones vienen dadas en la práctica en periodos de tiempo discretosde igual longitud, restricción que viene impuesta por la naturaleza de la variablecomo por ejemplo los precios de la energía en el Mercado Eléctrico Españolcuyos valores son conocidos hora a hora. Cuando el intervalo discreto de tiempoes pequeño, como por ejemplo una hora o cinco minutos, la serie se considerauna serie de alta frecuencia lo cual es ventajoso ya que las dependencias a cortoplazo en las observaciones son más fáciles de detectar.

55

Page 80: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 3 Método basado en los Vecinos más Cercanos

La predicción de una serie temporal consiste en calcular los n valores si-guientes de la variable a partir de sus valores pasados disponibles.

Para predecir el comportamiento de una serie temporal, Xt, hay que de-terminar en primer lugar qué variables influyen en la descripción del valor dela serie en el intervalo de tiempo t. Esto no siempre es posible ya que en lamayoría de las aplicaciones reales el número de variables que influyen en laserie temporal es elevado y gran parte de estas variables son difíciles de medirporque vienen determinadas por factores no predecibles.

Una serie temporal puede ser tratada como un sistema dinámico puesto queconsiste en la evolución de una variable con el tiempo. Takens [115] demuestraque, bajo ciertas hipótesis, el estado que explica un sistema dinámico en uninstante de tiempo se puede aproximar por una ventana de longitud finitaformada por los valores anteriores de la variable estado del sistema. La longitudde la ventana, m, se conoce como dimensión de inyección. De esta forma sebusca una relación funcional f tal que:

Xt+δ � f(X) (3.1)

donde

X = [Xt, Xt−δ, Xt−2δ, . . . , Xt−δ(m−1)] (3.2)

Este teorema es importante, desde el punto de vista de la predicción de seriestemporales, puesto que implica poder generar predicciones de la variable apartir de una ventana finita formada por valores pasados de dicha variable.Por simplicidad de notación y sin pérdida de generalidad, se supondrá queδ = 1, lo que significa que la frecuencia de los valores de la serie es de unaunidad de tiempo.

Para generar predicciones hay dos tipos de aproximaciones:

1. Predicción directa: consiste en predecir n valores de la serie temporal apartir de los mismos datos de entrada. Así se tiene una regla de asociaciónentre los valores pasados de la variable que se quiere predecir como puntosde R

m, y los valores futuros como puntos de Rn. Es decir, se construye

un único modelo para predecir los valores:

Xt+1, . . . , Xt+n (3.3)

De esta manera, se trata de hallar f : Rm → R

n tal que:

[Xt+1, . . . , Xt+n] = f([Xt, Xt−1, Xt−2, . . . , Xt−(m−1)]) (3.4)

56

Page 81: Técnicas avanzadas de predicción y optimización aplicadas a ...

Método basado en los Vecinos más Cercanos

donde f es una función no lineal que relaciona los valores futuros dela serie temporal con los valores pasados. Este tipo de predicción tie-ne el inconveniente de que no tiene en cuenta a la hora de predecir lasposibles relaciones existentes entre las variables Xt+1, . . . , Xt+n, sin em-bargo computacionalmente es menos costoso puesto que se construye unúnico modelo para predecir n valores y no, n modelos, uno para cadapredicción.

2. Predicción iterada: este tipo de predicción consiste en usar un conjun-to de datos de entrada distinto para predecir cada valor de la serie. Así,la predicción obtenida forma parte de una nueva ventana para predecirel valor siguiente, desplazando de esta forma la ventana una unidad detiempo en cada predicción. De esta manera se tiene una relación entrevalores pasados como puntos de R

m y valores futuros como puntos deR. Con este último tipo de predicción los errores se van acumulando enel vector de entrada que forma la ventana, sobre todo en los últimosperiodos de tiempo del horizonte de predicción. Este método es compu-tacionalmente más costoso que el anterior, ya que para predecir n valoresse construyen n modelos, para generar cada uno de los n valores futurosde la serie en estudio.De esta manera se tratar de hallar fi : R

m → R con i = 1, 2, . . . , n talque:

Xt+1 = f1([Xt, Xt−1, Xt−2, . . . , Xt−(m−1)]) (3.5)

Xt+2 = f2([Xt+1, Xt, Xt−1, . . . , Xt−(m−2)]) (3.6)

Xt+3 = f3([Xt+2, Xt+1, Xt, . . . , Xt−(m−3)]) (3.7)...

donde fi son funciones no lineales que relacionan los valores futuros de la serietemporal con los valores pasados para cada hora del horizonte de predicción.La longitud de la ventana es un parámetro que hay que determinar de maneraóptima mediante el análisis de los valores pasados de la serie temporal, dispo-nibles en la base de datos histórica, que más influyen en los valores futuros dela variable que se quiere predecir.

Para determinar de una manera óptima la longitud de la ventana m seusa el Método de los Falsos Vecinos más Cercanos (FNN, False NearestNeighbours) [59], el cual consiste en calcular la longitud de la ventana que haceel número de falsos vecinos más cercanos mínimo.

Dos puntos x, y de Rm, que representan valores de la serie temporal en

el pasado, son vecinos falsos si la distancia entre los puntos f(x) y f(y), que

57

Page 82: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 3 Método basado en los Vecinos más Cercanos

Figura 3.1: Vecinos Falsos.

representan las predicciones de sus correspondientes valores futuros (puntos deR

n o R según el tipo de predicción que se haga), es mayor que la distancia quehay entre los puntos x e y, como se muestra en la figura 3.1.

Este radio de crecimiento entre valores pasados y futuros según el tipo depredicción que se lleve a cabo se calcula como sigue.

Sean dos puntos de Rm:

X t1pas = [Xt1 , Xt1−1, Xt1−2, . . . , Xt1−(m−1)] (3.8)

X t2pas = [Xt2 , Xt2−1, Xt2−2, . . . , Xt2−(m−1)] (3.9)

1. Predicción directa:

Se tiene que:

X t1fut = f(X t1

pas) (3.10)

X t2fut = f(X t2

pas) (3.11)

Entonces el radio de crecimiento viene dado por:

RADIO =dn(X

t1fut, X

t2fut)

dm(X t1pas, X

t2pas)

(3.12)

donde

Los puntos X t1fut y X

t2fut son las predicciones obtenidas de los valores

futuros que vienen dadas por:

X t1fut = [Xt1+1, Xt1+2, . . . , Xt1+n] (3.13)

X t2fut = [Xt2+1, Xt2+2, . . . , Xt2+n] (3.14)

58

Page 83: Técnicas avanzadas de predicción y optimización aplicadas a ...

Método basado en los Vecinos más Cercanos

di(·, ·) es una distancia entre puntos de Ri con i ∈ {n,m}

2. Predicción iterada:

Se tiene que:

Xt1+1 = f(X t1pas) (3.15)

Xt2+1 = f(X t2pas) (3.16)

Luego

RADIO =|Xt1+1 − Xt2+1|dm(X t1

pas, Xt2pas)

(3.17)

Si RADIO es mayor que un umbral dado, el punto X t1pas es un vecino falso

de X t2pas. Se trata entonces de elegir la longitud de la ventana suficientemente

grande para que el número de vecinos cercanos considerados falsos sea sufi-cientemente pequeño. De esta forma, para encontrar el tamaño adecuado dela ventana se calcula el porcentaje de vecinos falsos en un conjunto de entre-namiento para longitudes de la ventana que oscilen entre uno y un númeromáximo prefijado, mmax, eligiendo como longitud aquella que haga que esteporcentaje se aproxime a cero. Como este parámetro se determina a partir deun conjunto de entrenamiento, donde se conocen los valores futuros reales, laspredicciones no son valores estimados sino valores reales de la base de datoshistórica.

La optimización de este parámetro es importante ya que si la longitud dela ventana es demasiado pequeña, el número de falsos vecinos es elevado lo quedificulta obtener una buena aproximación de la predicción de la serie temporal.Por otro lado, si este parámetro es demasiado grande, el coste computacionales elevado en relación a la mejora obtenida en la aproximación del error de lapredicción.

La figura 3.2 muestra cómo disminuye el número de vecinos falsos cuandoaumenta el número de valores pasados de la serie temporal usados para predecirlos valores siguientes. Como se observa, un número determinado de valorespasados son suficientes para predecir los valores siguientes, ya que el númerode vecinos falsos no disminuye de una manera considerable con el uso de másvalores.

59

Page 84: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 3 Método basado en los Vecinos más Cercanos

Dimensión de inyección

Vec

inos

Fal

sos

(%)

m óptimo

Figura 3.2: Vecinos falsos versus longitud de la ventana.

3.2. Método basado en los Vecinos más Cerca-nos

En esta sección se describe una técnica aplicada a la predicción de seriestemporales, basada en un algoritmo de búsqueda de los k vecinos más cercanos(kNN, k Nearest Neighbours) [27], cuyo aprendizaje consiste en el almacena-miento de todas las instancias disponibles [3] de las cuales se conocen susvalores futuros.

Esta predicción consiste en construir una aproximación f a partir de unconjunto de instancias o ejemplos de la base de datos histórica, llamado con-junto de entrenamiento, los cuales se conservan para compararlos con cadanuevo ejemplo del que se quieran predecir sus valores siguientes.

Con este método en lugar de construir una aproximación f válida para todoel conjunto de ejemplos, de los que se quieren predecir sus valores siguientes,se obtienen aproximaciones locales alrededor de subconjuntos del conjuntode entrenamiento. Estos subconjuntos están formados por los k vecinos delejemplo para el que se quiere predecir su comportamiento en el futuro.

La aproximación consiste en una media de los valores futuros de los k veci-nos más cercanos. Esta media está ponderada con unos pesos que representanla importancia de cada vecino según su cercanía. A los valores futuros del ve-cino más cercano le corresponde un peso mayor que a los valores futuros delvecino más lejano.

En el caso de un único vecino la idea geométrica se muestra en la figura3.3.

60

Page 85: Técnicas avanzadas de predicción y optimización aplicadas a ...

Método basado en los Vecinos más Cercanos

f(r)r f

Figura 3.3: Aproximación local.

Los valores futuros desconocidos que se quieren estimar:

Xfut = [Xt+1, . . . , Xt+n](puntos de Rn), (3.18)

y los valores pasados

Xpas = [Xt, Xt−1, Xt−2, . . . , Xt−(m−1)](puntos de Rm) (3.19)

están representados con una circunferencia. Los puntos negros son los vecinosmás cercanos a los valores pasados, siendo el punto r ∈ R

m aquel cuyos valoresson los más parecidos. Entonces parece lógico estimar los valores futuros conlos valores futuros del punto r, es decir, los valores f(r).

De esta manera, la predicción de n valores futuros de una serie temporalXt viene dada por:

Xfut =1∑k

i=1 αi

k∑l=1

αl · f(vl(Xpas)) (3.20)

donde

vl(Xpas) ∈ Rm son los k vecinos del punto de R

m formado por los valorespasados, Xpas, ordenados desde el más cercano al más lejano.

los pesos αl [28] generalmente vienen dados por algunas de estas dosexpresiones:

61

Page 86: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 3 Método basado en los Vecinos más Cercanos

a)

αl =d(Xpas, vk(Xpas)) − d(Xpas, vl(Xpas))

d(Xpas, vk(Xpas)) − d(Xpas, v1(Xpas))(3.21)

El peso αl es igual a cero cuando l corresponde al vecino consideradomás lejano y uno cuando el vecino considerado es el más cercano.Por tanto, con estos pesos en realidad se usan k − 1 vecinos parapredecir.

b)

αl =1

d(Xpas, vl(Xpas))(3.22)

Con estos pesos se usan exactamente k vecinos para predecir.

Estos pesos dados por a) y b) dan una mayor importancia en la prediccióna los vecinos más cercanos, ya que en su cálculo sólo influye la distanciaque separa a éstos de Xpas.

En forma matricial,

(

k∑i=1

αi) · Xfut = [α1, . . . , αk] ·

f(v1(Xpas))...

f(vk(Xpas))

(3.23)

3.3. La función distanciaEl uso de diferentes distancias [27, 12] puede dar lugar a mejores aproxima-

ciones en el algoritmo de búsqueda de los k vecinos más cercanos. El métododescrito en la sección anterior consiste en estimar la predicción a partir de unamedia local ponderada con unos pesos. Para determinar los valores futurosf(vl(Xpas)) que forman parte de esta media, basta con calcular los k vecinosmás parecidos a los valores Xpas de la serie temporal. Para ello hay que elegiruna distancia que mida la similitud entre puntos de R

m, formados por valorescualesquiera de la serie temporal, de una manera adecuada a las característicasespecíficas de la serie que se esté tratando de predecir. Tradicionalmente, ladistancia más común usada ha sido la distancia Euclídea, que se define comosigue:

d2(q, z) =

m∑i=1

(qi − zi)2 (3.24)

62

Page 87: Técnicas avanzadas de predicción y optimización aplicadas a ...

Método basado en los Vecinos más Cercanos

donde q y z son dos ejemplos de entrada, m es el número de atributos y qi yzi los valores de cada atributo.

Existen una gran variedad de distancias para atributos continuos:

Manhattan

d(q, z) =

m∑i=1

|qi − zi| (3.25)

Minkowsky

d(q, z) =

(m∑i=1

|qi − zi|r) 1

r

(3.26)

Mahalanobis

d(q, z) = (det(V ))1m (q − z)TV −1(x− y) (3.27)

donde V es la matriz de covarianza de los atributos, det(V ) es el deter-minante de la matriz V y V −1 la inversa de V .

Chebychevd(q, z) = maxmi=1|qi − zi| (3.28)

Sin embargo, muchas aplicaciones del mundo real requieren una distanciaun poco más flexible a la hora de modelar las características de la serie, comopor ejemplo cualquier distancia entre las definidas anteriormente ponderadapor unos factores de peso wi los cuales representan la importancia de cadaatributo, ya que los m atributos del punto del cual se quieren predecir susvalores siguientes pueden tener distinta relevancia. Tratar los atributos de dis-tinta forma consiste en distorsionar el espacio de manera que los atributos congran influencia en la predicción tengan un peso grande y a los atributos quesólo introducen ruido, le corresponda un peso pequeño. Estos factores de pesose pueden determinar con ejemplos conocidos del conjunto de entrenamientomediante: algoritmos genéticos [121], criterio de información mutua [26]... Unavez determinados estos factores de peso, incluso se pueden eliminar los atribu-tos que no se consideren importantes para la predicción de la serie temporaldeterminada.

3.4. Número de VecinosEn el algoritmo kNN un parámetro a determinar es k, el número de ejemplos

que se eligen para efectuar la predicción de un nuevo ejemplo. El valor de k

63

Page 88: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 3 Método basado en los Vecinos más Cercanos

tiene un gran impacto en la calidad del modelo y por tanto en la aproximacióndel error de la predicción de una serie temporal.

Cuando el número de vecinos considerado es igual a uno, el algoritmo buscael ejemplo más cercano al ejemplo cuyos valores futuros se quieren predecir.Cuando el ejemplo más cercano es encontrado, la predicción consiste en losvalores futuros de éste. Esto sin embargo, es muy sensible al ruido, por lo quedebe determinarse el valor de k óptimo.

Se trata entonces de hallar k de manera que el error de una serie temporalsea mínimo, es decir, minimizar la función objetivo cuadrática que sigue:

p∑j=1

(Xfut −Xfut)2 donde Xfut viene dado por (3.20) (3.29)

para un conjunto de entrenamiento formado por p ejemplos.Generalmente, el valor óptimo de k es independiente del tipo de error (error

cuadrático, error absoluto, error relativo...) que se tome como función objetivopara minimizar en el conjunto de entrenamiento [127].

3.5. Acotación del Error

En esta sección se hace un breve análisis heurístico de cuál es el mínimoerror que se comete en la predicción de una serie temporal con el métodolocal descrito anteriormente. Primero se analiza el caso de un solo vecino yfinalmente se concluye para el caso más general de k vecinos más cercanos.

La predicción del punto Xfut, se estima con los valores futuros del puntoque tuvo los valores más parecidos a los valores pasados, es decir los valoresfuturos del vecino más cercano de Xpas:

Xfut = f(v(Xpas)) donde v(Xpas) es tal que d(Xpas, v(Xpas)) es mínima (3.30)

El error mínimo de la predicción se cometerá cuando la predicción de losvalores futuros sea estimada con los valores más parecidos a los valores futuros,es decir:

Xfut = v(Xfut) donde v(Xfut) es tal que d(Xfut, v(Xfut)) es mínima (3.31)

64

Page 89: Técnicas avanzadas de predicción y optimización aplicadas a ...

Método basado en los Vecinos más Cercanos

Entonces el error es mínimo cuando se tiene la condición siguiente:

v(Xfut) = f(v(Xpas)) (3.32)

Es decir, los valores futuros del vecino más cercano del punto formado porvalores pasados coincide con el vecino más cercano del punto formado porvalores futuros.

Esto se puede ver gráficamente mediante el diagrama siguiente:

v(Xpas)f−−−→ Xfut

Xrf−−−→ v(Xfut)

(3.33)

Si f es una inyección, se tiene que cumplir:

Xr = v(Xpas) (3.34)

Es decir, el vecino más cercano de Xpas es un punto Xr tal que la predicciónde sus valores futuros los cuales vienen dados por f(Xr) coincide con el vecinomás cercano de Xfut.

Como el cálculo del vecino más cercano depende de la distancia considera-da, se puede obtener el error mínimo en la predicción de una serie temporalmediante este método basado en los vecinos más cercanos, si se pudiera encon-trar una medida de distancia d tal que cumpliera la condición (3.34). Si estacondición se cumple, la predicción mediante (3.30) daría lugar al mínimo errorposible que se puede cometer con este método.

En el caso de k vecinos más cercanos, razonando de manera análoga, elerror es mínimo cuando:

v(Xfut) =1∑k

i=1 αi

k∑l=1

αl · f(vl(Xpas)) (3.35)

Es decir, el error es mínimo cuando la suma ponderada de los valores futurosde los k vecinos más cercanos de los valores pasados de la serie es proporcionalal vecino más cercano de los valores futuros. La constante de proporcionalidades α1 + . . .+ αk, donde αl vienen dados por (3.21) o (3.22).

Obsérvese que para predecir de forma óptima los valores futuros de la serietemporal, se necesita calcular f(Xr) minimizando la distancia a los valoresque se quieren predecir, luego este análisis es útil para saber si el error que seha cometido después de haber predicho localmente con este método se desvíamucho del error óptimo que se pudiera haber obtenido.

65

Page 90: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 3 Método basado en los Vecinos más Cercanos

Véase también que cuando la predicción por este método se aleja de ser laóptima, es decir, d(f(v(Xpas)), Xfut) es suficientemente grande, Xpas y v(Xpas)son vecinos falsos. Además la diferencia entre el error obtenido y el error óptimoda una idea intuitiva de la divergencia media que sufren las trayectorias queson vecinas en el pasado pero dejan de serlo en el futuro, como se muestra enla figura 3.1.

El Error Absoluto (EA) al predecir de manera óptima viene dado por:

EA =n∑

i=1

|Xfut −Xfut| =n∑

i=1

|v(Xfut) −Xfut| (3.36)

De (3.36) se deduce que el EA es mínimo si se elige como métrica la distanciaManhattan, puesto que v es tal que d(Xfut, v(Xfut)) es mínima. Es decir,si la distancia elegida para el cálculo del vecino más cercano es la distanciaManhattan, al predecir de manera óptima, el error absoluto será menor que elobtenido con cualquier otra distancia. Lo mismo ocurre con el error cuadráticosi se elige la distancia Euclídea.

66

Page 91: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 4

Aplicación a los Precios de laEnergía en el Mercado Eléctrico

Para demostrar la efectividad del método basado en los vecinos más cerca-nos presentado anteriormente, en este Capítulo se aplica a la predicción en elcorto plazo de una serie temporal real: los precios de la energía en el MercadoEléctrico Español. En primer lugar, se presentan gráficamente las principalescaracterísticas de esta serie. En segundo lugar, se determinan todos los pa-rámetros que afectan al método, como la longitud de la ventana, el númerode vecinos, la distancia... tanto si se realiza una predicción iterada como si serealiza una predicción directa, usando para ello un conjunto de entrenamiento.Una vez determinado el conjunto de parámetros óptimo y el tipo de predicciónque proporciona los errores más pequeños, se obtienen resultados de la predic-ción sobre un conjunto test y se comparan con los obtenidos si la predicción sehiciese de manera óptima sobre ese mismo conjunto. Finalmente, los resultadosobtenidos de la aplicación del método, basado en los vecinos más cercanos, soncomparados con los obtenidos de la aplicación de una red neuronal.

4.1. Precios. Optimización de Venta/Compra deEnergía

En los últimos quince o veinte años las empresas eléctricas están tendiendoprogresivamente a la privatización, con el objeto de que al eliminar el régimende monopolio se genere competencia en el mercado, lo que se supone quelleva consigo un efecto beneficioso sobre los consumidores, tanto en calidad deservicio como en precios. El Sector Eléctrico Español desde 1998 ha puesto enmarcha un proceso de reestructuración siguiendo criterios de liberalización y

67

Page 92: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 4Aplicación a los Precios de la

Energía en el Mercado Eléctrico

competencia, al igual que un gran número de países en el mundo como Noruega,Suecia, Finlandia, Portugal, etc. De esta manera en el sistema Español surgendos nuevas figuras que hacen posible el funcionamiento de las nuevas reglas querigen el Mercado [17]: el operador del mercado, encargado de la determinaciónde los precios de la energía cada hora y el operador del sistema, encargado dela gestión de la red de transporte de electricidad.

En un mercado liberalizado, las herramientas de predicción son muy impor-tantes, ya que en base a una predicción de precios, los agentes que participanen el mercado, como las compañías de generación, elaboran sus estrategias deofertas para maximizar los beneficios que obtienen por la venta de energía enel mercado [77, 21].

Sin embargo debido a la reciente liberalización del mercado eléctrico lastécnicas de predicción aplicadas a los precios de la energía son bastantes re-cientes y poco usuales en la literatura actual, siendo un campo de investigaciónactualmente en estudio. Hoy día, los métodos más usados para la predicción delos precios de la energía en un mercado competitivo son los distintos tipos deRNA [114, 143, 101, 39], siendo en este contexto la primera vez que se aplicael método basado en los vecinos más cercanos descrito en el capítulo anterior.

En general, las series económicas, entre ellas la serie de los precios de laenergía en un mercado liberalizado, presentan las características siguientes:

1. Generalmente las series temporales disponibles son cortas, excepto lasseries de alta frecuencia. La serie temporal formada por los precios de laenergía es de alta frecuencia puesto que la frecuencia de los precios es deuna hora.

2. La predicción de los valores de la serie temporal son generalmente difícilesde medir con precisión, ya que hay factores imprevisibles que responden amecanismos de mercado. Debido a esto, son series con un alto porcentajede valores inusuales y con un comportamiento caótico.

3. No son estacionarias, es decir no tienen media y varianza constante.

4. Son series no lineales con componentes estocásticos.

Para ilustrar de una manera visual el comportamiento, propiedades y evo-lución de la serie temporal formada por los precios de la energía se han elegidolos meses comprendidos entre marzo y agosto del año 2001. Los fines de sema-na y días festivos no son incluidos debido a que presentan un comportamientodistinto a los días laborables.

El precio medio de la serie es 2.79 céntimos de euros por kWh y la desvia-ción estándar respecto de la media 1.14, lo cual es un primer indicador de ladispersión que presentan los precios de la energía.

68

Page 93: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a los Precios de laEnergía en el Mercado Eléctrico

00.5

11.5

22.5

33.5

44.5

1 3 5 7 9 11 13 15 17 19 21 23

Horas

Cén

tim

os/

kWh

Media

Media + s. d.

Media - s. d.

Figura 4.1: Media horaria de los precios.

La figura 4.1 muestra el valor medio horario de los precios de la energíapara los días laborables de marzo del año 2001. Se puede observar que las horasen las que los precios son superiores a 2 cent/kWh son aquéllas en las que lademanda suele ser alta (horas punta) y corresponden a la punta de la mañana(desde las 10 horas hasta las 14 horas) y la punta de la tarde (desde las 20horas hasta las 22 horas). Excepto para unas cuantas de horas en las que lademanda es baja (horas valle), la desviación estándar supera el 20 % del valormedio, alcanzando incluso el 40 % a las 20 horas y 21 horas.

[3,4]16%

[2,3]38%

[1,2]23%

> 421%

< 1 2%

Figura 4.2: Distribución de los precios.

69

Page 94: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 4Aplicación a los Precios de la

Energía en el Mercado Eléctrico

La figura 4.2 muestra la distribución de los precios para los meses com-prendidos entre marzo y agosto del año 2001. Nótese que el 21 % de los preciostienen valores mayores que 4 céntimos por kWh y el 2 % valores menores que1 céntimo por kWh. Estos precios son considerados inusuales, y su alto por-centaje dificulta obtener una buena predicción.

En la figura 4.3 se muestran los histogramas de los precios en el año 2000y 2001 para comparar el comportamiento de estos dos años. Se puede observarque tanto la distribución del año 2000 como la del año 2001 dista mucho deser una distribución normal indicada en la figura con una curva. Además,mientras que en el año 2001 la mayoría de las horas los precios están entre 2y 3 céntimos el kWh, en el año 2000 son menores que 1 céntimo el kWh. Estopuede ser debido a que en el año 2000 la liberalización del mercado era aúnmuy reciente y el mercado por consecuencia era más inestable.

Precios (Cent/kWh)0 1 2 3 4 5 6 7

10%

20%

30%

40%

50%

Precios (Cent/kWh)0 1 2 3 4 5 6 7

10%

20%

30%

40%

50%

Figura 4.3: Histograma de los precios del año 2000 y 2001.

La figura 4.4 muestra los precios horarios que tuvieron lugar el jueves 1 demarzo del año 2001 y el viernes 30 de marzo del año 2001. Estos dos días hansido elegidos debido a las diferencias significativas de precios que hay en lashoras punta las cuales no se pueden explicar por un cambio en el perfil de lademanda pudiéndose atribuir dichas diferencias a mecanismos de mercado detipo oligopolista.

70

Page 95: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a los Precios de laEnergía en el Mercado Eléctrico

0

1

2

3

4

5

6

1 3 5 7 9 11 13 15 17 19 21 23Horas

Cén

tim

os/

kWh

viernes 30 de marzo

jueves 1 de marzo

Figura 4.4: Precios de dos días de marzo.

La figura 4.5 muestra el coeficiente de correlación entre los precios de laenergía en una hora y los precios correspondientes a las veinticuatro horasanteriores. Como se puede ver, las horas pasadas más influyentes en la horaactual son justo la hora uno y la veinticuatro, que coinciden con la hora anteriory con la misma hora que la actual pero del día anterior, respectivamente.

00.10.20.30.40.50.60.70.80.9

1

1 3 5 7 9 11 13 15 17 19 21 23

Nº de horas anteriores

Co

efic

ien

te d

e C

orr

elac

ión

Figura 4.5: Coeficiente de correlación.

71

Page 96: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 4Aplicación a los Precios de la

Energía en el Mercado Eléctrico

Una vez ilustradas de forma visual las principales características y el com-portamiento de los precios de la energía en el Mercado Eléctrico Español seprocede a definir el problema de predicción que se va a resolver y a mostrar suresolución mediante la aplicación del método expuesto en el capítulo anterior.

4.2. Descripción del problemaLas ofertas de venta y compra de energía para el día siguiente se presentan

por parte de los agentes del mercado al Operador de Mercado en el mercadodiario. El Operador de Mercado incluye esta ofertas en un procedimiento decasación obteniendo así el precio de la energía para el horizonte diario deprogramación correspondiente al día siguiente. De esta manera, el problemaconsiste en predecir los precios de la energía en el corto plazo, es decir, lasveinticuatro horas del día siguiente.

4.3. Obtención del modeloPara predecir los precios horarios del día siguiente se usa una ventana

deslizante formada por los precios horarios de días anteriores disponibles enla base de datos histórica. A continuación se determinará la longitud de estaventana con el método de los falsos vecinos más cercanos, descrito en el capítuloanterior, tanto si se va a realizar una predicción directa como iterada.

4.3.1. Con predicción directa

Con este tipo de predicción la estructura de los patrones es la siguiente:

P1,1 · · · P1,24 · · · Pm,1 · · · Pm,24 Pm+1,1 · · · Pm+1,24

P2,1 · · · P2,24 · · · Pm+1,1 · · · Pm+1,24 Pm+2,1 · · · Pm+2,24

......

......

......

......

......

(4.1)

donde los atributos Pd,h representan el precio de la energía eléctrica del día den la hora h. Así, los precios de las 24 horas de un día se predicen a partirde los vecinos más cercanos de los precios horarios de los m días anteriores alque se quiere predecir. El número de atributos que se usan para predecir los24 atributos correspondientes a los precios del día siguiente se determina demanera que el radio de crecimiento de las trayectorias de dos puntos cercanosen el pasado sea mínimo.

El radio de crecimiento de las trayectorias viene dado por el cociente dedos distancias como se muestra en la figura 4.6, donde:

72

Page 97: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a los Precios de laEnergía en el Mercado Eléctrico

A

B

C

D

2l1l

Figura 4.6: Vecinos falsos.

l1 es la distancia entre los puntos A y C que vienen dados por:

A = (Pi,1, . . . , Pi,24, . . . , Pm+(i−1),1, . . . , Pm+(i−1),24) i ≥ 1 (4.2)C = (Pj,1, . . . , Pj,24, . . . , Pm+(j−1),1, . . . , Pm+(j−1),24) j ≥ 1 (4.3)

l2 es la distancia entre los puntos B y D que vienen dados por:

B = (Pm+i,1, . . . , Pm+i,24) i ≥ 1 (4.4)D = (Pm+j,1, . . . , Pm+j,24) j ≥ 1 (4.5)

Así el radio se puede expresar como sigue:

R =d24(B,D)

d24∗m(A,C)=l2l1

(4.6)

donde dl es una distancia cualquiera, elegida para medir la similitud entre dospuntos de R

l.

En este caso el pseudocódigo del algoritmo de los falsos vecinos más cerca-nos se describe como sigue:

73

Page 98: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 4Aplicación a los Precios de la

Energía en el Mercado Eléctrico

Entrada: Base de datos y parámetros num_dias_maximo y Rmax

Salida: Numero de vecinos falsos y radio de crecimiento

FalsosVecinosCercanos()desde num_dias = 1 hasta num_dias = num_dias_maximolongitud_ventana = 24 ∗ num_diasnum_falsos_vecinos = 0Para todo dia ∈ Conjunto de Entrenamiento

Cálculo del punto formado por los precios horarios de los num_diasdías anteriores al día diaCálculo del vecino más cercano del punto anteriorCálculo del radio de crecimiento Rdia según (4.6)Si Rdia > Rmax

//El vecino calculado es un vecino falsonum_falsos_vecinos = num_falsos_vecinos+ 1

Inclusión de los precios del día dia en la base de datosFin FalsosVecinosCercanos

Figura 4.7: Pseudocódigo del algoritmo FNN para la serie temporal Precios.

Este algoritmo ha sido aplicado a la base de datos formada por los preciosde la energía, tomando como conjunto de entrenamiento los días laborablescomprendidos entre marzo y agosto del año 2001. El número máximo de díasanteriores (parámetro num_dias_maximo), usado para el cálculo de los ve-cinos más cercanos que son falsos, ha sido igual a 25, lo cual correspondeaproximadamente con el número de días laborables de un mes completo. Elparámetro Rmax, que representa el umbral a partir del cual un punto consi-derado vecino más cercano de otro punto va a ser un vecino falso, ha sidoelegido igual a 1. De esta manera, se consideran “buenos vecinos” aquellos queno incrementan su distancia inicial a lo largo del tiempo, es decir o bien ladisminuyen o la conservan pero no la aumentan.

Para el cálculo de los vecinos más cercanos es necesario elegir una métri-ca que se adapte a las características de la serie temporal formada por losprecios de la energía eléctrica. En este caso, se ha optado por usar dos dis-tancias bastante comunes, la distancia Euclídea y la distancia Manhattan, yestablecer una comparación entre los resultados obtenidos usando ambas en loque respecta a la calidad del modelo obtenido, una vez determinados los dosparámetros principales: la longitud de la ventana y el número de vecinos.

74

Page 99: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a los Precios de laEnergía en el Mercado Eléctrico

Vecinos Cercanos Falsos (%)Distancia

Número de días Euclídea Manhattananteriores

1 79.07 79.072 56.59 45.743 31.78 15.504 23.26 3.885 20.16 06 10.08 07 7.75 08 2.33 09 3.10 010 1.55 011 0.78 012 0 013 0 014 0.78 015 0 016 0 017 0 018 0 019 0 020 0 021 0 022 0.78 023 0 024 0 025 0 0

Tabla 4.1: Porcentaje de vecinos falsos según distancias.

La tabla 4.1 presenta el porcentaje obtenido de vecinos cercanos que sonfalsos cuando éstos han sido calculados con dos distancias, la distancia Euclídeay la distancia Manhattan. Como se puede observar el número de vecinos falsostiende a cero cuando el número de días pasados que forman la longitud de laventana aumenta. La longitud óptima de la ventana deslizante es de 5 díascuando se calculan los vecinos con la distancia Manhattan mientras que con ladistancia Euclídea hacen falta buscar los vecinos más cercanos de los 12 días

75

Page 100: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 4Aplicación a los Precios de la

Energía en el Mercado Eléctrico

anteriores al que se quiere predecir para que no haya vecinos falsos. Ademáscon esta distancia, aparecen vecinos falsos cuando se consideran 14 ó 22 días locual es un comportamiento irregular que puede ser debido al ruido de la serietemporal.

0

10

20

30

40

50

60

70

80

90

100

1 3 5 7 9 11 13 15 17 19 21 23 25

Número de días anteriores

Núm

ero

de v

ecin

os fa

lsos

(%

)

Distancia Euclídea

Distancia Manhattan

Figura 4.8: Número de vecinos cercanos falsos.

La figura 4.8 muestra cómo el porcentaje de vecinos más cercanos falsosdisminuye cuando el número de días anteriores usados para formar la longitudde la ventana aumenta tanto para la distancia Euclídea como la distanciaManhattan.

Una vez determinada la longitud de la ventana deslizante hay que deter-minar tanto el número de vecinos que hacen que el error de la predicción seamínimo como la distancia que mejor se adapte a las características de la serietemporal formada por los precios de la energía eléctrica.

Para calcular el número óptimo de vecinos de una manera estricta hay queencontrar el mínimo de la función objetivo cuadrática que viene dada por:∑

t

(Pd,t − Pd,t)2 (4.7)

donde Pd,t son las predicciones horarias de los precios del día d y la hora tobtenidas según el método descrito en el capítulo anterior. Estas prediccionesconsisten en una suma de k términos, los cuales son exactamente los precios

76

Page 101: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a los Precios de laEnergía en el Mercado Eléctrico

Entrada: Base de datos y parámetros num_vecinos_max ylongitud_ventanaSalida: Error de la predicción

NumeroVecinos()Construcción de los patrones según (4.1) con m = longitud_ventanadesde num_vecinos = 1 hasta num_vecinos = num_vecinos_max

Para todo dia ∈ Conjunto de EntrenamientoCálculo de la predicción del día diaCálculo del error cometido en la predicciónInclusión de los precios reales del día dia en la base de datos

Fin NumeroVecinos

Figura 4.9: Pseudocódigo del algoritmo para obtener el número de vecinos.

horarios de los días siguientes a los k vecinos más cercanos a los precios de losm días anteriores al día que se quiere predecir, ponderados por un factor depeso.

En la práctica, esta función objetivo es una función discreta y el cálculodel mínimo se hace de una manera heurística ya que no se puede aplicar nin-gún método clásico de optimización cuadrática. El pseudocódigo del algoritmoaplicado para calcular el número óptimo de vecinos, que se utilizará en la pre-dicción de los precios de la energía para un conjunto de ejemplos cualesquiera,se muestra en la figura 4.9.

Este algoritmo ha sido aplicado a la base de datos formada por los preciosde la energía, tomando como conjunto de entrenamiento los días laborablescomprendidos entre marzo y agosto del año 2001. La longitud de la ventana hasido de 5 días cuando se ha usado la distancia Manhattan y de 12 días cuandose ha usado la distancia Euclídea para el cálculo de los k vecinos más cercanos.El número máximo de vecinos (parámetro num_vecinos_max) ha sido iguala 10, ya que en la práctica sólo se necesitan un número pequeño de valoresdiferentes de k para encontrar el valor óptimo.

La figura 4.10 presenta la influencia del número de vecinos sobre los erroresrelativos, absolutos y cuadráticos medios obtenidos en la predicción de losprecios de la energía horaria para el conjunto de entrenamiento considerado,siendo la distancia para evaluar la similitud entre los precios de los 12 díasanteriores y los datos históricos, la distancia Euclídea.

Análogamente a la figura anterior, la figura 4.11 presenta la influencia delnúmero de vecinos sobre los errores relativos, absolutos y cuadráticos medios

77

Page 102: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 4Aplicación a los Precios de la

Energía en el Mercado Eléctrico

obtenidos en la predicción de los precios de la energía horaria para el mis-mo conjunto de entrenamiento, siendo la distancia para evaluar la similitudentre los precios de los 5 días anteriores y los datos históricos, la distanciaManhattan.

0.14

0.16

0.18

0.20

0.22

0.24

0.26

0.28

0.30

0.32

1 2 3 4 5 6 7 8 9 10

Número de Vecinos

Err

or A

bsol

uto

y C

uadr

átic

o M

edio

9.910.110.310.510.710.911.111.311.511.711.9

Err

or R

elat

ivo

Med

io (

%)

Error Absoluto Medio

Error Cuadratico Medio

Error Relativo Medio (%)

Figura 4.10: Número óptimo de vecinos usando la distancia Euclídea.

0.14

0.16

0.18

0.20

0.22

0.24

0.26

0.28

0.30

0.32

1 2 3 4 5 6 7 8 9 10

Número de Vecinos

Err

or A

bsol

uto

y C

uadr

átic

o M

edio

9.9

10.1

10.3

10.5

10.7

10.9

11.1

11.3

11.5

11.7

11.9

Err

or R

elat

ivo

Med

io (

%)

Error Absoluto MedioError Cuadratico MedioError Relativo Medio (%)

Figura 4.11: Número óptimo de vecinos usando la distancia Manhattan.

78

Page 103: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a los Precios de laEnergía en el Mercado Eléctrico

De estas figuras se pueden obtener, para la serie temporal de los precios dela energía eléctrica en España, las siguientes conclusiones:

1. El número óptimo de vecinos es igual a cuatro usando la distancia Eu-clídea, mientras que es igual a cinco usando la distancia Manhattan.Consecuentemente, este número depende de la distancia elegida para elcálculo de los vecinos más cercanos.

2. El número óptimo de vecinos es independiente del tipo de error usadocomo función objetivo a minimizar, ya que, por ejemplo, para la distanciaEuclídea, el número óptimo es cuatro tanto para el error relativo mediocomo para el absoluto y cuadrático.

Como resultado se han obtenido los modelos siguientes:

Con la distancia Euclídea, se han obtenido mediante el método de losfalsos vecinos más cercanos los siguientes patrones:

P1,1 · · · P1,24 · · · P12,1 · · · P12,24 P13,1 · · · P13,24

P2,1 · · · P2,24 · · · P13,1 · · · P13,24 P14,1 · · · P14,24

......

......

......

......

......

(4.8)

y el número de ejemplos cercanos que se usarán en la predicción soncuatro.

Con la distancia Manhattan, se han obtenido mediante el método de losfalsos vecinos más cercanos los siguientes patrones:

P1,1 · · · P1,24 · · · P5,1 · · · P5,24 P6,1 · · · P6,24

P2,1 · · · P2,24 · · · P6,1 · · · P6,24 P7,1 · · · P7,24

......

......

......

......

......

(4.9)

y el número de ejemplos cercanos que se usarán en la predicción soncinco.

En ambos casos, la ventana se va desplazando veinticuatro atributos cada vezque se predicen los precios de la energía para las veinticuatro horas de un día.

4.3.2. Con predicción iterada

Con este tipo de predicción la estructura de los patrones es la siguiente:

X1 · · · Xm Xm+1

X2 · · · Xm+1 Xm+2

......

......

(4.10)

79

Page 104: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 4Aplicación a los Precios de la

Energía en el Mercado Eléctrico

Así, el precio de una hora se predice a partir de los vecinos más cercanos delos precios horarios de las m horas anteriores a la hora que se quiere predecir.Como el objetivo del problema es predecir los precios de las 24 horas del díasiguiente, es decir, el horizonte de predicción es de 24 horas, este proceso serepite hasta que se obtienen los precios de las 24 horas de un día. El númerode atributos que se usan para predecir el atributo correspondiente al precio dela hora siguiente se determina de manera que el radio de crecimiento de lastrayectorias de dos puntos cercanos en el pasado sea mínimo.

El radio de crecimiento de las trayectorias viene dado por el cociente dedos distancias como se muestra en la figura 4.6, donde:

l1 es la distancia entre los puntos A y C que vienen dados por:

A = (Xi, . . . , Xm+(i−1)) i ≥ 1 (4.11)C = (Xj, . . . , Xm+(j−1)) j ≥ 1 (4.12)

l2 es la distancia entre los puntos B y D que vienen dados por:

B = Xm+i i ≥ 1 (4.13)D = Xm+j j ≥ 1 (4.14)

Así el radio se puede expresar como sigue:

R =|B −D|dm(A,C)

=l2l1

(4.15)

donde dm es una distancia cualquiera, elegida para medir la similitud entre dospuntos de R

m y | · | es la función valor absoluto.En este caso el pseudocódigo del algoritmo de los falsos vecinos más cerca-

nos se describe en la figura 4.12.Básicamente, la principal diferencia entre los algoritmos FNN (figuras 4.7

y 4.12) es que en el primero se hace un tratamiento por días mientras que enel segundo el tratamiento se hace por horas.

Este algoritmo ha sido aplicado a la base de datos formada por los preciosde la energía, tomando como conjunto de entrenamiento los días laborablescomprendidos entre marzo y agosto del año 2001. El número máximo de horasanteriores (parámetro num_horas_max), usado para el cálculo de los vecinosmás cercanos que son falsos, ha sido igual a 24, lo cual corresponde con elnúmero de horas de un día completo. El parámetro Rmax, que representa elumbral a partir del cual un punto considerado vecino más cercano de otropunto va a ser un vecino falso, ha sido elegido igual a 1. De esta manera, se

80

Page 105: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a los Precios de laEnergía en el Mercado Eléctrico

Entrada: Base de datos y parámetros num_horas_max y Rmax

Salida: Numero de vecinos falsos y radio de crecimiento

FalsosVecinosCercanos()desde num_horas = 1 hasta num_horas = num_horas_maxnum_falsos_vecinos = 0Para toda dia ∈ Conjunto de Entrenamiento

Para toda hora ∈ diaCálculo del punto formado por los precios de las num_horashoras anteriores a la hora horaCálculo del vecino más cercano del punto anteriorCálculo del radio de crecimiento Rdia según (4.15)Si Rdia > Rmax

//El vecino calculado es un vecino falsonum_falsos_vecinos = num_falsos_vecinos+ 1

Inclusión de los precios reales de la hora hora en la base de datosFin FalsosVecinosCercanos

Figura 4.12: Pseudocódigo del algoritmo FNN para la serie temporal Precios.

consideran “buenos vecinos” aquellos que no incrementan su distancia inicial alo largo del tiempo, es decir o bien la disminuyen o la conservan, con lo cuallas trayectorias no divergen.

Análogamente a la predicción directa, para el cálculo de los vecinos máscercanos se han usado la distancia Euclídea y la distancia Manhattan, estable-ciéndose una comparación entre los resultados obtenidos usando ambas, en loque respecta a la calidad del modelo obtenido, una vez determinados los dosparámetros principales: la longitud de la ventana y el número de vecinos.

La tabla 4.2 presenta el porcentaje obtenido de vecinos cercanos que sonfalsos cuando éstos han sido calculados con esas dos distancias. Como se puedeobservar el número de vecinos falsos tiende a cero cuando el número de horasanteriores que forman la longitud de la ventana aumenta. Cuando se calculanlos vecinos tanto con la distancia Manhattan como con la distancia Euclídea,hacen falta buscar los vecinos más cercanos de las 24 horas anteriores a la horaque se quiere predecir, aun obteniendo así un 1.91% y 2.62% de vecinos falsosrespectivamente.

81

Page 106: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 4Aplicación a los Precios de la

Energía en el Mercado Eléctrico

Vecinos Cercanos Falsos (%)Distancia

Número de horas Euclídea Manhattananteriores

1 99.77 99.902 90.67 95.933 77.91 87.604 65.08 78.175 54.97 68.706 43.51 59.407 34.75 48.688 27.65 37.959 21.87 31.1010 15.63 24.2911 12.66 17.3812 9.30 12.7913 7.27 8.6214 7.40 8.3315 10.56 9.9816 10.98 9.9817 10.24 8.8818 8.79 7.2419 4.81 5.7820 4.20 6.8521 4.46 6.7822 5.20 5.7523 4.33 4.1724 2.62 1.91

Tabla 4.2: Porcentaje de vecinos falsos según distancias.

La figura 4.13 muestra cómo disminuye el porcentaje de falsos precios ve-cinos cuando aumenta el número de precios de horas anteriores usados parapredecir la hora siguiente. Como se observa, veinticuatro horas anteriores sonsuficientes para predecir la hora siguiente con ambas distancias, la distanciaManhattan y la distancia Euclídea, aunque el porcentaje de falsos vecinosusando las 24 horas anteriores es 1.91% y 2.62%, respectivamente. El com-portamiento irregular en las horas comprendidas entre las 14 horas y 17 horaspuede ser debido al ruido de la serie temporal.

82

Page 107: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a los Precios de laEnergía en el Mercado Eléctrico

0

10

20

30

40

50

60

70

80

90

100

1 3 5 7 9 11 13 15 17 19 21 23Número de horas anteriores

Núm

ero

de v

ecin

os fa

lsos

(%

)Distancia Manhattan

Distancia Euclídea

Figura 4.13: Número de vecinos cercanos falsos.

Una vez determinada la longitud de la ventana deslizante hay que deter-minar el número de ejemplos que se usarán en la predicción.

Para calcular el número óptimo de vecinos de una manera estricta hay queencontrar el mínimo de la función objetivo cuadrática que viene dada por:∑

t

(Pd,t − Pd,t)2 (4.16)

donde Pd,t son las predicciones horarias de los precios del día d obtenidassegún el método descrito en el capítulo anterior. Estas predicciones consistenen una suma de k términos, los cuales son exactamente los precios de las horassiguientes a los k vecinos más cercanos a los precios de las m horas anterioresa la hora que se quiere predecir, ponderados por un factor de peso.

En la práctica, el pseudocódigo del algoritmo aplicado para calcular elnúmero óptimo de vecinos, que se utilizará en la predicción de un conjunto deejemplos cualesquiera, se muestra en la figura 4.14.

Este algoritmo ha sido aplicado a la base de datos formada por los preciosde la energía, tomando como conjunto de entrenamiento los días laborablescomprendidos entre marzo y agosto del año 2001. La longitud de la ventanaha sido de 24 horas cuando se ha usado la distancia Manhattan y la distanciaEuclídea para el cálculo de los k vecinos más cercanos. El número máximo devecinos (parámetro num_vecinos_max) ha sido igual a 20.

83

Page 108: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 4Aplicación a los Precios de la

Energía en el Mercado Eléctrico

Entrada: Base de datos y parámetros num_vecinos_max ylongitud_ventanaSalida: Error de la predicción

NumeroVecinos()Construcción de los patrones según (4.10) con m = longitud_ventanadesde num_vecinos = 1 hasta num_vecinos = num_vecinos_max

Para todo dia ∈ Conjunto de EntrenamientoPara toda hora ∈ dia

Cálculo del punto formado por los precios de las num_horashoras anteriores a la hora horaCálculo del vecino más cercano del punto anteriorCálculo de la predicción de la hora hora del día diaCálculo del error cometido en la predicciónInclusión del precio real de la hora hora en la base de datos

Fin NumeroVecinos

Figura 4.14: Pseudocódigo del algoritmo para obtener el número de vecinos.

La figura 4.15 presenta la influencia del número de vecinos sobre los erroresrelativos, absolutos y cuadráticos medios obtenidos en la predicción de losprecios de la energía horaria para el conjunto de entrenamiento considerado,siendo la distancia para evaluar la similitud entre los precios del día antes ylos datos históricos, la distancia Euclídea.

Análogamente a la figura anterior, la figura 4.16 presenta la influencia delnúmero de vecinos sobre los errores relativos, absolutos y cuadráticos mediosobtenidos en la predicción de los precios de la energía horaria para el mismoconjunto de entrenamiento, habiendo usado para el cálculo de los vecinos ladistancia Manhattan.

Mediante una predicción iterada, para los precios de la energía eléctrica enEspaña se obtienen las siguientes conclusiones:

1. El número óptimo de vecinos es igual a cinco usando la distancia Euclí-dea, mientras que es igual a siete usando la distancia Manhattan.

2. El número óptimo de vecinos es independiente del tipo de error usadocomo función objetivo a minimizar.

84

Page 109: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a los Precios de laEnergía en el Mercado Eléctrico

0.2

0.22

0.24

0.26

0.28

0.3

0.32

0.34

0.36

1 3 5 7 9 11 13 15 17 19

Número de Vecinos

Err

or A

bsol

uto

y C

uadr

atic

o M

edio

7.9

8.1

8.3

8.5

8.7

8.9

9.1

Err

or R

elat

ivo

Med

io (

%)

Error Absoluto Medio

Error Cuadratico Medio

Error Relativo Medio (%)

Figura 4.15: Número óptimo de vecinos usando la distancia Euclídea.

0.2

0.22

0.24

0.26

0.28

0.3

0.32

0.34

0.36

1 3 5 7 9 11 13 15 17 19Número de Vecinos

Err

or A

bsol

uto

y C

uadr

átic

o M

edio

7.9

8.1

8.3

8.5

8.7

8.9

9.1

Err

or R

elat

ivo

Med

io (

%)

Error Absoluto Medio

Error Cuadratico Medio

Error Relativo Medio (%)

Figura 4.16: Número óptimo de vecinos usando la distancia Manhattan.

Como resultado tanto con la distancia Euclídea como con la distancia Man-hattan, se han obtenido mediante el método de los falsos vecinos más cercanos

85

Page 110: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 4Aplicación a los Precios de la

Energía en el Mercado Eléctrico

los siguientes patrones:

P1,1 · · · P1,24 P2,1

P1,2 · · · P2,1 P2,2

......

......

(4.17)

y el número de ejemplos cercanos que se usarán en la predicción son cinco conla distancia Euclídea y siete con la distancia Manhattan.

En ambos casos, la ventana se desplaza un atributo cada vez que se pre-dice el precio de la energía para una hora de un día, así hasta obtener laspredicciones para las 24 horas de ese día.

4.4. Predicción. ResultadosEn esta sección se describe la técnica basada en los k vecinos más cercanos

aplicada a la serie temporal formada por los precios de la energía tanto si sehace un tipo de predicción directa como iterada.

4.4.1. Con predicción directa

Esta predicción consiste en estimar los precios de la energía de mañanacomo una media de los precios de la energía de los días siguientes a los kvecinos de los m días anteriores al día de mañana, siendo m la longitud deventana óptima obtenida en la sección 4.3.1.

Esta media está ponderada con unos pesos que representan la importanciade los precios similares según su mayor o menor parecido. Al precio de la energíadel día siguiente al vecino más cercano de los m días anteriores a mañana lecorresponde un peso mayor que al precio de la energía del día siguiente alvecino más lejano de los m días anteriores a mañana.

Básicamente, en este método se usa una media local ponderada con unospesos para la estimación de la predicción. Y el criterio para determinar losprecios que forman parte de esta media está basado en la similitud entre pre-cios. De ahí la importancia de elegir una distancia que mida la similitud entreprecios de una manera adecuada a las características específicas de la serie quese esté tratando de predecir.

De esta manera, la predicción de los precios de la energía del día d+1 vienedada por:

Pd+1 =1

α1 + ... + αk

k∑j=1

αj · Pvj(x(d))+1 (4.18)

86

Page 111: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a los Precios de laEnergía en el Mercado Eléctrico

donde vj(x(d)) son los k precios vecinos a los precios de los m días anterioresal día d + 1, ordenados desde el más cercano al más lejano y donde los pesosvienen dados por:

αj =d(Px(d), Pvk(x(d))) − d(Px(d), Pvj(x(d)))

d(Px(d), Pvk(x(d))) − d(Px(d), Pv1(x(d)))(4.19)

El peso αj es igual a cero cuando j corresponde a los precios considerados máslejanos y uno cuando los precios considerados son los más cercanos.

Estos pesos han sido elegidos porque dan lugar a una buena aproximaciónde la predicción, sin embargo otras alternativas para proporcionar pesos a losvecinos serán analizadas en unas futuras líneas de investigación comparandolos resultados que se obtengan con los resultados obtenidos en esta tesis.

El pseudocódigo del algoritmo de predicción se muestra en la figura 4.17.

Entrada: Patrones, distancia y parámetros num_vecinos ylongitud_ventanaSalida: Predicción de todos los días de un conjunto

Prediccion()Para todo dia ∈ Conjunto Test

Construcción del punto formado por los precios de loslongitud_ventana días anteriores al día dia

Cálculo de los num_vecinos vecinos más cercanos según la distan-cia elegida

Cálculo de los pesos α según (4.19)Cálculo de la predicción del día dia según (4.18)Inclusión de los precios reales del día dia en los patrones

Fin Prediccion

Figura 4.17: Pseudocódigo del algoritmo para obtener predicciones.

Este algoritmo se ha aplicado a la serie temporal formada por los preciospara obtener la predicción de los días laborables comprendidos entre septiembrey octubre del año 2001. El conjunto de datos empleado para la obtencióny validación del modelo de predicción han sido los días comprendidos entremarzo y octubre del año 2001. Las dos terceras partes de los datos han sidoelegidas como conjunto de entrenamiento correspondiendo a 6 meses (marzo,abril, mayo, junio, julio y agosto) y una tercera parte como conjunto de testcorrespondiendo a 2 meses (septiembre y octubre). Aunque el conjunto de testno es un conjunto de test en el sentido clásico, ya que cada vez que se predice

87

Page 112: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 4Aplicación a los Precios de la

Energía en el Mercado Eléctrico

un día del conjunto de test este día es incluido en la base de datos para predecirde nuevo el siguiente día del conjunto de test. Así se consigue un aprendizajeincremental en el método de predicción presentado en esta tesis.

La tabla 4.3 muestra los valores medios y la desviación estándar de losprecios correspondientes a septiembre y octubre del año 2001.

Las figuras 4.18 y 4.19 presentan la media horaria de la predicción de losprecios obtenida y la media horaria de los precios reales para los días laborablesdel conjunto test seleccionado, tanto si se usa la distancia Euclídea como ladistancia Manhattan, siendo el error medio de la predicción 7.8% y 9.25%,respectivamente.

Las figuras 4.20 y 4.21 presentan la media diaria de la predicción de losprecios obtenida y la media diaria de los precios reales para los días laborablesdel conjunto test seleccionado, tanto si se usa la distancia Euclídea como ladistancia Manhattan, respectivamente.

Las figuras 4.22 y 4.23 muestran la media diaria del error relativo cometidoen la predicción de los precios del conjunto test seleccionado, tanto si se usala distancia Euclídea como la distancia Manhattan, respectivamente. Como sepuede observar, cuando se ha usado la distancia Euclídea como métrica, el díaen el que se ha obtenido el menor y mayor error relativo corresponde con el18 de septiembre (día 12) y el 26 de octubre (día 39) con un error de 2.1%y 18.6%, respectivamente. Sin embargo, con la distancia Manhattan el día enel que se ha obtenido el menor y mayor error relativo corresponde con el 6 deseptiembre (día 4) y al 31 de octubre (día 43) con un error de 1.7% y 20.3%,respectivamente. La mala predicción obtenida para el día 31 de octubre esdebida a que este día es el día anterior a un día festivo en España como es eldía 1 de noviembre, día de todos los santos.

Septiembre OctubrePrecio real medio 3.35 3.996

Desviación Estándar 0.43 0.606

Tabla 4.3: Media y desviación estándar del conjunto test.

88

Page 113: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a los Precios de laEnergía en el Mercado Eléctrico

2

2.5

3

3.5

4

4.5

5

5.5

1 3 5 7 9 11 13 15 17 19 21 23

Horas

Prec

ios

(cen

t/kW

h)

PredicciónPrecios reales

Figura 4.18: Media horaria de la predicción usando la distancia Euclídea.

2

2.5

3

3.5

4

4.5

5

5.5

1 3 5 7 9 11 13 15 17 19 21 23Horas

Pre

cios

(cen

t/kW

h)

Predicción

Precios reales

Figura 4.19: Media horaria de la predicción usando la distancia Manhattan.

89

Page 114: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 4Aplicación a los Precios de la

Energía en el Mercado Eléctrico

3

3.5

4

4.5

5

5.5

1 4 7 10 13 16 19 22 25 28 31 34 37 40

Días

Pre

cios

(ce

nt/k

Wh)

Predicción diariaPrecios diarios

Figura 4.20: Media diaria de la predicción usando la distancia Euclídea.

3

3.5

4

4.5

5

5.5

1 4 7 10 13 16 19 22 25 28 31 34 37 40

Días

Pre

cios

(cent/kW

h)

Predicción diariaPrecios diarios

Figura 4.21: Media diaria de la predicción usando la distancia Manhattan.

90

Page 115: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a los Precios de laEnergía en el Mercado Eléctrico

0.000.020.040.060.080.100.120.140.160.180.200.22

1 4 7 10 13 16 19 22 25 28 31 34 37 40

Días

Err

or

rela

tivo

dia

rio

3

3.5

4

4.5

5

5.5

Pre

cio

s d

iario

s

Error relativo diarioPrecios diarios

Figura 4.22: Media diaria del error relativo usando la distancia Euclídea.

0.000.020.040.060.080.100.120.140.160.180.200.22

1 4 7 10 13 16 19 22 25 28 31 34 37 40Días

Err

or

rela

tivo d

iario

3

3.5

4

4.5

5

5.5

Pre

cios

dia

rios

Error relativo diarioPrecios diarios

Figura 4.23: Media diaria del error relativo usando la distancia Manhattan.

91

Page 116: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 4Aplicación a los Precios de la

Energía en el Mercado Eléctrico

Estos resultados se resumen en la tabla 4.4 que se muestra a continuación.

Distancia Euclídea Distancia ManhattanSeptiembre Octubre Septiembre Octubre

Error Relativo Medio (%) 6 9.6 8 10.5Error Absoluto Medio 0.25 0.38 0.33 0.407

Máximo error diario (%) 18 18.6 19.57 20.3Máximo error horario (%) 66.02 88.08 68.9 90.43Mínimo error diario (%) 2.07 3.97 1.69 4.458Mínimo error horario (%) 0.03 0.0 0.02 0.0

Tabla 4.4: Errores según distancias.

Como se puede observar en la tabla anterior, el primer modelo obtenido conla distancia Euclídea en el que se buscan los vecinos de los 12 días anterioresal día que se quiere predecir y se usan los 4 vecinos más cercanos para lapredicción del nuevo ejemplo da lugar a mejores resultados que el segundomodelo obtenido a partir de la distancia Manhattan, ya que en el mes deseptiembre y octubre se obtienen unas reducciones de un 2% y un 1% en elerror relativo medio con respecto a los errores obtenidos en esos meses a partirdel segundo modelo.

4.4.2. Con predicción iterada

Esta predicción consiste en estimar el precio de la energía de la hora si-guiente como una media de los precios de la energía de las horas siguientes alos k vecinos más cercanos a las m horas anteriores a la hora que se quierepredecir, siendo m la longitud de la ventana óptima obtenida en la sección4.3.2.

Esta media está ponderada con unos pesos que representan la importanciade los precios similares según su mayor o menor parecido.

De esta manera, la predicción de los precios de la energía en la hora h + 1viene dada por:

Ph+1 =1

α1 + ... + αk

k∑j=1

αj · Pvj(x(h))+1 (4.20)

donde vj(x(h)) son los k precios vecinos a los precios de las m horas anterioresa la hora h+1, ordenados desde el más cercano al más lejano y donde los pesos

92

Page 117: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a los Precios de laEnergía en el Mercado Eléctrico

vienen dados por:

αj =d(Px(h), Pvk(x(h))) − d(Px(h), Pvj(x(h)))

d(Px(h), Pvk(x(h))) − d(Px(h), Pv1(x(h)))(4.21)

Estos pesos han sido elegidos porque dan lugar a una buena aproximaciónde la predicción, sin embargo otras alternativas para proporcionar pesos a losvecinos serán analizadas en unas futuras líneas de investigación comparandolos resultados que se obtengan con los resultados obtenidos en esta tesis.

El pseudocódigo del algoritmo se muestra en la figura 4.24.

Entrada: Patrones, distancia y parámetros num_vecinos ylongitud_ventanaSalida: Predicción de todos los días de un conjunto

Prediccion()Para todo dia ∈ Conjunto Test

Para toda hora ∈ diaConstrucción del punto formado por los precios de las

longitud_ventana horas anteriores a la hora horaCálculo de los num_vecinos vecinos más cercanos según la dis-

tancia elegidaCálculo de los pesos α según (4.21)Cálculo de la predicción de la hora hora según (4.20)Inclusión de la predicción de la hora hora en los patrones

Inclusión de los precios reales del día dia en los patronesFin Prediccion

Figura 4.24: Pseudocódigo del algoritmo para obtener predicciones.

Este algoritmo se ha aplicado a la serie temporal formada por los preciospara obtener la predicción de los días laborables comprendidos entre septiembrey octubre del año 2001.

Las figuras 4.25 y 4.26 presentan la media horaria de la predicción de losprecios obtenida y la media horaria de los precios reales para los días laborablesdel conjunto test seleccionado, tanto si se usa la distancia Euclídea como ladistancia Manhattan, siendo el error medio de la predicción 9.2% en amboscasos.

93

Page 118: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 4Aplicación a los Precios de la

Energía en el Mercado Eléctrico

2

2.5

3

3.5

4

4.5

5

5.5

1 3 5 7 9 11 13 15 17 19 21 23

Horas

Pre

cios

(ce

nt/k

Wh)

PrediccionPrecios reales

Figura 4.25: Media horaria de la predicción usando la distancia Euclídea.

2

2.5

3

3.5

4

4.5

5

5.5

1 3 5 7 9 11 13 15 17 19 21 23Horas

Pre

cios

(ce

nt/k

Wh)

PrediccionPrecios reales

Figura 4.26: Media horaria de la predicción usando la distancia Manhattan.

Las figuras 4.27 y 4.28 presentan la media diaria de la predicción de losprecios obtenida y la media diaria de los precios reales para los días laborablesdel conjunto test seleccionado, tanto si se usa la distancia Euclídea como ladistancia Manhattan, respectivamente.

94

Page 119: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a los Precios de laEnergía en el Mercado Eléctrico

3

3.5

4

4.5

5

5.5

1 4 7 10 13 16 19 22 25 28 31 34 37 40

Días

Pre

cios

(ce

nt/k

Wh)

Predicción diariaPrecios diarios

Figura 4.27: Media diaria de la predicción usando la distancia Euclídea.

3

3.5

4

4.5

5

5.5

1 4 7 10 13 16 19 22 25 28 31 34 37 40

Días

Pre

cios

(ce

nt/k

Wh)

Predicción diariaPrecios diarios

Figura 4.28: Media diaria de la predicción usando la distancia Manhattan.

Las figuras 4.29 y 4.30 muestran la media diaria del error relativo cometidoen la predicción de los precios del conjunto test seleccionado, tanto si se usala distancia Euclídea como la distancia Manhattan, respectivamente. Comose puede observar, cuando se ha usado la distancia Euclídea como métrica, eldía en el que se ha obtenido el menor y mayor error relativo corresponde conel 6 de septiembre (día 4) y el 26 de octubre (día 39) con un error de 3% y21.66%, respectivamente. Sin embargo, con la distancia Manhattan el día enel que se ha obtenido el menor y mayor error relativo corresponde con el 21

95

Page 120: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 4Aplicación a los Precios de la

Energía en el Mercado Eléctrico

de septiembre (día 15) y el 26 de octubre (día 39) con un error de 2.89% y21.55%, respectivamente.

0.00

0.02

0.04

0.06

0.08

0.10

0.12

0.14

0.16

0.18

0.20

0.22

1 4 7 10 13 16 19 22 25 28 31 34 37 40

Días

Err

or r

elat

ivo

diar

io

3

3.5

4

4.5

5

5.5

Pre

cios

dia

rios

Error Relativo diarioPrecios diarios

Figura 4.29: Media diaria del error relativo usando la distancia Euclídea.

0.000.020.040.060.080.100.120.140.160.180.200.22

1 4 7 10 13 16 19 22 25 28 31 34 37 40

Días

Err

or r

elat

ivo

diar

io

3

3.5

4

4.5

5

5.5P

reci

os d

iario

sError Relativo diarioPrecios diarios

Figura 4.30: Media diaria del error relativo usando la distancia Manhattan.

96

Page 121: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a los Precios de laEnergía en el Mercado Eléctrico

Estos resultados se resumen en la tabla 4.5 que se muestra a continuación.

Distancia Euclídea Distancia ManhattanSeptiembre Octubre Septiembre Octubre

Error Relativo Medio (%) 7.3 11 7.11 11.27Error Absoluto Medio 0.289 0.427 0.282 0.436

Máximo error diario (%) 15.88 21.66 15.628 21.558Máximo error horario (%) 75.9 94.7 88.9 93.3Mínimo error diario (%) 3 4.879 2.89 4.49Mínimo error horario (%) 0.0 0.0 0.0 0.0

Tabla 4.5: Errores según distancias.

Como se puede observar en la tabla anterior, tanto el primer modelo obte-nido con la distancia Euclídea como el segundo modelo obtenido a partir de ladistancia Manhattan, tienen un comportamiento parecido puesto que los erro-res se encuentran en los mismos rangos. Sin embargo, se puede observar que engeneral los resultados obtenidos con una predicción directa que se muestran enla tabla 4.4 son mejores que los obtenidos con un tipo de predicción iterada.Esto es debido a que los errores de la predicción se van acumulando en el vectorde entrada sobre todo en las últimas horas del horizonte de predicción. Ademáscuando la predicción se hace hora a hora como ocurre cuando se hace un tipode predicción iterada el coste computacional del método de predicción basadoen la búsqueda de los vecinos más cercanos es más elevado que si la predicciónse hace día a día, ya que la base de datos es más grande lo que conlleva recorrerun mayor número de ejemplos para la búsqueda de los vecinos.

4.5. Análisis heurístico del errorEn esta sección se aplica el estudio del error mínimo descrito en la sección

3.5 del Capítulo 3 a la serie temporal formada por los precios de la energíaeléctrica.

La predicción óptima de los precios de la energía de mañana se estima conlos precios más cercanos a los precios reales de la energía de mañana, es decir:

Pd+1 = v(Pd+1) donde v(Pd+1) es tal que d(v(Pd+1), Pd+1) es mínima (4.22)

La tabla 4.6 muestra los valores de los distintos tipos de errores, obtenidosmediante la predicción óptima de los precios de la energía, descrita en esta

97

Page 122: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 4Aplicación a los Precios de la

Energía en el Mercado Eléctrico

sección, según la distancia usada para el cálculo de un único precio vecino.Nótese que, el error cuadrático medio mínimo se obtiene cuando se usa ladistancia Euclídea y el error absoluto medio mínimo se obtiene cuando se usala distancia Manhattan, como se ha demostrado teóricamente.

Predicción óptimaDistancia Euclídea Distancia Manhattan

Error Cuadrático Medio 0.114 0.126Error Absoluto Medio 0.226 0.216

Error Relativo Medio (%) 5.77 5.55

Tabla 4.6: Influencia de la distancia en la optimización de los distintos tiposde errores.

Las diferencias entre los errores obtenidos en la predicción y los erroresóptimos que muestra la tabla 4.6 son aproximadamente un 2.5% cuando seusa la distancia Euclídea y un 4 % cuando se usa la distancia Manhattan. Estadesviación del error medio óptimo en los meses de septiembre y octubre delaño 2001 es debida principalmente a los precios que son considerados falsosvecinos.

4.6. Comparación con Redes NeuronalesEn esta sección se hace una breve descripción de los aspectos más destaca-

dos de la red neuronal perceptron multicapa usada para obtener la predicciónde los precios de la energía en el Mercado Eléctrico Español.

4.6.1. Estructura de la red neuronal

Una red neuronal perceptron multicapa está formada por un cierto númerode neuronas organizadas en capas, donde cada capa tiene varias entradas y unaúnica salida cuyo valor es función no lineal de las entradas. Las entradas decada capa están ponderadas por un factor de peso el cual debe ser determinadodurante la fase de entrenamiento. Usualmente en la predicción de precios, unared neuronal está formada por tres capas, de entrada, intermedia y de salida,donde las salidas de una capa son las entradas de la capa siguiente.

Los dos pasos principales en el uso de una red neuronal son los que siguen:

Determinar su topología, que consiste básicamente en determinar el nú-mero de neuronas de la capa intermedia.

98

Page 123: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a los Precios de laEnergía en el Mercado Eléctrico

Obtener los factores de peso de las entradas para una función no linealdeterminada en el proceso de entrenamiento.

La red usada en esta tesis se alimenta a través de una ventana deslizanteformada por los precios correspondientes a 24 horas, lo cual significa que la capade entrada está formada por 24 neuronas. En cuanto al número de neuronasde salida se han evaluado dos posibilidades:

a) Una única salida cuyo valor viene determinado por las 24 horas pre-vias. Bajo este esquema muy popular en la predicción de la demanda, laventana deslizante es desplazada una hora cada vez.

b) Veinticuatro salidas correspondientes a los precios de un día entero, cuyosvalores vienen determinados por los valores de los días previos. En estecaso la ventana se desliza 24 horas cada vez.

Los resultados han demostrado una mejor aproximación con el esquema b),el cual es el único que se considera en lo que sigue.

Para terminar de definir la estructura de la red neuronal es necesario de-terminar el número de neuronas de la capa intermedia y el número de díasrequeridos para el proceso de entrenamiento de la red.

0

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

0 5 10 15 20 25 30 35 40 45

Días

Err

or (

cent

/kW

h)

12 neuronas

24 neuronas

36 neuronas

Figura 4.31: Error medio de la predicción.

La figura 4.31 muestra el error medio cometido en la predicción de losprecios de la energía correspondientes a los días laborables de febrero del año2001, cuando se han usado 12, 24 y 36 neuronas en la capa intermedia frente al

99

Page 124: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 4Aplicación a los Precios de la

Energía en el Mercado Eléctrico

número de días usados para entrenar la red. Se puede observar que 20 días sonsuficientes para entrenar la red y que el número de neuronas no es demasiadoimportante.

En los resultados que se muestran a continuación se han usado 24 neuronasen la capa intermedia para obtener la predicción de los precios de la energía.

4.6.2. Resultados

Los días laborables comprendidos entre enero y febrero del año 2001 se hanusado en varios experimentos para encontrar y ajustar la topología de la red,mientras que los días comprendidos entre marzo y octubre del 2001 se hanelegido para chequear los errores cometidos en la predicción.

La figura 4.32 presenta el error absoluto de la predicción de los precios enel mercado, para los dos días que dan lugar a los mayores y menores erroresmedios en el mes de marzo, los cuales corresponden con el lunes 12 de marzodel año 2001 y el viernes 23 de marzo del año 2001 respectivamente.

0.0

0.5

1.0

1.5

2.0

2.5

3.0

1 3 5 7 9 11 13 15 17 19 21 23

Horas

Err

or

(cen

t/kW

h)

viernes 23lunes 12

Figura 4.32: Error absoluto de la mejor y peor predicción.

La figura 4.33 presenta la media horaria de la predicción de los precios delmes de marzo y los errores de la predicción en dicho mes. Los errores de lapredicción son mayores en las horas punta (horas en las que la demanda deenergía eléctrica es alta).

100

Page 125: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a los Precios de laEnergía en el Mercado Eléctrico

0

0.5

1

1.5

2

2.5

3

3.5

1 3 5 7 9 11 13 15 17 19 21 23

Horas

cent

/kW

h

ErroresPredicción

Figura 4.33: Media horaria de la predicción de los precios para el mes de marzo.

Finalmente, la tabla 4.7 presenta la media y desviación estándar (s. d.)de los precios reales, los errores absolutos y relativos medios y los máximoserrores para las estaciones de primavera y verano y para dos meses de otoño,septiembre y octubre. Los errores relativos varían desde un 12% que se cometeen los meses de verano hasta un 15% obtenido en los meses comprendidos enla primavera.

Precios Diarios (céntimos/kWh)marzo-mayo junio-agosto septiembre-octubre

Precio real 2.2588 3.5482 3.673s. d. 0.7801 1.0597 0.518

Error absoluto medio 0.3464 0.428 0.576Máximo error horario 2.671 2.0736 2.167

Error relativo medio (%) 15 12 14

Tabla 4.7: Resumen de los errores de la predicción.

La tabla 4.8 muestra los errores obtenidos de la aplicación del método ba-sado en los vecinos más cercanos y la red neuronal desarrollada a la predicciónde los precios de la energía en los meses de septiembre y octubre del año 2001.Como se puede observar, los resultados muestran un mejor comportamientodel método propuesto frente a la red neuronal, ya que los errores cometidos en

101

Page 126: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 4Aplicación a los Precios de la

Energía en el Mercado Eléctrico

la predicción son de un 7.8% mientras que con la red neuronal los errores sonde un 14%.

Vecinos Red NeuronalSeptiembre Octubre Septiembre Octubre

Error Relativo Medio (%) 6 9.6 14.75 13.75Error Absoluto Medio 0.25 0.38 0.60 0.56

Máximo error diario (%) 18 18.6 20.73 31.18Máximo error horario (%) 66.02 88.08 50.21 64.92Mínimo error diario (%) 2.07 3.97 5.33 4.28Mínimo error horario (%) 0.03 0.0 0.01 0.00

Tabla 4.8: Errores obtenidos con ambos métodos.

4.7. Conclusiones

En este Capítulo se ha presentado un algoritmo basado en técnicas devecinos para la predicción de la serie temporal formada por los precios de laenergía eléctrica en el nuevo mercado eléctrico español.

Se han obtenido cuatro modelos de predicción, dependiendo del tipo depredicción realizada y de la distancia utilizada para calcular los vecinos. Losdos primeros modelos se han obtenido con una predicción directa y los dosúltimos modelos con una predicción iterada: en el primer modelo se ha usadola distancia Euclídea, el número de ejemplos usados en la predicción son 4y hay que buscar los vecinos de los 12 días anteriores al día que se quierepredecir para estimar los valores de la predicción; en el segundo modelo se hausado la distancia Manhattan, el número óptimo de ejemplos obtenido ha sido5 y hay que buscar los vecinos de los 5 días anteriores; en el tercer modelose ha usado la distancia Euclídea, el número óptimo de ejemplos obtenido hasido 5 y hay que buscar los vecinos de las 24 horas anteriores a la hora que sequiere predecir; finalmente el cuarto modelo se ha obtenido usando la distanciaManhattan, el número óptimo de ejemplos para realizar la predicción ha sido7 y el número de horas anteriores que hay que usar para buscar los vecinos hasido 24 al igual que el tercer modelo.

Se han mostrado los resultados obtenidos de la aplicación del algoritmo ba-sado en los vecinos usando los cuatro modelos anteriores. Con el primer modelose ha obtenido un 7.8% de error relativo medio en los meses de septiembre yoctubre, con el segundo modelo un 9.25%, con el tercer modelo un 9.15% ycon el cuarto un 9.19%.

102

Page 127: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a los Precios de laEnergía en el Mercado Eléctrico

Los resultados obtenidos con el primer modelo han sido comparados conlos obtenidos de la aplicación de una red neuronal a la predicción de los preciosde la energía. Éstos muestran un mejor comportamiento del método propuestofrente a la red neuronal, ya que los errores cometidos en la predicción son deun 7.8% mientras que con la red neuronal los errores son de un 14%.

103

Page 128: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 4Aplicación a los Precios de la

Energía en el Mercado Eléctrico

104

Page 129: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 5

Aplicación a la Demanda deEnergía Eléctrica.

En este capítulo se aplica el método basado en los vecinos más cercanosa la predicción de otra serie temporal real: la demanda de energía eléctrica.En primer lugar, se analiza el comportamiento de la serie mediante algunasherramientas de visualización. En segundo lugar, se obtienen los parámetrosque determinan el modelo y se realiza una predicción sobre un conjunto test. Enbase a los resultados obtenidos se hace una breve comparación tanto cualitativacomo cuantitativa entre los precios de la energía, serie temporal analizada enel capítulo anterior, y la demanda. Finalmente, los resultados obtenidos de laaplicación del método propuesto en esta tesis son comparados con los obtenidosde la aplicación de un árbol de regresión generado con el algoritmo M5’.

5.1. Demanda. Programación Horaria de Cen-trales

La predicción de la demanda de energía eléctrica es muy importante paralograr una operación segura y económica de los sistemas de energía. En el cor-to, medio y largo plazo, la planificación de la producción de energía eléctricaabarca un conjunto de problemas de optimización interrelacionados entre ellos,los cuales requieren una predicción de la demanda. La planificación de la pro-ducción de energía eléctrica en el corto plazo es lo que se conoce con el nombrede Programación Horaria de Centrales, problema cuya resolución se presentaen la segunda parte de esta tesis. De esta manera, la aproximación de las téc-nicas de predicción son importantes para las compañías eléctricas que intentanreducir la incertidumbre de la demanda para obtener una programación de la

105

Page 130: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 5 Aplicación a la Demanda de Energía Eléctrica.

producción de energía óptima y realista [120].

Actualmente, los métodos de predicción para la estimación de la demandase pueden clasificar en dos grandes grupos: los métodos estadísticos clásicos[95, 93] y las técnicas de aprendizaje automático (Machine Learning).

Los métodos estadísticos clásicos consisten en estimar la demanda actual apartir de los valores pasados de la demanda. Las relaciones entre la demanday otros factores importantes, como por ejemplo la temperatura, se usan paradeterminar un modelo que represente el comportamiento y la evolución tem-poral de la serie, en este caso la demanda de energía eléctrica. La principalventaja de estos métodos es su simplicidad, sin embargo no es fácil identificarmodelos aproximados y realistas usando estos métodos ya que las relacionesque existen entre la demanda y los factores que influyen en ella no son lineales.

En los últimos años, las técnicas de Machine Learning tales como las Re-des Neuronales Artificiales (RNA) [4, 105, 67] se han aplicado al problema dela predicción de la demanda de energía eléctrica en el corto plazo (normal-mente 24 horas). Las RNA se entrenan para aprender las relaciones que hayentre las variables de entrada (principalmente valores pasados de la demanday valores actuales de la temperatura) y los patrones históricos de la demanda.La principal desventaja de las RNA es el procedimiento de aprendizaje quenecesitan.

Recientemente, las técnicas de clasificación basadas en los k vecinos máscercanos (kNN) se han aplicado con éxito en distintas áreas, desde diagnosismédica hasta sistemas expertos, en teoría de juegos o predicción de seriestemporales. Estas técnicas se han aplicado al problema de la predicción de losprecios de la energía en el mercado eléctrico español [124, 121] dando lugar aresultados competitivos con los resultados obtenidos de la aplicación de otrastécnicas, pero en la literatura actual no se han encontrado aplicaciones de estastécnicas para obtener una predicción de la demanda de energía eléctrica parael día siguiente.

Para ilustrar de una manera visual el comportamiento, propiedades y evo-lución de la serie temporal formada por la demanda de energía se han elegidolos meses comprendidos entre enero del año 2000 y mayo del año 2001. Losfines de semana y días festivos no son incluidos debido a que presentan uncomportamiento distinto a los días laborables.

La figura 5.1 muestra el valor medio horario de la demanda de energía paralos días laborables de marzo del año 2001. La desviación estándar media esaproximadamente un 4.5% del valor medio frente al 20 % o 40 % que presentabala serie temporal formada por los precios.

106

Page 131: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a la Demanda de Energía Eléctrica.

16000

17000

18000

19000

20000

21000

22000

23000

24000

25000

1 3 5 7 9 11 13 15 17 19 21 23

Horas

Dem

anda

(M

W)

MediaMedia + s. d.Media - s. d.

Figura 5.1: Media horaria de la demanda.

En la figura 5.2 se muestran los histogramas de la demanda en el año 2000y 2001 para comparar el comportamiento de estos dos años. Se puede observarque tanto la distribución del año 2000 como la del año 2001 son parecidas encuanto a su forma, salvo que en el año 2001 la demanda fue más alta, hechofrecuente en los últimos años donde la demanda suele tener un crecimientoanual de un 2 %. Debido a la análoga distribución de los años 2000 y 2001 sepueden usar los datos de estos dos años para obtener el modelo de predicción,lo cual era inviable en el caso de los precios.

Demanda (MW)

2650023000195001600012500

Hor

as

500

400

300

200

100

0

Demanda (MW)

2650023000195001600012500

Hor

as

500

400

300

200

100

0

Figura 5.2: Histograma de la demanda del año 2000 y 2001.

107

Page 132: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 5 Aplicación a la Demanda de Energía Eléctrica.

La figura 5.3 muestra el coeficiente de correlación entre la demanda deenergía en una hora y la demanda correspondiente a las veinticuatro horasanteriores. Como se puede ver, las horas pasadas más influyentes en la horaactual son justo la hora uno y la veinticuatro, que coinciden con la hora anteriory con la misma hora que la actual pero del día anterior, respectivamente.

-0.3-0.2-0.1

00.10.20.30.40.50.60.70.80.9

1

1 3 5 7 9 11 13 15 17 19 21 23

Número de horas anteriores

Co

efic

ien

te d

e C

orr

elac

ión

Figura 5.3: Coeficiente de Correlación.

Una vez ilustradas de forma visual las principales características y el com-portamiento de la demanda de energía se resolverá el problema de la predicciónmediante la aplicación del método expuesto en el Capítulo 3. Tanto el modelocomo los resultados se obtendrán con un tipo de predicción directa ya quecomo se ha visto anteriormente la predicción iterada muestra una peor aproxi-mación debido a la acumulación de errores en las últimas horas del horizontede predicción.

5.2. Descripción del problema

El problema de la predicción de la demanda de energía eléctrica en el cortoplazo consiste en predecir la demanda de energía para las 24 horas del díasiguiente.

108

Page 133: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a la Demanda de Energía Eléctrica.

5.3. Obtención del modeloEl algoritmo descrito en la figura 4.7 del capítulo anterior ha sido aplicado

a la base de datos formada por la demanda de energía [125, 126], tomandocomo conjunto de entrenamiento los días laborables comprendidos entre enerodel año 2000 y mayo del año 2001. El número máximo de días anteriores (pará-metro num_dias_maximo), usado para el cálculo de los vecinos más cercanosque son falsos, ha sido igual a 25, lo cual corresponde aproximadamente conel número de días laborables de un mes completo. El parámetro Rmax, que re-presenta el umbral a partir del cual un punto considerado vecino más cercanode otro punto va a ser un vecino falso, ha sido elegido igual a 1.

Para el cálculo de los vecinos más cercanos se han elegido dos distancias, ladistancia Euclídea y la distancia Manhattan, para establecer una comparaciónentre los resultados obtenidos usando ambas en lo que respecta a la calidaddel modelo obtenido, una vez determinados los dos parámetros principales: lalongitud de la ventana y el número de vecinos.

La tabla 5.1 presenta el porcentaje obtenido de vecinos cercanos que sonfalsos cuando éstos han sido calculados con dos distancias, la distancia Euclídeay la distancia Manhattan. Como se puede observar el número de vecinos falsostiende a cero cuando el número de días pasados que forman la longitud de laventana aumenta. La longitud óptima de la ventana deslizante es de 7 díascuando se calculan los vecinos con la distancia Manhattan, mientras que conla distancia Euclídea es necesario buscar los vecinos más cercanos de los 15días anteriores al que se quiere predecir para que el número de vecinos falsossea suficientemente pequeño.

La figura 5.4 muestra cómo el porcentaje de vecinos más cercanos falsosdisminuye cuando el número de días anteriores usados para formar la ventanaaumenta, tanto para la distancia Euclídea como la distancia Manhattan.

Una vez determinada la longitud de la ventana deslizante hay que determi-nar el número de vecinos que hacen que el error de la predicción sea mínimo.

El algoritmo descrito en la figura 4.9 del capítulo anterior ha sido aplicadoa la base de datos formada por la demanda de energía, tomando como conjuntode entrenamiento los días laborables comprendidos entre enero del año 2000y mayo del año 2001. La longitud de la ventana ha sido de 7 días cuando seha usado la distancia Manhattan y de 15 días cuando se ha usado la distanciaEuclídea para el cálculo de los k vecinos más cercanos. El número máximo devecinos (parámetro num_vecinos_max) ha sido igual a 20.

109

Page 134: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 5 Aplicación a la Demanda de Energía Eléctrica.

Vecinos Cercanos Falsos (%)Distancia

Número de días Euclídea Manhattananteriores

1 84.5902 84.9182 57.377 50.49183 43.6066 21.31154 23.9344 7.21315 25.9016 3.27876 21.6393 1.63937 16.0656 0.32798 14.7541 09 6.5574 010 7.8689 011 5.9016 012 4.2623 013 3.9344 014 2.9508 015 1.6393 016 1.6393 017 0.6557 018 0.3279 019 0.6557 020 0.6557 021 0.3279 022 0 023 0 024 0 025 0 0

Tabla 5.1: Porcentaje de vecinos falsos según distancias.

110

Page 135: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a la Demanda de Energía Eléctrica.

0

10

20

30

40

50

60

70

80

90

100

1 3 5 7 9 11 13 15 17 19 21 23 25

Número de días anteriores

Núm

ero

de v

ecin

os fa

lsos

(%

)Distancia Euclídea

Distancia Manhattan

Figura 5.4: Número de vecinos cercanos falsos.

La figura 5.5 presenta la influencia del número de vecinos sobre los erro-res relativos y absolutos medios obtenidos en la predicción de la demanda deenergía para el conjunto de entrenamiento considerado, siendo la distancia pa-ra evaluar la similitud entre la demanda de los 7 días anteriores y los datoshistóricos, la distancia Manhattan.

Análogamente a la figura anterior, la figura 5.6 presenta la influencia delnúmero de vecinos sobre los errores relativos y absolutos medios obtenidos en lapredicción de la demanda de energía para el mismo conjunto de entrenamiento,habiendo usado para el cálculo de los vecinos la distancia Euclídea.

Como resultado se han obtenido los modelos siguientes:

Con la distancia Euclídea, se han obtenido mediante el método de losfalsos vecinos más cercanos los siguientes patrones:

P1,1 · · · P1,24 · · · P15,1 · · · P15,24 P16,1 · · · P16,24

P2,1 · · · P2,24 · · · P16,1 · · · P16,24 P17,1 · · · P17,24

......

......

......

......

......

(5.1)

y el número de ejemplos cercanos que se usarán en la predicción soncuatro.

111

Page 136: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 5 Aplicación a la Demanda de Energía Eléctrica.

2.9

3

3.1

3.2

3.3

3.4

3.5

3.6

3.7

1 3 5 7 9 11 13 15 17 19

Número de Vecinos

Err

or R

elat

ivo

Med

io (

%)

580

600

620

640

660

680

700

720

Err

or A

bsol

uto

Med

io (

MW

)

Error Relativo Medio (%)

Error Absoluto Medio (MW)

Figura 5.5: Número óptimo de vecinos usando la distancia Manhattan.

2.9

3

3.1

3.2

3.3

3.4

3.5

3.6

3.7

1 3 5 7 9 11 13 15 17 19

Número de Vecinos

Err

or R

elat

ivo

Med

io (

%)

580

600

620

640

660

680

700

720

Err

or A

bsol

uto

Med

io (

MW

)Error Relativo Medio (%)

Error Absoluto Medio (MW)

Figura 5.6: Número óptimo de vecinos usando la distancia Euclídea.

112

Page 137: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a la Demanda de Energía Eléctrica.

Con la distancia Manhattan, se han obtenido mediante el método de losfalsos vecinos más cercanos los siguientes patrones:

P1,1 · · · P1,24 · · · P7,1 · · · P7,24 P8,1 · · · P8,24

P2,1 · · · P2,24 · · · P8,1 · · · P8,24 P9,1 · · · P9,24...

......

......

......

......

...(5.2)

y el número de ejemplos cercanos que se usarán en la predicción son siete.

En ambos casos, la ventana se va desplazando veinticuatro atributos cada vezque se predice la demanda de energía para las veinticuatro horas de un día.

5.4. Predicción. ResultadosEn esta sección los resultados se obtendrán con un tipo de predicción di-

recta ya que como se ha visto anteriormente la predicción iterada muestra unapeor aproximación debido a la acumulación de errores en las últimas horas delhorizonte de predicción.

El algoritmo descrito en la figura 4.17 del capítulo anterior se ha aplicado ala serie temporal formada por la demanda para obtener la predicción de los díaslaborables comprendidos entre junio y noviembre del año 2001. El conjunto dedatos empleado para la obtención y validación del modelo de predicción hansido los días comprendidos entre enero del año 2000 y mayo del año 2001.Aproximadamente, las dos terceras partes de los datos han sido elegidas comoconjunto de entrenamiento correspondiendo a 17 meses y una tercera partecomo conjunto de test correspondiendo a 6 meses. Aunque el conjunto de testno es un conjunto de test en el sentido clásico, ya que cada vez que se prediceun día del conjunto de test este día es incluido en la base de datos para predecirde nuevo el siguiente día del conjunto de test.

La tabla 5.2 muestra los valores medios y la desviación estándar de lademanda correspondiente a los meses comprendidos entre junio y noviembredel año 2001.

Junio Julio AgostoDemanda real 20453.267 21624.967 20598.948

Desviación Estándar 747.121 (3.6%) 576.181 (2.6%) 816.604 (3.9%)Septiembre Octubre Noviembre

Demanda real 17281.499 20404.260 21998.205Desviación Estándar 666.605 (9.1%) 587.017 (2.8%) 1459.911 (6.6%)

Tabla 5.2: Media y desviación estándar del conjunto test.

113

Page 138: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 5 Aplicación a la Demanda de Energía Eléctrica.

Las figuras 5.7 y 5.8 presentan la media horaria de la predicción obtenidade la demanda y la media horaria de la demanda real para los días laborablesdel conjunto test seleccionado, tanto si se usa la distancia Euclídea como ladistancia Manhattan, siendo el error medio de la predicción 2.9% y 2.3%,respectivamente.

16000

17000

18000

19000

20000

21000

22000

23000

24000

25000

1 3 5 7 9 11 13 15 17 19 21 23

Horas

Dem

anda

(M

W)

Predicción

Media horaria

Figura 5.7: Media horaria de la predicción usando la distancia Euclídea.

16000

17000

18000

19000

20000

21000

22000

23000

24000

25000

1 3 5 7 9 11 13 15 17 19 21 23

Horas

Dem

anda

(M

W)

Predicción

Media horaria

Figura 5.8: Media horaria de la predicción usando la distancia Manhattan.

114

Page 139: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a la Demanda de Energía Eléctrica.

En lo que sigue, sólo se mostrarán los resultados obtenidos de la predicciónsobre el conjunto test cuando los vecinos cercanos se han calculado con ladistancia Manhattan, debido a la mejor aproximación que se obtiene con eluso de esta métrica.

La figura 5.9 presenta la media diaria de la predicción obtenida de la deman-da y la media diaria de la demanda real para los días laborables del conjuntotest seleccionado.

18000

19000

20000

21000

22000

23000

24000

1 12 23 34 45 56 67 78 89 100 111 122

Días

Dem

anda

(M

W)

Predicción diariaDemanda diaria

Figura 5.9: Media diaria de la predicción.

La figura 5.10 presenta la media del error absoluto horario cometido en lapredicción de la demanda para las estaciones de verano y otoño. En esta figurase puede observar un buen comportamiento del método de los vecinos más cer-canos en las horas punta. Es importante obtener una buena predicción durantelas horas punta, aquellas horas en las que el consumo de energía eléctrica esalto (desde las 10 horas hasta las 14 horas y desde las 18 horas hasta las 22horas), ya que para satisfacer la punta de demanda hay que tener prepara-das centrales adicionales (normalmente de coste elevado), por lo que cualquiererror en la predicción conlleva un sobrecoste que puede ser muy importante.

115

Page 140: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 5 Aplicación a la Demanda de Energía Eléctrica.

0

200

400

600

800

1 3 5 7 9 11 13 15 17 19 21 23

Horas

Err

or A

bsol

uto

(MW

)

Verano

Otoño

Figura 5.10: Media horaria del error absoluto.

Las figuras 5.11 y 5.12 presentan la predicción de la demanda de las dossemanas que conducen a los máximos y mínimos errores semanales, y la de-manda real para esas dos semanas. La semana que da lugar al máximo errorcorresponde a los días comprendidos entre el lunes 25 de junio y el viernes29 de junio. La semana que da lugar al mínimo error corresponde a los díascomprendidos entre el lunes 16 de julio y el viernes 20 de julio.

12000

14000

16000

18000

20000

22000

24000

26000

28000

1 20 39 58 77 96 115

Horas

Dem

anda

(M

W)

Predicción

Demanda real

Figura 5.11: Mejor predicción semanal.

116

Page 141: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a la Demanda de Energía Eléctrica.

12000

14000

16000

18000

20000

22000

24000

26000

28000

1 20 39 58 77 96 115

Horas

Dem

anda

(M

W)

Predicción

Demanda real

Figura 5.12: Peor predicción semanal.

La tabla 5.3 muestra los errores diarios de los días laborables de las semanasen las que se obtuvo la mejor y la peor predicción.

Errores diarios (%) Error semanal (%)16 de julio-20 de julio 0.8 0.6 0.8 1.7 1.3 1.0525 de junio-29 de junio 2.1 7.2 5.9 2.6 1.3 3.8

Tabla 5.3: Errores diarios de la mejor y la peor predicción semanal.

Las figuras 5.13 y 5.14 presentan la predicción de la demanda de los dosdías que conducen a los máximos y mínimos errores diarios, junto a la demandareal y el error relativo horario para esos dos días. Los días con el máximo ymínimo error diario corresponden al lunes 6 de agosto del año 2001 y al jueves20 de septiembre del año 2001, respectivamente. Se puede observar que el díade mayor error corresponde al primer lunes del mes de agosto, que es el díaque comienzan las vacaciones de verano para la mayoría de los españoles.

117

Page 142: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 5 Aplicación a la Demanda de Energía Eléctrica.

0

0.02

0.04

0.06

0.08

0.1

0.12

0.14

0.16

1 3 5 7 9 11 13 15 17 19 21 23

Horas

Err

or R

elat

ivo

15000

18000

21000

24000

Dem

anda

(M

W)

ErrorDemanda realPredicción

Figura 5.13: Mejor predicción diaria.

0

0.02

0.04

0.06

0.08

0.1

0.12

0.14

0.16

1 3 5 7 9 11 13 15 17 19 21 23

Horas

Err

or R

elat

ivo

15000

18000

21000

24000

Dem

anda

(M

W)

ErrorDemanda realPredicción

Figura 5.14: Peor predicción diaria.

Estos resultados se resumen en la tabla 5.4 que se muestra a continuación.

118

Page 143: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a la Demanda de Energía Eléctrica.

Distancia Euclídea Distancia ManhattanVerano Otoño Verano Otoño

Error Relativo Medio (%) 2.99 3.729 2.356 2.244Error Absoluto Medio 627.53 572.098 493.42 456.31

Máximo error diario (%) 8.246 8.038 7.88 6.27Máximo error horario (%) 13.5 18.6 14.8 17.6Mínimo error diario (%) 0.499 0.657 0.6 0.484Mínimo error horario (%) 0.0 0.0 0.0 0.0

Tabla 5.4: Errores según distancias.

Como se puede observar en la tabla anterior, cuando se usa la distanciaManhattan para la búsqueda de los vecinos más cercanos se obtiene una mejoraproximación en la predicción de la demanda para el conjunto de test seleccio-nado que cuando se usa la distancia Euclídea.

5.5. Estudio Cualitativo y Comparativo de laDemanda y los Precios de la Energía en elMercado Eléctrico Español.

En esta sección se comparan las dos series temporales analizadas ante-riormente: los precios y la demanda de energía. De esta forma, se justifica ladiferencia cuantitativa notable existente entre el error cometido en la predic-ción de ambas series temporales. Recuérdese que el error medio cometido en lapredicción de los precios ha sido un 7.8% frente a un error de 2.3% obtenidoen la predicción de la demanda.

La figura 5.15 muestra las relaciones entre los precios de una hora y losprecios de la hora siguiente. En la figura se puede distinguir claramente unalínea horizontal y vertical las cuales están indicadas con una flecha, que re-presentan un rango de precios comprendidos entre 1 cent/kWh y 3 cent/kWhcuyo precio en la hora siguiente fue el mismo (línea horizontal) y un mismoprecio cuyo precio en la hora siguiente oscila en todo un rango comprendidoentre 1 cent/kWh y 4 cent/kWh (línea vertical). Se puede observar cómo dadoun precio hay veces que en la hora siguiente el precio aumenta (precios porencima de la diagonal) y otras veces el precio disminuye (precios por debajode la diagonal). Por último se ha indicado con un círculo aquellos precios queclaramente son inusuales y que impiden hacer una buena predicción.

En contraste a la figura anterior, la figura 5.16 presenta las relaciones entrela demanda de una hora y la demanda de la hora siguiente. Como se puede

119

Page 144: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 5 Aplicación a la Demanda de Energía Eléctrica.

observar, la demanda en una hora determinada t tiene una relación “casi lineal”con la demanda de energía que hubo en la hora t− 1, sin embargo los preciosen una hora concreta no presentan relación alguna con los precios en la horaanterior.

0

1

2

3

4

5

6

0 1 2 3 4 5 6

Precios (t-1)

Pre

cios

(t)

Figura 5.15: Relaciones entre los precios de horas consecutivas.

15000

18000

21000

24000

27000

30000

15000 18000 21000 24000 27000 30000

Demanda (t-1)

Dem

anda

(t)

Figura 5.16: Relaciones entre la demanda de horas consecutivas.

120

Page 145: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a la Demanda de Energía Eléctrica.

A continuación en las figuras 5.17 y 5.18 se muestran las relaciones entrelos precios y la demanda de dos horas consecutivas concretas, en este casolas 7 horas y las 8 horas. Como se puede observar, la demanda presenta unatendencia “casi lineal” mientras que los precios presentan una mayor dispersiónsin mostrar relación alguna entre estas dos horas.

0

1

2

3

4

5

6

0 1 2 3 4 5

Precios en la hora 7

Pre

cios

en

la h

ora

8

Figura 5.17: Relación entre los precios de la hora 7 y la hora 8.

150001600017000180001900020000210002200023000

15000 16000 17000 18000 19000 20000 21000

Demanda en la hora 7

Dem

anda

en

la h

ora

8

Figura 5.18: Relación entre la demanda de la hora 7 y la hora 8.

121

Page 146: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 5 Aplicación a la Demanda de Energía Eléctrica.

Las figuras 5.19 y 5.20 presentan la relación existente entre los precios yla demanda de la misma hora en días consecutivos, respectivamente. Como sepuede notar los precios presentan una gran dispersión no pudiéndose obtenerbuenos resultados si un método de regresión estándar, que establezca una re-lación entre el precio de una hora y el precio que hubo en esa misma hora eldía anterior, es usado para la estimación de una predicción. Sin embargo, aun-que la demanda presenta una menor dispersión tampoco se obtendrían buenosresultados si un método de regresión estándar es usado para la estimación deuna predicción sobretodo cuando la demanda de energía es baja.

0

1

2

3

4

5

6

7

0 1 2 3 4 5 6 7

Precios (d-1)

Pre

cios

(d)

Figura 5.19: Relación entre los precios de días consecutivos.

14000

16000

18000

20000

22000

24000

26000

14000 16000 18000 20000 22000 24000 26000

Demanda (d-1)

Dem

anda

(d)

Figura 5.20: Relación entre la demanda de días consecutivos.

122

Page 147: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a la Demanda de Energía Eléctrica.

En las figuras 5.21 y 5.22 se muestra el comportamiento de la hora 1 en díasconsecutivos para los precios y la demanda, respectivamente. Obsérvese quelos precios de la hora 1 oscilan aproximadamente desde 1.5 cent/kWh hasta4.5 cent/kWh y donde presenta un comportamiento más caótico es cuando losprecios del día anterior en esa misma hora son superiores a 3 cent/kWh.

00.5

11.5

22.5

33.5

44.5

5

0 1 2 3 4 5

Precios del día d-1 hora 1

Pre

cios

del

día

d h

ora

1

Figura 5.21: Relación entre los precios de la hora 1 en días consecutivos.

15000

17000

19000

21000

23000

25000

15000 17000 19000 21000 23000 25000

Demanda del día d-1 hora 1

Dem

anda d

el d

ía d

hora

1

Figura 5.22: Relación entre la demanda de la hora 1 en días consecutivos.

123

Page 148: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 5 Aplicación a la Demanda de Energía Eléctrica.

Debido a las irregularidades de la serie temporal formada por los precios sepuede pensar que se trata de una serie temporal caótica de baja dimensiona-lidad. Un sistema caótico presenta una divergencia de las trayectorias vecinas,aunque éstas se encuentran en una región acotada que se conoce con el nombrede atractor. Las trayectorias sufren un proceso de “estiramiento y doblado” enel atractor lo que ocasiona la separación de una trayectoria con respecto a lastemporalmente vecinas. Recientemente la Teoría del Caos [96] ha identificadonumerosos atractores extraños en el comportamiento de muchos sistemas endistintas áreas como meteorología, biología, economía... Para obtener las tra-yectorias y visualizar el tipo de atractor subyacente a la serie temporal bastacon representar los pares (Xt, Xt−1) para todos los valores de la serie.

Las figuras 5.23 y 5.24 presentan las cuencas de atracción de las trayectoriaspara los precios y la demanda. Se puede observar que la divergencia de lastrayectorias es mayor cuando se trata de la serie temporal formada por losprecios, lo cual de nuevo confirma la diferencia que hay entre el error cometidoen la predicción de ambas series.

0

1

2

3

4

5

6

0 1 2 3 4 5 6

Figura 5.23: Atractor de los precios.

124

Page 149: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a la Demanda de Energía Eléctrica.

15000

17000

19000

21000

23000

25000

27000

29000

16000 18000 20000 22000 24000 26000 28000

Figura 5.24: Atractor de la demanda.

La distancia que hay en el instante t entre dos trayectorias que inicialmenteeran cercanas viene dada por un crecimiento exponencial que depende deltiempo que haya transcurrido, es decir, si x0 e y0 son puntos cercanos en elpasado se observa la siguiente relación en el futuro:

|yt − xt| < eλt|y0 − x0| (5.3)

Al conjunto de λ que cumplen (5.3) se le llaman exponentes de Lyapunov [29].Estos exponentes proporcionan una medida de la divergencia que muestranen un futuro las trayectorias que han sido vecinas en el pasado. Desde laecuación (5.3) se puede concluir que en presencia de exponentes de Lyapunovestrictamente positivos las trayectorias divergen exponencialmente, por tantoel número de exponentes de Lyapunov positivos es una aproximación de lapredecibilidad de la serie temporal.

La tabla 5.5 muestra los exponentes de Lyapunov para la serie temporalformada por los precios de la energía y para la serie temporal formada por lademanda de energía eléctrica. Como se puede observar los precios presentandos exponentes positivos más que la demanda y unos exponentes positivos demayor magnitud que los exponentes positivos de la demanda, lo cual vuelvea justificar la diferencia que hay entre el error cometido en la predicción deambas series.

125

Page 150: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 5 Aplicación a la Demanda de Energía Eléctrica.

Exponentes de LyapunovDemanda Precios0.0328 0.04730.0217 0.03000.0146 0.02640.0102 0.02090.0069 0.01300.0016 0.0083-0.0011 0.0029-0.0041 0.0003-0.0060 -0.0024-0.0087 -0.0096-0.0139 -0.0106-0.0164 -0.0156-0.0201 -0.0178-0.0244 -0.0257-0.0289 -0.0286-0.0368 -0.0365-0.0421 -0.0447-0.0499 -0.0539-0.0613 -0.0633-0.0791 -0.0764-0.0977 -0.1073-0.1460 -0.1444-0.2395 -0.2460-0.6129 -0.5853

Tabla 5.5: Exponentes de Lyapunov.

5.6. Comparación con Árboles de Regresión: Al-goritmo M5’

En esta sección se describe brevemente el algoritmo de aprendizaje M5’usado en la presente tesis para establecer una comparación entre los resultadosobtenidos de la aplicación de este algoritmo y el algoritmo propuesto basadoen la técnica de los vecinos más cercanos para la predicción de la demanda deldía siguiente.

EnMachine Learning, es importante obtener resultados que sean fácilmente

126

Page 151: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a la Demanda de Energía Eléctrica.

interpretables. Los árboles de decisión basados en reglas del tipo Si-Entoncesson uno de los lenguajes de descripción más populares en Machine Learning.

Básicamente, el M5’ construye un árbol basado en modelos lineales a trozos.Los árboles de regresión son árboles de decisión en cuyas hojas se obtiene unmodelo lineal. Así, este algoritmo obtiene un conjunto ordenado de reglas Si-Entonces para la predicción de series temporales que producen modelos loscuales revelan alguna información sobre la estructura de los datos. En general,el aprendizaje de un algoritmo basado en reglas consta de dos etapas:

Se parte de un conjunto de reglas iniciales

Las reglas son mejoradas mediante un algoritmo de optimización global

El algoritmo M5’ construye un árbol dividiendo los datos basándose en losvalores de los atributos predictivos. Una vez que el árbol ha sido construido,el método computa un modelo lineal para cada nodo. Entonces las hojas delárbol son podadas mientras que el error disminuya. El error para cada nodoes la media del valor absoluto de la diferencia entre el valor predicho y el valoractual de cada ejemplo del conjunto de entrenamiento que alcanza dicho nodo.Este error es ponderado con un peso que representa el número de ejemplosque alcanza ese nodo. Este proceso es repetido hasta que todos los ejemplosson cubiertos por una o más reglas. Este algoritmo está implementado en lalibrería WEKA [15].

Así el algoritmo se puede resumir en las siguientes etapas:

Transformación de atributos no numéricos a variables binarias

Tratamiento de valores perdidos

Construcción del árbol

• Cortes

• Poda

• Suavizado

5.6.1. Transformación de atributos no numéricos

Antes de construir el árbol todos los atributos que no son numéricos setransforman en variables binarias las cuales son tratadas como atributos nu-méricos. Esta transformación se hace mediante una técnica desarrollada porBreiman en [14] donde se demuestra que el mejor corte en un nodo para unavariable que tiene k posibles valores es una de las k − 1 posibles posiciones

127

Page 152: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 5 Aplicación a la Demanda de Energía Eléctrica.

resultantes una vez ordenados los k valores mediante algún criterio de orde-nación. Para cada atributo no numérico se calcula la media de las veces queaparece cada etiqueta posible para este atributo a partir de un conjunto de en-trenamiento, entonces las etiquetas se ordenan de menor a mayor según estasmedias. Una vez ordenadas las etiquetas se definen la variable binaria i-ésimacomo 0 si el valor de la etiqueta está entre los i primeros elementos y 1 en casocontrario. De esta manera, todos los cortes envuelven atributos numéricos ovariables binarias tratadas como atributos numéricos.

Supóngase un atributo no numérico, llamado color, que tiene tres posiblesvalores: azul, rojo y verde y que a partir de un conjunto de entrenamientoformado por 80 ejemplos se tiene que la etiqueta rojo aparece 12 veces, laetiqueta verde aparece 40 veces y la etiqueta azul aparece 28 veces. Entonceseste atributo se puede transformar en dos variables binarias b1 y b2 cuyosvalores se muestran a continuación en la tabla 5.6.

rojo azul verdeb1 0 1 1b2 0 0 1

Tabla 5.6: Transformación de atributos no numéricos en variables binarias.

La ordenación de las posibles etiquetas para un atributo no numérico sedebe hacer en cada nodo, sin embargo hay un inevitable incremento de ruidodebido a que el número de ejemplos que alcanzan los nodos situados en laparte más baja del árbol es pequeño. Por tanto no hay mucha pérdida si estaordenación se hace sólo una vez al principio antes de comenzar a construir elárbol.

En la aplicación de este algoritmo a la predicción de la demanda de energíaeléctrica esta etapa no es necesaria puesto que todos los atributos son numé-ricos.

5.6.2. Valores perdidos

Una vez que un atributo es seleccionado como punto de corte para dividirlos datos en subconjuntos se necesita el valor de ese atributo. Por tanto, es unproblema obvio si el valor del atributo no existe lo cual es bastante común endatos reales. Para resolver esto hay una técnica que consiste básicamente en lasustitución del valor inexistente de este atributo por el valor de otro atributoque esté altamente correlacionado con éste.

128

Page 153: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a la Demanda de Energía Eléctrica.

Una heurística más simple es usar el valor de la predicción como valor delatributo que ha sido elegido para el corte. Sin embargo, esto es sólo posiblecuando se trata del conjunto de entrenamiento. En otros casos se puede usarcomo valor la media de los valores de ese atributo para todos los ejemplos delconjunto que alcanzan el nodo.

En la serie temporal formada por la demanda de energía eléctrica sólo seencuentra un ejemplo con un atributo sin valor debido al cambio de horarioque se efectúa en el mes de marzo.

5.6.3. Cortes

Para determinar qué atributo es el mejor para dividir el conjunto de en-trenamiento en un nodo determinado se usa la desviación estándar como unamedida del error en cada nodo. Primero se calcula la reducción de este errorpara cada atributo que se use como punto de corte en el nodo y el atributoque maximiza esta reducción es elegido como punto de corte en dicho nodo.La reducción del error viene dado por:

SDR = sd(T ) −∑i

|Ti||T | · sd(Ti) (5.4)

donde Ti son los conjuntos resultantes de dividir el nodo usando el atributoelegido, T es el conjunto de entrenamiento, sd(·) es la desviación estándar deun conjunto y | · | es la función cardinal que devuelve el número de elementosde un conjunto.

El proceso de cálculo de los puntos de corte termina cuando las prediccionesde los ejemplos del conjunto de entrenamiento que alcanzan el nodo varíanligeramente, es decir la desviación estándar de este subconjunto es menor queun 5% de la desviación estándar del conjunto total o cuando ese nodo esalcanzado por muy pocos ejemplos (cuatro o cinco).

5.6.4. Suavizado

En una etapa final se realiza un proceso de regularización para compensarlas posibles discontinuidades que haya entre los modelos lineales adyacentesen las hojas del árbol ya una vez podado, sobretodo para modelos construidosa partir de un conjunto de entrenamiento con un número pequeño de ejem-plos. Este proceso de suavizado suele mejorar la aproximación de la predicciónobtenida mediante modelos basados en árboles.

Para realizar esta regularización, se construyen modelos lineales para losnodos internos al igual que en las hojas mientras se está construyendo el árbol.

129

Page 154: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 5 Aplicación a la Demanda de Energía Eléctrica.

Entonces una vez que el valor de la predicción para un ejemplo del conjuntotest se ha obtenido con el modelo lineal de la hoja alcanzada éste se filtrarecorriendo el árbol desde la hoja hasta la raíz suavizando en cada nodo me-diante una combinación de éste y el valor predicho para este ejemplo usandoel modelo lineal del nodo.

5.6.5. Poda

Como se ha descrito anteriormente, para el proceso de suavizado se necesitaun modelo lineal para cada nodo interior del árbol, no sólo en las hojas. Así,antes de podar el árbol se calcula un modelo lineal para cada nodo. Este modelotiene la forma siguiente:

w0 + w1a1 + w2a2 + . . .+ wkak (5.5)

donde ai son valores de los atributos y wi son los pesos que se calculan medianteuna regresión. Sin embargo en esta regresión sólo intervienen los atributos queaparecen en el subárbol que cuelga del nodo porque los otros atributos queafectan a la predicción ya se han tenido en cuenta para recorrer el árbol hastaalcanzar dicho nodo.

El proceso de poda usa una estimación del error en cada nodo. El errorpara cada nodo es la media del valor absoluto de la diferencia entre el valorpredicho y el valor actual de cada ejemplo del conjunto de entrenamiento quealcanza dicho nodo. Esta media estima por defecto el error para los ejemplosdel conjunto test puesto que ha sido calculada a partir del conjunto de entrena-miento, por tanto se multiplica por un factor de peso que depende del númerode ejemplos del conjunto de entrenamiento que alcanzan ese nodo y el númerode parámetros del modelo lineal obtenido en ese nodo.

Una vez obtenido el modelo lineal para un nodo éste se puede simplificareliminando términos mientras que el error estimado disminuya. Una vez sim-plificados los modelos lineales de cada nodo el árbol se poda desde las hojas.Un subárbol es podado siempre que su error sea mayor que el error obtenidoen el nodo que debido a esta poda se convierte en hoja.

5.6.6. Resultados

El algoritmo descrito anteriormente se ha aplicado a la serie temporal for-mada por la demanda para obtener la predicción de los días laborables com-prendidos entre junio y noviembre del año 2001.

Se ha usado el algoritmo M5’ que hay implementado en Java en la li-brería WEKA. Antes de aplicar este algoritmo se ha aplicado un método de

130

Page 155: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación a la Demanda de Energía Eléctrica.

selección de atributos para determinar que atributos son importantes y ver-daderamente relevantes para obtener una buena predicción. Esta selección deatributos no sólo debe beneficiar a la aproximación de la predicción puestoque se eliminan los atributos que no son influyentes sino también en lo querespecta al coste computacional. El método de selección usado ha sido el algo-ritmo CFS (Correlation-based Feature Selection) implementado en la WEKA elcual básicamente evalúa como “buenos atributos” aquellos que tienen una altacorrelación con el atributo que se quiere predecir pero sin embargo tienen pocacorrelación entre ellos mismos. Una vez aplicado este método se han obtenidocomo buenos atributos para predecir la demanda de energía eléctrica en unahora (D25) la demanda de energía eléctrica en las dos horas anteriores (D23,D24) y la quinta hora anterior (D20).

La tabla 5.7 presenta el error relativo medio y los máximos y mínimoserrores diarios para el conjunto test seleccionado. 53 y 151 reglas de la variabledependiente han sido encontradas por el algoritmo M5’ con y sin selección deatributos respectivamente, para el problema de la predicción de la demanda.Los árboles de regresión junto a los modelos lineales obtenidos en las hojasde los árboles se muestran en el Apéndice A. Como era esperado el algoritmoM5’ genera un árbol más pequeño y que aproxima mejor cuando se hace unaselección de atributos previa. Cuando se usa el árbol de regresión obtenido porel M5’ con selección de atributos el error medio es 11 % mientras que cuandose usa el método basado en los vecinos el error medio es 2.3%.

Obsérvese que los resultados obtenidos de la aplicación del método basadoen kNN son mucho mejores que los obtenidos de la aplicación del algoritmoM5’. Esto es debido a que el algoritmo M5’ construye modelos lineales y la serietemporal formada por la demanda no tiene un comportamiento estrictamentelineal.

Junio-Noviembre 2001kNN M5’ con selección M5’ sin selección

Mínimo error diario (%) 0.5 7 7Máximo error diario (%) 8.5 16.5 17.2Error Relativo Medio (%) 2.3 11 11.4

Tabla 5.7: Comparación de los errores de la predicción de la demanda usandoambos métodos.

131

Page 156: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 5 Aplicación a la Demanda de Energía Eléctrica.

5.7. ConclusionesEn este Capítulo se ha presentado un algoritmo basado en técnicas de

vecinos para la predicción de la serie temporal formada por la demanda deenergía eléctrica.

Se han obtenido dos modelos de predicción, dependiendo de la distanciautilizada para calcular los vecinos: en el primer modelo se ha usado la distanciaEuclídea, el número de ejemplos usados en la predicción ha sido 4 y hay quebuscar los vecinos de los 15 días anteriores al día que se quiere predecir paraestimar los valores de la predicción; en el segundo modelo se ha usado ladistancia Manhattan, el número óptimo de ejemplos obtenido ha sido 7 y hayque buscar los vecinos de los 7 días anteriores.

Se han mostrado los resultados obtenidos de la aplicación del algoritmobasado en los vecinos usando el segundo modelo y éstos han sido comparadoscon los obtenidos de la aplicación de un árbol de regresión obtenido con elalgoritmo M5’. Los resultados muestran un mejor comportamiento del métodopropuesto, ya que los errores cometidos en la predicción son aproximadamentede un 2% mientras que con el algoritmo M5’ los errores son de un 11%.Esta gran diferencia en el error de la predicción obtenido de la aplicación deambos métodos es debida a que el algoritmo M5’ presenta modelos lineales depredicción y la serie temporal estudiada en este caso tiene unas dependenciasno lineales que este método es incapaz de aprender. Sin embargo este algoritmopresenta la ventaja de que obtiene modelos explícitos del comportamiento delsistema.

Por último se ha realizado un estudio comparativo entre las dos seriesanalizadas en esta tesis: los precios y la demanda. Los errores de predicciónobtenidos han sido mucho mayores en el caso de la predicción de los preciosque en el caso de la predicción de la demanda. Este hecho ha sido justificadoestableciendo una comparación cualitativa entre el comportamiento de ambasseries.

132

Page 157: Técnicas avanzadas de predicción y optimización aplicadas a ...

Parte II

Programación con MúltiplesMínimos Locales

133

Page 158: Técnicas avanzadas de predicción y optimización aplicadas a ...
Page 159: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 6

Programación no Lineal noConvexa

El objeto de este capítulo es la resolución de problemas de optimización conrestricciones donde la función objetivo f y las restricciones tanto de igualdad,h, como de desigualdad, g, son no lineales y no convexas. Se supone que f , hy g son suficientemente regulares. En primer lugar, se describe la formulaciónmatemática de un problema de optimización de estas características cuandotodas las variables son reales y varían de una forma continua, después se pro-pone un nuevo método que resuelve el problema de manera eficiente, con unaventaja frente a los métodos existentes: su habilidad de escapar de un míni-mo local. Para ilustrar el comportamiento de este nuevo método se presentaun ejemplo tutorial de una sola variable. En un segundo lugar, se describe laformulación matemática cuando coexisten variables reales y enteras, lo que seconoce como Programación no Lineal Entera-Mixta. Se propone un métodode resolución que consiste básicamente en relajar el carácter discreto de lasvariables y aplicar el método propuesto en el caso anterior. Para ilustrar elcomportamiento del método en el caso mixto-entero se presenta un ejemplotutorial de dos variables, una binaria y una real.

6.1. Variables reales

6.1.1. Formulación del problema

Una gran variedad de problemas basados en casos reales, que aparecenen campos como la Ingeniería o la Economía, se pueden modelar como unproblema de optimización con restricciones.

Un problema de optimización con restricciones de igualdad y desigualdad

135

Page 160: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 6 Programación no Lineal no Convexa

puede formularse de una forma general como sigue:

Minimizar f(x)

sujeto a h(x) = 0g(x) ≤ 0

(6.1)

donde

x ∈ Rn es un vector de variables independientes de dimensión n.

f : Rn → R es una función escalar no lineal, no convexa y dos veces

diferenciable con derivadas continuas. Esta función modela la funciónobjetivo deseada.

g : Rn → R

p es una función vectorial no lineal, no convexa y dos ve-ces diferenciable con derivadas continuas. Esta función modela tanto lasrestricciones de desigualdad como las restricciones de límite sobre lasvariables.

h : Rn → R

q es una función vectorial no lineal, no convexa y dos veces di-ferenciable con derivadas continuas. Esta función modela las restriccionesde igualdad.

La característica principal de este tipo de problemas de optimización es laexistencia de múltiples óptimos locales (máximos y mínimos). En general losmétodos de optimización no lineales, dado un punto inicial, tratan de encontrarun óptimo local; sin embargo el óptimo local encontrado puede estar muy lejosdel óptimo global.

6.1.2. Método propuesto

En esta sección se propone un método heurístico, práctico y sencillo pararesolver problemas de optimización no lineal no convexa de una manera rápiday eficaz [106]. Por tanto, no se analizarán propiedades teóricas de convergenciadel método, que podrán formar parte de futuras líneas de investigación, sinosu implementación y funcionamiento.

El método consiste básicamente en resolver de manera iterativa una suce-sión de subproblemas de optimización con restricciones. Estos subproblemasse construyen de tal forma que mediante su resolución se obtenga una sucesiónde mínimos decrecientes, en un intento de alcanzar el mínimo global. Paraasegurar la obtención de una sucesión decreciente de mínimos, al problema deoptimización (6.1) se le añade la restricción siguiente:

f(x) ≤ C (6.2)

136

Page 161: Técnicas avanzadas de predicción y optimización aplicadas a ...

Programación no Lineal no Convexa

donde C es una constante que se inicializa con un valor suficientemente grandey se va actualizando en cada iteración de una manera adecuada para que losmínimos que se van calculando sean decrecientes.

En general, los pasos del algoritmo propuesto son los siguientes:

1) Elección de un cota superior inicial, C, suficientemente grande.

2) Cálculo de un óptimo local del problema siguiente:

Minimizar f(x)

sujeto a h(x) = 0g(x) ≤ 0f(x) ≤ C

(6.3)

3) Actualización de C.

Los pasos 2 a 3 se repiten de manera iterativa hasta que no se pueda encontrarun nuevo óptimo local mediante el algoritmo usado en el segundo paso, ya seapor motivos de convergencia o bien por haber alcanzado el óptimo global, loque nunca se podrá saber.

6.1.2.1. Solución de los subproblemas

El algoritmo elegido para resolver la secuencia de subproblemas de op-timización (6.3) ha sido un algoritmo Primal-Dual de Punto Interior[84, 16, 10], por su tratamiento característico de las restricciones de desigualdady por los avances recientes obtenidos de la aplicación de este tipo de métodosa problemas de optimización no lineal no convexa, tanto en propiedades deconvergencia como en aspectos computacionales de la resolución de problemasde gran dimensión [30, 129].

Introduciendo las variables de holgura apropiadas para convertir las res-tricciones de desigualdad en igualdad, el problema (6.3) se transforma en elproblema siguiente:

Minimizar v

sujeto a h(x) = 0f(x) − v = 0g(x) − z = 0z + s1 = 0v + s2 − C = 0s1, s2 ≥ 0

(6.4)

137

Page 162: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 6 Programación no Lineal no Convexa

Se han introducido dos variables auxiliares, v y z, para que las restriccionesde máximos y mínimos se apliquen sobre variables del problema, ya que en losmétodos de Punto Interior la convergencia se controla mediante el error dedualidad el cual depende de las holguras de las variables del problema sujetasa límites.

Para asegurar la positividad de estas variables, s1, s2, se penaliza la fun-ción objetivo a través de términos logarítmicos ponderados por el factor depenalización µ [80]. De esta manera, el problema de optimización resultante esel subproblema de barrera logarítmica siguiente:

Minimizar v − µ · ln(s1) − µ · ln(s2)sujeto a h(x) = 0

f(x) − v = 0g(x) − z = 0z + s1 = 0v + s2 − C = 0

(6.5)

Los problemas (6.1) y (6.5) son equivalentes en el sentido de que ambos tienenlas mismas soluciones.

6.1.2.2. Condiciones de optimalidad

Para caracterizar la solución del problema de barrera logarítmica (6.5) seintroduce el Lagrangiano, que viene dado por:

L(x, v, z, si, λj) = v −2∑

i=1

µln(si) + λ1h(x) + λ2(f(x) − v) + λ3(g(x) − z)

+ λ4(z + s1) + λ5(v + s2 − C) i = 1, 2 j = 1, . . . , 5(6.6)

donde λj son los Multiplicadores de Lagrange. Las ecuaciones de optimalidadde primer orden de Karust-Kuhn-Tucker (KKT) son:

Fµ(x, v, z, si, λj) =

H(x, λj)h(x)f(x) − vg(x) − zz + s1v + s2 − C− µ

s1+ λ4

− µs2

+ λ5

1 − λ2 + λ5

λ3 + λ4

= 0 (6.7)

138

Page 163: Técnicas avanzadas de predicción y optimización aplicadas a ...

Programación no Lineal no Convexa

donde

H(x, λj) = ∇h(x) · λ1 + ∇f(x) · λ2 + ∇g(x) · λ3 (6.8)

Hay que tener en cuenta que las ecuaciones de optimalidad de primer orden deKKT (6.7) son una condición necesaria de mínimo local [72]. Es decir, no todoslos puntos que verifican estas ecuaciones son mínimos locales. Para asegurarque los puntos que verifican este sistema de ecuaciones sean mínimos localesse necesitan hipótesis de convexidad:

∇xH(x, λj) > 0 en el plano tangente en x (6.9)

El plano tangente en x está definido por las ecuaciones de igualdad y lasecuaciones de desigualdad activas, es decir:

{y : ∇h(x)ty = 0,∇gj(x)ty = 0} (6.10)

donde j es el conjunto de índices donde las restricciones de desigualdad estánactivas. Para que (6.10) defina un plano tangente los vectores ∇h(x) y ∇gj(x)deben ser linealmente independientes [10, 97].

La ecuaciones 7 y 8 que aparecen en (6.7):

−µsi

+ λj = 0 i = 1, 2 j = 4, 5 (6.11)

se sustituyen por las ecuaciones equivalentes siguientes:

λj · si − µ = 0 i = 1, 2 j = 4, 5 (6.12)

Las ecuaciones (6.12) tienen la ventaja de tener derivadas acotadas cuandocualquier variable de holgura se aproxima a cero que no es el caso de lasecuaciones (6.11).

6.1.2.3. Dirección de búsqueda

Aplicando el Método de Newton a las ecuaciones de optimalidad de KKT(6.7), las correcciones a las variables del problema en la iteración k, ∆wk,vienen dadas por el sistema de ecuaciones:

∇Fµ(wk)∆wk = −Fµ(w

k) (6.13)

donde

wk = (xk, vk, zk, ski , λkj ) i = 1, 2 j = 1, . . . , 5 (6.14)

∆wk = (∆xk,∆vk,∆zk,∆ski ,∆λkj ) i = 1, 2 j = 1, . . . , 5 (6.15)

139

Page 164: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 6 Programación no Lineal no Convexa

∇xH(xk, λkj ) 0 0 0 0 ∇h(xk) ∇f(xk) ∇g(xk) 0 00 0 0 0 0 0 −1 0 0 10 0 0 0 0 0 0 −1 1 00 0 0 λk4 0 0 0 0 sk1 00 0 0 0 λk5 0 0 0 0 sk2

∇h(xk) 0 0 0 0 0 0 0 0 0∇f(xk) −1 0 0 0 0 0 0 0 0∇g(xk) 0 −1 0 0 0 0 0 0 0

0 0 1 1 0 0 0 0 0 00 1 0 0 1 0 0 0 0 0

(6.16)

es la matriz del sistema lineal, ∇Fµ(wk) y el segundo miembro es:

Fµ(wk) =

H(xk, λkj )h(xk)

f(xk) − vkg(xk) − zkzk + sk1

vk + sk2 − Ck

λk4 · sk1 − µkλk5 · sk2 − µk1 − λk2 + λk5λk3 + λk4

(6.17)

En el sistema de ecuaciones definido por (6.13), la ecuación 9 puede ser usa-da para eliminar ∆sk1, la ecuación 10 para eliminar ∆sk2, la ecuación 4 paraeliminar ∆λk4 y por último la ecuación 5 para eliminar ∆λk5. Por tanto, estosincrementos vienen dados por:

∆sk1 = −(zk + sk1) − ∆zk (6.18)∆sk2 = −(vk + sk2 − Ck) − ∆vk (6.19)

∆λk4 =µk

sk1+λk4sk1

· zk +λk4sk1

· ∆zk (6.20)

∆λk5 =µk

sk2+λk5sk2

· (vk − Ck) +λk5sk2

· ∆vk (6.21)

140

Page 165: Técnicas avanzadas de predicción y optimización aplicadas a ...

Programación no Lineal no Convexa

Y el sistema de ecuaciones de optimalidad de KKT reducido es el siguiente:

∇xH(xk, λkj ) 0 0 ∇h(xk) ∇f(xk) ∇g(xk)0 λk

5

sk2

0 0 −1 0

0 0 λk4

sk1

0 0 −1

∇h(xk) 0 0 0 0 0∇f(xk) −1 0 0 0 0∇g(xk) 0 −1 0 0 0

∆xk

∆vk

∆zk

∆λk1∆λk2∆λk3

=

rk1rk2rk3rk4rk5rk6

(6.22)

donde

rk1 = H(xk, λkj ) (6.23)

rk2 = −(1 + λk2 + λk5) −µ

sk2− λk5sk2

· (vk − Ck) (6.24)

rk3 = −(λk3 + λk4) −µ

sk1− λk4sk1

· zk (6.25)

rk4 = h(xk) (6.26)rk5 = f(xk) − vk (6.27)rk6 = g(xk) − zk (6.28)

No se puede asegurar que la dirección de búsqueda determinada por la solucióndel sistema (6.22) sea una dirección de descenso [72, 97, 10].

La restricción sobre la función objetivo (6.2) conduce a una fila/columnadensa en la matriz del sistema lineal. Esto debe tenerse en cuenta para laresolución del sistema, ya que en casos reales se trata de una matriz dispersade gran dimensión y con un algoritmo de reordenación óptima de la matrizse puede evitar tener un número excesivo de elementos de llenado, lo que daeficiencia a la ejecución del algoritmo [117].

6.1.2.4. Actualización de variables

Teniendo en cuenta que las condiciones de optimalidad de KKT (6.7) encada iteración se resuelven de manera aproximada con una única iteración delMétodo de Newton, podría ocurrir que las variables una vez actualizadas consus respectivos incrementos no sean factibles en lo que respecta a las restric-ciones de desigualdad. Para evitar esto, se calcula una longitud de avance, α,que multiplica a todos los incrementos, los obtenidos para las variables al re-solver el sistema (6.22) y los obtenidos con las ecuaciones (6.18)-(6.21), paraasegurar que ninguna variable, ya sea de holgura o su multiplicador asociado,sea negativa.

141

Page 166: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 6 Programación no Lineal no Convexa

En este caso, la longitud de avance, α, debe cumplir:

sk1 + α · ∆sk1 ≥ 0 (6.29)sk2 + α · ∆sk2 ≥ 0 (6.30)λk4 + α · ∆λk4 ≥ 0 (6.31)λk5 + α · ∆λk5 ≥ 0 (6.32)

De esta manera, una posible longitud de avance común en la iteración k vienedada por:

αk = mın{α1, α2, α3, α4} (6.33)

donde

α1 = mın{1,− sk1∆sk1

: ∆sk1 < 0} (6.34)

α2 = mın{1,− sk2∆sk2

: ∆sk2 < 0} (6.35)

α3 = mın{1,− λk4∆λk4

: ∆λk4 < 0} (6.36)

α4 = mın{1,− λk5∆λk5

: ∆λk5 < 0} (6.37)

Para evitar la excesiva aproximación a un límite y asegurar la positividadestricta de las variables en la iteración siguiente, la longitud de avance selimita con un factor γ cuyo valor típico en la práctica suele ser γ = 0.9995[133, 138].

Por tanto, las variables en la iteración siguiente k + 1 vienen dadas por:

wk+1 = wk + γ · αk · ∆wk (6.38)

donde αk viene dada por (6.33)-(6.37) y ∆wk es la solución del sistema deecuaciones (6.22).

6.1.2.5. Inicialización y reducción del parámetro barrera

El valor inicial del parámetro µ que pondera las penalizaciones logarítmicasen la función objetivo afecta obviamente a la convergencia del algoritmo. Así,un valor elevado penaliza excesivamente cualquier movimiento de las variablesen dirección a sus límites, mientras que un valor demasiado pequeño favoreceque muchas variables alcancen rápidamente sus límites, haciendo más difícil laconvergencia hacia el óptimo.

142

Page 167: Técnicas avanzadas de predicción y optimización aplicadas a ...

Programación no Lineal no Convexa

Para permitir que las variables se puedan aproximar a sus límites, µ debetender a cero durante el proceso iterativo. Se han propuesto múltiples técnicaspara reducir sucesivamente µ en cada iteración [119, 82, 140], pero la másinmediata viene dada por las condiciones de optimalidad de KKT (6.7), en lasque se observa que, en cada iteración, µ es igual al producto de la holgura porsu multiplicador asociado para toda variable sujeta a límites (6.12). Así unaposible elección es:

µ = (sk1 · λk4 + sk2 · λk5)/2 (6.39)

Esta forma de actualizar el parámetro barrera es una extensión directa de unresultado teórico obtenido para problemas lineales, que se detalla a continua-ción [56]. Un método de optimización basado en la teoría de dualidad, comoes el caso de los métodos de Punto Interior, converge cuando el error de dua-lidad, es decir la diferencia entre la función objetivo del problema primal yla función objetivo del problema dual, es cero. En problemas lineales el errorde dualidad es igual al producto de la holgura por su multiplicador asociado,así este producto tiende a cero cuando el método converge hacia el óptimo.Como extensión directa de este resultado se define para problemas no linealesel Error de Dualidad (“Duality gap”), como el producto de la holgura por sumultiplicador asociado. Además para aumentar la velocidad de convergencia elparámetro barrera se actualiza como el error de dualidad medio, gap, por unfactor de reducción β entre 0 y 1. Es decir, el parámetro barrera en la iteraciónk viene dado por:

µk = βk · gapk (6.40)

El parámetro β afecta a la convergencia del algoritmo, ya que el cálculo de µdepende de β y µ influye en la solución del sistema lineal puesto que apareceen el segundo miembro de éste. De esta manera la elección óptima de β es muyimportante.

Analizando los casos extremos, si β = 1, el parámetro barrera µ se vareduciendo a la velocidad que lo hace el error dual medio, esto da lugar auna convergencia lenta, con una mejora de la factibilidad. En estos casos, lareducción se hace notable en las últimas iteraciones. Si β es muy próximoa cero, esto hace que µ sea muy pequeño y las variables de holgura o susmultiplicadores alcancen la frontera de la región factible rápidamente.

6.1.2.6. Test de convergencia

La secuencia de subproblemas parametrizados por el parámetro barrera µse resuelve de manera iterativa hasta que una serie de criterios de convergenciase satisfacen. Los criterios adoptados son los que siguen:

143

Page 168: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 6 Programación no Lineal no Convexa

Las condiciones de optimalidad de KKT (6.7) se cumplen, es decir:

max(|Fµ(xk, vk, zk, ski , λ

kj )|) < ε1 (6.41)

El error de dualidad medio tiende a cero:

gap < ε2 (6.42)

Así, el algoritmo se resume como sigue:

Algoritmo Primal-Dual de Punto Interior

Paso 0: Inicialización. k = 0. Se inicializan las variables teniendo en cuenta lanecesaria positividad de las variables de holgura. Se inicializa el factorde penalización µ.

Paso 1: Test de Convergencia. Se calculan el gradiente (6.41) y el error dualmedio (6.42). Si se cumplen los criterios de convergencia se ha alcanzadouna solución óptima, x∗.

Paso 2: Ecuaciones de Optimalidad. Se resuelve el sistema de ecuaciones lineal(6.22).

Paso 3: Longitud de Avance. Cálculo de α usando (6.33)-(6.37).

Paso 4: Actualización. Se actualizan las variables teniendo en cuenta la longitudde avance máxima según (6.38).

Paso 5: Reducción del parámetro barrera. k = k+ 1. Se actualiza µ según (6.40).Ir al paso 1.

6.1.2.7. Valor inicial y actualización de la cota de la función obje-tivo

Inicialmente el valor de la cota de la función objetivo debe ser suficien-temente grande, así al resolver en la primera iteración el problema (6.3) larestricción (6.2) no interviene en la obtención de la solución. En las siguientesiteraciones, esta cota se actualiza de la forma siguiente:

C = f(x∗) (6.43)

donde x∗ es el óptimo local obtenido al resolver el problema (6.3) mediante elalgoritmo Primal-Dual de Punto Interior descrito en la sección anterior.

Se puede observar que la robustez y convergencia del algoritmo Primal-Dual de Punto Interior presentado es crucial en el buen funcionamiento delmétodo que se propone.

144

Page 169: Técnicas avanzadas de predicción y optimización aplicadas a ...

Programación no Lineal no Convexa

6.1.3. Un ejemplo de una variable

Se considera el problema siguiente:

Minimizar f(x)

sujeto a 3 ≤ x ≤ 10(6.44)

donde

f(x) = exp (x) · cos (20x) (6.45)

La figura 6.1 muestra los múltiples mínimos locales de la función f .

3 4 5 6 7 8 9 10−3

−2

−1

0

1

2

3x 10

4

x1 x2 x3

x5

x6

x4

x7

Figura 6.1: Múltiples mínimos de una función no convexa.

Inicializando en x0 = 3, la resolución del problema (6.44) para la funciónobjetivo f mediante un algoritmo de Punto Interior Primal-Dual de BarreraLogarítmica nos conduce a un mínimo local (x1, f(x1)). Si se resuelve de nuevoel problema añadiendo la restricción siguiente:

f(x) ≤ f(x1) (6.46)

se obtiene un nuevo mínimo local (x2, f(x2)) que es menor que el halladoanteriormente. Así sucesivamente se obtiene el óptimo global (x7, f(x7)). Losóptimos intermedios calculados aparecen representados por una circunferenciaen la figura 6.1.

145

Page 170: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 6 Programación no Lineal no Convexa

6.2. Variables reales y enteras

6.2.1. Formulación del problema

En general, un problema de optimización no lineal entera-mixta 0/1 seformula matemáticamente como sigue:

Minimizar f(x, u)

sujeto a h(x, u) = 0g(x, u) ≤ 0

(6.47)

donde

u ∈ {0, 1}m es un vector de variables binarias independientes de dimen-sión m.

x ∈ Rn es un vector de variables independientes de dimensión n.

f : Rn ×{0, 1}m −→ R es una función escalar no lineal, no convexa y no

diferenciable. Esta función modela la función objetivo deseada.

g : Rn×{0, 1}m → R

p es una función vectorial no lineal, no convexa y nodiferenciable. Esta función modela tanto las restricciones de desigualdadcomo las restricciones de banda sobre las variables.

h : Rn × {0, 1}m → R

q es una función vectorial no lineal, no convexa yno diferenciable. Esta función modela las restricciones de igualdad.

Se trata de un problema de optimización no lineal, no convexa, entera-mixta0/1 y de gran dimensión cuando se aplica a un problema basado en un ca-so real. La caracterización principal de este tipo de problemas es el caráctercombinatorial que le proporciona las variables binarias.

Un problema de optimización donde aparecen variables binarias siemprese puede transformar en un problema de optimización global con múltiplesóptimos, basta penalizar la función objetivo cuando las variables binarias notoman los valores 0 ó 1 o añadir la restricción cuadrática siguiente:

u · (1 − u) = 0 (6.48)

Así el problema original (6.47) es equivalente a los dos problemas siguientes:

Minimizar f(x, u)

sujeto a h(x, u) = 0g(x, u) ≤ 0u(1 − u) = 0

(6.49)

146

Page 171: Técnicas avanzadas de predicción y optimización aplicadas a ...

Programación no Lineal no Convexa

Minimizar f(x, u) +Mu · (1 − u)sujeto a h(x, u) = 0

g(x, u) ≤ 0

(6.50)

donde M es un factor de penalización.Sin embargo, la restricción cuadrática (6.48) incrementa la no linealidad

y no convexidad de los problemas (6.49) y (6.50) frente al problema original(6.47). Además esta restricción cuadrática presenta un máximo en u = 0.5 conlo cual la solución suele tender a ese punto.

6.2.2. Método propuesto

Los algoritmos de resolución de problemas de optimización combinatorialson algoritmos en tiempo no polinomial, es decir el tiempo de cálculo pararesolver este tipo de problemas crece exponencialmente con el número de va-riables del problema [136, 10].

Frecuentemente en la práctica, para la resolución de estos problemas serelaja la naturaleza discreta de las variables mediante la restricción siguiente:

0 ≤ u ≤ 1 (6.51)

Y luego se opta por una estrategia heurística para determinar los valores en-teros mejores para las variables discretas [82].

En esta sección se presenta un algoritmo novedoso para programación nolineal entera-mixta en tiempo polinomial que resuelve de una manera rápiday satisfactoria este tipo de problemas.

El método consiste en relajar la naturaleza discreta de las variables. Estose puede hacer de varias formas: permitiendo que las variables discretas to-men valores intermedios entre 0 y 1, forzando la naturaleza discreta de éstasañadiendo una restricción cuadrática o penalizando la función objetivo cuandolas variables discretas no tomen los valores 0 ó 1. En esta tesis, se resuelvende manera iterativa una sucesión de subproblemas de dos tipos, uno dondelas variables discretas toman valores entre 0 y 1 (problema continuo) y otrodonde el carácter discreto se fuerza mediante una restricción cuadrática (pro-blema discreto), donde la solución del primero es el punto inicial del segundo.A estos subproblemas se le aplica el método propuesto en la sección ante-rior, obteniendo de esta manera, una sucesión de mínimos decrecientes para elproblema continuo y una sucesión de mínimos decrecientes para el problemadiscreto, en un intento de alcanzar el óptimo global de ambos. De esta mane-ra, para determinar los valores óptimos de las variables binarias a partir de la

147

Page 172: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 6 Programación no Lineal no Convexa

solución de los problemas con la restricción relajada (6.51) no se usa ningunaestrategia heurística.

En general, los pasos del algoritmo propuesto son los siguientes:

1. Elección de dos cotas superiores iniciales, C y Cd, suficientemente gran-des.

2. Cálculo de un óptimo local del problema siguiente:

Minimizar f(x, u)

sujeto a h(x, u) = 0g(x, u) ≤ 00 ≤ u ≤ 1f(x, u) ≤ C

(6.52)

3. Inicialización con el óptimo calculado en el paso anterior.

a) Cálculo de un óptimo local del problema siguiente:

Minimizar f(x, u)

sujeto a h(x, u) = 0g(x, u) ≤ 0u(1 − u) = 0f(x, u) ≤ Cd

(6.53)

b) Actualización de Cd.

Los pasos 3a) a 3b) se repiten de manera iterativa hasta que no se puedaencontrar un nuevo óptimo local del problema (6.53), ya sea por motivosde convergencia o bien por haber alcanzado el óptimo global.

4. Actualización de C

Los pasos 2 a 4 se repiten de manera iterativa hasta que no se pueda encontrarun nuevo óptimo local del problema (6.52), ya sea por motivos de convergenciao bien por haber alcanzado el óptimo global.

Como se puede observar, el procedimiento propuesto simplemente está for-mado por dos bucles: uno externo y uno interno. En el bucle externo, se obtieneuna sucesión de mínimos decrecientes del problema (6.52) y en el interno seintenta encontrar el mejor mínimo factible discreto que haya en los alrededoresde cada mínimo continuo, resolviendo el problema (6.53) de manera iterativa.

148

Page 173: Técnicas avanzadas de predicción y optimización aplicadas a ...

Programación no Lineal no Convexa

6.2.2.1. Solución de los subproblemas continuos

La secuencia de subproblemas continuos (6.52) se resuelven mediante elAlgoritmo Primal-Dual de Punto Interior descrito en la sección 6.1.2, donde

La variable independiente es un vector de dimensión n+m:

x = [x, u] (6.54)

Las restricciones de desigualdad están modeladas por un vector de di-mensión p+ 2m:

g(x) = [g(x, u),−u, u− 1] (6.55)

La resolución de estos subproblemas (6.52) mediante el algoritmo de PuntoInterior presenta una convergencia crítica debido a la proximidad de las varia-bles u a sus barreras. Por ello, se ha implementado un mecanismo heurísticode control de la proximidad a las barreras para las variables sujetas a límites.Este procedimiento consiste en fijar la variable u al valor que tenga cuando unacierta condición se cumpla. Es decir, si en la iteración k se tiene que el error dedualidad de la variable de holgura asociada a u es suficientemente pequeño, setoma u = uk, por lo que u toma un valor constante a lo largo de las iteracionesrestantes. Esto mejora notablemente la convergencia del algoritmo.

De igual forma, el parámetro β se actualiza de manera dinámica a lo largode las iteraciones, con el objetivo de mejorar la factibilidad de las variablesaunque la convergencia sea un poco más lenta.

6.2.2.2. Solución de los subproblemas discretos

La secuencia de subproblemas discretos (6.53) se resuelven mediante elAlgoritmo Primal-Dual de Punto Interior descrito en la sección 6.1.2, donde

La variable independiente es un vector de dimensión n+m:

x = [x, u] (6.56)

Las restricciones de igualdad están modeladas por un vector de dimensiónq +m:

h(x) = [h(x, u), u · (1 − u)] (6.57)

149

Page 174: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 6 Programación no Lineal no Convexa

6.2.2.3. Valores iniciales y actualización de las cotas de la funciónobjetivo

Inicialmente los valores de las cotas de la función objetivo, C y Cd deben sersuficientemente grandes, así al resolver en la primera iteración los problemas(6.52) y (6.53) esta restricción sobre la función objetivo no interviene en laobtención de la solución.

La actualización de la cota Cd viene dada por:

Cd = f(xd, ud) (6.58)

donde (xd, ud) es el óptimo local obtenido al resolver el problema (6.53) me-diante el Algoritmo Primal-Dual de Punto Interior.

En las siguientes iteraciones se pueden adoptar varios esquemas de actua-lización para la cota del problema continuo:

(A) C = f(x∗, u∗) (6.59)(B) C = min(f(x∗, u∗), Cd) (6.60)

donde (x∗, u∗) es el óptimo local obtenido al resolver el problema (6.52) me-diante el Algoritmo Primal-Dual de Punto Interior.

El esquema de actualización (A) es una aproximación más conservadora queintenta identificar todos los posibles óptimos locales del problema continuo.Como el mejor mínimo discreto no está asociado necesariamente con el mejormínimo continuo se puede adoptar una estrategia más agresiva como la delesquema (B) la cual es más efectiva en problemas donde hay múltiples mínimosdiscretos mejores que cada mínimo continuo. Esto es debido a la existencia demúltiples cuencas de atracción ya que el mínimo local continuo de cada cuencapuede estar rodeado de mínimos discretos pertenecientes a cuencas de atracciónde un mínimo local continuo distinto. Entonces es posible encontrar mínimosdiscretos mejores que un mínimo continuo, aunque los mínimos discretos sonsiempre peores que los continuos cuando se trata de mínimos en la mismacuenca de atracción. Sin embargo para problemas generales como es el casodel ejemplo tutorial que se presenta a continuación es mejor adoptar el esquemade actualización (A).

Las estrategias que se pueden adoptar tanto en lo que respecta a la inicia-lización de los problemas de optimización como a la actualización de las cotasde la función objetivo forman parte de líneas futuras de investigación.

150

Page 175: Técnicas avanzadas de predicción y optimización aplicadas a ...

Programación no Lineal no Convexa

6.2.3. Un ejemplo de dos variables

Se considera esta vez el problema siguiente:

Minimizar f(x, u)

sujeto a 0 ≤ x ≤ 1u ∈ {0, 1}

(6.61)

donde

f(x, u) = 4 + sin (4 π u) + sin (6 π x) + 3

(x− 7

12

)2

+ 4

(u− 7

8

)2

(6.62)

Las figuras 6.2 y 6.3 representan la superficie definida por esta función (6.62)donde se observan los múltiples máximos, mínimos y puntos de silla desdedistintas perspectivas, cuando u es real y varía de forma continua en el intervalo[0, 1].

0

0.2

0.4

0.6

0.8

1 0

0.2

0.4

0.6

0.8

1

2

4

6

8

10

Figura 6.2: Superficie definida por una función no lineal no convexa.

151

Page 176: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 6 Programación no Lineal no Convexa

00.5

1

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

2

3

4

5

6

7

8

9

10

Figura 6.3: Superficie definida por una función no lineal no convexa.

152

Page 177: Técnicas avanzadas de predicción y optimización aplicadas a ...

Programación no Lineal no Convexa

De igual forma, las líneas de contorno de la función están representadas enla figura 6.4.

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

x

(x1,u1)

(x2,u2) (x3,u3)

(x4,u4) (x5,u5)

u

Figura 6.4: Sucesión de mínimos locales para el ejemplo mixto-entero.

Comenzando con el punto inicial x0 = 0.5, u0 = 0.5, e ignorando la natura-leza discreta de u (problema (6.52)), el algoritmo de Punto Interior converge alóptimo local x1 = 0.583, u1 = 0.399 para el cual el valor de la función objetivoes f(x1, u1) = 2.95.

Ahora, la atención se centra en encontrar un mínimo cercano para el que ues 0 ó 1. Comenzando en (x1, u1), y resolviendo el problema (6.53), el algoritmode Punto Interior converge al punto x2 = 0.753, u2 = 0 para el cual la funciónobjetivo vale f(x2, u2) = 8.14. A la vista del valor de la función objetivo, sehace un nuevo intento de encontrar un mejor mínimo discreto, comenzando denuevo en (x1, u1) pero añadiendo la restricción:

f(x, u) ≤ f(x2, u2) (6.63)

Esto conduce al punto x3 = 0.91, u3 = 0 cuyo valor de la función objetivoes f(x3, u3) = 6.39. No se obtiene un mejor mínimo si el proceso se repite

153

Page 178: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 6 Programación no Lineal no Convexa

añadiendo de nuevo la restricción:

f(x, u) ≤ f(x3, u3) (6.64)

Sin embargo, adoptando de nuevo el problema relajado (6.52), comenzandoen (x0, u0) y añadiendo la restricción:

f(x, u) ≤ f(x1, u1) (6.65)

se obtiene un nuevo punto x4 = 0.583, u4 = 0.875. Este punto es para esteejemplo, el mínimo global si la naturaleza discreta de u se ignora y cuyo valores f(x4, u4) = 2.

Finalmente, comenzando en (x4, u4) y teniendo en cuenta una vez más larestricción (6.48), se obtiene el punto x5 = 0.583, u5 = 1, el cual es el mínimoglobal discreto con un valor f(x5, u5) = 3.06.

154

Page 179: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 7

Aplicación: Programación Horariade Centrales

Para demostrar la efectividad del algoritmo presentado anteriormente, eneste capítulo se aplica a un problema de planificación de un sistema de energíaeléctrica centralizado conocido como Programación Horaria de Centrales Eléc-tricas. En primer lugar, se describe y modela este problema, el cual conduce aun problema de optimización no lineal entero-mixto 0/1. En segundo lugar, lasolución de los subproblemas, que aparecen al aplicar el método propuesto, sedescribe brevemente resaltando la estructuras de las matrices resultantes. Porúltimo, se presentan resultados obtenidos de la aplicación del método a doscasos de estudio basados en el parque de generación español, un sistema testde pequeña dimensión y un sistema realista de gran dimensión. Los resulta-dos obtenidos se comparan con los obtenidos de la aplicación de un AlgoritmoGenético.

7.1. Formulación del problema

La Programación Horaria de Centrales Eléctricas tiene por objeto deter-minar los arranques y paradas de las centrales térmicas (Unit Commitment) yla programación conjunta de potencia generada por los grupos térmicos e hi-dráulicos (Coordinación Hidrotérmica) durante un horizonte temporal de cortoplazo, normalmente 24 horas, de manera que se satisfaga la demanda horaria,estimada en base a una predicción, y se minimice el coste de explotación delsistema.

155

Page 180: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 7 Aplicación: Programación Horaria de Centrales

7.1.1. Función objetivo.

7.1.1.1. Costes de producción

Para cada central térmica existe una función que relaciona la produccióncon el coste que esa producción implica. Sea ng el número de centrales térmi-cas y nt el número de intervalos horarios (normalmente horas) que forman elhorizonte de programación. Las curvas de costes de producción de las centra-les térmicas, Ci,t, se pueden aproximar, sin pérdida de generalidad, por unafunción cuadrática de la potencia media de cada central en el periodo t comomuestra la figura 7.1.

Pmin Pmax

..............................................

Potencia

Coste

deprod

ucción

Figura 7.1: Coste de producción.

Es decir:

Ci,t = C(Pi,t) = aiP2i,t + biPi,t + ci i = 1, ..., ng t = 1, ..., nt (7.1)

donde

Pi,t es la potencia media suministrada por el generador i en el periodo t.

ai, bi y ci son los coeficientes de la función cuadrática.

7.1.1.2. Costes de arranque

El coste de arranque de las centrales térmicas, CAi,t, es el coste de poneren funcionamiento una central, tras haber estado desacoplada un determina-do periodo de tiempo. Estos costes básicamente representan la energía que

156

Page 181: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación: Programación Horaria de Centrales

necesita la central térmica para alcanzar la temperatura y presión suficientespara el momento del acoplamiento a la red. Estos costes aumentan de maneraexponencial con el tiempo que la central lleve desacoplada, como muestra lafigura 7.2.

...................................................................................Coste

dearranq

ue

Horas de desacoplamiento

Figura 7.2: Coste de arranque.

Es decir:

CAi,t(Si,t) = CCi(1 − e−Si,t−1/αi) + CFi (7.2)

donde

CCi es el coste variable de arranque del generador i.

CFi es el coste fijo de arranque del generador i

Si,t es el número de horas que el generador i lleva desacoplado en la horat.

αi es la constante de tiempo térmica del generador i.

7.1.1.3. Costes de parada

Los costes de parada son constantes para cada central y representan bási-camente la pérdida de combustible debida a la potencia que se está generandomientras que la central se está desacoplando, potencia que principalmente es-tá determinada por la rampa de bajada de la central y al enfriamiento de lacaldera una vez que la central está desacoplada.

157

Page 182: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 7 Aplicación: Programación Horaria de Centrales

Así el coste total a minimizar, CT , viene dado por:

CT =nt∑t=1

ng∑i=1

Ci,t · Ui,t + CAi,t(Si,t) · Yi,t + CPi · Zi,t (7.3)

donde

Ui,t es una variable binaria que es igual a 1 si el generador i está acopladoen la hora t.

Yi,t es una variable binaria que es igual a 1 si el generador i se acopla alprincipio de la hora t.

Zi,t es una variable binaria que es igual a 1 si el generador i se desacoplaal principio de la hora t.

Ci,t son los costes de producción dados por (7.1).

CAi,t(Si,t) son los costes de arranque dados por (7.2).

CPi son los costes de parada que se consideran independientes del tiempo.

Los arranques y paradas de las centrales térmicas modelados mediante lasvariables binarias Yi,t y Zi,t deben mantener una lógica, por ejemplo que unacentral no puede ser arrancada y parada en la misma hora, etc. Este tipo derestricciones lógicas se modelan con las ecuaciones que siguen:

Yi,t − Zi,t = Ui,t − Ui,t−1 (7.4)Yi,t + Zi,t ≤ 1 (7.5)

Obsérvese que las variables Yi,t y Zi,t se pueden poner en función de la variableUi,t de la forma siguiente:

Yi,t = Ui,t · (1 − Ui,t−1) (7.6)Zi,t = Ui,t−1 · (1 − Ui,t) (7.7)

Estas variables, Yi,t, Zi,t, modeladas como (7.6)-(7.7) verifican las restriccioneslógicas (7.4)-(7.5). El cumplimiento de la segunda restricción (7.5), se muestraen la tabla 7.1, teniendo en cuenta que:

Yi,t + Zi,t = Ui,t + Ui,t−1 − 2 · Ui,t · Ui,t−1 (7.8)

158

Page 183: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación: Programación Horaria de Centrales

Ui,t Ui,t−1 −2 · Ui,t · Ui,t−1 Yi,t + Zi,t

0 0 0 01 1 -2 00 1 0 11 0 0 1

Tabla 7.1: Verificación de una restricción lógica.

De esta manera el número de variables binarias se puede disminuir, trans-formando la función objetivo (7.3) en la función equivalente siguiente:

CT =nt∑t=1

ng∑i=1

Ci,t · Ui,t + CAi,t · Ui,t · (1 − Ui,t−1) + CPi · Ui,t−1 · (1 − Ui,t)(7.9)

La función objetivo (7.9) es menos lineal que la función objetivo (7.3) puestoque aparecen nuevos productos de variables binarias.

7.1.2. Restricciones

Las distintas restricciones que aparecen en el problema de la ProgramaciónHoraria de Centrales Térmicas e Hidráulicas se pueden agrupar en: restriccio-nes del sistema y restricciones propias de las centrales. Las restricciones delsistema, entre las que se encuentran las restricciones de demanda y de reservarodante, acoplan a las centrales térmicas e hidráulicas en un mismo periodode tiempo. Las restricciones técnicas son características de cada central segúnsea térmica o hidráulica. Entre ellas cabe destacar: las restricciones de rampasde subida y bajada, las restricciones de acoplamiento entre embalses hidráuli-cos debido a la continuidad del agua, las restricciones de potencias máximas ymínimas y las restricciones de volúmenes máximos y mínimos.

7.1.2.1. Restricciones técnicas de las centrales térmicas

Las restricciones técnicas de las centrales térmicas son las siguientes:

La limitación máxima y mínima de producción, que se modelacomo sigue:

Pmi ≤ Pi,t ≤ PM

i i = 1, . . . , ng t = 1, . . . , nt (7.10)

donde PMi es la potencia máxima de la central térmica i, llamada poten-

cia nominal y Pmi es la potencia mínima de la central térmica i, llamada

159

Page 184: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 7 Aplicación: Programación Horaria de Centrales

mínimo técnico. Estos límites hay que tenerlos en cuenta sólo en las ho-ras que la central está acoplada, ya que en caso contrario la potencia escero.

Las rampas de subida y bajada. Este tipo de centrales no puedeaumentar o disminuir su producción de una hora a la siguiente en másde una determinada cantidad. Esto se modela así:

−RBi ≤ Pi,t − Pi,t−1 ≤ RSi i = 1, . . . , ng t = 1, . . . , nt (7.11)

donde RSi es la rampa máxima de subida de la central térmica i, esdecir la máxima potencia que una central puede aumentar en dos horassucesivas y RBi es la rampa máxima de bajada de la central térmica i, esdecir la máxima potencia que una central puede disminuir su producciónal pasar a la hora siguiente.

Tiempos mínimos de funcionamiento y parada. Con el objetivode que no haya un envejecimiento prematuro de las unidades térmicasse evitan los acoplamientos y desacoplamientos con excesiva frecuencia.El tiempo mínimo de funcionamiento es el número mínimo de horas queuna central debe permanecer acoplada una vez que se pone en funcio-namiento. De forma análoga, el tiempo mínimo de parada representa elnúmero mínimo de horas que una central debe mantenerse desacopladauna vez que deja de funcionar. Esto se modela como sigue:

(Xi,t − UTi) · (Ui,t−1 − Ui,t) ≥ 0 (7.12)(Si,t +DTi) · (Ui,t − Ui,t−1) ≤ 0 (7.13)

donde Xi,t es una variable que indica el número de horas que lleva acopla-da la central i al final de la hora t y UTi y DTi son los tiempos mínimosde funcionamiento y parada de la central i respectivamente.

Las variables Si,t y Xi,t, teniendo en cuenta la programación de arranques yparadas, se pueden modelar con las ecuaciones siguientes:

Xi,t = (Xi,t−1 · (1 − Yi,t) + 1) · Ui,t (7.14)Si,t = (Si,t−1 · (1 − Zi,t) + 1) · (1 − Ui,t) (7.15)

7.1.2.2. Restricciones técnicas de las centrales hidráulicas

Sea nh el número de centrales hidráulicas de una cuenca. Las centraleshidráulicas no tienen ningún coste asociado puesto que usan como combustiblepara generar energía eléctrica el agua. Las restricciones técnicas de las centraleshidráulicas son las siguientes:

160

Page 185: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación: Programación Horaria de Centrales

Acoplamiento entre volúmenes. Para cada central hidráulica existeuna función no lineal que relaciona la producción de potencia eléctricacon el caudal de agua turbinada y con el volumen de agua del embalseasociado a dicha central. Es decir:

PHh,t = PHh,t(Qh,t, V Hh,t) h = 1, . . . , nh t = 1, . . . , nt (7.16)

donde PHh,t es la potencia hidráulica generada por la central h en elintervalo temporal t, Qh,t el caudal de agua del embalse h en el intervalotemporal t y V Hh,t el volumen de agua del embalse h, asociado a lacentral h, en el intervalo temporal t.

En horizontes temporales de corto plazo los volúmenes de los embalsesno tienen una variación significativa, de esta manera se puede suponerque la potencia hidráulica es una función no lineal tan sólo del caudal deagua turbinado. Para simplificar el modelo se ha supuesto que la potenciay el caudal están relacionados de una forma lineal, es decir:

PHh,t = Ch ·Qh,t h = 1, . . . , nh t = 1, . . . , nt (7.17)

Al tratarse de centrales situadas en una cuenca hidráulica, existe unacoplamiento espacio-tiempo entre las distintas centrales de la cuenca,pues parte del agua que turbina una central para generar energía es usadapor la central situada justo aguas abajo cuando llega a su embalse con uncierto retraso temporal. Este acoplamiento se puede modelar mediantela siguiente restricción:

V Hh,t = V Hh,t−1 −Qh,t +∑

sig(k)=h

Qk,t−ret(k) +Wh (7.18)

donde ret(h) es el tiempo en horas desde que se vierte el agua turbinadaen la central h hasta que llega al siguiente embalse, sig(h), situado aguasabajo de la central h, y Wh son las aportaciones externas en el embalseasociado a la central h.

Usando la relación (7.17), se puede escribir la ecuación (7.18) de la formasiguiente:

V Hh,t = V Hh,t−1 − PHh,t +∑

sig(k)=h

PHk,t−ret(k) +Wh (7.19)

Limitación del agua disponible. Las centrales hidráulicas tienen res-tricciones de combustible, ya que su combustible, el agua, es un recurso

161

Page 186: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 7 Aplicación: Programación Horaria de Centrales

limitado. Así la energía hidráulica de una central está limitada por elvolumen de agua disponible en el embalse asociado a ésta. A su vez lacapacidad de cada embalse está sujeta a límites, es decir:

V Hmh ≤ V Hh,t ≤ V HM

h h = 1, . . . , nh t = 1, . . . , nt (7.20)

donde V Hmh , V HM

h son los límites mínimos y máximos sobre el volumendel embalse asociado a la central hidráulica h, respectivamente.

Limitación de la producción. Por último, las centrales hidráulicastienen límites máximos y mínimos de producción, es decir:

PHmh ≤ PHh,t ≤ PHM

h h = 1, . . . , nh t = 1, . . . , nt (7.21)

donde PHmh y PHM

h son los límites sobre la potencia de la central hi-dráulica h.

Limitación del caudal. El caudal de agua de cada embalse está limi-tado por un caudal máximo y mínimo, es decir:

Qmh ≤ Qh,t ≤ QM

h h = 1, . . . , nh t = 1, . . . , nt (7.22)

donde Qmh y QM

h son los límites mínimos y máximos sobre el caudal delembalse asociado a la central hidráulica h, respectivamente.

7.1.2.3. Restricciones de demanda

La potencia consumida en cada intervalo horario se supone constante. Asíla curva de demanda se modela como una función constante a trozos comomuestra la figura 7.3 que corresponde a la demanda del 10 de junio del año1998.

Las restricciones de demanda vienen dadas por:

162

Page 187: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación: Programación Horaria de Centrales

0

5000

10000

15000

20000

25000

1 3 5 7 9 11 13 15 17 19 21 23

Horas

Dem

and

a (M

W)

Figura 7.3: Curva de demanda de potencia.

ng∑i=1

Pi,t · Ui,t +

nh∑h=1

PHh,t = Dt t = 1, ..., nt (7.23)

donde Dt es la potencia demandada en el periodo t estimada en base a unapredicción.

Para incluir las pérdidas de la red de transporte en esta ecuación bastaríaañadir una estimación de las pérdidas en el segundo miembro, de maneraque la suma de las potencias generadas sea igual a la suma de las potenciasconsumidas más las pérdidas de la red de transporte.

7.1.2.4. Restricciones de reserva rodante

La reserva rodante es la potencia que el sistema debe ser capaz de pro-porcionar de forma rápida en caso de fallo en alguna central. En realidad esun margen de seguridad sobre la potencia demandada estimada para asegurar

163

Page 188: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 7 Aplicación: Programación Horaria de Centrales

que ésta siempre se suministre, incluso en el peor de los casos. Para ello seimpone que la suma de los márgenes de potencia disponibles tanto térmicoscomo hidráulicos sea mayor o igual que la reserva, que se suele tomar comouna fracción de la demanda o la potencia máxima de la central mayor acopladaen el intervalo t. Esto se formula como sigue:

ng∑i=1

(PMi − Pi,t) · Ui,t +

nh∑h=1

(PHMh − PHh,t) ≥ Rt t = 1, . . . , nt (7.24)

donde Rt es la reserva rodante en la hora t.El problema de optimización consiste en minimizar la función objetivo (7.9)

sujeto a las restricciones (7.10)-(7.15), (7.19)-(7.21) y (7.23)-(7.24).Así el problema queda como sigue:

Minimizar CT (7.25)

sujeto ang∑i=1

Pi,t · Ui,t +nh∑h=1

PHh,t = Dt (7.26)

ng∑i=1

(PMi − Pi,t) · Ui,t +

nh∑h=1

(PHMh − PHh,t) ≥ Rt (7.27)

V Hh,t = V Hh,t−1 − PHh,t +∑

sig(k)=h

PHk,t−ret(k) +Wh (7.28)

Xi,t = (Xi,t−1 · (1 − Yi,t) + 1) · Ui,t (7.29)Si,t = (Si,t−1 · (1 − Zi,t) + 1) · (1 − Ui,t) (7.30)Yi,t = Ui,t · (1 − Ui,t−1) (7.31)Zi,t = Ui,t−1 · (1 − Ui,t) (7.32)(Xi,t − UTi) · (Ui,t−1 − Ui,t) ≥ 0 (7.33)(Si,t +DTi) · (Ui,t − Ui,t−1) ≤ 0 (7.34)Pmi · Ui,t ≤ Pi,t ≤ PM

i · Ui,t (7.35)− RBi ≤ Pi,t − Pi,t−1 ≤ RSi (7.36)

PHmh ≤ PHh,t ≤ PHM

h (7.37)V Hm

h ≤ V Hh,t ≤ V HMh (7.38)

Se trata de un problema de optimización no lineal no convexo y acopladoen tiempo y espacio, acoplamiento que se debe tanto a las restricciones sobrela variación de la potencia generada en horas consecutivas, como a la propiatopología de la cuenca hidráulica considerada, que conlleva un retraso temporal

164

Page 189: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación: Programación Horaria de Centrales

entre el vertido de agua en un embalse y la disponibilidad de dicha agua enembalses situados aguas abajo. Además de la complejidad del problema deoptimización, en sistemas de tamaño realista el número de variables es muyelevado, lo que hace aún más complicada su resolución.

En la práctica, las restricciones de tiempo mínimo de parada y funciona-miento no son importantes (restricciones (7.12)-(7.15)), puesto que el númerode arranques y paradas de las centrales térmicas tiende a ser lo más pequeñoposible debido a que los arranques y paradas aparecen en la función objetivopenalizados por sus respectivos costes.

Por simplicidad, los costes de arranques se considerarán constantes, es decir:

CAi,t(Si,t) = CAi (7.39)

7.2. Solución mediante el método propuesto

7.2.1. Subproblema continuoEl subproblema de optimización continuo es el siguiente:

Minimizar CT (7.40)

sujeto ang∑i=1

Pi,t · Ui,t +nh∑h=1

PHh,t = Dt (7.41)

ng∑i=1

PMi · Ui,t ≥ Rt +Dt −

nh∑h=1

PHMh (7.42)

V Hh,t = V Hh,t−1 − PHh,t +∑

sig(k)=h

PHk,t−ret(k) +Wh (7.43)

Pmi ≤ Pi,t ≤ PM

i (7.44)0 ≤ Ui,t ≤ 1 (7.45)CT ≤ C (7.46)

− RBi ≤ Pi,t − Pi,t−1 ≤ RSi (7.47)PHm

h ≤ PHh,t ≤ PHMh (7.48)

V Hmh ≤ V Hh,t ≤ V HM

h (7.49)

Este problema se resuelve mediante el algoritmo Primal-Dual de PuntoInterior descrito en la sección 6.1.2 donde:

La variable independiente es un vector de dimensión (2ng + 2nh) · ntx = [Pi,t, PHh,t, V Hh,t, Ui,t] (7.50)

165

Page 190: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 7 Aplicación: Programación Horaria de Centrales

La función objetivo es:

f(x) = CT (7.51)

Las restricciones de igualdad están modeladas por un vector de dimensiónnt + nh · nt

h(x) = [h1t (x), h

2h,t(x)] (7.52)

donde:

h1t (x) =

ng∑i=1

Pi,t · Ui,t +nh∑h=1

PHh,t −Dt (7.53)

h2h,t(x) = V Hh,t − V Hh,t−1 + PHh,t −

∑sig(k)=h

PHk,t−ret(k) −Wh(7.54)

Las restricciones de desigualdad están modeladas por un vector de di-mensión nt + 6ng · nt + 4nh · nt + 1

g(x) = [g1t (x), g

2i,t(x), g

3i,t(x), g

4i,t(x), g

5i,t(x), g

6i,t(x), (7.55)

g7i,t(x), g

8(x), g9h,t(x), g

10h,t(x), g

11h,t(x), g

12h,t(x)]

donde:

g1t (x) = Rt +Dt −

nh∑h=1

PHMh −

ng∑i=1

PMi · Ui,t (7.56)

g2i,t(x) = Pi,t − PM

i (7.57)g3i,t(x) = Pm

i − Pi,t (7.58)g4i,t(x) = Pi,t − Pi,t−1 −RSi (7.59)g5i,t(x) = −RBi − Pi,t + Pi,t−1 (7.60)g6i,t(x) = Ui,t − 1 (7.61)g7i,t(x) = −Ui,t (7.62)

g8(x) = CT − C (7.63)g9h,t(x) = PHh,t − PHM

h (7.64)g10h,t(x) = PHm

h − PHh,t (7.65)g11h,t(x) = V Hh,t − V HM

h (7.66)g12h,t(x) = V Hm

h − V Hh,t (7.67)

166

Page 191: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación: Programación Horaria de Centrales

Las ecuaciones y la estructura por bloques de la matriz del sistema linealresultante se describe de manera detallada en el Apéndice D.

A continuación se muestra un ejemplo, basado en un sistema test, parailustrar la estructura de la matriz del sistema lineal que hay que resolver.

0 20 40 60 80 100

0

20

40

60

80

100

nz = 449

0 20 40 60 80 100

0

20

40

60

80

100

nz = 1168

Figura 7.4: a) Matriz de optimización, b) Elementos de llenado

0 20 40 60 80 100

0

20

40

60

80

100

nz = 449

0 20 40 60 80 100

0

20

40

60

80

100

nz = 827

Figura 7.5: a) Matriz de optimización reordenada, b) Elementos de llenado

167

Page 192: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 7 Aplicación: Programación Horaria de Centrales

Ejemplo Ilustrativo:Sea un sistema formado por tres centrales térmicas y cuatro centrales hi-

dráulicas en cascada con un retraso de un embalse a otro de una hora. Elhorizonte temporal está dividido en cuatro intervalos horarios.

Entonces se tiene que la estructura de la matriz del sistema de ecuacioneses la que se muestra en la figura 7.4a, donde nz (“nozeros”) es el númerode elementos distinto de cero. En la figura 7.4b se muestran los elementosde llenado que aparecen al factorizar esta matriz de optimización, éstos serepresentan con un cuadrado mientras que los elementos de la matriz que yaexistían se representan con un punto.

Los elementos de llenado son causados principalmente por las ecuacionesde acoplamiento hidráulico, en este ejemplo la matriz tiene 449 elementos nonulos y aparecen 719 elementos de llenado. Haciendo una reordenación de lamatriz por un algoritmo de mínimo grado [117], se obtiene la matriz de lafigura 7.5a, donde el número de elementos de llenado es 378 como se muestraen la figura 7.5b, aproximadamente una reducción en el número de elementosde llenado de un 50%.

7.2.2. Subproblema discreto

El subproblema de optimización discreto es el siguiente:

Minimizar CT (7.68)

sujeto ang∑i=1

Pi,t · Ui,t +nh∑h=1

PHh,t = Dt (7.69)

ng∑i=1

PMi · Ui,t ≥ Rt +Dt −

nh∑h=1

PHMh (7.70)

V Hh,t = V Hh,t−1 − PHh,t +∑

sig(k)=h

PHk,t−ret(k) +Wh (7.71)

Pmi ≤ Pi,t ≤ PM

i (7.72)Ui,t(1 − Ui,t) = 0 (7.73)

CT ≤ Cd (7.74)− RBi ≤ Pi,t − Pi,t−1 ≤ RSi (7.75)

PHmh ≤ PHh,t ≤ PHM

h (7.76)V Hm

h ≤ V Hh,t ≤ V HMh (7.77)

Este problema se resuelve mediante el algoritmo Primal-Dual de PuntoInterior descrito en la sección 6.1.2 donde:

168

Page 193: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación: Programación Horaria de Centrales

La variable independiente es un vector de dimensión (2ng + 2nh) · ntx = [Pi,t, PHh,t, V Hh,t, Ui,t] (7.78)

La función objetivo es:

f(x) = CT (7.79)

Las restricciones de igualdad están modeladas por un vector de dimensión(1 + nh + ng) · nt

h(x) = [h1t (x), h

2h,t(x), h

3i,t(x)] (7.80)

donde:

h1t (x) =

ng∑i=1

Pi,t · Ui,t +nh∑

h=1

PHh,t −Dt (7.81)

h2h,t(x) = V Hh,t − V Hh,t−1 + PHh,t −

∑sig(k)=h

PHk,t−ret(k) −Wh (7.82)

h3i,t(x) = Ui,t(1 − Ui,t) (7.83)

Las restricciones de desigualdad están modeladas por un vector de di-mensión nt + 4ng · nt + 4nh · nt + 1

g(x) = [g1t (x), g

2i,t(x), g

3i,t(x), g

4i,t(x), g

5i,t(x), g

6(x), g7h,t(x),

g8h,t(x), g

9h,t(x), g

10h,t(x)] (7.84)

donde:

g1t (x) = Rt +Dt −

nh∑h=1

PHMh −

ng∑i=1

PMi · Ui,t (7.85)

g2i,t(x) = Pi,t − PM

i (7.86)g3i,t(x) = Pm

i − Pi,t (7.87)g4i,t(x) = Pi,t − Pi,t−1 − RSi (7.88)g5i,t(x) = −RBi − Pi,t + Pi,t−1 (7.89)

g6(x) = CT − Cd (7.90)g7h,t(x) = PHh,t − PHM

h (7.91)g8h,t(x) = PHm

h − PHh,t (7.92)g9h,t(x) = V Hh,t − V HM

h (7.93)

169

Page 194: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 7 Aplicación: Programación Horaria de Centrales

g10h,t(x) = V Hm

h − V Hh,t (7.94)

Las ecuaciones y la estructura por bloques de la matriz del sistema linealresultante se describe de manera detallada en el Apéndice D.

A continuación se muestra un ejemplo, basado en un sistema test, parailustrar la estructura de la matriz del sistema lineal que hay que resolver eneste caso.

0 20 40 60 80 100

0

20

40

60

80

100

nz = 4730 20 40 60 80 100

0

20

40

60

80

100

nz = 1643

Figura 7.6: a) Matriz de optimización, b) Elementos de llenado

0 20 40 60 80 100

0

20

40

60

80

100

nz = 4730 20 40 60 80 100

0

20

40

60

80

100

nz = 990

Figura 7.7: a) Matriz de optimización reordenada, b) Elementos de llenado

170

Page 195: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación: Programación Horaria de Centrales

Ejemplo Ilustrativo:Considérese el mismo sistema test de antes. Entonces se tiene que la estruc-

tura de la matriz del sistema de ecuaciones es la que se muestra en la figura7.6a. En la figura 7.6b se muestran los elementos de llenado que aparecen alfactorizar la matriz de optimización, éstos se representan con un cuadradomientras que los elementos de la matriz que ya existían se representan con unpunto.

Los elementos de llenado son causados principalmente por las ecuacionesde acoplamiento hidráulico, en este ejemplo la matriz tiene 473 elementos nonulos y aparecen 1170 elementos de llenado. Haciendo una reordenación dela matriz por un algoritmo de mínimo grado [117], se obtiene la matriz de lafigura 7.7a, donde el número de elementos de llenado es 517 como se muestraen la figura 7.7b, aproximadamente una reducción en el número de elementosde llenado de un 50%.

7.3. Resultados

En esta sección se presentan los resultados obtenidos por el método presen-tado en la sección 6.2.2, de su aplicación al problema de Programación Horariade Centrales Eléctricas modelado anteriormente.

En primer lugar, se analizan los resultados obtenidos al adoptar distin-tos esquemas de actualización (6.59)-(6.60) de la cota impuesta a la funciónobjetivo para dos casos de estudio distintos. El primer caso de estudio es unsistema test de pequeña dimensión que se ha usado para validar el método pro-puesto. El segundo es un sistema de tamaño realista basado en el parque degeneración térmica español. Finalmente, se presentan los resultados obtenidosde la aplicación de un Algoritmo Genético [123] para comparar las solucionesalcanzadas por ambos métodos.

Los datos de entrada de los dos casos de estudio se detallan en el ApéndiceB. El sistema test está formado por 5 centrales térmicas y el sistema de tamañorealista está formado por 49 generadores y se basa en el sistema de generaciónespañol. El horizonte temporal de programación es un día dividido en 24 horas.

En la tabla 7.2 se presenta la secuencia de mínimos locales obtenidos parael sistema test usando el esquema de actualización dado por (6.59).

Se puede observar que, en las iteraciones 6, 7, 8 y 9, el problema de optimi-zación discreto alcanza la misma solución inicializando el algoritmo de PuntoInterior con soluciones del problema de optimización continuo diferentes. Ade-más, en las iteraciones 11, 13 y 14, el problema discreto no alcanza ningunasolución factible inicializando con las respectivas soluciones del problema con-

171

Page 196: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 7 Aplicación: Programación Horaria de Centrales

Iteración Coste en eurosProblema Continuo Problema Discreto

1 863072 5944072 810518 5310003 771204 5298384 736237 5295805 704342 5289996 676478 5284847 652025 5284848 630573 5284849 613612 52848410 597874 51325711 584346 Infactible12 572451 51241913 567611 Infactible14 564055 Infactible15 Infactible –

Tabla 7.2: Secuencia de mínimos locales.

tinuo.En la tabla 7.3 se puede apreciar que la solución que alcanza el problema

discreto es mejor que la del problema continuo en cada iteración. Esto es debidoa que el mínimo discreto alcanzado pertenece a una cuenca de atracción de unmínimo local continuo mejor que el punto inicial considerado. Esto ocurre de-bido a la gran cantidad de mínimos locales distintos, con valores muy cercanosentre sí, que presenta el problema de la Programación Horaria de Centrales,ya que hay generadores térmicos con costes muy parecidos.

La tabla 7.3 presenta la secuencia de mínimos locales obtenidos para elsistema test usando el esquema de actualización dado por (6.60).

Se puede ver, que hay una gran reducción en el número de iteraciones con

Iteración Coste en eurosProblema Continuo Problema Discreto

1 863072 5944072 578531 5124193 Infactible –

Tabla 7.3: Secuencia de mínimos locales.

172

Page 197: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación: Programación Horaria de Centrales

este esquema de actualización. Tanto con una estrategia de actualización comocon otra se ha alcanzado finalmente el mismo mínimo local, lo cual sugiere quequizás este mínimo sea el óptimo global en este caso.

Debido a las características específicas del problema de la ProgramaciónHoraria de Centrales, principalmente la gran cantidad de mínimos locales convalores muy parecidos, se ha optado por el esquema de actualización dado por(6.60) que es más rápido y efectivo en este tipo de problemas.

La tabla 7.4 muestra la secuencia de mínimos locales obtenidos para elsistema de tamaño realista cuando se usa el esquema de actualización dadopor (6.60).

Iteración Coste en eurosProblema Continuo Problema Discreto

1 6796118 48818912 4881644 46705453 Infactible –

Tabla 7.4: Secuencia de mínimos locales.

7.3.1. Comparación con algoritmos genéticos

Los Algoritmos Genéticos son técnicas computacionales basadas en meca-nismos de selección natural en las cuales las soluciones de un problema soncodificadas como la estructura genética de un organismo biológico.

Cada individuo de la población representa una posible solución del pro-blema y se le asigna una medida de calidad a cada miembro de la población.Los individuos mejor adaptados al medio tendrán una medida de la calidadmayor que el resto. Un Algoritmo Genético se caracteriza por parámetros yoperadores tales como: tamaño de la población, probabilidad de mutación ycruce y mecanismos para la creación de una nueva población.

En el Algoritmo Genético implementado [122, 79], cada individuo se definepor el estado arrancado/parado de cada generador térmico y la medida decalidad viene dada por la solución del Despacho Económico de la GeneraciónTérmica para el periodo de un día.

El algoritmo básico es como sigue:

1. Una población se selecciona aleatoriamente.

2. Cálculo de la medida de la calidad de cada individuo.

3. Selección de los padres aleatoriamente mediante un sorteo tipo ruleta.

173

Page 198: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 7 Aplicación: Programación Horaria de Centrales

4. Se cruzan los padres para crear nuevos individuos.

5. Los nuevos individuos son mutados.

6. Los miembros con una medida de calidad baja son reemplazados pornuevos individuos.

7. Si no se alcanza el número máximo de generaciones, ir al paso 2.

Cada individuo de la población se representa mediante una matriz de cerosy unos, con tantas columnas como número de periodos del horizonte temporal,y tantas filas como número de centrales térmicas. Si el elemento que ocupa lafila i y la columna j de la matriz es un uno, la central i está acoplada en elintervalo j. De forma análoga, si el elemento que ocupa la fila i y la columnaj de la matriz es un cero, la central i no está acoplada en el intervalo j.

Para obtener una nueva generación, se seleccionan aleatoriamente los indi-viduos de la generación actual mediante un algoritmo de muestreo tipo ruleta,donde la probabilidad de selección de un individuo es proporcional a la inversade su coste, que viene dado por el módulo de Despacho Económico.

En lo que respecta a la política de cruce, para proporcionar mayor diver-sidad en la población, se ha elegido una probabilidad de cruce igual a uno, esdecir, una vez que dos individuos se han elegidos para ser padres siempre secruzan. Los individuos hijos se obtienen uniendo los trozos resultantes de unapartición aleatoria de cada fila de los individuos padres como muestra la figura7.8. También se puede aplicar el mismo procedimiento pero partiendo aleato-riamente las columnas (figura 7.9). Este operador cruce es un caso particulardel operador cruce multipunto. Como las filas están asociadas a las horas delhorizonte de programación, la primera aproximación conduce a infactibilidadde los nuevos individuos con respecto a las restricciones de tiempo mínimode parada y funcionamiento (7.12) y (7.13), mientras que la segunda tiene unefecto más acusado en las restricciones de demanda (7.23) y de reserva (7.24).

Después del operador cruce, los hijos son mutados. El operador mutaciónintroduce nuevo material genético en los genes, según una probabilidad demutación previamente determinada. Se selecciona de manera aleatoria un ge-nerador y una hora, de un individuo también seleccionado aleatoriamente. Secambia el estado de ese generador en esa hora (de cero a uno o de uno a cero).

Las figuras 7.10 y 7.11 muestran la evolución del mejor individuo parael caso test y el caso realista respectivamente. Estos dos individuos son losmejores que se han obtenido a lo largo de varios experimentos.

174

Page 199: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación: Programación Horaria de Centrales

1 2 3 t 1 2 3 t1 12 23 3

. .

. .

. .

g g

1 2 3 t 1 2 3 t1 12 23 3

. .

. .

. .

g g

(a)

PADRES

HIJOS

Figura 7.8: Operador de cruce por filas

1 2 3 t 1 2 3 t

1 1

2 2

. . . . . .

g g

1 2 3 t 1 2 3 t

1 1

2 2

. . . . . .

g g

(b)

HIJOS

PADRES

Figura 7.9: Operador de cruce por columnas

175

Page 200: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 7 Aplicación: Programación Horaria de Centrales

520

540

560

580

600

620

640

660

680

700

1 101 201 301 401 501 601 701 801 901 1001 1101

Número de generaciones

Cost

e (

Mile

s de e

uro

s)

Figura 7.10: Evolución del mejor individuo para caso test.

4700

4900

5100

5300

5500

5700

5900

6100

6300

6500

1 1701 3401 5101 6801 8501

Número de generaciones

Cos

te (M

iles

de e

uros

)

Figura 7.11: Evolución del mejor individuo para caso realista.

176

Page 201: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación: Programación Horaria de Centrales

Otras actividades

23%

Ordenación Óptima

6%

Construcción del sistema

10%

Resolución del sistema

61%

Figura 7.12: Tiempo de ejecución según actividades

Uno de los principales inconvenientes de los Algoritmos Genéticos es sualta carga computacional como se muestra en la tabla 7.5 y en la tabla 7.6.Para la comparación de los resultados obtenidos de la aplicación del métodode optimización propuesto con los obtenidos de la aplicación de un AlgoritmoGenético se ha hecho la siguiente simplificación: se han considerado sólo cen-trales térmicas, puesto que considerando la restricción de acoplamiento entreembalses, el coste computacional y el tiempo de ejecución del Algoritmo Ge-nético es excesivo, siendo aun más notable cuando se trata del caso de tamañorealista.

La figura 7.12 muestra los tiempos de las rutinas principales que formanun algoritmo de Punto Interior.

Como se puede observar, la mayoría del tiempo de ejecución se consumeen resolver el sistema de ecuaciones. Esto es debido al número de elementosde llenado que aparecen, que son causados principalmente por la ecuación deacoplamiento entre embalses. Por ejemplo, en el caso de una población de 100individuos a lo largo de 1000 generaciones se ejecuta 100000 veces el algoritmode Punto Interior para resolver cada vez un nuevo problema de ProgramaciónHoraria de Centrales Eléctricas, obteniendo el coste de cada individuo de lageneración y por tanto su respectiva medida de calidad.

Las tablas 7.5 y 7.6 muestran la mejor solución conseguida por el AlgoritmoGenético y por el procedimiento propuesto basado en técnicas de Punto Inte-rior, para el caso test y el caso realista, respectivamente. Además, se muestrael tiempo de CPU relativo junto con el número total de iteraciones.

177

Page 202: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 7 Aplicación: Programación Horaria de Centrales

Función Objetivo Tiempo de Iteraciones(euros) CPU Relativo Externas

PI 512419 1 2AG 528832 737 1100

Tabla 7.5: Comparación de resultados para el caso test.

Función Objetivo Tiempo de Iteraciones(euros) CPU Relativo Externas

PI 4670545 1 2AG 4708849 2800 8500

Tabla 7.6: Comparación de resultados para el caso realista.

Como se puede observar, la técnica propuesta es varios órdenes de magnitudmás rápida que el Algoritmo Genético y proporciona mejores mínimos locales.Con esta nueva técnica, en el caso test, el coste se reduce en 16413.59 euros yen el caso realista en 38304 euros, lo cual es notable en términos económicos.

Las tablas C.1 y C.2 que aparecen en el Apéndice C muestran las matricesde acoplamiento y potencias de salida de las mejores soluciones obtenidas parael caso test por el nuevo método y el Algoritmo Genético, respectivamente. Sepuede ver, que la programación de arranques y paradas y la potencia de salidapara las cinco centrales en las horas 1, 2, 3, 4, 5, 6, 11 y 23 coinciden para los dosalgoritmos. Sin embargo, desde las horas 12 hasta la 22 el Algoritmo Genéticoopta por tener acopladas sólo las centrales 1, 2 y 3 mientras que el métodoiterativo basado en Punto Interior opta por tener también acoplada la central5 a potencia mínima, lo que hace que la central 2 disminuya su generaciónhasta su potencia mínima para ajustarse a la demanda. Esta misma estrategiausa el Algoritmo Genético en las horas 7, 8 y 9 donde todas las centralesestán acopladas, lo que hace que las centrales 4 y 5 estén a potencia mínimay la central 3 baje su generación para ajustarse a la demanda mientras que elmétodo propuesto tiene acopladas sólo las centrales 1, 2 y 3. Por último, unapareja de centrales se intercambian en la hora 24 (centrales 2 y 3). Se puedeobservar (ver Apéndice B), que la central 1 es la más económica por lo quesiempre está acoplada a potencia máxima.

Las tablas C.3, C.4, C.5, C.6 y C.7 que aparecen en el Apéndice C mues-tran las matrices de acoplamiento y potencias de salida de la mejor soluciónobtenida para el caso realista por el nuevo método.

Las tablas C.8, C.9, C.10, C.11 y C.12 que aparecen en el Apéndice C mues-tran las matrices de acoplamiento y potencias de salida de la mejor solución

178

Page 203: Técnicas avanzadas de predicción y optimización aplicadas a ...

Aplicación: Programación Horaria de Centrales

obtenida para el caso realista por el Algoritmo Genético.

7.4. ConclusionesEn este capítulo se ha aplicado el algoritmo de optimización desarrollado

en el Capítulo 6 para la resolución de problemas no lineales y no convexoscon múltiples mínimos locales, al problema de la PHCT que cumple esas ca-racterísticas de no linealidad y no convexidad debido a las variables binariasque aparecen en el modelado del problema y a los costes no lineales. Para laresolución de este problema se necesita la predicción de la demanda que seobtiene como se describe en el Capítulo 5. Se ha descrito brevemente cómo seresuelven los problemas discretos y continuos que aparecen al aplicar el métodopropuesto a este problema, haciendo especial énfasis en las estructuras de lasmatrices resultantes.

Para acelerar la ejecución del algoritmo de Punto Interior las matrices delos sistemas lineales que hay que resolver se han reordenado para que el nú-mero de elementos de llenado que aparecen al factorizar la matriz sea mínimo.Esto acelera tanto la ejecución del método propuesto, ya que éste consiste enla resolución de problemas de optimización mediante un algoritmo de PuntoInterior de manera iterativa como la ejecución del AG que obtiene el valor dela función que mide la calidad de cualquier individuo mediante la resolución deun problema de optimización cuadrática mediante técnicas de Punto Interior.

Se han presentado los resultados obtenidos de la aplicación del método ados casos de estudio basados en el parque de generación español, un sistematest de pequeña dimensión y un sistema realista de gran dimensión. Los re-sultados obtenidos han sido comparados con los obtenidos de la aplicación deun Algoritmo Genético. En ambos casos de estudio el Algoritmo Genético en-cuentra mínimos locales peores que el algoritmo basado en técnicas de PuntoInterior: para el sistema test, el mínimo local encontrado es de 512419 eurosusando la técnica propuesta y de 528832 euros usando el AG; para el siste-ma realista, el mínimo local encontrado es de 4670545 euros usando la técnicaexpuesta en esta tesis y de 4708849 euros usando el AG.

179

Page 204: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 7 Aplicación: Programación Horaria de Centrales

180

Page 205: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 8

Conclusiones y Futuras Líneas deInvestigación

Como conclusiones generales, se han obtenido avances significativos en loque respecta a técnicas de predicción, ya que se ha aplicado un método declasificación, usado hasta ahora principalmente en base de datos espaciales, ala predicción de dos series temporales, la demanda y los precios de la energíaeléctrica, obteniendo resultados competitivos con las técnicas de predicción queexisten en la literatura actual y en algunos casos mejores. En lo que respectaa la literatura encontrada sobre las técnicas de predicción aplicadas a estasseries, ha sido la primera vez que se ha aplicado este método. El objetivoprincipal y último de cualquier predicción de un evento futuro siempre es laoptimización, puesto que la optimización es un proceso que se nutre de laspredicciones realizadas para obtener algún beneficio, como por ejemplo reducircostes en el caso de los clientes de un servicio o incrementar beneficios en elcaso de una empresa. De esta forma, el obtener una predicción simplementeproporciona ayuda para elaborar las estrategias necesarias y las decisionesadecuadas siempre con vistas a optimizar algún objetivo. En el caso de losprecios de la energía en el mercado eléctrico, una vez obtenida la predicción,las compañías eléctricas deben determinar la programación de generación deenergía horaria para maximizar el beneficio obtenido por la venta de energía enel mercado y en el caso de la demanda de energía eléctrica, una vez obtenida lapredicción, las empresas eléctricas deben planificar la producción de energía delas centrales eléctricas de manera que se satisfaga la demanda predicha a costemínimo. De igual forma, uno de los principales resultados obtenidos dentro deesta tesis ha sido el desarrollo de un algoritmo de optimización para problemasno lineales no convexos, potente, flexible, simple y rápido comparado con lastécnicas que se usan en la literatura para resolver este tipo de problemas, con la

181

Page 206: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 8 Conclusiones y Futuras Líneas de Investigación

principal ventaja ante éstas que recorre una trayectoria de mínimos locales cadavez “mejores” sin quedar atrapado en el primer mínimo local que se encuentre.Además este algoritmo se puede aplicar a cualquier problema de optimizaciónque presente esas características en cualquier área científica/técnica. En elcampo de la Ingeniería Eléctrica ha demostrado ser una herramienta potentey competitiva con el software comercial existente.

8.1. Predicción

Las conclusiones más relevantes en el campo de la predicción de seriestemporales son detalladas a continuación:

Se ha presentado un algoritmo basado en técnicas de clasificación y re-conocimiento de patrones para la predicción de series temporales. Estastécnicas de reconocimiento de patrones están basadas en el concepto devecindad, por tanto la elección de la métrica que determina el conceptode vecino ha sido importante en las predicciones realizadas. Debido aesto, se han experimentado con dos distancias: la distancia Euclídea y ladistancia Manhattan. En lo que respecta a este método, cuando se rea-liza la predicción se necesita saber cuántos ejemplos usar de manera quela predicción sea óptima. El número óptimo de vecinos usados en la pre-dicción ha sido determinado minimizando los distintos tipos de erroresque se comenten en la predicción sobre un conjunto de entrenamiento.También se ha aplicado un método, el método de los falsos vecinos máscercanos, para determinar de una manera óptima el número de atributosnecesarios para que dos puntos vecinos en el pasado sigan siendo vecinosen el futuro, lo cual asegura que el error cometido en la predicción seasuficientemente pequeño. Por último, se ha analizado de forma heurísti-ca cuál es el mínimo error que se puede cometer al predecir usando estemétodo.

El método de predicción desarrollado ha sido aplicado a la predicciónde dos series temporales reales: la demanda de energía eléctrica en unentorno centralizado y los precios de la energía del Mercado EléctricoEspañol en un entorno liberalizado. El método da lugar a unos erroresde predicción mucho mayores en el caso de la predicción de los preciosque en el caso de la predicción de la demanda, lo cual permite cuestio-nar el funcionamiento del Mercado Eléctrico Español. Debido a esto, seha establecido una comparación cualitativa entre el comportamiento de

182

Page 207: Técnicas avanzadas de predicción y optimización aplicadas a ...

Conclusiones y Futuras Líneas de Investigación

ambas series que justifican la diferencia entre los errores de la predicciónde ambas series.

Los resultados obtenidos de la aplicación de la técnica desarrollada a lademanda de energía eléctrica, han sido comparados con los obtenidos dela aplicación de un árbol de regresión obtenido con el algoritmo M5’.Se han obtenido resultados mejores con el método propuesto en cuantoa aproximación se refiere, aunque los árboles de regresión presentan laventaja de obtener modelos cualitativos del sistema.

Se ha desarrollado una red neuronal artificial para la predicción de losprecios de la energía, ya que actualmente son las técnicas mas utilizadasen la literatura para la predicción de series temporales no lineales. Losresultados obtenidos de la aplicación de la red neuronal a los precios dela energía han sido comparados con los obtenidos de la aplicación dela técnica propuesta, revelando ésta última unos errores de predicciónmenores sin necesitar un elevado tiempo de aprendizaje.

8.2. Optimización

En lo que respecta a optimización se han obtenido las conclusiones siguien-tes:

Se ha desarrollado un algoritmo para la resolución de problemas de opti-mización no lineales no convexos basado en técnicas de “Punto Interior”,que resuelve de manera satisfactoria, eficiente y robusta este tipo deproblemas. Teniendo en cuenta que estos problemas presentan múltiplesmínimos locales y que la principal desventaja de los algoritmos existentesen la literatura para resolver este tipo de problemas, es que explotan téc-nicas de búsqueda local, encontrando un óptimo local que puede distardel mínimo global, se ha mejorado esta desventaja obteniendo al me-nos una sucesión de mínimos locales cada vez “mejores” que tienden almínimo global. Este algoritmo se valida con dos ejemplos tutoriales depequeña dimensión.

El algoritmo desarrollado para problemas no lineales no convexos se haaplicado al problema de la Programación Horaria de Centrales Térmicasque cumple esas características de no linealidad y no convexidad, debi-do principalmente a las variables discretas que modelan los arranques y

183

Page 208: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 8 Conclusiones y Futuras Líneas de Investigación

paradas de las centrales. Para la resolución de este problema se ha nece-sitado primero una predicción de la demanda, que se ha obtenido comose ha descrito en la primera parte de esta tesis.

Se ha desarrollado un algoritmo genético para la resolución del proble-ma de la Programación Horaria de Centrales Térmicas para estableceruna comparación con el método propuesto en esta tesis. Este problemaes relevante tanto para el operador de un sistema de energía eléctricacomo para las compañías de generación. La programación horaria es unproblema de optimización no lineal, entero-mixto, combinatorio y, parasistemas de tamaño realista, de gran dimensión. Estas características ha-cen que no haya ningún método que sea capaz de obtener su soluciónexacta. Los algoritmos genéticos son técnicas de resolución que puedenmodelar cualquier tipo de restricción y cualquier no linealidad o no con-vexidad, por lo que son buenos candidatos para obtener la solución deeste problema. Los resultados obtenidos de la aplicación del algoritmopropuesto a dos casos de estudio basados en el parque de generación es-pañol, un sistema test de pequeña dimensión y un sistema realista degran dimensión, han sido comparados con los obtenidos de la aplicacióndel Algoritmo Genético. El nuevo método desarrollado en esta tesis en-cuentra un mejor mínimo local que el mínimo local encontrado por elAlgoritmo Genético y además con menor coste computacional.

8.3. Futuras líneas de investigación

A partir del análisis de los resultados presentados en esta tesis, se puedensugerir las siguientes líneas futuras de trabajo:

8.3.1. Predicción

Inclusión de variables externas, que influyan en el comportamiento de laserie temporal, en el modelo de predicción. Por ejemplo, en la serie tem-poral formada por la demanda se puede incluir la temperatura y en laserie temporal formada por los precios se puede incluir la demanda, pues-to que parece lógico pensar que ésta en parte explica el comportamientode los precios [131].

Experimentar con otras distancias para el cálculo de los vecinos máscercanos. En esta tesis se han presentado los resultados obtenidos en loque respecta a la predicción de los precios y la demanda usando dos

184

Page 209: Técnicas avanzadas de predicción y optimización aplicadas a ...

Conclusiones y Futuras Líneas de Investigación

distancias: la distancia Euclídea y la distancia Manhattan. También sehan publicado algunos resultados, no incluidos en esta tesis, en los que seha usado la distancia Euclídea ponderada por unos pesos los cuales sondeterminados mediante un Algoritmo Genético. Se propone experimentarcon el uso de la distancia Euclídea ponderada, donde los pesos seandeterminados mediante un análisis de correlación.

Experimentar con otras alternativas para proporcionar factores de pesoa los vecinos, una vez calculados éstos con la distancia elegida. En estatesis se han calculado estos pesos según la ecuación (8.1).

αj =

{ dk−dj

dk−d1dk �= d1

1 dk = d1

(8.1)

Existen otras alternativas como por ejemplo:

αj =1

dj(8.2)

Clasificación de los tipos de vecinos, así para el cálculo del vecino en lugarde recorrer toda la base de datos sólo se tendría que recorrer los vecinosdel tipo correspondiente al día que se quiera predecir. Esto mejora elcoste computacional del método propuesto basado en los vecinos máscercanos.

Aplicación de la técnica de predicción de series temporales desarrolladaa la predicción de la generación y el consumo en redes de distribución,contemplando especialmente la generación mediante fuentes de energíasalternativas.

8.3.2. Optimización

Automatización del ajuste de los parámetros que afectan a la convergen-cia de los métodos de Punto Interior mediante algún algoritmo evolutivoadecuado.

Nuevas estrategias para la inicialización de los subproblemas continuosy discretos que aparecen en el método de optimización descrito en estatesis y nuevas estrategias para la actualización de las cotas superiores dela función objetivo en ambos subproblemas.

185

Page 210: Técnicas avanzadas de predicción y optimización aplicadas a ...

Capítulo 8 Conclusiones y Futuras Líneas de Investigación

Análisis teórico del método de optimización que se ha propuesto en estatesis, obteniendo propiedades teóricas sobre la convergencia y si fueraposible obteniendo una demostración teórica de la convergencia de lasucesión decreciente de mínimos locales hacia el mínimo global.

Seguir validando el método de optimización propuesto. Para ello se puedeaplicar a otros problemas reales que cumplan las características de nolinealidad y no convexidad.

Aplicar el método propuesto para obtener mejoras en la planificación yoperación de las redes de distribución de energía eléctrica en sistemascon un alto grado de generación dispersa.

186

Page 211: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice A

Árboles de Regresión

En este apéndice se muestran los árboles de regresión y los modelos linealesobtenidos en las hojas de los árboles mediante el algoritmo M5’ con y sinselección de atributos. Los resultados de su aplicación a la predicción de lademanda de energía eléctrica han sido usados para establecer una comparacióncon los resultados obtenidos de la aplicación del método de predicción basadoen los vecinos más cercanos, presentado en esta tesis, al mismo problema.

A.1. Sin selección de atributosLa figura A.1 muestra el árbol de regresión obtenido tras una ejecución

del algoritmo M5’ sin previa selección de atributos. La figura A.2 muestra losmodelos lineales obtenidos en cada hoja del árbol. Para obtener este árbol sehan usado 8280 ejemplos de entrenamiento y el número de ejemplos de testhan sido 3072. El número de reglas obtenido con este árbol es 151 que hancometido en la predicción un 11.4 % de error.

187

Page 212: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice A Árboles de Regresión

h24 <= 20300 :| h20 <= 18300 :| | h20 <= 16100 :| | | h20 <= 14600 :| | | | h12 <= 15500 : LM1 (28/10%)| | | | h12 >15500 :| | | | | h2 <= 17100 :| | | | | | h9 <= 16500 :| | | | | | | h5 <= 14300 :| | | | | | | | h1 <= 13700 : LM2 (2/7.32%)| | | | | | | | h1 >13700 :| | | | | | | | | h11 <= 15800 : LM3 (3/5.87%)| | | | | | | | | h11 >15800 : LM4 (3/3.24%)| | | | | | | h5 >14300 : LM5 (8/12%)| | | | | | h9 >16500 :| | | | | | | h24 <= 15200 : LM6 (12/9.11%)| | | | | | | h24 >15200 :| | | | | | | | h2 <= 16500 : LM7 (9/7.92%)| | | | | | | | h2 >16500 : LM8 (4/2.2%)| | | | | h2 >17100 :| | | | | | h19 <= 15100 : LM9 (9/9.41%)| | | | | | h19 >15100 :| | | | | | | h21 <= 15800 : LM10 (10/9.14%)| | | | | | | h21 >15800 : LM11 (11/11.6%)| | | h20 >14600 :| | | | h15 <= 16600 :| | | | | h3 <= 16100 :| | | | | | h4 <= 15300 : LM12 (16/6.28%)| | | | | | h4 >15300 :| | | | | | | h7 <= 16600 :| | | | | | | | h2 <= 15800 : LM13 (30/21.6%)| | | | | | | | h2 >15800 : LM14 (10/12.3%)| | | | | | | h7 >16600 :| | | | | | | | h2 <= 17700 :| | | | | | | | | h1 <= 16200 : LM15 (3/2.57%)| | | | | | | | | h1 >16200 : LM16 (8/2.97%)| | | | | | | | h2 >17700 : LM17 (3/8.65%)| | | | | h3 >16100 :| | | | | | h20 <= 15800 : LM18 (151/30%)| | | | | | h20 >15800 : LM19 (54/27.8%)

188

Page 213: Técnicas avanzadas de predicción y optimización aplicadas a ...

A.1 Sin selección de atributos

| | | | h15 >16600 :| | | | | h24 <= 16100 :| | | | | | h10 <= 17400 :| | | | | | | h24 <= 15700 : LM20 (9/2.5%)| | | | | | | h24 >15700 : LM21 (4/3.38%)| | | | | | h10 >17400 :| | | | | | | h11 <= 17500 : LM22 (7/6.15%)| | | | | | | h11 >17500 : LM23 (4/5.11%)| | | | | h24 >16100 :| | | | | | h12 <= 18400 :| | | | | | | h21 <= 16400 :| | | | | | | | h18 <= 16500 : LM24 (4/3.78%)| | | | | | | | h18 >16500 : LM25 (11/13%)| | | | | | | h21 >16400 : LM26 (15/29.2%)| | | | | | h12 >18400 :| | | | | | | h17 <= 17400 : LM27 (6/5.75%)| | | | | | | h17 >17400 :| | | | | | | | h1 <= 20100 : LM28 (7/31.2%)| | | | | | | | h1 >20100 : LM29 (3/23.2%)| | h20 >16100 :| | | h24 <= 17500 :| | | | h22 <= 17400 :| | | | | h24 <= 16700 :| | | | | | h14 <= 17200 :| | | | | | | h22 <= 16600 :| | | | | | | | h20 <= 16300 :| | | | | | | | | h8 <= 15300 : LM30 (14/15.8%)| | | | | | | | | h8 >15300 : LM31 (24/12.5%)| | | | | | | | h20 >16300 : LM32 (81/16.1%)| | | | | | | h22 >16600 : LM33 (79/20.4%)| | | | | | h14 >17200 :| | | | | | | h22 <= 16400 :| | | | | | | | h1 <= 16900 :| | | | | | | | | h23 <= 16300 : LM34 (11/3.02%)| | | | | | | | | h23 >16300 :| | | | | | | | | | h11 <= 15600 : LM35 (3/7%)| | | | | | | | | | h11 >15600 : LM36 (10/10.3%)| | | | | | | | h1 >16900 :| | | | | | | | | h1 <= 17700 :| | | | | | | | | | h14 <= 17500 : LM37 (4/5.82%)| | | | | | | | | | h14 >17500 : LM38 (10/4.35%)

189

Page 214: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice A Árboles de Regresión

| | | | | | | | | h1 >17700 :| | | | | | | | | | h2 <= 17700 : LM39 (4/2.91%)| | | | | | | | | | h2 >17700 : LM40 (4/3.47%)| | | | | | | h22 >16400 :| | | | | | | | h2 <= 18100 :| | | | | | | | | h15 <= 17400 : LM41 (10/7.4%)| | | | | | | | | h15 >17400 : LM42 (17/9.84%)| | | | | | | | h2 >18100 :| | | | | | | | | h9 <= 18500 :| | | | | | | | | | h2 <= 18100 : LM43 (3/2.15%)| | | | | | | | | | h2 >18100 : LM44 (7/3.96%)| | | | | | | | | h9 >18500 : LM45 (5/3.58%)| | | | | h24 >16700 :| | | | | | h17 <= 15800 :| | | | | | | h24 <= 17300 :| | | | | | | | h14 <= 16500 : LM46 (10/6%)| | | | | | | | h14 >16500 : LM47 (19/9.89%)| | | | | | | h24 >17300 : LM48 (17/6.41%)| | | | | | h17 >15800 :| | | | | | | h20 <= 16800 :| | | | | | | | h23 <= 16500 : LM49 (15/7.54%)| | | | | | | | h23 >16500 : LM50 (21/23.7%)| | | | | | | h20 >16800 :| | | | | | | | h18 <= 17300 :| | | | | | | | | h1 <= 18000 :| | | | | | | | | | h9 <= 18200 :| | | | | | | | | | | h7 <= 17000 :| | | | | | | | | | | | h2 <= 16200 :| | | | | | | | | | | | | h12 <= 15700 : LM51 (3/4.29%)| | | | | | | | | | | | | h12 >15700 : LM52 (6/12.8%)| | | | | | | | | | | | h2 >16200 : LM53 (12/10.9%)| | | | | | | | | | | h7 >17000 :| | | | | | | | | | | | h4 <= 17700 : LM54 (12/5.9%)| | | | | | | | | | | | h4 >17700 : LM55 (8/4.98%)| | | | | | | | | | h9 >18200 : LM56 (11/24.1%)| | | | | | | | | h1 >18000 :| | | | | | | | | | h14 <= 17300 : LM57 (5/6.81%)| | | | | | | | | | h14 >17300 :| | | | | | | | | | | h11 <= 18500 : LM58 (3/2.82%)| | | | | | | | | | | h11 >18500 :| | | | | | | | | | | | h1 <= 18700 : LM59 (6/2.52%)

190

Page 215: Técnicas avanzadas de predicción y optimización aplicadas a ...

A.1 Sin selección de atributos

| | | | | | | | | | | | h1 >18700 : LM60 (3/4.49%)| | | | | | | | h18 >17300 :| | | | | | | | | h2 <= 17400 :| | | | | | | | | | h23 <= 17000 : LM61 (10/6.99%)| | | | | | | | | | h23 >17000 :| | | | | | | | | | | h2 <= 16400 : LM62 (12/6.31%)| | | | | | | | | | | h2 >16400 : LM63 (11/8.62%)| | | | | | | | | h2 >17400 : LM64 (27/13.9%)| | | | h22 >17400 :| | | | | h23 <= 18000 : LM65 (161/21.2%)| | | | | h23 >18000 : LM66 (63/25.9%)| | | h24 >17500 :| | | | h20 <= 17600 :| | | | | h18 <= 17500 :| | | | | | h24 <= 18300 : LM67 (97/18.5%)| | | | | | h24 >18300 :| | | | | | | h12 <= 18700 :| | | | | | | | h21 <= 17200 :| | | | | | | | | h12 <= 17700 : LM68 (11/4.25%)| | | | | | | | | h12 >17700 : LM69 (3/1.32%)| | | | | | | | h21 >17200 :| | | | | | | | | h15 <= 17400 : LM70 (6/9.26%)| | | | | | | | | h15 >17400 : LM71 (5/25.5%)| | | | | | | h12 >18700 :| | | | | | | | h23 <= 19200 :| | | | | | | | | h24 <= 18600 : LM72 (3/5.2%)| | | | | | | | | h24 >18600 : LM73 (9/5.38%)| | | | | | | | h23 >19200 : LM74 (4/12.1%)| | | | | h18 >17500 : LM75 (167/38%)| | | | h20 >17600 :| | | | | h24 <= 18300 : LM76 (115/17.9%)| | | | | h24 >18300 :| | | | | | h16 <= 18300 : LM77 (70/15.9%)| | | | | | h16 >18300 : LM78 (50/30.1%)| h20 >18300 :| | h24 <= 19200 :| | | h23 <= 19000 :| | | | h24 <= 18400 :| | | | | h12 <= 17600 : LM79 (76/32%)| | | | | h12 >17600 :| | | | | | h22 <= 18200 : LM80 (60/20.7%)

191

Page 216: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice A Árboles de Regresión

| | | | | | h22 >18200 : LM81 (121/20.9%)| | | | h24 >18400 :| | | | | h19 <= 19600 : LM82 (187/16.5%)| | | | | h19 >19600 :| | | | | | h20 <= 19400 : LM83 (10/51.2%)| | | | | | h20 >19400 :| | | | | | | h8 <= 20300 :| | | | | | | | h24 <= 18600 : LM84 (5/7.93%)| | | | | | | | h24 >18600 : LM85 (19/12%)| | | | | | | h8 >20300 : LM86 (14/22.7%)| | | h23 >19000 :| | | | h22 <= 20100 : LM87 (167/23.9%)| | | | h22 >20100 :| | | | | h13 <= 19400 :| | | | | | h5 <= 19400 : LM88 (11/35%)| | | | | | h5 >19400 : LM89 (6/29.1%)| | | | | h13 >19400 :| | | | | | h16 <= 21500 : LM90 (38/19.2%)| | | | | | h16 >21500 : LM91 (16/26%)| | h24 >19200 :| | | h23 <= 20400 : | | | | h2 <= 20700 :| | | | | h7 <= 20500 : LM92 (327/25.6%)| | | | | h7 >20500 :| | | | | | h16 <= 21400 :| | | | | | | h16 <= 20400 : LM93 (36/19.2%)| | | | | | | h16 >20400 : LM94 (20/26.6%)| | | | | | h16 >21400 : LM95 (26/10.8%)| | | | h2 >20700 :| | | | | h20 <= 19800 :| | | | | | h19 <= 19600 : LM96 (58/12.8%)| | | | | | h19 >19600 :| | | | | | | h17 <= 19700 : LM97 (22/24.6%)| | | | | | | h17 >19700 :| | | | | | | | h4 <= 21200 : LM98 (7/23.4%)| | | | | | | | h4 >21200 : LM99 (13/20.4%)| | | | | h20 >19800 : LM100 (196/17.3%)| | | h23 >20400 :| | | | h2 <= 20800 :| | | | | h7 <= 21000 : LM101 (53/33%)| | | | | h7 >21000 : LM102 (14/17.1%)| | | | h2 >20800 : LM103 (110/23.8%)

192

Page 217: Técnicas avanzadas de predicción y optimización aplicadas a ...

A.1 Sin selección de atributos

h24 >20300 :| h24 <= 22700 :| | h24 <= 21500 :| | | h24 <= 21000 :| | | | h23 <= 21000 :| | | | | h24 <= 20600 :| | | | | | h19 <= 21100 :| | | | | | | h2 <= 20200 :| | | | | | | | h4 <= 19300 : LM104 (39/17.7%)| | | | | | | | h4 >19300 : LM105 (30/33.5%)| | | | | | | h2 >20200 :| | | | | | | | h23 <= 20700 : LM106 (153/16.1%)| | | | | | | | h23 >20700 : LM107 (43/19.4%)| | | | | | h19 >21100 : LM108 (67/29.1%)| | | | | h24 >20600 :| | | | | | h20 <= 20500 :| | | | | | | h18 <= 20300 : LM109 (73/17.4%)| | | | | | | h18 >20300 :| | | | | | | | h20 <= 19700 : LM110 (15/12.1%)| | | | | | | | h20 >19700 :| | | | | | | | | h21 <= 20700 : LM111 (41/17.9%)| | | | | | | | | h21 >20700 : LM112 (11/6.85%)| | | | | | h20 >20500 :| | | | | | | h6 <= 21400 :| | | | | | | | h18 <= 21200 : LM113 (73/15.5%)| | | | | | | | h18 >21200 : LM114 (21/26%)| | | | | | | h6 >21400 : LM115 (126/12.9%)| | | | h23 >21000 : LM116 (221/35.9%)| | | h24 >21000 :| | | | h21 <= 21600 : LM117 (424/23.4%)| | | | h21 >21600 :| | | | | h13 <= 22800 : LM118 (172/24.9%)| | | | | h13 >22800 :| | | | | | h10 <= 23600 :| | | | | | | h1 <= 21900 : LM119 (15/31.6%)| | | | | | | h1 >21900 : LM120 (23/32.1%)| | | | | | h10 >23600 :| | | | | | | h12 <= 25000 : LM121 (17/11.8%)| | | | | | | h12 >25000 : LM122 (5/15%)

193

Page 218: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice A Árboles de Regresión

| | h24 >21500 :| | | h24 <= 22000 :| | | | h20 <= 22200 :| | | | | h18 <= 21900 : LM123 (324/20.2%)| | | | | h18 >21900 :| | | | | | h3 <= 21800 : LM124 (36/29.7%)| | | | | | h3 >21800 :| | | | | | | h13 <= 23200 : LM125 (70/16.7%)| | | | | | | h13 >23200 : LM126 (22/21.9%)| | | | h20 >22200 :| | | | | h23 <= 22400 :| | | | | | h18 <= 22100 :| | | | | | | h14 <= 22500 : LM127 (30/17.2%)| | | | | | | h14 >22500 : LM128 (8/6.82%)| | | | | | h18 >22100 : LM129 (113/17%)| | | | | h23 >22400 :| | | | | | h4 <= 21500 : LM130 (8/19.4%)| | | | | | h4 >21500 :| | | | | | | h14 <= 23400 : LM131 (22/13.7%)| | | | | | | h14 >23400 :| | | | | | | | h21 <= 22500 : LM132 (3/8.49%)| | | | | | | | h21 >22500 :| | | | | | | | | h21 <= 23100 : LM133 (3/2.01%)| | | | | | | | | h21 >23100 : LM134 (2/0.932%)| | | h24 >22000 :| | | | h23 <= 22600 :| | | | | h4 <= 23000 :| | | | | | h24 <= 22400 : LM135 (312/24.1%)| | | | | | h24 >22400 :| | | | | | | h7 <= 22500 :| | | | | | | | h23 <= 21700 : LM136 (20/15.3%)| | | | | | | | h23 >21700 : LM137 (78/25.5%)| | | | | | | h7 >22500 : LM138 (29/29.6%)| | | | | h4 >23000 : LM139 (194/16%)| | | | h23 >22600 :| | | | | h11 <= 22100 :| | | | | | h14 <= 20800 :| | | | | | | h14 <= 19900 :| | | | | | | | h2 <= 22200 : LM140 (2/2.63%)| | | | | | | | h2 >22200 : LM141 (3/5.07%)

194

Page 219: Técnicas avanzadas de predicción y optimización aplicadas a ...

A.1 Sin selección de atributos

| | | | | | | h14 >19900 :| | | | | | | | h19 <= 22000 : LM142 (4/9.12%)| | | | | | | | h19 >22000 : LM143 (7/17.3%)| | | | | | h14 >20800 :| | | | | | | h19 <= 22800 :| | | | | | | | h11 <= 21700 : LM144 (26/21.2%)| | | | | | | | h11 >21700 :| | | | | | | | | h20 <= 22300 : LM145 (10/10.1%)| | | | | | | | | h20 >22300 : LM146 (9/13.4%)| | | | | | | h19 >22800 : LM147 (14/36.9%)| | | | | h11 >22100 :| | | | | | h11 <= 23600 :| | | | | | | h14 <= 22300 : LM148 (24/26.8%)| | | | | | | h14 >22300 : LM149 (95/17.6%)| | | | | | h11 >23600 : LM150 (59/24.4%)| h24 >22700 : LM151 (1867/26.5%)

Figura A.1: Árbol de regresión con 151 reglas.

195

Page 220: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice A Árboles de Regresión

LM1: h25 = 12200 - 1.18e-4h1 - 0.291h2 + 0.0314h3 + 0.173h4 - 0.0657h5 -0.0565h6 - 0.00389h7 + 0.137h8 - 0.278h9 + 0.00702h10 - 0.298h11 + 0.261h12+ 0.00379h14 + 0.177h15 - 0.0243h18 - 0.0835h19 + 0.374h20 - 0.575h21 +0.716h22 + 0.0265h23 - 0.0543h24

LM2: h25 = 2040 - 0.154h1 - 0.0564h2 + 0.0314h3 + 0.296h4 + 0.192h5 -0.388h6 - 0.00389h7 + 0.168h8 - 0.267h9 + 0.00702h10 + 0.413h11 + 0.144h12+ 0.00379h14 + 0.108h15 - 0.0243h18 - 0.0475h19 + 0.602h20 - 0.171h21 +0.192h22 + 0.0265h23 - 0.154h24

LM3: h25 = 2670 - 0.154h1 - 0.0564h2 + 0.0314h3 + 0.296h4 + 0.192h5 -0.388h6 - 0.00389h7 + 0.168h8 - 0.267h9 + 0.00702h10 + 0.371h11 + 0.144h12+ 0.00379h14 + 0.108h15 - 0.0243h18 - 0.0475h19 + 0.602h20 - 0.171h21 +0.192h22 + 0.0265h23 - 0.154h24

LM4: h25 = 2670 - 0.154h1 - 0.0564h2 + 0.0314h3 + 0.296h4 + 0.192h5 -0.388h6 - 0.00389h7 + 0.168h8 - 0.267h9 + 0.00702h10 + 0.371h11 + 0.144h12+ 0.00379h14 + 0.108h15 - 0.0243h18 - 0.0475h19 + 0.602h20 - 0.171h21 +0.192h22 + 0.0265h23 - 0.154h24

LM5: h25 = 5690 - 0.154h1 - 0.0564h2 + 0.0314h3 + 0.296h4 + 0.192h5 -0.388h6 - 0.00389h7 + 0.168h8 - 0.267h9 + 0.00702h10 + 0.193h11 + 0.144h12+ 0.00379h14 + 0.108h15 - 0.0243h18 - 0.0475h19 + 0.602h20 - 0.171h21 +0.192h22 + 0.0265h23 - 0.154h24

LM6: h25 = 7530 - 0.128h1 - 0.114h2 + 0.0314h3 + 0.296h4 + 0.0427h5- 0.0813h6 - 0.00389h7 + 0.168h8 - 0.481h9 + 0.00702h10 - 0.0689h11 +0.144h12 + 0.00379h14 + 0.108h15 - 0.0243h18 - 0.0475h19 + 0.923h20 -0.171h21 + 0.192h22 + 0.0265h23 - 0.227h24

LM7: h25 = 9730 - 0.128h1 - 0.0842h2 + 0.0314h3 + 0.296h4 + 0.0174h5- 0.0813h6 - 0.00389h7 + 0.168h8 - 0.481h9 + 0.00702h10 - 0.0689h11 +0.144h12 + 0.00379h14 + 0.108h15 - 0.0243h18 - 0.0475h19 + 0.739h20 -0.171h21 + 0.192h22 + 0.0265h23 - 0.223h24

LM8: h25 = 9700 - 0.128h1 - 0.0842h2 + 0.0314h3 + 0.296h4 + 0.0213h5- 0.0813h6 - 0.00389h7 + 0.168h8 - 0.481h9 + 0.00702h10 - 0.0689h11 +0.144h12 + 0.00379h14 + 0.108h15 - 0.0243h18 - 0.0475h19 + 0.739h20 -0.171h21 + 0.192h22 + 0.0265h23 - 0.223h24

196

Page 221: Técnicas avanzadas de predicción y optimización aplicadas a ...

A.1 Sin selección de atributos

LM9: h25 = 4040 - 0.0504h1 - 0.205h2 + 0.0314h3 + 0.407h4 - 0.0328h5- 0.0943h6 - 0.00389h7 + 0.312h8 - 0.331h9 + 0.00702h10 - 0.0689h11 +0.144h12 + 0.00379h14 + 0.108h15 - 0.0243h18 - 0.241h19 + 0.757h20 -0.189h21 + 0.192h22 + 0.0265h23 - 0.00451h24

LM10: h25 = 4720 - 0.0504h1 - 0.205h2 + 0.0314h3 + 0.386h4 - 0.0328h5- 0.0943h6 - 0.00389h7 + 0.192h8 - 0.331h9 + 0.00702h10 - 0.0689h11 +0.144h12 + 0.00379h14 + 0.108h15 - 0.0243h18 - 0.176h19 + 0.781h20 -0.189h21 + 0.192h22 + 0.0265h23 - 0.00451h24

LM11: h25 = 4910 - 0.0504h1 - 0.205h2 + 0.0314h3 + 0.386h4 - 0.0328h5- 0.0943h6 - 0.00389h7 + 0.192h8 - 0.331h9 + 0.00702h10 - 0.0689h11 +0.144h12 + 0.00379h14 + 0.108h15 - 0.0243h18 - 0.176h19 + 0.774h20 -0.189h21 + 0.192h22 + 0.0265h23 - 0.00451h24

LM12: h25 = 7420 + 0.264h1 - 0.00996h2 + 0.0131h3 - 0.221h4 + 1.48e-4h5- 0.117h6 - 0.0367h7 - 0.0543h9 + 0.00702h10 + 0.0228h12 + 0.00379h14 +0.0282h15 + 0.0235h16 - 0.00995h17 - 0.0116h18 + 0.122h19 + 0.375h20 +0.0911h21 + 0.015h22 + 0.0117h23 + 0.0383h24

LM13: h25 = 4450 + 0.321h1 - 0.176h2 + 0.424h3 - 0.301h4 + 1.48e-4h5 - 0.129h6 - 0.0367h7 - 0.0543h9 + 0.00702h10 + 0.0228h12 + 0.00379h14+ 0.0282h15 + 0.0235h16 - 0.00995h17 - 0.0116h18 + 0.207h19 + 0.302h20 +0.0409h21 + 0.015h22 + 0.0117h23 + 0.0383h24

LM14: h25 = -8250 + 0.418h1 + 0.165h2 + 0.172h3 + 0.028h4 + 1.48e-4h5- 0.029h6 - 0.0367h7 - 0.0543h9 + 0.00702h10 + 0.0228h12 + 0.00379h14 +0.0282h15 + 0.0235h16 - 0.00995h17 - 0.0116h18 + 0.292h19 + 0.443h20 +0.0409h21 + 0.015h22 + 0.0117h23 + 0.0383h24

LM15: h25 = 15200 + 0.478h1 - 0.257h2 + 0.0131h3 - 0.485h4 + 1.48e-4h5 -0.0527h6 - 0.0367h7 - 0.0543h9 + 0.00702h10 + 0.0228h12 + 0.00379h14 +0.0282h15 + 0.0235h16 - 0.00995h17 - 0.0116h18 + 0.147h19 + 0.126h20 +0.0409h21 + 0.015h22 + 0.0117h23 + 0.0383h24

LM16: h25 = 15300 + 0.474h1 - 0.257h2 + 0.0131h3 - 0.485h4 + 1.48e-4h5 -0.0527h6 - 0.0367h7 - 0.0543h9 + 0.00702h10 + 0.0228h12 + 0.00379h14 +0.0282h15 + 0.0235h16 - 0.00995h17 - 0.0116h18 + 0.147h19 + 0.126h20 +0.0409h21 + 0.015h22 + 0.0117h23 + 0.0383h24

197

Page 222: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice A Árboles de Regresión

LM17: h25 = 15900 + 0.545h1 - 0.367h2 + 0.0131h3 - 0.485h4 + 1.48e-4h5 -0.0527h6 - 0.0367h7 - 0.0543h9 + 0.00702h10 + 0.0228h12 + 0.00379h14 +0.0282h15 + 0.0235h16 - 0.00995h17 - 0.0116h18 + 0.147h19 + 0.126h20 +0.0409h21 + 0.015h22 + 0.0117h23 + 0.0383h24

LM18: h25 = 9690 + 0.0223h1 - 0.0333h2 + 0.0451h3 + 0.00547h4 +0.157h5 - 0.0132h6 - 0.0223h7 - 0.245h8 - 0.0446h9 + 0.00702h10 + 0.239h11+ 0.0228h12 + 0.00379h14 + 0.00504h15 + 0.0206h16 - 0.00995h17 -0.0116h18 - 0.0116h19 + 0.119h20 - 0.221h21 + 0.159h22 + 0.0117h23 +0.169h24

LM19: h25 = 12500 + 0.0399h1 - 0.0662h2 + 0.09h3 + 0.00547h4 +1.48e-4h5 - 0.0318h6 - 0.0223h7 - 0.0446h9 + 0.00702h10 + 0.0228h12 +0.00379h14 - 0.0275h15 + 0.0368h16 - 0.00995h17 - 0.0116h18 - 0.0116h19 +0.182h20 - 0.0464h21 + 0.015h22 + 0.0117h23 + 0.077h24

LM20: h25 = 537 - 0.316h1 - 0.00996h2 + 0.0131h3 + 0.143h4 + 1.48e-4h5- 0.036h7 - 0.0699h9 + 0.00702h10 + 0.309h11 + 0.14h12 + 0.00379h14 +0.0652h15 - 0.034h17 - 0.0116h18 - 0.0116h19 + 0.0408h20 + 0.0435h22 +0.0117h23 + 0.652h24

LM21: h25 = -224 - 0.316h1 - 0.00592h2 + 0.0131h3 + 0.143h4 + 1.48e-4h5- 0.036h7 - 0.0699h9 + 0.00702h10 + 0.309h11 + 0.14h12 + 0.00379h14 +0.0652h15 - 0.034h17 - 0.0116h18 - 0.0116h19 + 0.0408h20 + 0.0435h22 +0.0117h23 + 0.698h24

LM22: h25 = -1020 - 0.342h1 - 0.00996h2 + 0.0131h3 + 0.255h4 +1.48e-4h5 - 0.036h7 - 0.0699h9 + 0.00702h10 + 0.445h11 + 0.14h12 +0.00379h14 + 0.0652h15 - 0.034h17 - 0.0116h18 - 0.0116h19 + 0.0408h20 +0.0435h22 + 0.0117h23 + 0.495h24

LM23: h25 = -69.6 - 0.304h1 - 0.00996h2 + 0.0131h3 + 0.153h4 + 1.48e-4h5- 0.036h7 - 0.0699h9 + 0.00702h10 + 0.463h11 + 0.14h12 + 0.00379h14 +0.0652h15 - 0.034h17 - 0.0116h18 - 0.0116h19 + 0.0408h20 + 0.0435h22 +0.0117h23 + 0.495h24

LM24: h25 = 12900 - 0.0863h1 - 0.00996h2 + 0.00483h3 + 0.00547h4+ 1.48e-4h5 - 0.036h7 - 0.0699h9 + 0.00702h10 - 0.0889h11 + 0.187h12 +0.00379h14 + 0.0652h15 - 0.034h17 + 0.144h18 - 0.0116h19 + 0.0408h20 -0.147h21 + 0.0435h22 + 0.0117h23 + 0.196h24

198

Page 223: Técnicas avanzadas de predicción y optimización aplicadas a ...

A.1 Sin selección de atributos

LM25: h25 = 12400 - 0.0863h1 - 0.00996h2 + 0.0131h3 + 0.00547h4 +0.0244h5 - 0.036h7 - 0.0699h9 + 0.00702h10 - 0.065h11 + 0.187h12 +0.00379h14 + 0.0652h15 - 0.034h17 + 0.124h18 - 0.0116h19 + 0.0408h20 -0.147h21 + 0.0435h22 + 0.0117h23 + 0.196h24

LM26: h25 = 13900 - 0.185h1 - 0.00996h2 + 0.0131h3 + 0.00547h4 +1.48e-4h5 - 0.036h7 - 0.0699h9 + 0.00702h10 + 0.187h12 + 0.00379h14 +0.0652h15 - 0.034h17 + 0.0717h18 - 0.0116h19 + 0.0408h20 - 0.147h21 +0.0435h22 + 0.0117h23 + 0.196h24

LM27: h25 = 9260 + 0.0338h1 - 0.00996h2 + 0.0131h3 + 0.00547h4 +1.48e-4h5 - 0.036h7 - 0.0699h9 + 0.00702h10 + 0.224h12 + 0.00379h14 +0.0652h15 - 0.034h17 - 0.0116h18 - 0.0116h19 + 0.0408h20 + 0.0435h22 +0.0117h23 + 0.196h24

LM28: h25 = 9520 + 0.0338h1 - 0.00996h2 + 0.0131h3 - 0.016h4 +1.48e-4h5 - 0.036h7 - 0.0699h9 + 0.00702h10 + 0.224h12 + 0.00379h14 +0.0652h15 - 0.034h17 - 0.0116h18 - 0.0116h19 + 0.0408h20 + 0.0435h22 +0.0117h23 + 0.196h24

LM29: h25 = 9200 + 0.0338h1 - 0.00996h2 + 0.0131h3 + 0.00547h4 +1.48e-4h5 - 0.036h7 - 0.0699h9 + 0.00702h10 + 0.224h12 + 0.00379h14 +0.0652h15 - 0.034h17 - 0.0116h18 - 0.0116h19 + 0.0408h20 + 0.0435h22 +0.0117h23 + 0.196h24

LM30: h25 = 13200 - 1.18e-4h1 + 0.0018h2 + 0.0305h3 - 0.0134h4 -0.0363h5 + 0.0146h7 - 0.0439h8 - 0.0177h9 + 0.0139h10 - 0.00642h11 +0.00532h12 + 0.045h13 - 0.00758h14 + 0.00203h15 - 0.0298h16 - 0.0499h18 -0.0248h19 + 0.143h20 + 0.0649h21 + 0.0282h22 - 0.0376h23 + 0.107h24

LM31: h25 = 14000 - 1.18e-4h1 + 0.0018h2 + 0.0305h3 - 0.0134h4 -0.0363h5 + 0.0146h7 - 0.035h8 - 0.0177h9 + 0.0139h10 - 0.00642h11 +0.00532h12 + 0.045h13 - 0.00758h14 + 0.00203h15 - 0.0298h16 - 0.0499h18 -0.0248h19 + 0.143h20 + 0.0649h21 + 0.0282h22 - 0.103h23 + 0.107h24

LM32: h25 = 12400 - 1.18e-4h1 + 0.0018h2 + 0.0305h3 - 0.0134h4 -0.0267h5 + 0.0146h7 - 0.00935h8 - 0.0177h9 + 0.0139h10 - 0.00642h11 +0.00532h12 + 0.0328h13 - 0.00758h14 + 0.00203h15 - 0.0298h16 - 0.0389h18 -0.0248h19 + 0.103h20 + 0.0649h21 + 0.0282h22 + 0.0204h23 + 0.107h24

199

Page 224: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice A Árboles de Regresión

LM33: h25 = -635 - 1.18e-4h1 + 0.0018h2 + 0.153h3 - 0.0188h4 - 0.218h5+ 0.192h7 - 0.0156h8 - 0.0177h9 + 0.0139h10 - 0.00642h11 + 0.00532h12 -0.0748h13 - 0.00758h14 + 0.00203h15 - 0.038h16 - 0.0324h18 - 0.0248h19 +0.0654h20 + 0.314h21 + 0.0282h22 + 0.216h23 + 0.53h24

LM34: h25 = 2470 + 0.0333h1 + 0.222h2 + 0.0273h3 - 5.5e-4h4 - 0.0252h5 +0.0129h7 + 0.00528h8 - 0.0177h9 + 0.0139h10 - 0.00642h11 + 0.00532h12 +0.00208h13 - 0.19h14 + 0.00203h15 - 0.0198h16 - 0.00872h18 - 0.0248h19 +0.0283h20 + 0.0484h21 + 0.152h22 + 0.463h23 + 0.111h24

LM35: h25 = 5590 - 1.18e-4h1 + 0.0891h2 + 0.0273h3 - 5.5e-4h4 -0.0252h5 + 0.0129h7 + 0.00528h8 - 0.0177h9 + 0.0139h10 - 0.00642h11 +0.00532h12 + 0.00208h13 - 0.19h14 + 0.00203h15 - 0.0198h16 - 0.00872h18 -0.0248h19 + 0.0283h20 + 0.0484h21 + 0.152h22 + 0.453h23 + 0.111h24

LM36: h25 = 5570 - 1.18e-4h1 + 0.0891h2 + 0.0273h3 - 5.5e-4h4 -0.0252h5 + 0.0129h7 + 0.00528h8 - 0.0177h9 + 0.0139h10 - 0.00642h11 +0.00532h12 + 0.00208h13 - 0.19h14 + 0.00203h15 - 0.0198h16 - 0.00872h18 -0.0248h19 + 0.0283h20 + 0.0484h21 + 0.152h22 + 0.453h23 + 0.111h24

LM37: h25 = 14800 + 0.126h1 + 0.221h2 + 0.142h3 - 5.5e-4h4 - 0.0252h5 +0.0129h7 + 0.00528h8 - 0.0177h9 + 0.0139h10 - 0.00642h11 + 0.00532h12 +0.00208h13 - 0.901h14 - 0.0846h15 - 0.0198h16 - 0.00872h18 - 0.0248h19 +0.0283h20 + 0.0484h21 + 0.152h22 + 0.335h23 + 0.111h24

LM38: h25 = 12400 + 0.126h1 + 0.221h2 + 0.162h3 - 5.5e-4h4 - 0.0252h5 +0.0129h7 + 0.00528h8 - 0.0177h9 + 0.0139h10 - 0.00642h11 + 0.00532h12 +0.00208h13 - 0.822h14 - 0.0483h15 - 0.0198h16 - 0.00872h18 - 0.0248h19 +0.0283h20 + 0.0484h21 + 0.152h22 + 0.335h23 + 0.111h24

LM39: h25 = 9680 + 0.159h1 + 0.254h2 + 0.172h3 - 5.5e-4h4 - 0.0252h5 +0.0129h7 + 0.00528h8 - 0.0177h9 + 0.0139h10 - 0.00642h11 + 0.00532h12+ 0.00208h13 - 0.67h14 - 0.107h15 - 0.0198h16 - 0.00872h18 - 0.0248h19 +0.0283h20 + 0.0484h21 + 0.152h22 + 0.335h23 + 0.111h24

LM40: h25 = 9360 + 0.175h1 + 0.254h2 + 0.172h3 - 5.5e-4h4 - 0.0252h5 +0.0129h7 + 0.00528h8 - 0.0177h9 + 0.0139h10 - 0.00642h11 + 0.00532h12+ 0.00208h13 - 0.67h14 - 0.107h15 - 0.0198h16 - 0.00872h18 - 0.0248h19 +0.0283h20 + 0.0484h21 + 0.152h22 + 0.335h23 + 0.111h24

200

Page 225: Técnicas avanzadas de predicción y optimización aplicadas a ...

A.1 Sin selección de atributos

LM41: h25 = 10600 - 0.0266h1 + 0.0675h2 + 0.0273h3 - 5.5e-4h4 - 0.0252h5+ 0.0129h7 + 0.00528h8 + 0.023h9 + 0.0139h10 - 0.00642h11 - 0.0263h12 +0.00208h13 - 0.0176h14 + 0.00203h15 - 0.0198h16 - 0.00872h18 - 0.0248h19 +0.0283h20 + 0.0484h21 + 0.16h22 + 0.00699h23 + 0.111h24

LM42: h25 = 9060 - 0.0266h1 + 0.0675h2 + 0.0273h3 - 5.5e-4h4 - 0.0252h5 +0.0671h7 + 0.00528h8 + 0.023h9 + 0.0139h10 - 0.00642h11 + 0.00532h12 +0.00208h13 - 0.0176h14 + 0.00203h15 - 0.0198h16 - 0.00872h18 - 0.0248h19 +0.0283h20 + 0.0484h21 + 0.16h22 + 0.00699h23 + 0.111h24

LM43: h25 = 8140 - 0.0372h1 + 0.0938h2 + 0.0273h3 - 5.5e-4h4 - 0.0252h5 +0.0129h7 + 0.00528h8 + 0.122h9 + 0.0139h10 - 0.00642h11 + 0.00532h12 +0.00208h13 - 0.0176h14 + 0.00203h15 - 0.0198h16 - 0.00872h18 - 0.0248h19 +0.0283h20 + 0.0484h21 + 0.16h22 + 0.00699h23 + 0.111h24

LM44: h25 = 8210 - 0.0372h1 + 0.0938h2 + 0.0273h3 - 5.5e-4h4 - 0.0252h5- 0.0046h6 + 0.0129h7 + 0.00528h8 + 0.122h9 + 0.0139h10 - 0.00642h11 +0.00532h12 + 0.00208h13 - 0.0176h14 + 0.00203h15 - 0.0198h16 - 0.00872h18- 0.0248h19 + 0.0283h20 + 0.0484h21 + 0.16h22 + 0.00699h23 + 0.111h24

LM45: h25 = 8090 - 0.0529h1 + 0.0938h2 + 0.0273h3 - 5.5e-4h4 - 0.0252h5 +0.0129h7 + 0.00528h8 + 0.143h9 + 0.0139h10 - 0.00642h11 + 0.00532h12 +0.00208h13 - 0.0176h14 + 0.00203h15 - 0.0198h16 - 0.00872h18 - 0.0248h19 +0.0283h20 + 0.0484h21 + 0.16h22 + 0.00699h23 + 0.111h24

LM46: h25 = 7750 - 1.18e-4h1 + 0.044h2 + 0.0114h3 - 5.5e-4h4 - 0.00711h5- 0.0996h7 + 0.0374h8 - 0.0498h9 + 0.0167h10 - 0.0379h11 + 0.08h12 +0.00208h13 + 0.0406h14 + 0.00203h15 + 0.0352h16 + 0.0416h17 - 0.00872h18- 0.0268h19 + 0.0854h20 + 0.0211h21 - 0.0343h22 - 0.0355h23 + 0.433h24

LM47: h25 = 8450 - 1.18e-4h1 + 0.044h2 - 0.0158h3 - 5.5e-4h4 - 0.00711h5- 0.0996h7 + 0.0374h8 - 0.0498h9 + 0.0167h10 - 0.0379h11 + 0.08h12 +0.00208h13 + 0.0303h14 + 0.00203h15 + 0.0352h16 + 0.0416h17 - 0.00872h18- 0.0268h19 + 0.0854h20 + 0.0211h21 - 0.0343h22 - 0.0355h23 + 0.433h24

LM48: h25 = 5400 - 1.18e-4h1 + 0.044h2 + 0.0114h3 - 5.5e-4h4 - 0.00711h5- 0.0996h7 + 0.0374h8 - 0.0498h9 + 0.0167h10 - 0.0379h11 + 0.08h12 +0.00208h13 + 0.00179h14 + 0.00203h15 + 0.0352h16 + 0.18h17 - 0.00872h18- 0.0268h19 + 0.0854h20 + 0.0211h21 - 0.0533h22 - 0.0355h23 + 0.517h24

201

Page 226: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice A Árboles de Regresión

LM49: h25 = 7440 - 1.18e-4h1 + 0.0161h2 + 0.0833h3 - 5.5e-4h4 - 0.00711h5- 0.128h7 + 0.0162h8 - 0.223h9 + 0.0167h10 - 0.06h11 + 0.168h12 - 0.0287h13+ 0.00179h14 + 0.00203h15 + 0.0542h16 + 0.102h17 - 0.00872h18 - 0.0268h19+ 0.15h20 + 0.0211h21 + 0.0163h22 - 0.0602h23 + 0.455h24

LM50: h25 = 14700 - 0.142h1 + 0.0161h2 + 0.434h3 - 5.5e-4h4 - 0.00711h5 -0.128h7 + 0.0162h8 - 0.654h9 + 0.0167h10 - 0.06h11 + 0.168h12 - 0.0287h13+ 0.00179h14 + 0.00203h15 + 0.0542h16 + 0.075h17 - 0.00872h18 - 0.0268h19+ 0.15h20 + 0.0211h21 + 0.0163h22 - 0.0602h23 + 0.272h24

LM51: h25 = 11800 + 0.0332h1 + 0.0408h2 + 0.0543h3 - 0.036h4 -0.00711h5 + 0.0533h6 - 0.12h7 + 0.0162h8 - 0.0468h9 + 0.0167h10 -0.0329h11 + 0.206h12 - 0.00882h13 - 0.063h14 + 0.00203h15 + 0.00286h16 -0.0294h17 - 0.00872h18 - 0.0268h19 + 0.0838h20 + 0.0211h21 + 0.0163h22 -0.0261h23 + 0.171h24

LM52: h25 = 11900 + 0.0332h1 + 0.0338h2 + 0.0543h3 - 0.036h4 -0.00711h5 + 0.0533h6 - 0.12h7 + 0.0162h8 - 0.0468h9 + 0.0167h10 -0.0329h11 + 0.206h12 - 0.00882h13 - 0.063h14 + 0.00203h15 + 0.00286h16 -0.0294h17 - 0.00872h18 - 0.0268h19 + 0.0838h20 + 0.0211h21 + 0.0163h22 -0.0261h23 + 0.171h24

LM53: h25 = 10700 + 0.0332h1 - 0.00799h2 + 0.0543h3 - 0.036h4 +0.0999h5 + 0.0533h6 - 0.12h7 + 0.0162h8 - 0.0468h9 + 0.0167h10 - 0.0329h11+ 0.206h12 - 0.00882h13 - 0.063h14 + 0.00203h15 + 0.00286h16 - 0.0294h17- 0.00872h18 - 0.0268h19 + 0.0838h20 + 0.0211h21 + 0.0163h22 - 0.0261h23+ 0.171h24

LM54: h25 = 13400 + 0.0322h1 - 0.00799h2 + 0.0543h3 - 0.0713h4 -0.00711h5 + 0.0854h6 - 0.12h7 + 0.0162h8 - 0.0468h9 + 0.0167h10 -0.0329h11 + 0.207h12 - 0.00882h13 - 0.063h14 + 0.00203h15 + 0.00286h16 -0.0294h17 - 0.00872h18 - 0.0268h19 + 0.0466h20 + 0.0211h21 + 0.0163h22 -0.0261h23 + 0.171h24

LM55: h25 = 13300 + 0.0322h1 - 0.00799h2 + 0.0543h3 - 0.0775h4 -0.00711h5 + 0.0548h6 - 0.12h7 + 0.0162h8 - 0.0468h9 + 0.0167h10 -0.0329h11 + 0.207h12 - 0.00882h13 - 0.063h14 + 0.00203h15 + 0.00286h16 -0.0294h17 - 0.00872h18 - 0.0268h19 + 0.0838h20 + 0.0211h21 + 0.0163h22 -0.0261h23 + 0.171h24

202

Page 227: Técnicas avanzadas de predicción y optimización aplicadas a ...

A.1 Sin selección de atributos

LM56: h25 = 7390 + 0.0691h1 - 0.00799h2 + 0.0543h3 - 0.036h4 - 0.00711h5 -0.12h7 + 0.0162h8 - 0.0468h9 + 0.0167h10 - 0.0329h11 + 0.176h12 + 0.325h13- 0.063h14 + 0.00203h15 + 0.00286h16 - 0.0294h17 - 0.00872h18 - 0.0268h19+ 0.0838h20 + 0.0211h21 + 0.0163h22 - 0.0261h23 + 0.171h24

LM57: h25 = 13800 + 0.107h1 - 0.00799h2 + 0.0543h3 - 0.036h4 - 0.00711h5- 0.177h7 + 0.0162h8 - 0.0468h9 + 0.0167h10 - 0.0329h11 + 0.25h12 -0.00882h13 - 0.134h14 + 0.00203h15 + 0.00286h16 - 0.0294h17 - 0.00872h18 -0.0268h19 + 0.0838h20 + 0.0211h21 + 0.0163h22 - 0.0261h23 + 0.171h24

LM58: h25 = 13900 + 0.0529h1 - 0.00799h2 + 0.0543h3 - 0.036h4 -0.00711h5 - 0.177h7 + 0.0162h8 - 0.0468h9 + 0.0167h10 + 0.0111h11 +0.25h12 - 0.00882h13 - 0.134h14 + 0.00203h15 + 0.00286h16 - 0.0294h17 -0.00872h18 - 0.0268h19 + 0.0838h20 + 0.0211h21 + 0.0163h22 - 0.0261h23 +0.171h24

LM59: h25 = 14100 + 0.0533h1 - 0.00799h2 + 0.0543h3 - 0.036h4 -0.00711h5 - 0.177h7 + 0.0162h8 - 0.0468h9 + 0.0167h10 + 7.48e-5h11 +0.25h12 - 0.00882h13 - 0.134h14 + 0.00203h15 + 0.00286h16 - 0.0294h17 -0.00872h18 - 0.0268h19 + 0.0838h20 + 0.0211h21 + 0.0163h22 - 0.0261h23 +0.171h24

LM60: h25 = 14200 + 0.0512h1 - 0.00799h2 + 0.0543h3 - 0.036h4 -0.00711h5 - 0.177h7 + 0.0162h8 - 0.0468h9 + 0.0167h10 + 7.48e-5h11 +0.25h12 - 0.00882h13 - 0.134h14 + 0.00203h15 + 0.00286h16 - 0.0294h17 -0.00872h18 - 0.0268h19 + 0.0838h20 + 0.0211h21 + 0.0163h22 - 0.0261h23 +0.171h24

LM61: h25 = 9570 + 0.0547h1 - 0.0551h2 + 0.0956h3 - 0.0893h4 -0.00711h5 + 0.0223h7 - 0.0223h8 - 0.0468h9 + 0.0167h10 - 0.0329h11 +0.0698h12 - 0.00882h13 + 0.00179h14 + 0.00203h15 + 6.24e-5h16 - 0.0294h17- 0.00872h18 + 0.0267h19 + 0.0838h20 + 0.0211h21 + 0.0163h22 + 0.164h23+ 0.171h24

LM62: h25 = 10300 + 0.0547h1 - 0.0551h2 + 0.0956h3 - 0.0893h4 -0.00711h5 + 0.0223h7 - 0.0223h8 - 0.0468h9 + 0.0167h10 - 0.0329h11 +0.0698h12 - 0.00882h13 + 0.00179h14 + 0.00203h15 + 6.24e-5h16 - 0.0294h17- 0.00872h18 + 0.0267h19 + 0.0838h20 + 0.0211h21 + 0.0163h22 + 0.126h23+ 0.171h24

203

Page 228: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice A Árboles de Regresión

LM63: h25 = 11000 + 0.0547h1 - 0.0978h2 + 0.0956h3 - 0.0893h4 - 0.00711h5+ 0.0223h7 - 0.0223h8 - 0.0468h9 + 0.0167h10 - 0.0329h11 + 0.0698h12 -0.00882h13 + 0.00179h14 + 0.00203h15 + 6.24e-5h16 - 0.0294h17 - 0.00872h18+ 0.0267h19 + 0.0838h20 + 0.0211h21 + 0.0163h22 + 0.126h23 + 0.171h24

LM64: h25 = 9860 + 0.0571h1 - 0.0614h2 + 0.101h3 - 0.0963h4 - 0.00711h5+ 0.0353h7 - 0.0278h8 - 0.0468h9 + 0.0167h10 - 0.0329h11 + 0.194h12 -0.00882h13 + 0.00179h14 + 0.00203h15 - 0.0606h16 - 0.0294h17 - 0.00872h18+ 0.0343h19 + 0.0838h20 + 0.0211h21 + 0.0163h22 + 0.0638h23 + 0.171h24

LM65: h25 = 3990 - 1.18e-4h1 - 0.128h2 + 0.00233h3 + 0.122h4 +1.48e-4h5 - 0.0042h7 + 0.264h8 - 0.264h9 + 0.00552h10 - 0.00445h11 +0.00532h12 + 0.00447h13 + 0.125h14 + 0.00203h15 - 0.138h16 - 0.0131h18 -0.405h19 + 0.483h20 + 0.0133h21 + 0.49h22 - 0.202h23 + 0.398h24

LM66: h25 = 7570 - 1.18e-4h1 + 0.0018h2 + 0.00233h3 - 5.5e-4h4 +1.48e-4h5 - 0.0042h7 + 0.0361h8 - 0.0141h9 + 0.00552h10 - 0.00445h11 +0.00532h12 + 0.00447h13 + 0.00179h14 + 0.00203h15 - 0.0258h16 - 0.0131h18- 0.0814h19 + 0.0808h20 + 0.0133h21 + 0.125h22 + 0.00994h23 + 0.463h24

LM67: h25 = 4850 - 1.18e-4h1 + 0.00621h2 + 0.00233h3 - 5.5e-4h4 +1.48e-4h5 + 0.0555h6 - 0.023h7 + 0.0017h8 - 0.123h9 + 0.0129h10 + 0.059h12- 0.0118h13 + 0.0177h14 + 0.171h15 - 0.018h16 - 0.0145h17 - 0.0119h18 -0.0247h19 + 0.0482h20 + 0.00274h21 - 0.0305h22 - 0.0184h23 + 0.626h24

LM68: h25 = 5740 - 1.18e-4h1 + 0.00621h2 + 0.00233h3 - 5.5e-4h4 +0.0166h5 - 0.0641h7 + 0.0017h8 - 0.0463h9 + 0.0129h10 + 0.206h12 -0.0118h13 + 0.0337h14 + 0.152h15 - 0.018h16 - 0.0145h17 - 0.0119h18 -0.0247h19 + 0.0482h20 - 0.112h21 - 0.0305h22 - 0.0184h23 + 0.558h24

LM69: h25 = 5890 - 1.18e-4h1 + 0.00621h2 + 0.00233h3 - 5.5e-4h4 +1.48e-4h5 - 0.0641h7 + 0.0017h8 - 0.0463h9 + 0.0129h10 + 0.214h12 -0.0118h13 + 0.0337h14 + 0.152h15 - 0.018h16 - 0.0145h17 - 0.0119h18 -0.0247h19 + 0.0482h20 - 0.112h21 - 0.0305h22 - 0.0184h23 + 0.558h24

LM70: h25 = 4140 - 1.18e-4h1 + 0.00621h2 + 0.00233h3 - 5.5e-4h4 +1.48e-4h5 - 0.0689h7 + 0.0017h8 - 0.0463h9 + 0.0129h10 + 0.188h12 -0.0118h13 + 0.0337h14 + 0.274h15 - 0.018h16 - 0.0145h17 - 0.0119h18 -0.0247h19 + 0.0482h20 - 0.112h21 - 0.0305h22 - 0.0184h23 + 0.558h24

204

Page 229: Técnicas avanzadas de predicción y optimización aplicadas a ...

A.1 Sin selección de atributos

LM71: h25 = 4120 - 1.18e-4h1 + 0.00621h2 + 0.00233h3 - 5.5e-4h4 + 1.48e-4h5 - 0.0689h7 + 0.0017h8 - 0.0463h9 + 0.0129h10 + 0.188h12 - 0.0118h13+ 0.0337h14 + 0.28h15 - 0.018h16 - 0.0145h17 - 0.0119h18 - 0.0247h19 +0.0482h20 - 0.112h21 - 0.0305h22 - 0.0184h23 + 0.558h24

LM72: h25 = 4770 - 1.18e-4h1 + 0.00621h2 + 0.00233h3 - 5.5e-4h4 +1.48e-4h5 - 0.023h7 + 0.0017h8 - 0.0463h9 + 0.0129h10 + 0.221h12 -0.0118h13 + 0.0337h14 + 0.0433h15 - 0.018h16 - 0.0145h17 - 0.0119h18 -0.0247h19 + 0.0482h20 - 0.145h21 - 0.0305h22 - 0.0184h23 + 0.724h24

LM73: h25 = 4780 - 1.18e-4h1 + 0.00621h2 + 0.00233h3 - 5.5e-4h4 + 1.48e-4h5 - 0.023h7 + 0.0017h8 - 0.0463h9 + 0.0129h10 + 0.221h12 - 0.0118h13+ 0.0337h14 + 0.0433h15 - 0.018h16 - 0.0145h17 - 0.0119h18 - 0.0247h19 +0.0482h20 - 0.145h21 - 0.0305h22 - 0.0184h23 + 0.724h24

LM74: h25 = 4020 - 1.18e-4h1 + 0.00621h2 + 0.00233h3 - 5.5e-4h4 +1.48e-4h5 - 0.023h7 + 0.0017h8 - 0.0463h9 + 0.0129h10 + 0.221h12 -0.0118h13 + 0.0337h14 + 0.0433h15 - 0.018h16 - 0.0145h17 - 0.0119h18 -0.0247h19 + 0.0482h20 - 0.145h21 - 0.0305h22 - 0.0184h23 + 0.767h24

LM75: h25 = 3180 - 1.18e-4h1 + 0.00621h2 + 0.291h3 - 0.29h4 + 1.48e-4h5- 0.0211h7 + 0.0017h8 - 0.0143h9 + 0.0129h10 + 0.324h12 - 0.448h13 +0.00179h14 + 0.508h15 - 0.0161h16 - 0.0122h17 - 0.0119h18 - 0.0247h19 +0.0482h20 + 0.00274h21 - 0.398h22 - 0.0147h23 + 0.848h24

LM76: h25 = 2490 + 0.00797h1 + 0.0158h2 + 0.105h3 - 0.107h4 +1.48e-4h5 - 0.0212h7 + 0.0017h8 - 0.0158h9 + 0.0249h10 + 0.0136h12 +0.00179h14 + 0.0111h15 - 0.124h16 - 0.00824h17 - 0.0136h18 - 0.0606h19 +0.0544h20 + 0.204h21 - 0.00928h22 + 0.00492h23 + 0.782h24

LM77: h25 = 8140 + 0.0291h1 + 0.0154h2 + 0.00233h3 - 0.0295h4 +1.48e-4h5 - 0.0208h7 + 0.0017h8 - 0.0158h9 + 0.0245h10 + 0.0136h12 +0.00179h14 + 0.0455h15 - 0.0345h16 - 0.00794h17 - 0.0136h18 - 0.115h19 +0.0544h20 + 0.00274h21 - 0.00928h22 - 0.129h23 + 0.74h24

LM78: h25 = 6530 + 0.0358h1 + 0.0154h2 + 0.00233h3 - 0.0351h4 +1.48e-4h5 - 0.0208h7 + 0.0017h8 - 0.0158h9 + 0.0245h10 + 0.0136h12 +0.00179h14 + 0.591h15 - 0.334h16 - 0.00794h17 - 0.0136h18 - 0.132h19 +0.0544h20 + 0.00274h21 - 0.00928h22 + 0.203h23 + 0.264h24

205

Page 230: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice A Árboles de Regresión

LM79: h25 = 2960 - 0.0411h1 + 0.0216h2 + 0.176h3 - 0.21h4 - 0.00105h5+ 0.0358h6 + 0.00628h7 + 0.0269h8 - 0.012h9 - 0.408h10 - 0.0303h11 +0.0385h12 + 0.00519h14 - 0.00485h15 + 0.3h16 - 0.00135h18 - 0.0945h19 +0.0517h20 + 0.00248h22 + 0.242h23 + 0.727h24

LM80: h25 = 3080 - 0.026h1 + 0.0916h2 + 0.0094h3 - 0.00987h4 - 0.00105h5+ 0.0205h6 + 0.00628h7 + 0.037h8 - 0.012h9 - 0.00939h10 - 0.0141h11 +0.0223h12 + 0.00519h14 - 0.00485h15 + 0.0177h16 - 0.00135h18 - 0.103h19 +0.0517h20 + 0.0612h22 + 0.328h23 + 0.358h24

LM81: h25 = 4230 - 0.0827h1 + 0.0117h2 + 0.0094h3 - 0.00987h4 - 0.00105h5+ 0.0205h6 + 0.00628h7 + 0.165h8 - 0.012h9 - 0.00939h10 - 0.0141h11 +0.0223h12 + 0.00519h14 - 0.00485h15 + 0.0177h16 - 0.00135h18 - 0.35h19 +0.0517h20 + 0.423h22 + 0.00942h23 + 0.515h24

LM82: h25 = 3190 - 0.0134h1 + 0.00309h2 + 0.0625h3 - 0.00646h4 -0.00105h5 + 0.00771h6 + 0.00628h7 - 0.0821h9 + 0.00132h10 + 0.00896h12 -0.0806h14 + 0.0838h15 + 0.00469h16 - 0.00135h18 - 0.0626h19 + 0.294h20 +0.00248h22 + 8.25e-4h23 + 0.601h24

LM83: h25 = 13900 - 0.0134h1 + 0.00309h2 + 0.0309h3 - 0.0943h4 -0.00105h5 + 0.00771h6 + 0.00628h7 + 0.141h8 - 0.0125h9 + 0.00132h10 +0.00896h12 + 0.00519h14 - 0.00485h15 + 0.00469h16 - 0.124h18 - 0.0982h19+ 0.283h20 + 0.00248h22 - 0.144h23 + 0.234h24

LM84: h25 = 5590 - 0.0134h1 + 0.00309h2 + 0.0309h3 - 0.053h4 - 0.00105h5+ 0.00771h6 + 0.00628h7 + 0.106h8 - 0.0125h9 + 0.00132h10 + 0.00896h12+ 0.00519h14 - 0.00485h15 + 0.00469h16 - 0.0902h17 - 0.124h18 - 0.0982h19+ 0.199h20 + 0.00248h22 + 0.0207h23 + 0.702h24

LM85: h25 = 5980 - 0.0134h1 + 0.00309h2 + 0.0309h3 - 0.053h4 - 0.00105h5+ 0.00771h6 + 0.00628h7 + 0.106h8 - 0.0125h9 + 0.00132h10 + 0.00896h12+ 0.00519h14 - 0.00485h15 + 0.00469h16 - 0.0971h18 - 0.0982h19 + 0.199h20+ 0.00248h22 - 0.0197h23 + 0.604h24

LM86: h25 = 7390 - 0.0134h1 + 0.00309h2 + 0.0309h3 - 0.053h4 - 0.00105h5+ 0.00771h6 + 0.00628h7 + 0.12h8 - 0.0125h9 + 0.00132h10 + 0.00896h12 +0.00519h14 - 0.00485h15 + 0.00469h16 - 0.059h18 - 0.0982h19 + 0.199h20 +0.00248h22 - 0.0774h23 + 0.543h24

206

Page 231: Técnicas avanzadas de predicción y optimización aplicadas a ...

A.1 Sin selección de atributos

LM87: h25 = 9110 - 0.116h1 + 0.00309h2 + 0.137h3 - 0.00209h4 - 0.00105h5+ 0.00229h6 + 0.028h7 - 0.00887h9 + 0.00132h10 + 7.18e-4h12 + 0.00969h14- 0.0101h15 + 0.0094h16 - 0.00135h18 - 0.221h19 + 0.0703h20 + 0.196h21 +0.00248h22 + 0.0364h23 + 0.395h24

LM88: h25 = 7960 - 0.0288h1 - 0.129h2 + 0.00702h3 - 0.00209h4 -0.00105h5 - 0.1h6 + 0.205h7 - 0.00887h9 + 0.00132h10 + 7.18e-4h12 +0.162h13 + 0.00969h14 - 0.0101h15 + 0.0094h16 - 0.145h18 - 0.0767h19 +0.401h20 + 0.00248h22 + 0.0601h23 + 0.23h24

LM89: h25 = 4740 - 0.0288h1 - 0.129h2 + 0.00702h3 - 0.00209h4 - 0.00105h5- 0.1h6 + 0.353h7 - 0.00887h9 + 0.00132h10 + 7.18e-4h12 + 0.162h13 +0.00969h14 - 0.0101h15 + 0.0094h16 - 0.145h18 - 0.0767h19 + 0.401h20 +0.00248h22 + 0.0601h23 + 0.23h24

LM90: h25 = 3550 - 0.0751h1 - 0.0583h2 + 0.00702h3 - 0.00209h4 +0.0388h5 - 0.0453h6 + 0.12h7 - 0.00887h9 + 0.00132h10 + 7.18e-4h12 +0.0752h13 + 0.00969h14 - 0.0101h15 + 0.0744h16 - 0.253h18 - 0.0767h19 +0.634h20 + 0.00248h22 + 0.0601h23 + 0.337h24

LM91: h25 = 7510 - 0.108h1 - 0.0583h2 + 0.00702h3 - 0.00209h4 +0.0671h5 - 0.0453h6 + 0.12h7 - 0.00887h9 + 0.00132h10 + 7.18e-4h12 +0.0752h13 + 0.00969h14 - 0.0101h15 + 0.121h16 - 0.146h18 - 0.0767h19 +0.337h20 + 0.00248h22 + 0.0601h23 + 0.296h24

LM92: h25 = 3440 - 0.00532h1 + 0.0157h2 + 0.0874h3 - 0.103h4 +0.00103h5 - 8.14e-4h6 + 0.0668h7 - 0.00355h9 + 0.00132h10 + 0.00489h11 -0.00259h12 + 7.12e-4h14 + 3.51e-4h15 - 0.00135h18 - 0.365h19 + 0.426h20 +0.00393h22 + 2.11e-5h23 + 0.699h24

LM93: h25 = 7440 - 0.00532h1 + 0.333h2 + 0.0074h3 - 0.332h4 + 0.00103h5- 8.14e-4h6 + 2.18e-4h7 + 0.149h8 - 0.00355h9 - 0.144h10 + 0.00489h11 +0.0768h12 - 0.334h14 + 0.238h15 - 0.0943h16 - 0.00135h18 - 0.093h19 +0.65h20 + 0.00393h22 + 2.11e-5h23 + 0.161h24

LM94: h25 = 14400 - 0.00532h1 + 1.18h2 + 0.0074h3 - 1.11h4 + 0.24h5 -8.14e-4h6 - 0.34h7 - 0.00355h9 + 0.00132h10 + 0.00489h11 + 0.0768h12 -0.0757h14 + 3.51e-4h15 - 0.137h16 - 0.00135h18 - 0.093h19 + 0.375h20 +0.00393h22 + 2.11e-5h23 + 0.161h24

207

Page 232: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice A Árboles de Regresión

LM95: h25 = 4840 - 0.00532h1 + 0.22h2 + 0.0074h3 - 0.259h4 + 0.00103h5+ 0.124h6 + 2.18e-4h7 - 0.00355h9 + 0.00132h10 + 0.00489h11 + 0.135h12- 0.132h14 + 3.51e-4h15 - 0.00135h18 - 0.093h19 + 0.268h20 + 0.128h22 +2.11e-5h23 + 0.346h24

LM96: h25 = 2270 - 0.00532h1 + 0.012h2 + 0.00854h3 - 0.0113h4 +0.00171h5 - 0.0018h6 + 2.18e-4h7 - 0.00355h9 + 0.00132h10 + 0.00579h11 -0.00329h12 - 0.0114h14 + 3.51e-4h15 + 0.171h17 - 0.0169h18 - 0.123h19 +0.179h20 + 0.00393h22 + 0.127h23 + 0.558h24

LM97: h25 = 9380 - 0.00532h1 + 0.012h2 + 0.00854h3 - 0.0113h4 + 0.00171h5- 0.0018h6 + 2.18e-4h7 - 0.00355h9 + 0.00132h10 + 0.00579h11 - 0.00329h12- 0.0114h14 + 3.51e-4h15 + 0.0188h17 - 0.0169h18 - 0.141h19 + 0.39h20 +0.00393h22 - 0.00121h23 + 0.28h24

LM98: h25 = 8990 - 0.00532h1 + 0.012h2 + 0.00854h3 - 0.0113h4 +0.00171h5 - 0.0018h6 + 2.18e-4h7 - 0.00355h9 + 0.00132h10 + 0.00579h11 -0.00329h12 - 0.0114h14 + 3.51e-4h15 + 0.0188h17 - 0.0169h18 - 0.141h19 +0.4h20 + 0.00393h22 - 0.00121h23 + 0.28h24

LM99: h25 = 6240 - 0.00532h1 + 0.012h2 + 0.00854h3 - 0.0113h4 +0.00171h5 - 0.0018h6 + 2.18e-4h7 - 0.00355h9 + 0.00132h10 + 0.00579h11 -0.00329h12 - 0.0114h14 + 3.51e-4h15 + 0.0188h17 - 0.0169h18 - 0.141h19 +0.536h20 + 0.00393h22 - 0.00121h23 + 0.28h24

LM100: h25 = 9450 - 0.00532h1 + 0.012h2 + 0.184h3 - 0.132h4 + 0.00171h5- 0.0018h6 + 2.18e-4h7 - 0.00355h9 + 0.00132h10 + 0.00579h11 - 0.00329h12- 0.0989h14 + 3.51e-4h15 + 0.26h17 - 0.186h18 - 0.0494h19 + 0.078h20 +0.00393h22 - 0.00121h23 + 0.463h24

LM101: h25 = 15200 - 0.236h1 + 0.272h2 + 0.113h3 - 0.174h4 - 0.0413h5 +0.0019h6 + 2.18e-4h7 - 0.0074h9 + 0.00132h10 + 0.00905h11 - 0.00448h12 +7.12e-4h14 + 3.51e-4h15 - 0.00135h18 - 0.509h19 + 0.666h20 + 0.00868h22 +0.0808h23 + 0.0627h24

LM102: h25 = 31100 - 1.13h1 + 0.448h2 + 0.253h3 - 0.393h4 - 0.0413h5+ 0.0019h6 + 2.18e-4h7 - 0.0074h9 - 0.917h10 + 0.00905h11 + 0.786h12 +7.12e-4h14 + 3.51e-4h15 - 0.00135h18 - 0.114h19 + 0.42h20 + 0.00868h22 +0.0808h23 + 0.0627h24

208

Page 233: Técnicas avanzadas de predicción y optimización aplicadas a ...

A.1 Sin selección de atributos

LM103: h25 = 7010 - 0.0628h1 + 0.0991h2 + 0.00917h3 - 0.0112h4 - 0.0274h5+ 0.0019h6 + 0.161h7 - 0.153h9 + 0.00132h10 + 0.00905h11 - 0.00448h12 +0.125h13 + 7.12e-4h14 + 3.51e-4h15 - 0.143h18 - 0.0895h19 + 0.0995h20 +0.00868h22 + 0.557h23 + 0.0627h24

LM104: h25 = 18200 - 0.0156h1 + 0.091h2 + 0.00181h3 - 0.00225h4 -0.0624h5 - 0.00991h6 + 0.00265h7 - 8.52e-4h8 - 0.00699h9 + 9.7e-4h10 +0.00621h11 + 7.41e-4h12 - 0.0221h14 + 0.0291h15 - 2.23e-4h17 - 0.00966h18 -0.0223h19 + 0.137h20 - 0.0896h21 + 1.31e-4h22 + 0.00577h23 + 0.0717h24

LM105: h25 = 15500 - 0.0156h1 + 0.101h2 + 0.00181h3 - 0.00225h4 - 0.0723h5- 0.00991h6 + 0.00265h7 - 8.52e-4h8 - 0.00699h9 + 9.7e-4h10 + 0.00621h11 +7.41e-4h12 - 0.0221h14 + 0.0291h15 - 2.23e-4h17 - 0.00966h18 - 0.0223h19 +0.519h20 - 0.102h21 + 1.31e-4h22 - 0.229h23 + 0.0717h24

LM106: h25 = 17400 - 0.00789h1 + 0.0225h2 + 0.00578h3 - 0.00784h4- 0.00507h5 - 0.00991h6 + 0.00265h7 - 8.52e-4h8 - 0.012h9 + 0.00555h10 +0.00621h11 + 0.00728h12 - 0.00812h13 - 0.0119h14 + 0.0177h15 + 0.0065h16- 2.23e-4h17 - 0.00966h18 - 0.0223h19 + 0.0542h20 - 0.0183h21 + 1.31e-4h22+ 0.00577h23 + 0.13h24

LM107: h25 = 15100 - 0.00789h1 + 0.0225h2 + 0.0133h3 - 0.0184h4 -0.00507h5 - 0.00991h6 + 0.00265h7 - 8.52e-4h8 - 0.0215h9 + 0.0142h10 +0.00621h11 + 0.0197h12 - 0.0235h13 - 0.0119h14 + 0.0177h15 + 0.0188h16 -2.23e-4h17 - 0.00966h18 - 0.0223h19 + 0.0542h20 - 0.0183h21 + 1.31e-4h22 +0.00577h23 + 0.241h24

LM108: h25 = 12500 - 0.226h1 + 0.38h2 + 0.00181h3 - 0.00225h4 +9.93e-5h5 - 0.0218h6 + 0.00265h7 - 0.219h8 - 0.00699h9 + 0.235h10 +0.00621h11 + 7.41e-4h12 - 0.0173h14 + 0.0285h15 - 2.23e-4h17 - 0.298h18 -0.0464h19 + 0.731h20 - 0.258h21 + 1.31e-4h22 + 0.00577h23 + 0.0717h24

LM109: h25 = 18100 - 0.00282h1 - 0.0875h2 + 0.0433h3 - 0.00936h4 +0.0064h5 - 0.0115h6 + 0.00265h7 - 0.00708h8 - 0.00677h9 - 0.00531h10 +0.02h11 + 7.41e-4h12 + 0.00256h15 + 0.0872h16 - 2.23e-4h17 - 0.0334h18 -0.0119h19 + 0.0206h20 - 0.00354h21 + 1.31e-4h22 + 0.00577h23 + 0.119h24

209

Page 234: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice A Árboles de Regresión

LM110: h25 = 16900 + 0.084h1 - 0.173h2 + 0.173h3 - 0.00936h4 + 0.0064h5- 0.0115h6 + 0.00265h7 - 0.00708h8 - 0.00677h9 - 0.00531h10 + 0.134h11 +7.41e-4h12 - 0.106h14 + 0.00256h15 - 2.23e-4h17 - 0.0356h18 - 0.0119h19 +0.0206h20 - 0.00354h21 + 1.31e-4h22 + 0.00577h23 + 0.119h24

LM111: h25 = 22600 - 0.139h1 - 0.0938h2 + 0.243h3 - 0.00936h4 + 0.0064h5- 0.0115h6 + 0.00265h7 - 0.00708h8 - 0.00677h9 - 0.00531h10 + 0.071h11 +7.41e-4h12 - 0.248h14 + 0.00256h15 - 2.23e-4h17 - 0.0356h18 - 0.0119h19 +0.0206h20 - 0.00354h21 + 1.31e-4h22 + 0.00577h23 + 0.119h24

LM112: h25 = 20100 - 0.0651h1 - 0.0938h2 + 0.158h3 - 0.00936h4 +0.0064h5 - 0.0115h6 + 0.00265h7 - 0.00708h8 - 0.00677h9 - 0.00531h10 +0.071h11 + 7.41e-4h12 - 0.118h14 + 0.00256h15 - 2.23e-4h17 - 0.0356h18 -0.0119h19 + 0.0206h20 - 0.00354h21 + 1.31e-4h22 + 0.00577h23 + 0.119h24

LM113: h25 = 21400 - 0.00282h1 + 0.0111h2 + 0.0103h3 - 0.0253h4 +0.0138h5 - 0.00926h6 + 0.00265h7 - 0.00496h8 - 0.00677h9 - 0.0341h10 +0.0152h11 + 0.0103h12 + 0.0171h13 + 0.00256h15 - 2.23e-4h17 - 0.0029h18 -0.151h19 + 0.0206h20 - 0.00354h21 + 1.31e-4h22 + 0.00577h23 + 0.102h24

LM114: h25 = 51100 - 0.194h1 + 0.312h2 + 0.0103h3 - 0.0253h4 +0.0138h5 - 0.00926h6 + 0.00265h7 - 0.00496h8 - 0.00677h9 - 0.298h10 +0.0152h11 + 0.0103h12 + 0.0419h13 + 0.00256h15 - 2.23e-4h17 - 0.0029h18 -0.0119h19 + 0.0206h20 - 0.00354h21 + 1.31e-4h22 + 0.00577h23 - 1.33h24

LM115: h25 = 7780 - 0.00282h1 + 0.0663h2 + 0.0103h3 - 0.0212h4 +0.0116h5 - 0.00926h6 - 0.105h7 + 0.0895h8 - 0.00677h9 - 0.0123h10 +0.0152h11 + 0.00816h12 + 0.00256h15 - 2.23e-4h17 - 0.0029h18 - 0.0119h19+ 0.0206h20 - 0.00354h21 + 1.31e-4h22 + 0.00577h23 + 0.566h24

LM116: h25 = 16800 - 0.167h1 + 0.22h2 + 0.00181h3 - 0.00225h4 +9.93e-5h5 - 0.249h6 + 0.214h7 - 8.52e-4h8 - 0.188h9 + 9.7e-4h10 + 0.00661h11+ 7.41e-4h12 + 0.25h14 + 0.00256h15 - 0.262h17 - 0.0029h18 - 0.281h19 +0.583h20 + 1.31e-4h22 + 0.0106h23 + 0.0617h24

LM117: h25 = 9570 - 0.00607h1 + 0.00844h2 + 0.163h3 - 0.153h4 +0.127h5 - 0.144h6 + 0.00574h7 - 8.52e-4h8 - 0.106h9 + 9.7e-4h10 +0.00111h11 + 7.41e-4h12 + 0.0912h15 - 2.23e-4h17 - 0.00827h18 - 0.00377h19+ 0.0118h20 + 0.00425h22 + 0.00417h23 + 0.55h24

210

Page 235: Técnicas avanzadas de predicción y optimización aplicadas a ...

A.1 Sin selección de atributos

LM118: h25 = 14200 - 0.0328h1 + 0.0394h2 + 0.00977h3 - 0.0095h4 +9.93e-5h5 - 0.038h6 + 0.103h7 - 8.52e-4h8 - 0.00291h9 + 9.7e-4h10 +0.00111h11 + 7.41e-4h12 + 0.011h14 + 0.0105h15 - 2.23e-4h17 - 0.216h18- 0.00377h19 + 0.387h20 + 0.0266h21 + 0.00746h22 + 0.00417h23 + 0.0283h24

LM119: h25 = 9740 - 0.599h1 + 0.752h2 + 0.00977h3 - 0.156h4 +9.93e-5h5 - 0.0744h6 + 0.0603h7 - 8.52e-4h8 - 0.00291h9 + 9.7e-4h10 +0.00111h11 + 7.41e-4h12 + 0.681h14 + 0.0105h15 - 0.0847h17 - 0.2h18 -0.00377h19 + 0.0148h20 + 0.0663h21 + 0.00746h22 + 0.00417h23 + 0.0283h24

LM120: h25 = 16000 - 1.11h1 + 1.28h2 + 0.00977h3 - 0.125h4 + 9.93e-5h5- 0.0744h6 + 0.0603h7 - 8.52e-4h8 - 0.00291h9 + 9.7e-4h10 + 0.00111h11 +7.41e-4h12 + 0.324h14 + 0.0105h15 - 0.0847h17 - 0.169h18 - 0.00377h19 +0.0148h20 + 0.0663h21 + 0.00746h22 + 0.00417h23 + 0.0283h24

LM121: h25 = 15400 - 0.383h1 + 0.409h2 + 0.00977h3 - 0.0095h4 +9.93e-5h5 - 0.0744h6 + 0.0603h7 - 8.52e-4h8 - 0.00291h9 + 9.7e-4h10 +0.00111h11 + 0.0638h12 + 0.237h14 + 0.0105h15 - 0.121h17 - 0.0544h18 -0.00377h19 + 0.0148h20 + 0.0663h21 + 0.00746h22 + 0.00417h23 + 0.0283h24

LM122: h25 = 14600 - 0.383h1 + 0.409h2 + 0.00977h3 - 0.0095h4 +9.93e-5h5 - 0.0744h6 + 0.0603h7 - 8.52e-4h8 - 0.00291h9 + 9.7e-4h10 +0.00111h11 + 0.102h12 + 0.237h14 + 0.0105h15 - 0.121h17 - 0.0544h18 -0.00377h19 + 0.0148h20 + 0.0663h21 + 0.00746h22 + 0.00417h23 + 0.0283h24

LM123: h25 = 4020 - 6.67e-4h1 + 5.6e-4h2 + 0.108h3 - 0.118h4 - 0.089h5+ 0.0636h6 + 0.00545h7 - 0.00558h8 - 0.0802h9 + 0.176h10 - 0.119h11 +0.0981h12 - 0.0792h14 + 0.00679h15 - 2.23e-4h17 - 0.0116h18 - 0.00175h19 +0.101h20 + 1.31e-4h22 + 0.00431h23 + 0.757h24

LM124: h25 = 25800 + 0.0326h1 + 5.6e-4h2 + 0.0757h3 - 0.0709h4 +9.93e-5h5 + 0.034h6 + 0.00545h7 - 0.00558h8 - 0.0675h9 + 0.0162h10 -0.00396h11 + 0.0055h12 - 0.0148h14 + 0.0117h15 - 2.23e-4h17 - 0.0854h18 -0.00175h19 + 0.0105h20 - 0.299h21 - 0.0816h22 + 0.101h23 + 0.127h24

LM125: h25 = 16900 + 0.0152h1 + 5.6e-4h2 + 0.0495h3 - 0.0469h4 +9.93e-5h5 + 0.0167h6 + 0.139h7 - 0.00558h8 - 0.187h9 + 0.0162h10 -0.00396h11 + 0.0055h12 + 0.139h13 - 0.0148h14 + 0.0117h15 - 2.23e-4h17 -0.309h18 - 0.00175h19 + 0.0105h20 - 0.0388h22 + 0.299h23 + 0.127h24

211

Page 236: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice A Árboles de Regresión

LM126: h25 = 17700 + 0.0152h1 + 5.6e-4h2 + 0.0495h3 - 0.0469h4 +9.93e-5h5 + 0.0167h6 + 0.061h7 - 0.00558h8 - 0.116h9 - 0.253h10 + 0.342h11+ 0.0055h12 - 0.0148h14 + 0.0117h15 - 2.23e-4h17 - 0.05h18 - 0.00175h19 +0.0105h20 - 0.0388h22 + 0.0504h23 + 0.127h24

LM127: h25 = 17600 - 0.0427h1 + 5.6e-4h2 + 0.0151h3 - 0.0931h4 +0.0805h5 + 0.00269h6 + 0.0644h7 - 0.078h8 + 0.16h9 + 0.00944h10 -0.00655h11 + 0.00874h12 - 0.00616h14 + 0.00588h15 - 2.23e-4h17 - 0.0119h18- 0.00175h19 + 0.0163h20 + 1.31e-4h22 + 0.0084h23 + 0.0746h24

LM128: h25 = 19300 - 0.0829h1 + 5.6e-4h2 + 0.0151h3 - 0.0931h4 +0.0805h5 + 0.00269h6 + 0.0644h7 - 0.078h8 + 0.117h9 + 0.00944h10 -0.00655h11 + 0.00874h12 - 0.00616h14 + 0.00588h15 - 2.23e-4h17 - 0.0119h18- 0.00175h19 + 0.0163h20 + 1.31e-4h22 + 0.0084h23 + 0.0746h24

LM129: h25 = 20100 - 6.67e-4h1 + 5.6e-4h2 + 0.0151h3 - 0.0624h4 + 0.0462h5+ 0.00269h6 + 0.271h7 - 0.316h8 - 0.00584h9 + 0.00944h10 - 0.00655h11 +0.00874h12 - 0.00616h14 + 0.00588h15 - 2.23e-4h17 + 0.181h18 - 0.00175h19- 0.146h20 + 1.31e-4h22 + 0.0084h23 + 0.0746h24

LM130: h25 = 14100 - 6.67e-4h1 + 5.6e-4h2 + 0.0151h3 - 0.0858h4 +0.0685h5 + 0.00269h6 + 0.00779h7 - 0.21h8 + 0.472h9 + 0.00944h10 -0.00655h11 + 0.00874h12 - 0.00616h14 + 0.00588h15 - 2.23e-4h17 - 0.0119h18- 0.00175h19 + 0.0163h20 + 1.31e-4h22 + 0.0084h23 + 0.0746h24

LM131: h25 = 19300 - 6.67e-4h1 + 5.6e-4h2 + 0.0151h3 - 0.0858h4 +0.0685h5 + 0.00269h6 + 0.00779h7 - 0.112h8 + 0.13h9 + 0.00944h10 -0.00655h11 + 0.00874h12 - 0.00616h14 + 0.00588h15 - 2.23e-4h17 - 0.0119h18- 0.00175h19 + 0.0163h20 + 1.31e-4h22 + 0.0084h23 + 0.0746h24

LM132: h25 = 19200 - 6.67e-4h1 + 5.6e-4h2 + 0.0151h3 - 0.0858h4 +0.0685h5 + 0.00269h6 + 0.00779h7 - 0.112h8 + 0.13h9 + 0.00944h10 -0.00655h11 + 0.00874h12 - 0.00616h14 + 0.00588h15 - 2.23e-4h17 - 0.0119h18- 0.00175h19 + 0.0163h20 + 1.31e-4h22 + 0.0084h23 + 0.0746h24

LM133: h25 = 19300 - 6.67e-4h1 + 5.6e-4h2 + 0.0151h3 - 0.0858h4 +0.0685h5 + 0.00269h6 + 0.00779h7 - 0.112h8 + 0.13h9 + 0.00944h10 -0.00655h11 + 0.00874h12 - 0.00616h14 + 0.00588h15 - 2.23e-4h17 - 0.0119h18- 0.00175h19 + 0.0163h20 + 1.31e-4h22 + 0.0084h23 + 0.0746h24

212

Page 237: Técnicas avanzadas de predicción y optimización aplicadas a ...

A.1 Sin selección de atributos

LM134: h25 = 19300 - 6.67e-4h1 + 5.6e-4h2 + 0.0151h3 - 0.0858h4 + 0.0685h5+ 0.00269h6 + 0.00779h7 - 0.112h8 + 0.13h9 + 0.00944h10 - 0.00655h11 +0.00874h12 - 0.00616h14 + 0.00588h15 - 2.23e-4h17 - 0.0119h18 - 0.00175h19+ 0.0163h20 + 1.31e-4h22 + 0.0084h23 + 0.0746h24

LM135: h25 = 20200 - 6.67e-4h1 + 5.6e-4h2 + 0.113h3 - 0.151h4 + 9.93e-5h5- 6.19e-4h6 + 0.0102h7 - 0.00867h8 + 0.00436h9 - 0.00263h10 - 0.0015h11 +0.00423h12 - 0.0021h13 - 0.152h14 + 0.196h15 - 2.23e-4h17 - 0.00285h18 -0.00175h19 + 0.0054h20 - 0.00474h21 + 1.31e-4h22 + 0.00113h23 + 0.0803h24

LM136: h25 = 23300 - 6.67e-4h1 + 5.6e-4h2 + 0.0197h3 - 0.0939h4 +9.93e-5h5 + 0.0432h6 + 0.0158h7 - 0.0142h8 + 0.0114h9 - 0.0285h10 -0.052h11 + 0.00423h12 - 0.0021h13 - 0.0165h14 + 0.101h15 - 0.0159h17 -0.00285h18 - 0.00175h19 + 0.0351h20 - 0.036h21 + 1.31e-4h22 - 0.113h23 +0.109h24

LM137: h25 = 21400 - 6.67e-4h1 + 5.6e-4h2 + 0.0197h3 - 0.0639h4 + 9.93e-5h5 + 0.0159h6 + 0.0158h7 - 0.0142h8 + 0.0114h9 - 0.0285h10 - 0.0205h11+ 0.00423h12 - 0.0021h13 - 0.0165h14 + 0.074h15 - 0.0159h17 - 0.00285h18 -0.00175h19 + 0.0351h20 - 0.036h21 + 1.31e-4h22 - 0.0419h23 + 0.109h24

LM138: h25 = 1840 - 6.67e-4h1 + 0.496h2 + 0.0197h3 - 0.0669h4 +9.93e-5h5 - 6.19e-4h6 + 0.0158h7 - 0.0142h8 + 0.0114h9 - 0.059h10 -0.0015h11 + 0.00423h12 - 0.0021h13 - 0.0165h14 + 0.446h15 - 0.0405h17 -0.00285h18 - 0.00175h19 + 0.0818h20 - 0.0753h21 + 1.31e-4h22 + 0.00113h23+ 0.109h24

LM139: h25 = 6280 - 6.67e-4h1 + 5.6e-4h2 + 0.0128h3 - 0.018h4 + 9.93e-5h5- 6.19e-4h6 + 0.00588h7 - 0.0044h8 - 0.00101h9 + 0.00223h10 - 0.0015h11 +0.00423h12 - 0.0021h13 - 0.00572h14 + 0.0111h15 - 2.23e-4h17 - 0.00285h18- 0.00175h19 + 0.0054h20 + 0.0784h21 + 1.31e-4h22 + 0.00113h23 + 0.632h24

LM140: h25 = 7840 - 6.67e-4h1 + 5.6e-4h2 + 0.00986h3 - 0.0413h4 +9.93e-5h5 - 6.19e-4h6 + 0.00993h7 - 0.2h8 - 0.0395h9 + 0.373h10 - 0.341h11+ 0.061h12 - 0.054h13 + 1.08h14 - 0.0239h15 - 2.23e-4h17 - 0.00285h18 -0.248h19 + 0.0054h20 + 0.0306h21 + 1.31e-4h22 + 0.00113h23 + 0.0554h24

213

Page 238: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice A Árboles de Regresión

LM141: h25 = 7880 - 6.67e-4h1 + 5.6e-4h2 + 0.00986h3 - 0.0413h4 +9.93e-5h5 - 6.19e-4h6 + 0.00993h7 - 0.2h8 - 0.0395h9 + 0.373h10 - 0.341h11+ 0.061h12 - 0.054h13 + 1.08h14 - 0.0239h15 - 2.23e-4h17 - 0.00285h18 -0.248h19 + 0.0054h20 + 0.0306h21 + 1.31e-4h22 + 0.00113h23 + 0.0554h24

LM142: h25 = 13700 - 6.67e-4h1 + 0.108h2 + 0.00986h3 - 0.0413h4 +9.93e-5h5 - 6.19e-4h6 + 0.00993h7 - 0.2h8 - 0.0395h9 + 0.373h10 - 0.341h11+ 0.061h12 - 0.054h13 + 0.923h14 - 0.0239h15 - 2.23e-4h17 - 0.00285h18 -0.45h19 + 0.0054h20 + 0.0306h21 + 1.31e-4h22 + 0.00113h23 + 0.0554h24

LM143: h25 = 14000 - 6.67e-4h1 + 0.0605h2 + 0.00986h3 - 0.0413h4 +9.93e-5h5 - 6.19e-4h6 + 0.00993h7 - 0.2h8 - 0.0395h9 + 0.373h10 - 0.341h11+ 0.061h12 - 0.054h13 + 0.923h14 - 0.0239h15 - 2.23e-4h17 - 0.00285h18 -0.423h19 + 0.0054h20 + 0.0306h21 + 1.31e-4h22 + 0.00113h23 + 0.0554h24

LM144: h25 = 22600 - 6.67e-4h1 + 5.6e-4h2 + 0.00986h3 - 0.0413h4 -0.0255h5 - 6.19e-4h6 + 0.00993h7 - 0.171h8 - 0.0395h9 + 0.431h10 - 0.348h11+ 0.061h12 - 0.054h13 + 0.225h14 - 0.0239h15 - 2.23e-4h17 - 0.00285h18 -0.134h19 + 0.0054h20 + 0.0306h21 + 1.31e-4h22 + 0.00113h23 + 0.0554h24

LM145: h25 = 24700 - 6.67e-4h1 + 5.6e-4h2 + 0.00986h3 - 0.0413h4 -0.0308h5 - 6.19e-4h6 + 0.00993h7 - 0.171h8 - 0.0395h9 + 0.352h10 - 0.365h11+ 0.061h12 - 0.054h13 + 0.225h14 - 0.0239h15 - 2.23e-4h17 - 0.00285h18 -0.134h19 + 0.0054h20 + 0.0306h21 + 1.31e-4h22 + 0.00113h23 + 0.0554h24

LM146: h25 = 22600 - 6.67e-4h1 + 5.6e-4h2 + 0.00986h3 - 0.0413h4 -0.0308h5 - 6.19e-4h6 + 0.00993h7 - 0.171h8 - 0.0395h9 + 0.441h10 - 0.365h11+ 0.061h12 - 0.054h13 + 0.225h14 - 0.0239h15 - 2.23e-4h17 - 0.00285h18 -0.134h19 + 0.0054h20 + 0.0306h21 + 1.31e-4h22 + 0.00113h23 + 0.0554h24

LM147: h25 = 30400 - 6.67e-4h1 + 0.171h2 + 0.00986h3 - 0.0413h4 +9.93e-5h5 - 6.19e-4h6 + 0.00993h7 - 0.65h8 - 0.0395h9 + 0.361h10 - 0.369h11+ 0.061h12 - 0.054h13 + 0.225h14 - 0.0239h15 - 2.23e-4h17 - 0.00285h18 -0.134h19 + 0.0054h20 + 0.0306h21 + 1.31e-4h22 + 0.00113h23 + 0.0554h24

LM148: h25 = 21200 - 6.67e-4h1 + 5.6e-4h2 + 0.00986h3 - 0.138h4 +0.0763h5 + 0.0144h6 + 0.00993h7 - 0.00718h8 - 0.0189h9 + 0.0441h10 -0.0252h11 + 0.0502h12 - 0.0279h13 + 0.101h14 - 0.423h15 + 0.0944h16 -0.038h17 - 0.00285h18 - 0.0249h19 + 0.0054h20 + 0.0143h21 + 1.31e-4h22 +0.0706h23 + 0.26h24

214

Page 239: Técnicas avanzadas de predicción y optimización aplicadas a ...

A.2 Con selección de atributos

LM149: h25 = 15400 - 6.67e-4h1 + 5.6e-4h2 + 0.00986h3 - 0.0835h4 +0.0271h5 + 0.0144h6 + 0.00993h7 - 0.00718h8 - 0.0189h9 + 0.0441h10 -0.0252h11 + 0.0502h12 - 0.0279h13 + 0.0672h14 - 0.0455h15 + 0.0504h16 -0.038h17 - 0.00285h18 - 0.0249h19 + 0.0054h20 + 0.0143h21 + 0.0908h22 +0.0706h23 + 0.128h24

LM150: h25 = 5190 - 6.67e-4h1 + 5.6e-4h2 + 0.00986h3 - 0.196h4 +9.93e-5h5 + 0.0266h6 + 0.00993h7 - 0.00718h8 - 0.0189h9 + 0.0441h10 -0.0252h11 + 0.0648h12 - 0.0279h13 + 0.0485h14 - 0.0105h15 + 0.0475h16 -0.0686h17 - 0.00285h18 - 0.406h19 + 0.0054h20 + 0.453h21 + 1.31e-4h22 +0.768h23 + 0.0554h24

LM151: h25 = 1230 - 0.0495h1 + 0.0815h3 - 0.163h4 + 0.0619h5 +0.0426h7 - 3.28e-4h8 - 6.42e-4h9 + 0.0645h10 - 0.0638h11 + 4.76e-4h12 +0.126h15 - 0.0522h16 - 0.0859h17 - 6.56e-4h18 - 0.0688h19 + 0.158h20 -0.079h22 + 3.76e-4h23 + 0.971h24

Figura A.2: Modelos lineales en cada hoja del árbol de regresión formado por151 reglas.

A.2. Con selección de atributosLa figura A.3 muestra el árbol de regresión obtenido tras una ejecución

del algoritmo M5’ con previa selección de atributos. La figura A.4 muestra losmodelos lineales obtenidos en cada hoja del árbol. Para obtener este árbol sehan usado 8280 ejemplos de entrenamiento y el número de ejemplos de test hasido 3072. El número de reglas obtenido con este árbol es 53 que han cometidoen la predicción un 11 % de error.

215

Page 240: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice A Árboles de Regresión

h24 <= 20300 :| h20 <= 18300 :| | h20 <= 16100 :| | | h20 <= 14600 : LM1 (99/45.6%)| | | h20 >14600 : LM2 (345/48.3%)| | h20 >16100 :| | | h24 <= 17500 :| | | | h23 <= 17500 :| | | | | h24 <= 16700 :| | | | | | h23 <= 17000 : LM3 (241/34.3%)| | | | | | h23 >17000 : LM4 (74/25.1%)| | | | | h24 >16700 : LM5 (252/28.5%)| | | | h23 >17500 : LM6 (154/31.9%)| | | h24 >17500 :| | | | h20 <= 17600 :| | | | | h23 <= 17600 : LM7 (83/18.3%)| | | | | h23 >17600 : LM8 (222/50.3%)| | | | h20 >17600 :| | | | | h24 <= 18300 : LM9 (115/21.1%)| | | | | h24 >18300 : LM10 (120/33%)| h20 >18300 :| | h24 <= 19200 :| | | h23 <= 19000 :| | | | h24 <= 18400 :| | | | | h23 <= 18200 : LM11 (158/35%)| | | | | h23 >18200 : LM12 (99/27.7%)| | | | h24 >18400 : LM13 (235/23.5%)| | | h23 >19000 : LM14 (238/33.3%)| | h24 >19200 :| | | h23 <= 20400 : LM15 (705/29.6%)| | | h23 >20400 : LM16 (177/45.1%)h24 >20300 :| h24 <= 22700 :| | h24 <= 21500 :| | | h24 <= 21000 :| | | | h23 <= 21000 :| | | | | h24 <= 20600 : LM17 (332/26.4%)| | | | | h24 >20600 : LM18 (360/20.9%)| | | | h23 >21000 :| | | | | h20 <= 21700 :| | | | | | h24 <= 20800 : LM19 (78/27.2%)

216

Page 241: Técnicas avanzadas de predicción y optimización aplicadas a ...

A.2 Con selección de atributos

| | | | | | h24 >20800:| | | | | | | h20 <= 21400:| | | | | | | | h24 <= 20900:| | | | | | | | | h23 <= 21000 : LM20 (3/36.2%)| | | | | | | | | h23 >21000 : LM21 (10/41.9%)| | | | | | | | h24 >20900 : LM22 (43/48.7%)| | | | | | | h20 >21400 : LM23 (21/22%)| | | | | h20 >21700 : LM24 (66/29.7%)| | | h24 >21000 :| | | | h23 <= 21700 : LM25 (524/26.8%)| | | | h23 >21700 :| | | | | h20 <= 22300 : LM26 (82/35.8%)| | | | | h20 >22300 : LM27 (50/28.6%)| | h24 >21500 :| | | h24 <= 22000 :| | | | h20 <= 22200 : LM28 (452/25.2%)| | | | h20 >22200 : LM29 (189/23.8%)| | | h24 >22000 :| | | | h23 <= 22600 : LM30 (633/24.5%)| | | | h23 >22600 :| | | | | h23 <= 23200 :| | | | | | h24 <= 22300:| | | | | | | h24 <= 22100:| | | | | | | | h20 <= 22500 : LM31 (6/60.7%)| | | | | | | | h20 >22500 : LM32 (8/18.2%)| | | | | | | h24 >22100 : LM33 (30/31.7%)| | | | | | h24 >22300 : LM34 (156/24.5%)| | | | | h23 >23200 : LM35 (53/61.6%)| h24 >22700 :| | h24 <= 24300 :| | | h24 <= 23400 :| | | | h24 <= 23100 :| | | | | h23 <= 23100 : LM36 (292/19.5%)| | | | | h23 >23100 :| | | | | | h24 <= 22800:| | | | | | | h20 <= 23500 : LM37 (19/37.1%)| | | | | | | h20 >23500 : LM38 (9/32.6%)| | | | | | h24 >22800 : LM39 (105/27%)| | | | h24 >23100 : LM40 (236/30.5%)

217

Page 242: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice A Árboles de Regresión

| | | h24 >23400 :| | | | h24 <= 23800 :| | | | | h23 <= 23900 : LM41 (249/24%)| | | | | h23 >23900 : LM42 (64/38.1%)| | | | h24 >23800 : LM43 (319/25.2%)| | h24 >24300 :| | | h24 <= 25900 :| | | | h24 <= 24900 :| | | | | h23 <= 25000 : LM44 (168/26.3%)| | | | | h23 >25000 :| | | | | | h23 <= 25600 : LM45 (34/27%)| | | | | | h23 >25600 :| | | | | | | h23 <= 25700 : LM46 (4/20.5%)| | | | | | | h23 >25700 : LM47 (5/23.6%)| | | | h24 >24900 :| | | | | h24 <= 25400 : LM48 (139/26.2%)| | | | | h24 >25400 :| | | | | | h23 <= 26000 : LM49 (71/23%)| | | | | | h23 >26000:| | | | | | | h23 <= 26600:| | | | | | | | h20 <= 25100 : LM50 (4/25.2%)| | | | | | | | h20 >25100 : LM51 (11/12.5%)| | | | | | | h23 >26600 : LM52 (4/9.88%)| | | h24 >25900 : LM53 (134/24.5%)

Figura A.3: Árbol de regresión con 53 reglas.

218

Page 243: Técnicas avanzadas de predicción y optimización aplicadas a ...

A.2 Con selección de atributos

LM1: h25 = 851 + 0.949h20 + 0.46h23 - 0.43h24

LM2: h25 = 11000 + 0.0526h20 + 0.0124h23 + 0.245h24

LM3: h25 = 12500 + 0.0381h20 + 0.0165h23 + 0.187h24

LM4: h25 = 10400 + 0.0381h20 + 0.03h23 + 0.342h24

LM5: h25 = 5480 + 0.242h20 - 0.103h23 + 0.532h24

LM6: h25 = 1900 + 0.0436h20 + 0.793h23 + 0.0353h24

LM7: h25 = -1600 + 0.0942h20 - 0.0771h23 + 1.07h24

LM8: h25 = 448 + 0.487h20 - 0.844h23 + 1.32h24

LM9: h25 = 3790 + 0.054h20 - 0.0148h23 + 0.751h24

LM10: h25 = 11100 + 0.054h20 - 0.298h23 + 0.636h24

LM11: h25 = 7040 + 0.0162h20 + 0.0448h23 + 0.547h24

LM12: h25 = 15100 + 0.0162h20 + 0.0562h23 + 0.101h24

LM13: h25 = 4870 + 0.14h20 - 0.0954h23 + 0.691h24

LM14: h25 = 3950 + 0.022h20 + 0.497h23 + 0.281h24

LM15: h25 = 3270 + 0.211h20 - 0.11h23 + 0.73h24

LM16: h25 = 5430 + 0.0324h20 + 0.633h23 + 0.053h24

LM17: h25 = 16300 + 0.132h20 - 3.7e-4h23 + 0.0695h24

LM18: h25 = 19100 + 0.00961h20 - 2.85e-6h23 + 0.0669h24

LM19: h25 = 18200 + 0.028h20 + 0.0388h23 + 0.0561h24

LM20: h25 = -1900 + 0.028h20 + 0.964h23 + 0.0561h24

LM21: h25 = 3780 + 0.028h20 + 0.705h23 + 0.0561h24

219

Page 244: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice A Árboles de Regresión

LM22: h25 = 18200 + 0.028h20 + 0.0388h23 + 0.0561h24

LM23: h25 = 18200 + 0.028h20 + 0.0388h23 + 0.0561h24

LM24: h25 = 17600 + 0.0453h20 + 0.0721h23 + 0.0561h24

LM25: h25 = 8460 + 0.00792h20 + 0.00313h23 + 0.588h24

LM26: h25 = 23400 + 0.0465h20 + 0.00313h23 - 0.149h24

LM27: h25 = 59700 + 0.0612h20 + 0.00313h23 - 1.85h24

LM28: h25 = 6030 + 0.00692h20 + 9.04e-4h23 + 0.711h24

LM29: h25 = 20000 + 0.0108h20 + 9.04e-4h23 + 0.0773h24

LM30: h25 = 8170 + 0.00479h20 + 9.04e-4h23 + 0.626h24

LM31: h25 = 354000 + 0.00673h20 + 9.04e-4h23 - 15.1h24

LM32: h25 = 217000 + 0.00673h20 + 9.04e-4h23 - 8.84h24

LM33: h25 = 20900 + 0.00673h20 + 9.04e-4h23 + 0.0542h24

LM34: h25 = 21000 + 0.00673h20 + 9.04e-4h23 + 0.0542h24

LM35: h25 = 21000 + 0.00673h20 + 9.04e-4h23 + 0.0542h24

LM36: h25 = 21300 + 0.00209h20 - 4.3e-4h23 + 0.0679h24

LM37: h25 = 21100 + 0.00209h20 - 4.3e-4h23 + 0.0679h24

LM38: h25 = 20300 - 0.273h20 + 0.332h23 + 0.0679h24

LM39: h25 = 21400 + 0.00209h20 - 4.3e-4h23 + 0.0679h24

LM40: h25 = 21100 + 0.00209h20 - 4.3e-4h23 + 0.0894h24

LM41: h25 = 21600 + 0.00209h20 - 4.3e-4h23 + 0.0781h24

LM42: h25 = 46900 + 0.00209h20 - 1.05h23 + 0.0781h24

220

Page 245: Técnicas avanzadas de predicción y optimización aplicadas a ...

A.2 Con selección de atributos

LM43: h25 = 6650 + 0.00209h20 - 4.3e-4h23 + 0.717h24

LM44: h25 = 5820 + 0.0126h20 - 0.0197h23 + 0.765h24

LM45: h25 = 25900 + 0.0126h20 - 0.376h23 + 0.319h24

LM46: h25 = 35100 + 0.0126h20 - 0.747h23 + 0.319h24

LM47: h25 = 29700 + 0.218h20 - 0.747h23 + 0.319h24

LM48: h25 = 20900 + 0.0122h20 - 0.0188h23 + 0.172h24

LM49: h25 = 20600 + 0.0122h20 - 0.0188h23 + 0.194h24

LM50: h25 = 29900 + 0.0122h20 - 0.373h23 + 0.194h24

LM51: h25 = 29900 + 0.0122h20 - 0.373h23 + 0.194h24

LM52: h25 = 48200 + 0.0122h20 - 1.06h23 + 0.194h24

LM53: h25 = 3320 + 0.11h20 - 0.18h23 + 0.942h24

Figura A.4: Modelos lineales en cada hoja del árbol de regresión formado por53 reglas.

221

Page 246: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice A Árboles de Regresión

222

Page 247: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice B

Datos

En este apéndice se presentan los datos de entrada correspondientes a losdos casos de estudio analizados para la resolución de la Programación Horariade Centrales. Estos datos se presentan en dos tablas, una muestra las caracte-rísticas técnicas de cada grupo y la otra, las características económicas. Entrelas características técnicas se incluyen la potencia máxima nominal, el mínimotécnico, la rampa de subida, la rampa de bajada y la potencia de salida de lahora 0. En la tabla de costes se incluyen los coeficientes que forman parte de lafunción objetivo: el coste cuadrático, lineal y fijo, y los costes de arranque y pa-rada. Los coeficientes de costes están expresados en unidades de calor (termia,Te). Para convertir estos datos en euros se emplea el precio del combustible,representado por PCi, cuyas unidades son euros/Te.

B.1. Caso testLa tabla B.1 muestra las características técnicas de los generadores que

forman el caso test usado para validar el método presentado. La tabla B.2muestra los datos de los costes de producción, arranque y parada de estosgeneradores. Por simplicidad, se han considerado tanto el coste cuadráticocomo el coste de parada cero.

223

Page 248: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice B Datos

Grupo PMi Pm

i RSi RBi Pi(0)MW MW MW/h MW/h MW

1 1000 500 100 100 10002 1000 200 150 150 5003 1000 200 300 300 5004 1000 200 300 300 05 1000 200 300 300 0

Tabla B.1: Características técnicas de las centrales térmicas del caso test.

Grupo ai bi ci CAi CPi PCi

Te/MW2h Te/MWh Te/h Te Te euros/Te1 0 0.98 54.54 520 0 12 0 2.31 71 2494.9 0 13 0 2.18 61.46 1010 0 14 0 3.68 72 2080 0 15 0 2.25 125.88 1600 0 1

Tabla B.2: Costes de las centrales térmicas del caso test.

Finalmente, la tabla B.3 muestra la demanda horaria considerada en estecaso.

Hora Demanda (MW)1 18432 17063 16104 15925 15756 15977 17228 19029 208510 217111 224512 2291

Hora Demanda (MW)13 230014 225615 216316 218717 223718 228819 224420 214721 210922 210723 215324 1988

Tabla B.3: Demanda para el caso test.

224

Page 249: Técnicas avanzadas de predicción y optimización aplicadas a ...

B.2 Caso realista

B.2. Caso realistaLas tablas B.4 y B.5 muestran las características técnicas de los generadores

que forman el segundo caso de estudio basado en el sistema de generacióntérmico español. Las tablas B.6 y B.7 muestran los datos de los costes deproducción, arranque y parada de estos generadores. Al igual que en el casotest el coste cuadrático y el coste de parada se han considerado cero.

Grupo PMi Pm

i RSi RBi Pi(0)MW MW MW/h MW/h MW

1 360 196.8 144 144 216.52 543 248.8 180 180 273.73 314 61.1 242 242 67.24 314 61.1 242 242 67.25 220 66 138 138 72.66 533 160 300 300 1767 7856 2878 1200 1200 70008 350 166 168 168 182.69 150 36 180 180 010 300 48 180 180 52.811 141 65 70 70 71.512 141 69 65 65 75.913 330 158 160 160 173.814 350 173 165 165 190.315 350 173 165 165 190.316 80 44 40 40 48.417 289 100 46 46 11018 160 80 74 74 8819 520 80 235 235 8820 148 74 74 74 81.421 350 150 191 191 16522 270 136 60 60 149.623 350 213 121 121 234.324 155 70 60 60 7725 350 180 161 161 198

Tabla B.4: Características técnicas de las centrales térmicas del caso realista(Centrales 1 a 25).

225

Page 250: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice B Datos

Grupo PMi Pm

i RSi RBi Pi(0)MW MW MW/h MW/h MW

26 550 180 276 276 19827 550 180 276 276 028 550 180 356 356 029 550 270 276 276 030 65 35 24 24 38.531 154 84 64 64 92.432 350 213 121 121 234.333 214 105 106 106 115.534 313 150 150 150 165.135 220 80 131 131 8836 318 100 131 131 11037 350 230 111 111 25338 350 230 111 111 25339 350 230 111 111 25340 350 230 111 111 25341 350 100 235 235 042 350 100 235 235 043 160 80 75 75 8844 68 45 15 15 49.845 254 154 69 69 169.446 350 172 165 165 189.247 350 180 132 132 19848 350 180 132 132 19849 350 180 132 132 198

Tabla B.5: Características técnicas de las centrales térmicas del caso realista(Centrales 26 a 49).

226

Page 251: Técnicas avanzadas de predicción y optimización aplicadas a ...

B.2 Caso realista

Grupo ai bi ci CAi CPi PCi

Te/MW2h Te/MWh Te/h Te Te euros/Te1 0 2.4 54.8 7991.1 0 12 0 2.2 68.1 2494.9 0 13 0 2.4 19.6 780.8 0 1.64 0 2.3 45 2080 0 1.65 0 2.2 44.9 1644.8 0 1.66 0 2.2 92.6 1561.6 0 1.67 0 2.5 136.3 100000 0 0.48 0 2.3 46 1811.4 0 19 0 2.3 37.2 2080 0 1.610 0 2.3 37.2 809.6 0 1.611 0 2.2 61.5 911.7 0 112 0 2.3 47.7 310.4 0 113 0 2.2 73.3 1132.1 0 114 0 2.2 55.8 1636.8 0 115 0 2.2 46.3 832 0 116 0 2.3 20.1 1340.3 0 117 0 2.3 45 2080 0 1.618 0 2.6 33.9 932.9 0 1.119 0 2.2 75.8 1243.2 0 1.620 0 2.7 16.2 1357.2 0 121 0 2.3 37.9 1346.8 0 122 0 2.2 40.9 1418.2 0 123 0 2.4 45.2 1174.5 0 124 0 2.2 59.4 466.5 0 1.125 0 2.3 78.2 884.1 0 1.1

Tabla B.6: Costes de las centrales térmicas del caso realista (Centrales 1 a 25).

227

Page 252: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice B Datos

Grupo ai bi ci CAi CPi PCi

Te/MW2h Te/MWh Te/h Te Te euros/Te26 0 2.2 61.5 1010 0 127 0 2.2 61.5 1010 0 128 0 2.1 105.6 1707 0 129 0 2.7 117.9 2126.2 0 130 0 2.4 27.6 744.7 0 131 0 2.3 26.5 790.7 0 132 0 2.3 35.7 1475 0 133 0 2.5 15.4 717 0 134 0 2.4 29 1867.6 0 135 0 2.2 77 792 0 1.136 0 2.1 30 1417 0 1.137 0 2.9 18 1224.6 0 0.938 0 2.9 70 1228.5 0 0.939 0 2.9 70 1223.3 0 0.940 0 3.1 -8.9 1828.4 0 0.941 0 2.4 48.9 2080 0 1.642 0 2.4 48.9 860.8 0 1.643 0 2.3 32.1 1409.2 0 1.144 0 3 8.7 402.6 0 1.145 0 2.4 14.8 850.6 0 146 0 2.1 63.7 1170.4 0 147 0 2.4 60 1354.6 0 148 0 2.4 60 1268.8 0 149 0 2.6 3 2189.2 0 1

Tabla B.7: Costes de las centrales térmicas del caso realista (Centrales 26 a49).

228

Page 253: Técnicas avanzadas de predicción y optimización aplicadas a ...

B.2 Caso realista

Finalmente, la tabla B.8 muestra la demanda horaria considerada en estecaso.

Hora Demanda (MW)1 167932 155433 146694 145015 143506 145517 156888 173289 1800010 1800011 1800012 18000

Hora Demanda (MW)13 1800014 1800015 1800016 1800017 1800018 1800019 1800020 1800021 1800022 1800023 1800024 18000

Tabla B.8: Demanda para el caso realista.

229

Page 254: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice B Datos

230

Page 255: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice C

Soluciones obtenidas

En este apéndice se muestran las programaciones de arranques y paradasy las potencias de salida de las mejores soluciones obtenidas de la aplicacióndel Algoritmo Genético y el procedimiento propuesto en esta tesis basado entécnicas de Punto Interior al problema de la Programación Horaria de Centralespara los dos casos de estudio analizados, cuyos datos de entrada se muestranen el Apéndice B.

C.1. Caso testLas tablas C.1 y C.2 presentan las matrices de acoplamiento y potencias de

salida de las mejores soluciones obtenidas para el caso test por el método deoptimización descrito en esta tesis y el Algoritmo Genético, respectivamente.

C.2. Caso realistaLas tablas C.3, C.4, C.5, C.6 y C.7 muestran las matrices de acoplamiento

y potencias de salida de la mejor solución obtenida para el caso realista por elmétodo descrito en esta tesis.

Las tablas C.8, C.9, C.10, C.11 y C.12 presentan las matrices de acopla-miento y potencias de salida de la mejor solución obtenida para el caso realistapor el Algoritmo Genético.

231

Page 256: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice C Soluciones obtenidas

1 2 3 4 51 1 1 1 0 02 1 1 1 0 03 1 1 1 0 04 1 1 1 0 05 1 1 1 0 06 1 1 1 0 07 1 1 1 0 08 1 1 1 0 09 1 1 1 0 010 1 1 1 0 111 1 1 1 0 112 1 1 1 0 113 1 1 1 0 114 1 1 1 0 115 1 1 1 0 116 1 1 1 0 117 1 1 1 0 118 1 1 1 0 119 1 1 1 0 120 1 1 1 0 121 1 1 1 0 122 1 1 1 0 123 1 1 1 0 024 1 0 1 0 0

1 2 3 4 51 1 1 1 0 02 1 1 1 0 03 1 1 1 0 04 1 1 1 0 05 1 1 1 0 06 1 1 1 0 07 1 1 1 1 18 1 1 1 1 19 1 1 1 1 110 1 1 1 1 111 1 1 1 0 112 1 1 1 0 013 1 1 1 0 014 1 1 1 0 015 1 1 1 0 016 1 1 1 0 017 1 1 1 0 018 1 1 1 0 019 1 1 1 0 020 1 1 1 0 021 1 1 1 0 022 1 1 1 0 023 1 1 1 0 024 1 1 0 0 0

Tabla C.1: Matriz de acoplamiento de la mejor solución para el caso test por:a) el método propuesto, b) el Algoritmo Genético.

232

Page 257: Técnicas avanzadas de predicción y optimización aplicadas a ...

C.2 Caso realista

1 2 3 4 51 1000 200 643 600 6002 1000 200 506 600 6003 1000 200 410 600 6004 1000 200 392 600 6005 1000 200 375 600 6006 1000 200 397 600 6007 1000 200 522 600 6008 1000 200 702 600 6009 1000 200 885 600 60010 1000 200 771 600 20011 1000 200 845 600 20012 1000 200 891 600 20013 1000 200 900 600 20014 1000 200 856 600 20015 1000 200 763 600 20016 1000 200 787 600 20017 1000 200 837 600 20018 1000 200 888 600 20019 1000 200 844 600 20020 1000 200 747 600 20021 1000 200 709 600 20022 1000 200 707 600 20023 1000 200 953 600 60024 1000 600 988 600 600

1 2 3 4 51 1000 200 643 0 02 1000 200 506 0 03 1000 200 410 0 04 1000 200 392 0 05 1000 200 375 0 06 1000 200 397 0 07 922 200 200 200 2008 1000 201 289 200 2129 1000 200 485 200 20010 1000 200 571 200 20011 1000 200 845 0 20012 1000 291 1000 0 013 1000 300 1000 0 014 1000 256 1000 0 015 1000 200 963 0 016 1000 200 987 0 017 1000 237 1000 0 018 1000 288 1000 0 019 1000 244 1000 0 020 1000 200 947 0 021 1000 200 909 0 022 1000 200 907 0 023 1000 200 953 0 024 1000 988 0 0 0

Tabla C.2: Potencias (MW) de la mejor solución para el caso test por: a) elmétodo propuesto, b) el Algoritmo Genético.

233

Page 258: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice C Soluciones obtenidas1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18

1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 12 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 13 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 04 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 15 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 06 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 07 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 18 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 19 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 110 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 011 1 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 112 1 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 113 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 114 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 115 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 116 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 117 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 018 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 119 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 020 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 121 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 122 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 123 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 124 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 025 1 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 126 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 127 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 128 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 129 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 130 1 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 131 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 132 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 133 1 1 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 134 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 135 1 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 136 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 137 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 138 1 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 139 1 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 140 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 141 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 0 042 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 043 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 144 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 045 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 146 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 147 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 148 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 149 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

Tabla C.3: Matriz de acoplamiento de la mejor solución para el caso realistapor el método propuesto (Horas 1 a 18).

234

Page 259: Técnicas avanzadas de predicción y optimización aplicadas a ...

C.2 Caso realista19 20 21 22 23 24

1 1 1 1 1 1 12 1 1 1 1 1 13 0 0 0 0 0 04 0 0 0 0 0 05 0 0 0 0 0 06 0 0 0 0 0 07 1 1 1 1 1 18 1 1 1 1 1 19 0 0 0 0 0 010 0 0 0 0 0 011 1 1 1 1 1 112 1 1 1 1 1 113 1 1 1 1 1 114 1 1 1 1 1 115 1 1 1 1 1 116 1 1 1 1 1 117 0 0 0 0 0 018 1 0 0 0 0 019 0 0 0 0 0 020 1 1 1 1 1 121 1 1 1 1 1 122 1 1 1 1 1 123 1 1 1 1 1 124 0 0 0 0 0 025 1 1 1 1 1 126 1 1 1 1 1 127 1 1 1 1 1 128 1 1 1 1 1 129 1 1 1 1 1 130 1 1 0 0 0 031 1 1 1 1 1 132 1 1 1 1 1 133 1 1 1 1 1 134 1 1 1 1 1 135 1 1 1 1 1 136 1 1 1 1 1 137 1 1 1 1 1 138 1 1 1 1 1 139 1 1 1 1 1 140 1 1 1 1 1 141 0 0 0 0 0 042 0 0 0 0 0 043 1 1 1 1 1 144 0 0 0 0 0 045 1 1 1 1 1 146 1 1 1 1 1 147 1 1 1 1 1 148 1 1 1 1 1 149 1 1 1 1 1 1

Tabla C.4: Matriz de acoplamiento de la mejor solución para el caso realistapor el método propuesto (Horas 19 a 24).

235

Page 260: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice C Soluciones obtenidas1 2 3 4 5 6 7 8

1 259 244 197 197 197 197 270 3452 543 543 543 543 543 543 543 5433 187.5 187.5 187.5 187.5 187.5 187.5 187.5 187.54 187.5 187.5 187.5 187.5 187.5 187.5 187.5 187.55 143 143 143 143 143 143 143 1436 346.5 346.5 346.5 346.5 346.5 346.5 346.5 346.57 7856 7856 7856 7856 7856 7856 7856 78568 350 350 268 211 171 227 350 3509 93 93 93 93 93 93 93 9310 174 174 174 174 174 174 174 17411 141 103 103 103 103 103 103 14112 141 105 105 105 105 105 105 10513 330 330 330 330 330 330 330 33014 350 350 350 350 350 350 350 35015 350 350 350 350 350 350 350 35016 80 80 62 60 48 62 80 8017 194.5 194.5 194.5 194.5 194.5 194.5 194.5 194.518 120 120 120 120 120 120 120 12019 300 300 300 300 300 300 300 30020 74 74 74 74 74 74 74 7421 350 350 262 196 155 214 350 35022 270 270 270 270 270 270 270 27023 268 256 213 213 213 213 277 33624 71 112.5 112.5 112.5 112.5 112.5 112.5 112.525 180 265 265 265 265 265 265 18026 550 550 550 550 550 550 550 55027 550 550 550 550 550 550 550 55028 550 550 550 550 550 550 550 55029 410 410 410 410 410 410 410 27030 50 50 50 50 50 50 50 5031 154 154 120 112 88 114 154 15432 350 350 287 252 218 264 350 35033 105 105 159.5 159.5 159.5 159.5 105 10534 212 197 150 150 150 150 225 29835 81 150 150 150 150 150 150 18536 318 318 103 103 103 103 318 31837 230 230 230 230 230 230 230 23038 230 290 290 290 290 290 290 23039 230 290 290 290 290 290 290 23040 230 230 230 230 230 230 230 23041 225 225 225 225 225 225 225 22542 225 225 225 225 225 225 225 22543 80 80 80 80 80 80 80 8044 45 56.5 56.5 56.5 56.5 56.5 56.5 56.545 197 190 154 154 154 154 202 24146 350 350 350 350 350 350 350 35047 244 228 180 180 180 180 257 33648 244 228 180 180 180 180 257 33649 180 180 180 180 180 180 180 180

Tabla C.5: Potencias (MW) de la mejor solución para el caso realista por elmétodo propuesto (horas 1 a 8).236

Page 261: Técnicas avanzadas de predicción y optimización aplicadas a ...

C.2 Caso realista9 10 11 12 13 14 15 16

1 360 360 360 360 360 360 349 3492 543 543 543 543 543 543 543 5433 187.5 187.5 187.5 187.5 187.5 187.5 187.5 187.54 187.5 187.5 187.5 187.5 61 61 61 615 143 143 143 143 143 66 66 666 346.5 346.5 346.5 346.5 346.5 346.5 346.5 346.57 7856 7856 7856 7856 7856 7856 7856 78568 350 350 350 350 350 350 350 3509 93 93 93 36 36 36 36 3610 174 174 174 174 174 174 174 17411 141 141 141 141 141 141 141 14112 105 105 105 105 105 105 141 14113 330 330 330 330 330 330 330 33014 350 350 350 350 350 350 350 35015 350 350 350 350 350 350 350 35016 80 80 80 80 80 80 80 8017 194.5 194.5 194.5 194.5 196.5 100 100 10018 120 120 120 80 80 80 80 8019 300 300 300 300 300 300 300 30020 74 74 74 74 74 74 74 7421 350 350 350 350 350 350 350 35022 270 270 270 270 270 270 270 27023 350 350 350 350 350 350 340 34024 112.5 112.5 112.5 112.5 112.5 112.5 112.5 112.525 350 350 350 350 325 180 180 18026 550 550 550 550 550 550 550 55027 550 550 550 550 550 550 550 55028 550 550 550 550 550 550 550 55029 270 270 270 270 270 270 270 27030 65 65 65 65 65 65 57 5731 154 154 154 154 154 154 154 15432 350 350 350 350 350 350 350 35033 214 214 214 214 214 150 120 12034 313 313 313 313 313 313 302 30235 220 220 220 220 220 220 180 18036 318 318 318 318 318 318 318 31837 233 233 233 233 230 230 230 23038 233 233 233 232 230 230 230 23039 230 230 230 230 230 230 230 23040 230 230 230 230 230 230 230 23041 225 225 225 225 225 100 100 10042 225 225 225 225 225 225 225 22543 160 160 160 160 136 80 80 8044 56.5 56.5 56.5 56.5 56.5 56.5 56.5 56.545 254 254 254 254 254 254 244 24446 350 350 350 350 350 350 350 35047 350 350 350 350 350 350 339 33948 350 350 350 350 350 350 339 33949 302 302 302 187 180 180 180 180

Tabla C.6: Potencias (MW) de la mejor solución para el caso realista por elmétodo propuesto (horas 9 a 16).

237

Page 262: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice C Soluciones obtenidas17 18 19 20 21 22 23 24

1 360 360 360 360 360 360 360 3602 543 543 543 543 543 543 543 5433 187.5 187.5 187.5 187.5 187.5 187.5 187.5 187.54 61 61 187.5 187.5 187.5 187.5 187.5 187.55 66 143 143 143 143 143 143 1436 346.5 346.5 346.5 346.5 346.5 346.5 346.5 346.57 7856 7856 7856 7856 7856 7856 7856 78568 350 350 350 350 350 350 350 3509 36 36 93 93 93 93 93 9310 174 174 174 174 174 174 174 17411 141 141 141 141 141 141 141 14112 141 141 141 141 141 141 141 14113 330 330 330 330 330 330 330 33014 350 350 350 350 350 350 350 35015 350 350 350 350 350 350 350 35016 80 80 80 80 80 80 80 8017 100 194.5 194.5 194.5 194.5 194.5 194.5 194.518 80 80 80 120 120 120 120 12019 300 300 300 300 300 300 300 30020 74 74 74 74 74 74 74 7421 350 350 350 350 350 350 350 35022 270 270 270 270 270 270 270 27023 350 350 350 350 350 350 350 35024 112.5 112.5 112.5 112.5 112.5 112.5 112.5 112.525 180 215 293 345 350 350 350 35026 550 550 550 550 550 550 550 55027 550 550 550 550 550 550 550 55028 550 550 550 550 550 550 550 55029 270 270 270 270 270 270 270 27030 65 65 65 65 50 50 50 5031 154 154 154 154 154 154 154 15432 350 350 350 350 350 350 350 35033 110 213 213 213 214 214 214 21434 313 313 313 313 313 313 313 31335 220 220 220 220 220 220 220 22036 318 318 318 318 318 318 318 31837 230 230 230 230 233 233 233 23338 230 230 230 230 233 233 233 23339 230 230 230 230 233 233 233 23340 230 230 230 230 230 230 230 23041 225 225 225 225 225 225 225 22542 225 225 225 225 225 225 225 22543 80 107 126 154 160 160 160 16044 56.5 56.5 56.5 56.5 56.5 56.5 56.5 56.545 254 254 254 254 254 254 254 25446 350 350 350 350 350 350 350 35047 350 350 350 350 350 350 350 35048 350 350 350 350 350 350 350 35049 180 180 180 180 224 224 224 224

Tabla C.7: Potencias (MW) de la mejor solución para el caso realista por elmétodo propuesto (horas 17 a 24).238

Page 263: Técnicas avanzadas de predicción y optimización aplicadas a ...

C.2 Caso realista1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18

1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 12 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 13 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 04 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 05 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 06 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 07 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 18 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 19 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 010 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 011 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 112 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 113 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 114 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 115 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 116 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 117 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 018 1 1 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 019 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 020 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 021 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 122 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 123 1 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 124 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 125 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 126 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 127 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 128 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 129 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 030 1 1 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 131 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 132 1 1 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 133 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 134 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 135 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 136 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 137 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 138 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 139 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 140 1 1 1 1 1 1 0 0 0 0 0 0 0 0 0 0 0 041 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 042 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 043 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 144 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 045 1 1 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 146 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 147 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 148 1 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 149 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1

Tabla C.8: Matriz de acoplamiento de la mejor solución para el caso realistapor el Algoritmo Genético (Horas 1 a 18).

239

Page 264: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice C Soluciones obtenidas19 20 21 22 23 24

1 1 1 1 1 1 12 1 1 1 1 1 13 0 0 0 0 0 04 0 0 0 0 0 05 0 0 0 0 0 06 0 0 0 0 0 07 1 1 1 1 1 18 1 1 1 1 1 19 0 0 0 0 0 010 0 0 0 0 0 011 1 1 1 1 1 112 1 1 1 1 1 113 1 1 1 1 1 114 1 1 1 1 1 115 1 1 1 1 1 116 1 1 1 1 1 117 0 0 0 0 0 018 0 0 0 0 0 019 0 0 0 0 0 020 0 0 0 0 0 021 1 1 1 1 1 122 1 1 1 1 1 123 1 1 1 1 1 124 1 1 1 1 1 125 1 1 1 1 1 126 1 1 1 1 1 127 1 1 1 1 1 128 1 1 1 1 1 129 0 0 0 0 0 030 1 1 1 1 1 131 1 1 1 1 1 132 1 1 1 1 1 133 1 1 1 1 1 134 1 1 1 1 1 135 1 1 1 1 1 136 1 1 1 1 1 137 1 1 1 1 1 138 1 1 1 1 1 139 1 1 1 1 1 140 0 0 0 0 0 041 0 0 0 0 0 042 0 0 0 0 0 043 1 1 1 1 1 144 0 0 0 0 0 045 1 1 1 1 1 146 1 1 1 1 1 147 1 1 1 1 1 148 1 1 1 1 1 149 1 1 1 1 1 1

Tabla C.9: Matriz de acoplamiento de la mejor solución para el caso realistapor el Algoritmo Genético (Horas 19 a 24).

240

Page 265: Técnicas avanzadas de predicción y optimización aplicadas a ...

C.2 Caso realista1 2 3 4 5 6 7 8

1 357 209 197 197 197 197 307 3602 543 543 543 543 543 543 543 5433 0 0 0 0 0 0 0 04 61 61 61 61 61 61 0 05 0 0 0 0 0 0 0 06 0 0 0 0 0 0 0 07 7856 7856 7856 7856 7856 7856 7856 78568 350 350 335 279 220 203 350 3509 0 0 0 0 0 0 0 010 0 0 0 0 0 0 0 011 141 141 141 141 141 141 141 14112 141 141 131 109 98 94 141 14113 330 330 330 330 330 330 330 33014 350 350 350 350 350 350 350 35015 350 350 350 350 350 350 350 35016 80 80 72 63 60 59 80 8017 100 100 100 100 100 100 100 10018 80 80 80 80 80 80 80 8019 0 0 0 0 0 0 0 020 0 0 0 0 0 0 0 021 350 350 335 275 206 187 350 35022 270 270 270 270 270 270 270 27023 347 0 0 0 0 0 0 35024 70 70 70 70 70 70 70 15525 0 0 0 0 0 0 0 026 550 550 550 550 550 550 550 55027 550 550 550 550 550 550 550 55028 550 550 550 550 550 550 550 55029 0 0 0 0 0 0 0 030 64 44 0 0 0 0 50 6531 154 154 144 122 113 108 154 15432 350 350 0 0 0 247 350 35033 105 105 105 105 105 105 105 21434 310 162 150 150 150 150 260 31335 80 80 80 80 80 80 80 22036 318 318 100 100 100 100 318 31837 0 0 0 0 0 0 0 038 230 230 230 230 230 230 230 23039 230 230 230 230 230 230 230 23040 230 230 230 230 230 230 0 041 0 0 0 0 0 0 0 042 0 0 0 0 0 0 0 043 0 0 0 0 0 0 0 16044 0 0 0 0 0 0 0 045 252 167 0 0 0 0 0 25446 350 350 350 350 350 350 350 35047 347 192 180 180 180 180 296 35048 347 0 0 0 0 0 296 35049 0 0 0 0 0 0 0 315

Tabla C.10: Potencias (MW) de la mejor solución para el caso realista por elAlgoritmo Genético (horas 1 a 8).

241

Page 266: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice C Soluciones obtenidas9 10 11 12 13 14 15 16

1 360 360 360 360 360 360 360 3602 543 543 543 543 543 543 543 5433 0 0 0 0 0 0 0 04 0 0 0 0 0 0 0 05 0 0 0 0 0 0 0 06 0 0 0 0 0 0 0 07 7856 7856 7856 7856 7856 7856 7856 78568 350 350 350 350 350 350 350 3509 0 0 0 0 0 0 0 010 0 0 0 0 0 0 0 011 141 141 141 141 141 141 141 14112 141 141 141 141 141 141 141 14113 330 330 330 330 330 330 330 33014 350 350 350 350 350 350 350 35015 350 350 350 350 350 350 350 35016 80 80 80 80 80 80 80 8017 100 100 0 0 0 0 0 018 80 80 0 0 0 0 0 019 0 0 0 0 0 0 0 020 0 0 0 0 0 0 0 021 350 350 350 350 350 350 350 35022 270 270 270 270 270 270 270 27023 350 350 350 350 350 350 350 35024 155 155 155 155 155 155 155 15525 350 350 350 350 350 350 350 35026 550 550 550 550 550 550 550 55027 550 550 550 550 550 550 550 55028 550 550 550 550 550 550 550 55029 0 0 0 0 0 0 0 030 65 65 65 65 65 65 65 6531 154 154 154 154 154 154 154 15432 350 350 350 350 350 350 350 35033 214 214 214 214 214 214 214 21434 313 313 313 313 313 313 313 31335 220 220 220 220 220 220 220 22036 318 318 318 318 318 318 318 31837 249 249 310 310 310 310 310 31038 249 249 310 310 310 310 310 31039 249 249 310 310 310 310 310 31040 0 0 0 0 0 0 0 041 0 0 0 0 0 0 0 042 0 0 0 0 0 0 0 043 160 160 160 160 160 160 160 16044 0 0 0 0 0 0 0 045 254 254 254 254 254 254 254 25446 350 350 350 350 350 350 350 35047 350 350 350 350 350 350 350 35048 350 350 350 350 350 350 350 35049 350 350 349 349 349 349 349 349

Tabla C.11: Potencias (MW) de la mejor solución para el caso realista por elAlgoritmo Genético (horas 9 a 16).242

Page 267: Técnicas avanzadas de predicción y optimización aplicadas a ...

C.2 Caso realista17 18 19 20 21 22 23 24

1 360 360 360 360 360 360 360 3602 543 543 543 543 543 543 543 5433 0 0 0 0 0 0 0 04 0 0 0 0 0 0 0 05 0 0 0 0 0 0 0 06 0 0 0 0 0 0 0 07 7856 7856 7856 7856 7856 7856 7856 78568 350 350 350 350 350 350 350 3509 0 0 0 0 0 0 0 010 0 0 0 0 0 0 0 011 141 141 141 141 141 141 141 14112 141 141 141 141 141 141 141 14113 330 330 330 330 330 330 330 33014 350 350 350 350 350 350 350 35015 350 350 350 350 350 350 350 35016 80 80 80 80 80 80 80 8017 0 0 0 0 0 0 0 018 0 0 0 0 0 0 0 019 0 0 0 0 0 0 0 020 0 0 0 0 0 0 0 021 350 350 350 350 350 350 350 35022 270 270 270 270 270 270 270 27023 350 350 350 350 350 350 350 35024 155 155 155 155 155 155 155 15525 350 350 350 350 350 350 350 35026 550 550 550 550 550 550 550 55027 550 550 550 550 550 550 550 55028 550 550 550 550 550 550 550 55029 0 0 0 0 0 0 0 030 65 65 65 65 65 65 65 6531 154 154 154 154 154 154 154 15432 350 350 350 350 350 350 350 35033 214 214 214 214 214 214 214 21434 313 313 313 313 313 313 313 31335 220 220 220 220 220 220 220 22036 318 318 318 318 318 318 318 31837 310 310 310 310 310 310 310 31038 310 310 310 310 310 310 310 31039 310 310 310 310 310 310 310 31040 0 0 0 0 0 0 0 041 0 0 0 0 0 0 0 042 0 0 0 0 0 0 0 043 160 160 160 160 160 160 160 16044 0 0 0 0 0 0 0 045 254 254 254 254 254 254 254 25446 350 350 350 350 350 350 350 35047 350 350 350 350 350 350 350 35048 350 350 350 350 350 350 350 35049 349 349 349 349 349 349 349 349

Tabla C.12: Potencias (MW) de la mejor solución para el caso realista por elAlgoritmo Genético (horas 17 a 24).

243

Page 268: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice C Soluciones obtenidas

244

Page 269: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice D

Subproblemas

Como notación estándar se usarán letras mayúsculas para las variables ydatos del problema y minúsculas para todas las variables intermedias y auxi-liares que se necesiten para resolverlo.

D.1. Subproblema continuoEl subproblema de optimización continuo es el siguiente:

Minimizar CT (D.1)

sujeto ang∑i=1

Pi,t · Ui,t +nh∑h=1

PHh,t = Dt (D.2)

ng∑i=1

PMi · Ui,t ≥ Rt +Dt −

nh∑h=1

PHMh (D.3)

V Hh,t = V Hh,t−1 − PHh,t +∑

sig(k)=h

PHk,t−ret(k) +Wh (D.4)

Pmi ≤ Pi,t ≤ PM

i (D.5)0 ≤ Ui,t ≤ 1 (D.6)CT ≤ C (D.7)

− RBi ≤ Pi,t − Pi,t−1 ≤ RSi (D.8)PHm

h ≤ PHh,t ≤ PHMh (D.9)

V Hmh ≤ V Hh,t ≤ V HM

h (D.10)

Introduciendo variables adecuadas, para que todas las restricciones de má-ximos y mínimos se apliquen sobre variables del problema, se obtiene:

245

Page 270: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice D Subproblemas

Minimizar V (D.11)sujeto a V = CT (D.12)

ng∑i=1

Pi,t · Ui,t +nh∑h=1

PHh,t = Dt (D.13)

Xt ≥ Rt +Dt −nh∑h=1

PHMh (D.14)

V Hh,t = V Hh,t−1 − PHh,t +∑

sig(k)=h

PHk,t−ret(k) +Wh(D.15)

Zi,t = Pi,t − Pi,t−1 (D.16)

Xt =ng∑i=1

PMi · Ui,t (D.17)

Pmi ≤ Pi,t ≤ PM

i (D.18)0 ≤ Ui,t ≤ 1 (D.19)V ≤ C (D.20)

− RBi ≤ Zi,t ≤ RSi (D.21)PHm

h ≤ PHh,t ≤ PHMh (D.22)

V Hmh ≤ V Hh,t ≤ V HM

h (D.23)

Introduciendo variables de holguras apropiadas, se convierten las restriccio-nes de desigualdad en igualdad, y penalizando la función objetivo para asegurarque las variables de holgura sean positivas el problema se formula así:

246

Page 271: Técnicas avanzadas de predicción y optimización aplicadas a ...

D.1 Subproblema continuo

Minimizar V − µ∑i,h,t

ln(sk) (D.24)

sujeto a V = CT (D.25)ng∑i=1

Pi,t · Ui,t +nh∑h=1

PHh,t = Dt (D.26)

V Hh,t = V Hh,t−1 − PHh,t +∑

sig(k)=h

PHk,t−ret(k) +Wh (D.27)

Zi,t = Pi,t − Pi,t−1 (D.28)

Xt =ng∑i=1

PMi · Ui,t (D.29)

s1i,t + Pi,t − PMi = 0 (D.30)

s2i,t − Pi,t + Pmi = 0 (D.31)

s3i,t + Ui,t − 1 = 0 (D.32)

s4i,t − Ui,t = 0 (D.33)

s5 + V − C = 0 (D.34)s6i,t + Zi,t −RSi = 0 (D.35)

s7i,t − Zi,t −RBi = 0 (D.36)

s8h,t + PHh,t − PHMh = 0 (D.37)

s9h,t − PHh,t + PHmh = 0 (D.38)

s10h,t + V Hh,t − V HMh = 0 (D.39)

s11h,t − V Hh,t + V Hmh = 0 (D.40)

s12t −Xt +Rt +Dt −nh∑h=1

PHMh = 0 (D.41)

sk ≥ 0 k = 1, . . . , 12 (D.42)

donde µ es el factor de penalización.

247

Page 272: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice D Subproblemas

El Lagrangiano del problema, para cada µ, es el que sigue:

Lµ = V + λ1(V − CT ) +∑t

λ2t ·(−∑i

Pi,t · Ui,t −∑h

PHh,t +Dt

)

+∑h,t

λ3h,t ·

V Hh,t − V Hh,t−1 + PHh,t −∑

sig(k)=h

PHk,t−ret(k) −Wh

+

∑i,t

(λ4i,t · (s1i,t + Pi,t − PM

i ) + λ5i,t · (s2i,t − Pi,t + Pm

i ))

+∑i,t

(λ6i,t · (s3i,t − 1 + Ui,t) + λ7

i,t · (s4i,t − Ui,t))

+ λ8 · (s5 + V − C) +∑i,t

λ9i,t · (Zi,t − Pi,t + Pi,t−1)

+∑i,t

(λ10i,t · (s6i,t − RSi + Zi,t) + λ11

i,t · (s7i,t − Zi,t −RBi))

(D.43)

+∑h,t

(λ12h,t · (s8h,t + PHh,t − PHM

h ) + λ13h,t · (s9h,t − PHh,t + PHm

h ))

+∑h,t

(λ14h,t · (s10h,t + V Hh,t − V HM

h ) + λ15h,t · (s11h,t − V Hh,t + V Hm

h ))

+∑t

λ16t

(Xt −

∑i

PMi Ui,t

)

+∑t

λ17t

(s12t −Xt +Rt +Dt −

∑h

PHMh

)− µ ln s5 − µ

∑i,t

(ln s1i,t + ln s2i,t + ln s3i,t + ln s4i,t + ln s6i,t + ln s7i,t)

− µ∑h,t

(ln s8h,t + ln s9h,t + ln s10h,t + ln s11h,t) − µ∑t

ln s12t

donde λk con k = 1, . . . , 17 son los Multiplicadores de Lagrange.

248

Page 273: Técnicas avanzadas de predicción y optimización aplicadas a ...

D.1 Subproblema continuo

Las ecuaciones de optimalidad de KKT de primer orden son las siguientes:

∂Lµ

∂Pi,t= −λ1C ′

i,tUi,t − λ2tUi,t + λ4

i,t − λ5i,t − λ9

i,t + λ9i,t+1 = 0 (D.44)

∂Lµ

∂Ui,t= −λ1CU,A,P

i,t + λ6i,t − λ7

i,t − λ2tPi,t − λ16

t PMi = 0 (D.45)

∂Lµ

∂PHh,t= λ3

h,t − λ3sig(h),t+ret(h) − λ2

t + λ12h,t − λ13

h,t = 0 (D.46)

∂Lµ

∂V Hh,t= λ3

h,t − λ3h,t+1 + λ14

h,t − λ15h,t = 0 (D.47)

∂Lµ

∂V= 1 + λ1 + λ8 = 0 (D.48)

∂Lµ

∂Zi,t= λ9

i,t + λ10i,t − λ11

i,t = 0 (D.49)

∂Lµ

∂Xt= λ16

t − λ17t = 0 (D.50)

∂Lµ

∂sk= 0 ⇒ sk · λk = µ ∀k = 1, . . . , 12 (D.51)

junto con las ecuaciones (D.25)-(D.41).Aplicando el Método de Newton y eliminando las variables de holgura y sus

correspondientes multiplicadores se obtiene el sistema de ecuaciones de KKTreducido siguiente:

Ecuaciones relacionadas con las restricciones técnicas de las centralestérmicas:

DPi,t∆Pi,t + PUi,t∆Ui,t − ∆λ9i,t + ∆λ9

i,t+1 − Ui,t∆λ2t −

−C ′i,tUi,t∆λ1 = h1(·, µ) (D.52)

PUi,t∆Pi,t + λ1CA,Pi (∆Ui,t−1 + ∆Ui,t+1) +DUi,t∆Ui,t − Pi,t∆λ2

t −−PM

i ∆λ16t − CU,A,P

i,t ∆λ1 = h2(·, µ) (D.53)

DZi,t∆Zi,t + ∆λ9i,t = h3(·, µ) (D.54)

∆Pi,t−1 − ∆Pi,t + ∆Zi,t = h4(·, µ) (D.55)

Ecuaciones relacionadas con la restricción impuesta al coste:

DV∆V + ∆λ1 = h5(·, µ) (D.56)

−∑i,t

Ci,t∆Pi,t −∑i,t

CU,A,Pi,t ∆Ui,t + ∆V = h6(·, µ) (D.57)

249

Page 274: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice D Subproblemas

Ecuaciones relacionadas con las restricciones técnicas de las centraleshidráulicas:

DPHh,t∆PHh,t + ∆λ3h,t − ∆λ3

sig(h),t+ret(h) − ∆λ2t = h7(·, µ) (D.58)

∆λ3h,t − ∆λ3

h,t+1 +DVHh,t∆V Hh,t = h8(·, µ) (D.59)

∆V Hh,t − ∆V Hh,t−1 + ∆PHh,t −∑

sig(k)=h

∆PHk,t−ret(k) = h9(·, µ) (D.60)

Ecuaciones relacionadas con las restricciones del sistema:

∑i

Ui,t · ∆Pi,t −∑i

Pi,t · ∆Ui,t −∑h

∆PHh,t = h10(·, µ) (D.61)

∆Xt −∑i

PMi ∆Ui,t = h11(·, µ) (D.62)

∆λ16t +DX∆Xt = h12(·, µ) (D.63)

donde los coeficientes de la matriz vienen dados por:

DPi,t =λ4i,t

s1i,t+λ5i,t

s2i,t− 2λ1ciUi,t (D.64)

DUi,t =λ6i,t

s3i,t+λ7i,t

s4i,t(D.65)

PUi,t = −λ1C ′i,t − λ2

t (D.66)

CA,Pi = CAi + CPi (D.67)

CU,A,Pi,t = Ci,t + CA,P

i (1 − Ui,t−1 − Ui,t+1) (D.68)

DZi,t =λ10i,t

s6i,t+λ11i,t

s7i,t(D.69)

DV =λ8

s5(D.70)

DPHh,t =λ12h,t

s8h,t+λ13h,t

s9h,t(D.71)

DVHh,t =λ14h,t

s10h,t+λ15h,t

s11h,t(D.72)

DX =λ17t

s12t(D.73)

250

Page 275: Técnicas avanzadas de predicción y optimización aplicadas a ...

D.1 Subproblema continuo

Y los términos independientes de las ecuaciones son los siguientes:

h1(·, µ) = − ∂Lµ

∂Pi,t− µ

s1i,t− λ

4i,t

s1i,t(Pi,t − PM

i ) +µ

s2i,t+

+λ5i,t

s2i,t(Pm

i − Pi,t) (D.74)

h2(·, µ) = − ∂Lµ

∂Ui,t− µ

s3i,t− λ

6i,t

s3i,t(Ui,t − 1) +

µ

s4i,t− λ

7i,t

s4i,tUi,t (D.75)

h3(·, µ) = − ∂Lµ

∂Zi,t− µ

s6i,t− λ

10i,t

s6i,t(Zi,t −RSi) +

µ

s7i,t+

+λ11i,t

s7i,t(−RBi − Zi,t) (D.76)

h4(·, µ) = − ∂Lµ

∂λ9i,t

(D.77)

h5(·, µ) = −∂Lµ

∂V− µ

s5− λ

8

s5(V − C) (D.78)

h6(·, µ) = −∂Lµ

∂λ1(D.79)

h7(·, µ) = − ∂Lµ

∂PHh,t− µ

s8h,t− λ

12h,t

s8h,t(PHh,t − PHM

h )

s9h,t+λ13h,t

s9h,t(PHm

h − PHh,t) (D.80)

h8(·, µ) = − ∂Lµ

∂V Hh,t− µ

s10h,t− λ

14h,t

s10h,t(V Hh,t − V HM

h )

s11h,t+λ15h,t

s11h,t(V Hm

h − V Hh,t) (D.81)

h9(·, µ) = − ∂Lµ

∂λ3h,t

(D.82)

h10(·, µ) = −∂Lµ

∂λ2t

(D.83)

h11(·, µ) = − ∂Lµ

∂λ16t

(D.84)

h12(·, µ) = −∂Lµ

∂Xt+µ

s12t+λ17t

s12t(−Xt +Rt +Dt −

∑h

PHMh ) (D.85)

Sin pérdida de generalidad y para una mayor comodidad de notación, sesupone que:

251

Page 276: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice D Subproblemas

El horizonte de programación está dividido en dos intervalos horarios.

El embalse h tiene al embalse h+ 1 situado aguas abajo y el tiempo quetarda en llegar el agua de un embalse a otro es de un intervalo horario.

Entonces el sistema de ecuaciones se puede escribir matricialmente porbloques como sigue:

Di,h1 Si

1 −P 0 −R1 0 Ci1

Si1 Di,h

2 0 −P −R2 0 Ci2

−P 0 0 0 0 0 0−P 0 0 0 0 0 0

−R1 0 0 D1 0 0 0−R2 0 0 0 D2 0 0

0 0 0 0 0 0 DV 1Ci

1 Ci2 0 0 0 0 1

∆Xh,i1

∆Xh,i2

∆λ21

∆λ22

∆Y i1

∆Y i2

∆V∆λ1

=

ah,i1

ah,i2

b1b2

c1c2

de

Fijado un intervalo de tiempo se tiene que:

Los bloques diagonales, Di,ht , y los bloques superdiagonales, Si

1, son ma-trices cuadradas de dimensión 4ng + 3nh. A continuación se describenlos bloques diagonales y superdiagonales. Por comodidad de notación sesupone que hay dos centrales térmicas y dos hidráulicas.

Cada bloque diagonal tiene la siguiente estructura:

Di,ht =

[TER

HID

]donde

TER =

P1,t P2,t U1,t U2,t Z1,t Z2,t λ91,t λ9

2,t

P1,t

P2,t

U1,t

U2,t

Z1,t

Z2,t

λ91,t

λ92,t

DP1,t PU1,t −1DP2,t PU2,t −1

PU1,t DU1,t

PU2,t DU2,t

DZ1,t 1DZ2,t 1

−1 1−1 1

252

Page 277: Técnicas avanzadas de predicción y optimización aplicadas a ...

D.1 Subproblema continuo

HID =

PH1,t PH2,t λ31,t V H1,t λ3

2,t V H2,t

PH1,t

PH2,t

λ31,t

V H1,t

λ32,t

V H2,t

DPH1,t 1DPH2,t 1

1 11 DVH1,t

1 11 DVH2,t

Los bloques superdiagonales están formados por dos bloques diagonales,uno relacionado con las ecuaciones térmicas, STER, que surge debido a laecuación de rampas de subida y bajada y otro relacionado con las ecua-ciones hidráulicas, SHID, que surge debido a la ecuación de acoplamientoentre embalses. Estos bloques son como se muestra a continuación:

STER =

P1,t P2,t U1,t U2,t Z1,t Z2,t λ91,t λ9

2,t

P1,t

P2,t

U1,t

U2,t

Z1,t

Z2,t

λ91,t

λ92,t

11

11

SHID =

PH1,t PH2,t λ31,t V H1,t λ3

2,t V H2,t

PH1,t

PH2,t

λ1

V H1,t

λ32,t

V H2,t

−1

−1

−1

P es un vector de dimensión 4ng + 3nh, donde las 2ng primeras compo-nentes están formadas por las potencias térmicas Pi,t, las siguientes 2ngestán formadas por ceros, las siguientes nh por unos y las restantes 2nhpor ceros.

Rt es una matriz de dimensión (4ng+3nh)×2, donde la primera columnaestá formada por ceros y la segunda también excepto las componentesng + 1, . . . , 2ng que están formadas por las potencias máximas de lascentrales térmicas, PM

i .

253

Page 278: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice D Subproblemas

Cit es un vector de dimensión 4ng + 3nh donde las ng primeras compo-

nentes están formadas por Ui,tC′i,t, las ng siguientes por C

U,A,Pi,t y el resto

por ceros.

Dt es una matriz 2 × 2 como sigue:

Dt =Xt λ16

t

Xt

λ16t

[DX 11 0

](D.86)

∆Xh,it es un vector de dimensión 4ng + 3nh con la estructura siguiente:

∆Xh,it = [∆Pi,t,∆Ui,t,∆Zi,t,∆λ

9i,t,∆PHh,t, [∆λ

3h,t,∆Vh,t]]

∆λ2t es el vector de las correcciones del multiplicador de la ecuación de

la demanda.

∆Y it es un vector de dimensión 2nt con la estructura siguiente:

∆Y it = [∆Xt,∆λ

16t ]

ah,it es un vector de dimensión 4ng + 3nh, donde las 4ng primeras com-ponentes están formadas por h1(·, µ), h2(·, µ), h3(·, µ) y h4(·, µ), las nhsiguientes por h7(·, µ) y las 2nh últimas, por h8(·, µ) y h9(·, µ), de formaintercalada. Es decir:

ah,it = [h1(·, µ), h2(·, µ), h3(·, µ), h4(·, µ), h7(·, µ), [h8(·, µ), h9(·, µ)]]

bt es un vector de dimensión nt cuyas componentes están formadas porh10(·, µ).ct es un vector de dimensión 2 formado por:

ct = [h12(·, µ), h11(·, µ)]

d es un escalar formado por h5(·, µ).e es un escalar formado por h6(·, µ).

Se trata de una matriz simétrica tanto estructuralmente como numérica-mente y en general no definida positiva.

254

Page 279: Técnicas avanzadas de predicción y optimización aplicadas a ...

D.2 Subproblema discreto

D.2. Subproblema discreto

Para obtener el subproblema de optimización discreto basta sustituir en elproblema (D.1)-(D.10) la restricción:

0 < Ui,t < 1 por Ui,t(1 − Ui,t) = 0 (D.87)

Esta nueva restricción produce en las ecuaciones anteriores algunos cambiosque se indican a continuación. Estos cambios sólo afectan a las ecuacionesrelacionadas con las centrales térmicas. Los autovalores λ6

i,t y λ7i,t desaparecen y

aparece un nuevo autovalor, λ18i,t, asociado a la nueva ecuación de igualdad. Así,

la ecuación (D.53), del grupo de ecuaciones relacionadas con las restriccionestérmicas, en el subproblema discreto es la siguiente:

PUi,t∆Pi,t + λ1CA,Pi (∆Ui,t−1 + ∆Ui,t+1) +DUi,t∆Ui,t

+LUi,t∆λ18i,t − Pi,t∆λ

2t − PM

i ∆λ16t − CU,A,P

i,t ∆λ1 = − ∂Lµ

∂Ui,t(D.88)

donde:

DUi,t = −2λ18i,t (D.89)

LUi,t = 1 − 2Ui,t (D.90)∂Lµ

∂Ui,t

= −λ1CU,A,Pi,t + (1 − 2Ui,t)λ

18i,t − λ2

tPi,t − λ16t P

Mi (D.91)

Además en este grupo de ecuaciones aparece una nueva ecuación corres-pondiente al autovalor λ18

i,t:

LUi,t∆Ui,t = −Ui,t(1 − 2Ui,t) (D.92)

Esto afecta a la estructura por bloques de la matriz tan sólo en los bloquesdiagonales y superdiagonales, en lo que respecta a la parte térmica. Los bloquesdiagonales, Di,h

t , y los bloques superdiagonales, Si1, incrementan su dimensión

en ng debido a la nueva ecuación (D.92), es decir, en este caso son matricescuadradas de dimensión 5ng + 3nh.

255

Page 280: Técnicas avanzadas de predicción y optimización aplicadas a ...

Apéndice D Subproblemas

TER =

P1,t P2,t U1,t U2,t Z1,t Z2,t λ91,t λ9

2,t λ181,t λ18

2,t

P1,t

P2,t

U1,t

U2,t

Z1,t

Z2,t

λ91,t

λ92,t

λ181,t

λ182,t

DP1,t PU1,t −1DP2,t PU2,t −1

PU1,t DU1,t LUi,t

PU2,t DU2,t LUi,t

DZ1,t 1DZ2,t 1

−1 1−1 1

LUi,t

LUi,t

STER =

P1,t P2,t U1,t U2,t Z1,t Z2,t λ91,t λ9

2,t λ181,t λ18

2,t

P1,t

P2,t

U1,t

U2,t

Z1,t

Z2,t

λ91,t

λ92,t

λ181,t

λ182,t

11

11

256

Page 281: Técnicas avanzadas de predicción y optimización aplicadas a ...

Bibliografía

[1] A. Abraham and B. Nath. A neuro-fuzzy approach for modelling elec-tricity demand in victoria. Applied Software Computing, 11(2):127–138,2001.

[2] M. Adya, F. Collopy, J. Scott Armstrong, and M. Kennedy. Automaticidentification of time series features for rule-based forecasting. Interna-tional Journal of Forecasting, 17:143–157, 2001.

[3] D. W. Aha, D. Kibler, and M. K. Albert. Instance-based learning algo-rithms. Machine Learning, 6:37–66, 1991.

[4] A. S. Alfuhaid and M. A. El-Sayed. Cascaded artificial neural networkfor short-term load forecasting. IEEE Transactions on Power System,12:1524–1529, 1997.

[5] N. Amjady. Short-term hourly load forecasting using time-series mode-ling with peak load estimation capability. IEEE Transactions on PowerSystem, 16(3):498–505, 2001.

[6] P. Angelov and R. Buswell. Identification of evolving fuzzy rule-basedmodels. IEEE Transactions on Fuzzy Systems, 10(5):667–677, 2002.

[7] J. M. Arroyo and A. J. Conejo. Optimal response of a thermal unitto an electricity spot market. IEEE Transactions on Power System,15(3):1098–1104, 2000.

[8] J. M. Arroyo and A. J. Conejo. A parallel repair genetic algorithmto solve the unit commitment problem. IEEE Transactions on PowerSystem, 17(4):1216–1224, 2002.

[9] V. Babovic, M. Keijzer, and M. Stefansson. Optimal embedding usingevolutionary algorithms. In Proceedings of the 4th International Confe-rence on Hydroinformatics, 2000.

257

Page 282: Técnicas avanzadas de predicción y optimización aplicadas a ...

Bibliografía

[10] M. S. Bazaraa, H. D. Sherali, and C. M. Shetty. Nonlinear Programming:Theory and Algorithms. Second Edition. John Wiley & Sons, New York,1993.

[11] R. Bellman. Dynamic Programming. Princeton University Press, 1957.

[12] D. Berndt and J. Clifford. Using dynamic time warping to find patternsin time series. In Proceedings of the AAAI-94 Workshop on Knowledgein Databases (KDD-94), 1994.

[13] G. E. P. Box and G. M. Jenkins. Time Series Analysis Forecasting andControl. Second Edition. Holden-Day, San Francisco, 1976.

[14] L. Breiman, J. H. Friedman, R. A. Olshen, and C. J. Stone. Classificationand Regression Trees. Wadsworth, Belmont CA, 1984.

[15] L. Breiman, J. H. Friedman, R. A. Olshen, and C. J. Stone. Data Mining.Practical Machine Learning Tools and Techniques with Java Implemen-tations. Morgan Kaufmann, 1999.

[16] R. H. Byrd, M. E. Hribar, and J. Nocedal. An interior-point algorithmfor large-scale nonlinear programming. SIAM Journal of Optimization,9(4):877–900, 1999.

[17] A. Canoyra, C. Illán, A. Landa, J. M. Moreno, J. I. Pérez Arriaga, C. Sa-llé, and C. Solé. The hierarchical market approach to the economic andsecure operation of the spanish power system. In Proocedings of the BulkPower System Dynamic and Control IV, 2002.

[18] C-P. Cheng, C-W. Liu, and C-C. Liu. Unit commitment by lagrangianrelaxation and genetic algorithm. IEEE Transactions on Power System,15:707–714, 2000.

[19] G. Chicco, R. Napoli, and F. Piglione. Load pattern clustering for short-term load forecasting of anomalus days. In Proceedings of the IEEEPorto Power Tech Conference, 2001.

[20] A. I. Cohen and M. Yoshimura. A branch-and-bound algorithm for unitcommitment. IEEE Transactions Power Applications Systems, PAS-102:444–451, 1983.

[21] A. J. Conejo, J. Contreras, J. M. Arroyo, and S. de la Torre. Opti-mal response of an oligopolistic generating company to a competitivepool-based electric power market. IEEE Transactions on Power System,17(2):404–410, 2002.

258

Page 283: Técnicas avanzadas de predicción y optimización aplicadas a ...

Bibliografía

[22] J. Contreras, R. Espínola, F. J. Nogales, and A. J. Conejo. Arima mo-dels to predict next-day electricity prices. IEEE Transactions on PowerSystem, 18(3):1014–1020, 2003.

[23] S. Cost and S. Salzberg. A weigted nearest neighbor algorithm for lear-ning with symbolic features. Machine Learning, 10:57–78, 1993.

[24] T. M. Cover. Estimation by nearest neighbor rule. IEEE Transactionson Information Theory, 14:50–55, 1968.

[25] T. M. Cover and P. E. Hart. Nearest neighbor pattern classification.IEEE Transactions on Information Theory, 13(1):21–27, 1967.

[26] T. M. Cover and J. A. Thomas. “Elements of Information Theory”. JohnWiley and Sons, John Wiley and Sons edition, 1991.

[27] B. V. Dasarathy. Nearest neighbour (nn) norms: Nn pattern classificationtechniques. IEEE Computer Society Press, 1991.

[28] S. Dudani. The distance-weighted k-nearest-neighbor rule. IEEE Tran-sactions on Systems, Man and Cybernetics, SMC-6, 4(1):325–327, 1975.

[29] J-P. Eckmann, S. O. Kamphorst, D. Ruelle, and S. Ciliberto. Lyapunovexponents from time series. Phisical Review, 34A:4971–4979, 1986.

[30] A. S. El-Bakry, R. A. Tapia, T. Tsuchiya, and Y. Zhang. On the for-mulation and theory of the newton interior-point method for nonlinearprogramming. Journal of Optimization and Applications, 89(3):507–541,Junio 1996.

[31] R. Espínola, J. Contreras, F. J. Nogales, and A. J. Conejo. Day-electricityprice forecasting based on time series models: A comparison. In Procee-dings of the PSCC Power System Computation Conference, 2002.

[32] U. Fayyad and R. Uthurusamy. Data mining and knowledge discoveryin databases. Communication of the ACM, 39(11):24–34, 1996.

[33] C. Ferreira. Gene expression programming: a new adaptive algorithmfor solving problems. Complex Systems, 13(2):87–129, 2001.

[34] F. J. Ferrer, J. S. Aguilar, and J. C. Riquelme. Non-parametric nearestneighbour with local adaptation. Lecture Notes in Artificial Intelligence,2258:22–29, 2001.

259

Page 284: Técnicas avanzadas de predicción y optimización aplicadas a ...

Bibliografía

[35] D. B. Fogel. Evolutionary Computation. Toward a New Philosophy ofMachine Intelligence. Second Edition. IEEE Press, New York, 2000.

[36] C. Fonlupt. Solving the ocean color problem using a genetic programmingapproach. Applied Soft Computing, 1:63–72, 2001.

[37] A. Forsgren and P. E. Gill. Primal-dual interior methods for nonconvexnonlinear programming. SIAM Journal of Optimization, 8(4):1132–1152,1998.

[38] E. Frank and I. H. Witten. Generating accurate rule sets without glo-bal optimization. In Proceedings of 15th International Conference onMachine Learning ICML’98, 1998.

[39] F. Gao, X. Guan, X-R. Cao, and A. Papalexopoulos. Forecasting powermarket clearing price and quantity using a neural network method. InProceedings of the Power Engineering Summer Meeting, 2000.

[40] J. García-González and G. Alonso. Short-term hydro scheduling withcascaded and head-dependent reservoirs based on mixed-integer linearprogramming. In Proceedings of the IEEE Porto Power Tech Conference,2001.

[41] J. M. Gimeno, J. Béjar, and M. Sànchez. Nearest-neighbours for timeseries. Applied Intelligence, 20:21–35, 2004.

[42] A. Gómez, J. L. Martínez, and V. H. Quintana. Transmission powerloss by interior-point methods. In Proceedings of the Power IndustryComputer Applications PICA’99, 1999.

[43] D. E. Goldberg. Genetic Algorithms in Search, Optimization and Ma-chine Learning. Addison-Wesley, Massachusetts, USA, 1989.

[44] S. Granville. Optimal reactive dispatch through interior point methods.IEEE Transactions on Power System, 9(1):136–146, 1994.

[45] M. Harries and K. Horn. A nearest trajectory strategy for time seriesprediction. In Proceedings of the International Workshop on AdvancedBlack-Box Techniques for Nonlinear Modeling, pages 112–128, 1998.

[46] H. S. Hippert, C. E. Pedreira, and C. Souza. Neural networks for short-term load forecasting: A review and evaluation. IEEE Transactions onPower System, 16(1):44–55, 2001.

260

Page 285: Técnicas avanzadas de predicción y optimización aplicadas a ...

Bibliografía

[47] J. B. Hiriart-Urruty and C. Lemaréchal. Convex Analysis and Mini-mization Algorithms. Vol. I and II. Springer-Verlag, Berlin, Germany,1996.

[48] J. H. Holland. Adaptation in Natural and Artificial Systems. Universityof Michigan Press, Ann Arbor, USA, 1975.

[49] G. Holmes, M. Hall, and E. Frank. Generating rule sets from modeltrees. In Proceedings of the 12th Australian Joint Conference on ArtificialIntelligence, pages 1–12, 1999.

[50] K-Y. Huang, H-T. Yang, and C-L. Huang. A new thermal unit commit-ment approach using constraint logic programming. IEEE Transactionson Power System, 13:936–945, 1998.

[51] A. Inda, R. Nieva, and J. Frausto. Cht: a digital computer packagefor solving short term hydro-thermal coordination and unit commitmentproblems. IEEE Transactions on Power Applications Systems, PAS-1:168–174, 1986.

[52] A. W. Jayawardena, W. K. Li, and P. Xu. Neighbourhood selection forlocal modelling and prediction of hydrological time series. Journal ofHidrology, 258:40–57, 2002.

[53] N. Jiménez and A. J. Conejo. Short-term hydro-thermal coordination bylagrangian relaxation: Solution of the dual problem. IEEE Transactionson Power System, 14(1):89–95, 1999.

[54] M. A. Kaboudan. A measure of time series’ predictability using geneticprogramming applied to stock returns. International Journal of Forecas-ting, 18:345–357, 1999.

[55] M. A. Kaboudan. Compumetric forecasting of crude oil prices. In Pro-ceedings of the IFAC Simposium on Modeling and Control of EconomicSystems, pages 283–287, 2001.

[56] N. Karmarkar. A new polynomial-time algorithm for linear program-ming. Combinatoria, 4(4):373–395, 1984.

[57] S. A. Kazarlis, A. G. Bakirtzis, and V. Petridis. A genetic algorithmsolution to the unit commitment problem. IEEE Transactions on PowerSystem, 11(1):83–92, 1996.

261

Page 286: Técnicas avanzadas de predicción y optimización aplicadas a ...

Bibliografía

[58] J. E. Kelley. The cutting plane method for solving convex problems.SIAM J. Industrial and Applied Mathematics, 8:703–712, 1960.

[59] M. B. Kennel, R. Brown, and H. D. I. Abarbanel. Determining em-bedding dimension for phase-space reconstruction using a geometricalconstruction. Physical Review A, 45(6):3403–3411, 1992.

[60] E. J. Keogh and S. Kasetty. On the need for time series data miningbenchmarks: A survey and empirical demonstration. Lecture Notes inComputer Science, pages 122–133, 2000.

[61] E. J. Keogh and M. J. Pazzani. Scaling up dynamic time warping to mas-sive datasets. Lecture Notes in Artificial Intelligence, 1704:1–11, 1999.

[62] E. J. Keogh and M. J. Pazzani. A simple dimensionality reduction tech-nique for fast similarity search in large time series databases. In Procee-dings of the 8th ACM SIGKDD International Conference on KnowledgeDiscovery and Data Mining, pages 102–111, 2002.

[63] A. Khotanzad, E. Zhou, and H. Elragal. A neuro-fuzzy approach toshort-term load forecasting in a price-sensitive environment. IEEE Tran-sactions on Power System, 17(4):1273–1282, 2002.

[64] D. Kim and C. Kim. Forecasting time series with genetic fuzzy predictorensemble. IEEE Transactions on Fuzzy Systems, 5(4):523–535, 1997.

[65] T. Kohonen. Self-organized formation of topologically correct featuremaps. Biological Cybernetics, 43:59–69, 1986.

[66] J. R. Koza. Genetic Programming: On the Programming of Computersby Means of Natural Selection. MA: MIT Press, Cambridge, 1992.

[67] R. Lamedica, A. Prudenzi, M. Sforna, M. Caciotta, and V. O. Cencellli. Aneural network based technique for short-term forecasting of anomalousload periods. IEEE Transactions on Power System, 11(4):1749–1756,1996.

[68] G. S. Lauer, N. R. Sandell Jr., N. R. Bertsekas, and T. A. Posbergh.Solution of large scale optimal unit commitment problems. IEEE Tran-sactions Power Applications Systems, PAS-101:79–96, 1982.

[69] F. N. Lee, J. Huang, and R. Adapa. Multi-area unit commitment via se-quential method and a dc power flow network model. IEEE Transactionson Power Systems, 9:279–287, 1994.

262

Page 287: Técnicas avanzadas de predicción y optimización aplicadas a ...

Bibliografía

[70] C-A. Li, R. B. Johnson, A. J. Svoboda, C. Tseng, and E. Hsu. A ro-bust unit commitment algorithm for hydro-thermal optimization. IEEETransactions on Power Systems, 13:1051–1056, 1998.

[71] S. Lu, K. H. Ju, and K. H. Chon. A new algorithm for linear andnonlinear arma model parameter estimation using affine geometry. IEEETransactions on Biomedical Engineering, 48(10):1116–1124, 2001.

[72] D. G. Luenberger. Linear and Nonlinear Programming. Second Edition.Addison Wesley, Reading, Massachusetts, 1984.

[73] M. Madrigal and V. H. Quintana. An interior-point/cutting-plane algo-rithm to solve unit commitment problems. IEEE Transactions on PowerSystem, 15(3):1022–1027, 2000.

[74] T. T. Maifeld and G. B. Sheblé. Genetic-based unit commitment algo-rithm. IEEE Transactions on Power System, 11(3):1359–1370, 1996.

[75] A. H. Mantawy, Y. L. Abdel-Magid, and S. Z. Selim. A genetic algorithmwith local search for unit commitment. In Proceedings of the 1997 Inte-lligent System Applications to Power Systems (ISAP’97), pages 170–175,1997.

[76] F. J. Marín, F. García-Lagos, and F. Sandoval. Global model for shortterm load forecasting neural networks. IEE Proceedings-GenerationTransmission Disribution, 149(2):121–125, 2002.

[77] J. L. Martínez, A. Gómez, J. M. Riquelme, A. Troncoso, and A. R. Ma-rulanda. Influence of ann-based market price forecasting uncertainty onoptimal bidding. In Proceedings of the PSCC Power System ComputationConference, 2002.

[78] J. L. Martínez, A. Gómez, A. Troncoso, and J. M. Riquelme. Despachoeconómico de centrales térmicas e hidráulicas en el corto plazo mediantetécnicas de punto interior. In Actas de las Jornadas Hispano-Lusas deIngeniería Eléctrica, 2001.

[79] J. L. Martínez, A. Troncoso, J. M. Riquelme, and A. Gómez. Short-termhydro-thermal coordination based on interior point nonlinear program-ming and genetic algorithms. In Proceedings of the IEEE Porto PowerTech Conference, 2001.

[80] G. P. McCormick and A. V. Fiacco. Nonlinear Programming: SequentialUnconstrained Minimization Techniques. SIAM, Philadelphia, 1990.

263

Page 288: Técnicas avanzadas de predicción y optimización aplicadas a ...

Bibliografía

[81] J. McNames. Local modeling optimization for time series prediction.Physical Review E, 2000.

[82] J. Medina, V. H. Quintana, and A. J. Conejo. A clipping-off interior-point technique for medium-term hydro-thermal coordination. IEEETransactions on Power System, 14(1):266–273, 1999.

[83] J. Medina, V. H. Quintana, A. J. Conejo, and F. Pérez. Comparisonof interior-point codes for medium-term hydro-thermal coordination. InIn Proceedings of the Power Industry Computer Applications PICA’97,pages 224–231, 1997.

[84] S. Mehrotra. On the implementation of a (primal-dual) interior method.SIAM Journal on Optimization, 2(4):575–601, 1992.

[85] L. Micó, J. Oncina, and R. C. Carrasco. A fast branch and bound nearestneighbour classifier in metric spaces. Pattern Recognition Letters, 17:731–739, 1996.

[86] Z. Michalewicz. Genetic Algorithms + Data Structures = Evolution Pro-grams. Third Edition. Springer-Verlag, Berlin, Germany, 1996.

[87] J. Moody and C. Darken. Learning with localized receptive fields. InProoceedings of the Conectionist Models Summer School of Pittsburgh,pages 162–172, 1988.

[88] L. Mora-López, I. Fortes Ruíz, R. Morales-Bueno, and F. Triguero Ruíz.Dynamic discretization of continous values from time series. LectureNotes in Artificial Intelligence, 1810:280–291, 2000.

[89] L. Mora-López, R. Ruíz, and R. Morales-Bueno. Modelo para la se-lección automática de componentes significativas en el análisis de seriestemporales. In Actas de la CAEPIA2003 Conferencia de la AsociaciónEspañola sobre Inteligencia Artificial, 2003.

[90] H. Mori, N. Kosemura, K. Ishiguro, and T. Kondo. Short-term loadforecasting with fuzzy regression tree in power systems. In Proceedingsof the IEEE International Conference on Systems, Man and Cibernetics,pages 1948–1953, 2001.

[91] K. J. Mun, H. S. Kim, J. H. Park, T. W. Park, S. H. Park, K. R. Ryu,and S. H. Chung. A parallel genetic algorithm approach for the unitcommitment problem. In Proceedings of the 1997 Intelligent System Ap-plications to Power Systems (ISAP’97), pages 188–193, 1997.

264

Page 289: Técnicas avanzadas de predicción y optimización aplicadas a ...

Bibliografía

[92] G. L. Nemhauser and L. A. Wolsey. Integer and Combinatorial Optimi-zation. John Wiley & Sons, New York, 1988.

[93] F. J. Nogales, J. Contreras, A. J. Conejo, and R. Espínola. Forecastingnext-day electricity prices by time series models. IEEE Transactions onPower System, 17(2):342–348, 2002.

[94] T. Oates. Identifing distinctive subsequences in multivariate time se-ries by clustering. In Proceedings of the KDD Knowledge Discovery inDatabases, 1999.

[95] A. D. Papalexopoulos and T. C. Hesterberg. A regression-based approachto short-term system load forecasting. IEEE Transactions on PowerSystem, 5:1535–1547, 1990.

[96] H-O. Peitgen, H. Jürgens, and D. Saupe. Chaos and Fractals. New Fron-tiers of Science. Spriger-Verlag, 1992.

[97] B. T. Polyak. Introduction to Optimization. Optimization Software, Inc,New York, 1987.

[98] J. R. Quinlan. Learning with continous classes. In Proceedings of the 5thAustralian Joint Conference on Artificial Intelligence, Singapore: WorldScientific, pages 343–348, 1992.

[99] J. R. Quinlan. C4.5: Programs for Machine Learning. Morgan Kauf-mann, 1993.

[100] V. Ramasubramanian and K. K. Paliwal. Fast nearest-neighbor searchalgorithm based on approximation-elimination search. Pattern Recogni-tion, 33:1497–1510, 2000.

[101] B. Ramsay and A. J. Wang. An electricity spot-price estimator withparticular reference to weekends and public holidays. In Proceedings ofthe Universities Power Engineering Conference UPEC’97, 1997.

[102] B. Ramsay and A. J. Wang. A neural network based estimator for elec-tricity spot-pricing with particular reference to weekend and public ho-lidays. Neurocomputing, 23:47–57, 1998.

[103] A. Ratle and M. Sebag. Grammar-guided genetic programming anddimensional consistency: application to non-parametric identification inmechanics. Applied Soft Computing, 1:105–118, 2001.

265

Page 290: Técnicas avanzadas de predicción y optimización aplicadas a ...

Bibliografía

[104] J. C. Riquelme, F. J. Ferrer, and J. S. Aguilar. Búsqueda de un patrónpara el valor de k en k-nn. In Actas de la CAEPIA2001 Conferencia dela Asociación Española sobre Inteligencia Artificial, 2001.

[105] J. M. Riquelme, J. L. Martínez, A. Gómez, and D. Cros Goma. Loadpattern recognition and load forecasting by artificial neural networks.International Journal of Power and Energy Systems, 22:74–79, 2002.

[106] J. M. Riquelme, A. Troncoso, A. Gómez, and J. L. Martínez. Finding im-proved local minima of power system optimization problems by interior-point methods. IEEE Transactions on Power System, 18(1):238–244,2003.

[107] F. Rosenblatt. The perceptron: a probabilistic model for informationstorage and organization in the brain. Psychological Review, 65:386–408,1958.

[108] R. Ruiz, J. C. Riquelme, and J. S. Aguilar-Ruiz. Projection-based measu-re for efficient feature selection. Journal of Intelligent and Fuzzy System,12:175–183, 2002.

[109] D. E. Rumelhart, G. E. Hinton, and R. J. Willians. Learning internalrepresentations by error propagation. In Prooceedings of the 3th Interna-tional Joint Conference on Artificial Intelligence, pages 162–172, 1973.

[110] L. M. Saini and M. K. Soni. Artificial neural network-based peak loadforecasting using conjugate gradient methods. IEEE Transactions onPower System, 18(1):99–105, 2003.

[111] R. Setiono, W. K. Leow, and J. M. Zurada. Extraction of rules fromartificial neural networks for nonlinear regression. IEEE Transactionson Neural Networks, 13(3):564–577, 2002.

[112] S. Singh. Forecasting using a fuzzy nearest neighbour method. In Pro-ceedings of the 6th International Conference on Fuzzy Theory and Tach-nology, Fourth Joint Conference on Information Sciences, pages 80–83,1998.

[113] W. L. Snyder, H. D. Powell, and J. C. Rayburn. Dynamic programmingapproach to unit commitment. IEEE Transactions on Power Systems,2:339–347, 1987.

266

Page 291: Técnicas avanzadas de predicción y optimización aplicadas a ...

Bibliografía

[114] B. R. Szkuta, L. A. Sanabria, and T. S. Dillon. Electricity price short-term forecasting using artificial neural networks. IEEE Transactions onPower System, 14(3):851–857, 1999.

[115] F. Takens. Detecting strange attractors in turbulence. Lecture Notes inMathematics, 898:336–381, 1981.

[116] S. Takriti and J. R. Birge. Using integer programming to refinelagrangian-based unit commitment solutions. IEEE Transactions on Po-wer System, 15:151–156, 2000.

[117] W. F. Tinney and J. F. Walker. Direct solutions of sparse networkequations by optimally ordered triangular factorization. In Proceedingsof IEEE, volume 55, pages 1801–1809, 1967.

[118] L. Torgo. Applying propositional learning to time series prediction.In Proceedings of the 8th European Conference on Machine LearningECML’95, 1995.

[119] G. L. Torres and V. H. Quintana. On a nonlinear multiple-centrality-corrections interior-point method for optimal power flow. IEEE Tran-sactions on Power System, 16(2):222–228, 2001.

[120] A. Troncoso, J. C. Riquelme, J. L. Martínez, J. M. Riquelme, and A. Gó-mez. Influence of knn-based load forecasting errors on optimal energyproduction. Lecture Notes in Artificial Intelligence, 2902:189–203, 2003.

[121] A. Troncoso, J. C. Riquelme, J. M. Riquelme, J. L. Martínez, andA. Gómez. Electricity market price forecasting: Neural networks ver-sus weighted-distance k nearest neighbours. Lecture Notes in ComputerScience, 2453:321–330, 2002.

[122] A. Troncoso, J. C. Riquelme, J. M. Riquelme, and J. L. Martínez. Apli-cación de técnicas de computación evolutiva a la planificación Óptima dela producción de energía eléctrica en el corto plazo. In Actas de TTIA’03V Jornadas de Transferencia Tecnológica de Inteligencia Artificial, pages419–428, San Sebastian, 2003.

[123] A. Troncoso, J. C. Riquelme, J. M. Riquelme, J. L. Martínez, and A. Gó-mez. Application of evolutionary computation techniques to optimalshort-term electric energy production scheduling. Lecture Notes in Ar-tificial Intelligence, 3040:656–665, 2004.

267

Page 292: Técnicas avanzadas de predicción y optimización aplicadas a ...

Bibliografía

[124] A. Troncoso, J. M. Riquelme, J. C. Riquelme, A. Gómez, and J. L.Martínez. A comparison of two techniques for next-day electricity priceforecasting. Lecture Notes in Computer Science, 2412:384–390, 2002.

[125] A. Troncoso, J. M. Riquelme, J. C. Riquelme, A. Gómez, and J. L.Martínez. Time-series prediction: Application to the short-term electricenergy demand. Lecture Notes in Artificial Intelligence, 3040:577–586,2004.

[126] A. Troncoso, J. M. Riquelme, J. C. Riquelme, and J. L. Martínez. Predic-ción de series temporales: Aplicación a la demanda de energía eléctricaen el corto plazo. In Actas de CAEPIA’03 X Conferencia de la Asocia-ción Española sobre Inteligencia Artificial, pages 79–88, San Sebastian,2003.

[127] A. Troncoso, J. M. Riquelme, J. C. Riquelme, J. L. Martínez, and A. Gó-mez. Predicción de series temporales económicas: aplicación a los preciosde la energía en el mercado eléctrico español. In Proceedings of the IBE-RAMIA 2002 VIII Iberoamerican Conference on Artificial Intelligence.Workshop de Minería de Datos y Aprendizaje, pages 1–11, Sevilla, 2002.

[128] W. Vandaele. Applied Time Series Analysis and Box-Jenkins Models.Academic, 1983.

[129] Vanderbei and F. D. Shano. An interior-point algorithm for nonconvexnonlinear programming. Computational Optimization and Applications,13:231–252, 1999.

[130] E. Vidal. New formulation and improvements of the nearest-neighbourapproximating and eliminating search algorithm (aesa). Pattern Recog-nition Letters, 15:1–7, 1994.

[131] S. Vucetic, K. Tomsovic, and Z. Obradovic. Discovering price-load rela-tionships in california’s electricity market. IEEE Transactions on PowerSystem, 16(2):280–286, 2001.

[132] Y. Wang and I. H. Witten. Induction of model trees for predictingcontinous classes. In Proocedings of the poster papers of the EuropeanConference on Machine Learning, pages 128–137, 1997.

[133] H. Wei, H. Sasaki, J. Kubokawa, and R. Yokoyama. An interior pointnonlinear programming for optimal power flow problems with a noveldata structure. IEEE Transactions on Power System, 13(3):870–877,1998.

268

Page 293: Técnicas avanzadas de predicción y optimización aplicadas a ...

Bibliografía

[134] D. Wettschereck and T. G. Dietterich. An experimental comparisonof nearest neighbor and nearest hyperrectangle algorithms. MachineLearning, 19(1):5–28, 1995.

[135] K. P. Wong and Y. W. Wong. Thermal generator scheduling using hybridgenetic/simulated-annealing approach. IEE Proc. - Part C, 142(4):372–380, 1995.

[136] A. J. Wood and B. F. Wollenberg. Power Generation, Operation andControl. John Wiley & Sons Inc, 1996.

[137] S. J. Wright. Primal-Dual Interior-Point Methods. Philadelphia, PA:SIAM, 1997.

[138] Y-C. Wu, A. S. Debs, and R. E. Marsten. A direct nonlinear predictor-corrector primal-dual interior point algorithm for optimal power flows.IEEE Transactions on Power System, 9(2):876–883, 1994.

[139] H. Yamashita and H. Yabe. Superlinear and quadratic convergence ofsome primal-dual interior-point methods for constrained optimization.Mathematical Programming, 75:377–397, 1996.

[140] X. Yan and V. H. Quintana. Improving an interior-point-based opf bydynamic adjustments of step sizes and tolerances. IEEE Transactionson Power System, 14(2):709–717, 1999.

[141] H-T. Yang, C-M. Huang, and C-L. Huang. Identification of armax modelfor short term load forecasting: An evolutionary programming approach.IEEE Transactions on Power System, 11(1):403–408, 1996.

[142] H. T. Yang, P. C. Yang, and C. L. Huang. A parallel genetic algo-rithm approach to solving the unit commitment problem: Implementa-tion on the transputer networks. IEEE Transactions on Power System,12(2):661–668, 1997.

[143] L. Zhang, P. B. Luh, and K. Kasiviswanathan. Energy clearing priceprediction and confidence interval estimation with cascaded neural net-works. IEEE Transactions on Power System, 18(1):99–105, 2003.

269