Upgrade to Pro — share decks privately, control downloads, hide ads and more …

SHADE con una Búsqueda Local Iterativa para Opt...

dmolina
October 26, 2018

SHADE con una Búsqueda Local Iterativa para Optimización Continua de Alta Dimensionalidad

La optimización global es un campo de investigación de gran interés dado el gran número de problemas de la ciencia y la ingeniería que pueden formularse en dichos términos. Uno de los grandes retos en este tipo de problemas es el incremento de la dimensionalidad, ya que supone un aumento en la complejidad de los mismos. Este hecho hace de la optimización global de alta dimensionalidad un campo especialmente atractivo en nuestros días. En esta contribución proponemos un nuevo algoritmo híbrido especialmente diseñado para tratar con este tipo de problemas. La propuesta combina, de manera iterativa, una reciente variante del algoritmo de Evolución Diferencial con una búsqueda local que se escoge de entre varias estrategias disponibles. Dicha selección es dinámica y se lleva a cabo teniendo en cuenta la contribución de cada una de ellas en las anteriores fases de intensificación, de tal modo que se use la más apropiada en cada una de las fases de búsqueda del algoritmo. La experimentación se ha llevado a cabo usando el benchmark de alta dimensionalidad del CEC’2013 y los resultados demuestran que la sinergia existente entre las distintas componentes del algoritmo permite obtener unos resultados que mejoran los del actual ganador de las últimas competiciones de optimización global de alta dimensionalidad, Multiple Offsrping Sampling, MOS, con mejoras especialmente reseñables en los problemas de mayor complejidad.

dmolina

October 26, 2018
Tweet

More Decks by dmolina

Other Decks in Programming

Transcript

  1. SHADE con una Búsqueda Local Iterativa para Optimización Continua de

    Alta Dimensionalidad Daniel Molina1 Antonio LaTorre2 Francisco Herrera1 1Universidad of Granada, y el Instituto Andaluz Interuniversitario en Data Science and Computacional Intelligence (DaSCI) 2Universidad Politécnica de Madrid
  2. Problema de Alta dimensionalidad Tipos de optimización Optimización Real f

    (x ∗) ≤ f (x) ∀x ∈ Domain Optimización de parámetros reales Domain ⊆ D , x ∗ = [x1 , x2 , · · · , xD ] Optimización Global de Alta Dimensionalidad Large Scale Global Optimization (LSGO) cuando D ≥ 1000. Maldición de la Dimensionalidad El espacio de búsqueda incrementa exponencialmente.
  3. Problema de Alta dimensionalidad Tipos de optimización Optimización Real f

    (x ∗) ≤ f (x) ∀x ∈ Domain Optimización de parámetros reales Domain ⊆ D , x ∗ = [x1 , x2 , · · · , xD ] Optimización Global de Alta Dimensionalidad Large Scale Global Optimization (LSGO) cuando D ≥ 1000. Maldición de la Dimensionalidad El espacio de búsqueda incrementa exponencialmente.
  4. Problema de Alta dimensionalidad Tipos de optimización Optimización Real f

    (x ∗) ≤ f (x) ∀x ∈ Domain Optimización de parámetros reales Domain ⊆ D , x ∗ = [x1 , x2 , · · · , xD ] Optimización Global de Alta Dimensionalidad Large Scale Global Optimization (LSGO) cuando D ≥ 1000. Maldición de la Dimensionalidad El espacio de búsqueda incrementa exponencialmente.
  5. Problema de Alta dimensionalidad Tipos de optimización Optimización Real f

    (x ∗) ≤ f (x) ∀x ∈ Domain Optimización de parámetros reales Domain ⊆ D , x ∗ = [x1 , x2 , · · · , xD ] Optimización Global de Alta Dimensionalidad Large Scale Global Optimization (LSGO) cuando D ≥ 1000. Maldición de la Dimensionalidad El espacio de búsqueda incrementa exponencialmente.
  6. Problema de Alta dimensionalidad Tipos de optimización Optimización Real f

    (x ∗) ≤ f (x) ∀x ∈ Domain Optimización de parámetros reales Domain ⊆ D , x ∗ = [x1 , x2 , · · · , xD ] Optimización Global de Alta Dimensionalidad Large Scale Global Optimization (LSGO) cuando D ≥ 1000. Maldición de la Dimensionalidad El espacio de búsqueda incrementa exponencialmente.
  7. Interés de problemas LSGO Problemas reales Optimización de muchos parámetros.

    Estudiar escalabilidad de algoritmos ¾El algoritmo puede escalar? ¾Algoritmos especialmente diseñados para ello? Estudio de separabilidad de variables Variables con mayor inuencia que el resto. Un comportamiento completamente separable/no separable no es común: • Distinto nivel de separabilidad.
  8. MOS era el estado del arte Características Combina varios algoritmos

    evolutivos y búsquedas locales. Aplica cada uno con una probabilidad auto-adaptativa. Include método de BL especíco de alta dimensionalidad. Inconvenientes Complejo: Distintos algoritmos. Parámetros: Muchos parámetros a ajustar. Varios componentes sólo útiles en algunas funciones. Referencia Antonio LaTorre, Santiago Muelas, José María Peña:A comprehensive comparison of large scale global optimizers. Inf. Sci. 316: 517-549 (2015)
  9. MOS era el estado del arte Características Combina varios algoritmos

    evolutivos y búsquedas locales. Aplica cada uno con una probabilidad auto-adaptativa. Include método de BL especíco de alta dimensionalidad. Inconvenientes Complejo: Distintos algoritmos. Parámetros: Muchos parámetros a ajustar. Varios componentes sólo útiles en algunas funciones. Referencia Antonio LaTorre, Santiago Muelas, José María Peña:A comprehensive comparison of large scale global optimizers. Inf. Sci. 316: 517-549 (2015)
  10. MOS era el estado del arte Características Combina varios algoritmos

    evolutivos y búsquedas locales. Aplica cada uno con una probabilidad auto-adaptativa. Include método de BL especíco de alta dimensionalidad. Inconvenientes Complejo: Distintos algoritmos. Parámetros: Muchos parámetros a ajustar. Varios componentes sólo útiles en algunas funciones. Referencia Antonio LaTorre, Santiago Muelas, José María Peña:A comprehensive comparison of large scale global optimizers. Inf. Sci. 316: 517-549 (2015)
  11. Propuesta previa: IHDELS Propuesta previa (CEC'2015) Iterative Hybridation DE with

    LS: IHDELS. Referencia Daniel Molina, Francisco Herrera: Iterative hybridization of DE with Local Search for the CEC'2015 special session on large scale global optimization. Proceeding on IEEE CEC 2015: 1974-1978 (2015)
  12. Problemas de IHDELS Problemas de IHDELS Auto-adaptación compleja Reinicio inadecuado

    Planteamos otra propuesta Simplicar el algoritmo Mejorar resultados al mismo tiempo
  13. SHADE-ILS Algorithmo Memético Algoritmo Evolutivo, un DE, para explorar. Un

    método de BL para aumentar explotación soluciones. Algoritmo Evolutivo Explorar ecientemente. Pocos parámetros. Método de BL Especialmente adecuado para problemas LSGO. Robusto.
  14. Componentes: Algoritmo Evolutivo Evolución Diferencial: SHADE Los parámetros F y

    CR se adaptan: • F y CR generados en cada caso de una distribución con media. • La media se auto-adapta según el tness obtenido. Movimiento guiado por las mejores soluciones (10%). Escalable, explora bien el espacio de búsqueda. Sin reducción de población, la BL es quien centra explotación. Cambios desde el IHDELS IHDELS usaba SaDE. Diferente operador de mutación. Diferente adaptación de parámetros.
  15. Componente: Método de Búsqueda Local Métodos de Búsqueda Local MTS-LS1,

    método especíco para LSGO. Conocido L-BFGS-B para mayor robustez. Combinados Ambos son complementarios. En cada iteración se aplica sólo uno de ellos. Método adaptable para seleccionar cuál aplicar cada vez. Cambios respecto IHDELS Método de selección completamente diferente.
  16. Son complementarios MTS-LS1 Explora dimensión a dimensión, muy rápidamente. Muy

    sensible al sistema de coordenadas. L-BFGS-B Guiado por estimación del gradiente. Invariante frente al sistema de coordenadas.
  17. Esquema global Init Population Get best solution Get best solution

    Maxevals? Must restart? Choose LS by best improvement Apply LS to best one for FE DE evals Apply SHADE for FE LS evals Last improvement ratio for each LS Restart population Update improvement ratio Restart Step No Yes Yes No
  18. Componente: SHADE Init Population Get best solution Get best solution

    Maxevals? Must restart? Choose LS by best improvement Apply LS to best one for FE DE evals Apply SHADE for FE LS evals Last improvement ratio for each LS Restart population Update improvement ratio Restart Step No Yes Yes No
  19. SHADE: Mutación Initialization Mutation Crossover Selection Estrategia de mutación ui

    = xi + Fi · (xpbest − xi ) + Fi · (xr1 − ar2 ) xpbest individuo elegido aleatoriamente de entre los pbest mejores de la población. xr1 solución aleatoria de la población. ar2 solución aleatoria de la Poblaci n ∪ A. Fi valor aleatorio obtenido de una distribución normal con media FmeanK .
  20. SHADE: Cruce Initialization Mutation Crossover Selection Cruce ui = vi

    si rand[0,1] < CRi xi en otro caso CR ← distribución con media CRmeank . CRmeank se obtiene aleatoriamente de la memoria.
  21. SHADE: Selección Initialization Mutation Crossover Selection Selección x t+1 i

    = ui si ui mejora xt i xt i en otro caso Actualización de las media de F y CR Periódicamente se actualizan las medias de F y CR. Almacena varias medias en una memoria (mayor diversidad).
  22. Método de Búsqueda Local Init Population Get best solution Get

    best solution Maxevals? Must restart? Choose LS by best improvement Apply LS to best one for FE DE evals Apply SHADE for FE LS evals Last improvement ratio for each LS Restart population Update improvement ratio Restart Step No Yes Yes No
  23. Método de Búsqueda local MTS-LS1 Dene un grupo aleatorio de

    variables para mejorar C. Dene SR = 10% ratio de búsqueda local. Actualiza solución x durante Istr evaluaciones, ∀i ∈ C . 1 x i ← xi + SR. 2 si tness(x ) ≤ tness(x) x ← x , ir al paso 1. 3 en caso contrario x i ← xi − 0.5 · SR. 4 si tness(x ) ≤ tness(x) x ← x , ir al paso 1. 5 Reduce SR (SR ← SR/2), si x no mejora. L-BFGS-B Método matemático bien conocido. Aplica en cada punto el gradiente aproximado.
  24. Selección del método de Búsqueda Local Init Population Get best

    solution Get best solution Maxevals? Must restart? Choose LS by best improvement Apply LS to best one for FE DE evals Apply SHADE for FE LS evals Last improvement ratio for each LS Restart population Update improvement ratio Restart Step No Yes Yes No
  25. Selección del método de Búsqueda Local IHDELS aplicaba una probabilidad

    adaptativa. Probabilidad Inicial PLSM = 1 |LS| ∀M ∈ LS Actualización (otras FreqLS evaluaciones) PLSM = ILSM m∈LS ILSm ILSM = FreqLS i=1 Improvement LSM
  26. Selección de la BL Problemas Complejo de calcular. Asegurarse de

    mantener un mínimo de probabilidad. • Para evitar escoger siempre el mismo. Modelo SHADE-ILS 1 Aplica cada vez una BL distinta, obteniendo el ratio de mejora. 2 Almacena para cada método de BL ese ratio: RatioLSM = Fitnessold − Fitnessnew Fitnessold 1 En cada iteración, aplica la BL con mejor ratio previo.
  27. Ejemplo Ejemplo 1 Aplica MTS-LS1 ⇒ RatioMTS = 0.9. 2

    Aplica L-BFGS-B ⇒ Ratiobfgs = 0.8. 3 Aplica MTS-LS1 ⇒ RatioMTS = 0.85. 4 Aplica MTS-LS1 ⇒ RatioMTS = 0.78. 5 Aplica L-BFGS-B ⇒ Ratiobfgs =. . . 6 . . . Ventajas Mucho más fácil. Mejores resultados.
  28. Ejemplo Ejemplo 1 Aplica MTS-LS1 ⇒ RatioMTS = 0.9. 2

    Aplica L-BFGS-B ⇒ Ratiobfgs = 0.8. 3 Aplica MTS-LS1 ⇒ RatioMTS = 0.85. 4 Aplica MTS-LS1 ⇒ RatioMTS = 0.78. 5 Aplica L-BFGS-B ⇒ Ratiobfgs =. . . 6 . . . Ventajas Mucho más fácil. Mejores resultados.
  29. Mecanismo de Reinicio Modelo IHDELS Se aplica si en una

    iteración no se mejora. Se aplicaba pocas veces, nunca mejoró resultados. Modelo SHADE-ILS Cuenta cuándo no se alcanza un mínimo porcentaje de mejora (1%). Reinicia tras 3 iteraciones sin mejorar ese 1%. Reinicio parcial para cada iteración Si la BL no mejora ⇒ reinicia sus parámetros (SR). Si SHADE no mejora ⇒ reinicia la población.
  30. Benchmark Sobre el benchmark 15 funciones con dimensión 1000. Diferente

    comportamiento de variables: • Totalmente separables: F1 − F3. • Parcialmente separables: F4 − F11. • Con solapamiento: F12 − F14. • No separables: F15. Máximo evaluaciones: 3 · 106. Se miren los errores para distintas evaluaciones: 1.25 · 105 (4%), 6 · 105 (20%), 3 · 106 (100%).
  31. Parámetros de SHADE-ILS Valores de los parámetros de SHADE-ILS Parámetro

    Descripción Valor DE popsize Tamaño de la población 100 FEDE Evaluaciones por ejecución DE 25000 FELS Evaluaciones por ejecución BL 25000 MTSSR Tamaño salto inicial para MTS-LS1 10% Restartmin Mejora mínima (reinicio) 1% Iteranoimprov Iteraciones sin mejora (reinicio) 3
  32. Aportación de cada componente Comparando contribución de cada componente Estudiamos

    la inuencia de cada componente: 1 Algoritmo DE. 2 Mecanismo de reinicio. Algoritmo DE Reinicio IHDELS-SR SHADE Nuevo IHDELS-R SaDE Nuevo IHDELS-S SHADE Original IHDELS SaDE Original ¾Y el nuevo mecanismo de selección? No mejoraba los resultados. Reduce complejidad (y un parámetro menos).
  33. Aportación de cada componente Comparando contribución de cada componente Estudiamos

    la inuencia de cada componente: 1 Algoritmo DE. 2 Mecanismo de reinicio. Algoritmo DE Reinicio IHDELS-SR SHADE Nuevo IHDELS-R SaDE Nuevo IHDELS-S SHADE Original IHDELS SaDE Original ¾Y el nuevo mecanismo de selección? No mejoraba los resultados. Reduce complejidad (y un parámetro menos).
  34. Aportación de cada componente Func. IHDELS-SR IHDELS-R IHDELS-S IHDELS original

    (SHADE-ILS) F1 2.69e-24 1.21e-24 1.76e-28 4.80e-29 F2 1.00e+03 1.26e+03 1.40e+03 1.27e+03 F3 2.01e+01 2.01e+01 2.01e+01 2.00e+01 F4 1.48e+08 1.58e+08 2.99e+08 3.09e+08 F5 1.39e+06 3.07e+06 1.76e+06 9.68e+06 F6 1.02e+06 1.03e+06 1.03e+06 1.03e+06 F7 7.41e+01 8.35e+01 2.44e+02 3.18e+04 F8 3.17e+11 3.59e+11 8.55e+11 1.36e+12 F9 1.64e+08 2.48e+08 2.09e+08 7.12e+08 F10 9.18e+07 9.19e+07 9.25e+07 9.19e+07 F11 5.11e+05 4.76e+05 5.20e+05 9.87e+06 F12 6.18e+01 1.10e+02 3.42e+02 5.16e+02 F13 1.00e+05 1.34e+05 9.61e+05 4.02e+06 F14 5.76e+06 6.14e+06 7.40e+06 1.48e+07 F15 6.25e+05 8.69e+05 1.01e+06 3.13e+06 Mejor 12 1 0 2
  35. Aportación de cada componente Nuevo mecanismo de reinicio (https://tacolabs.org). Evaluations

    Mean Error Function: 04 New Restart Old Restart 1.20e+5 3.00e+6 6.00e+5 1.00e+8 1.00e+9 1.00e+10 1.00e+11 Highcharts.com Evaluations Mean Error Function: 09 1.20e+5 3.00e+6 6.00e+5 1.50e+8 1.75e+8 2.00e+8 2.25e+8 2.50e+8 2.75e+8 3.00e+8 Evaluations Mean Error Function: 05 New Restart Old Restart 1.20e+5 3.00e+6 6.00e+5 1.25e+6 1.50e+6 1.75e+6 2.00e+6 2.25e+6 2.50e+6 2.75e+6 Highcharts.com Evaluations Mean Error Function: 12 1.20e+5 3.00e+6 6.00e+5 4.00e+1 1.00e+2 2.00e+2 4.00e+2 1.00e+3 2.00e+3 4.00e+3
  36. Comparando con MOS MaxEvals = 1.25 · 105 (4%) Función

    SHADE-ILS MOS F1 6.10e+04 2.71e+07 F2 2.65e+03 2.64e+03 F3 2.03e+01 7.85e+00 F4 3.13e+10 3.47e+10 F5 2.50e+06 6.96e+06 F6 1.05e+06 3.11e+05 F7 3.95e+08 3.46e+08 F8 2.12e+14 3.72e+14 F9 2.88e+08 4.29e+08 F10 9.43e+07 1.16e+06 F11 6.55e+09 3.13e+09 F12 2.67e+03 1.16e+04 F13 1.29e+10 8.37e+09 F14 1.62e+11 4.61e+10 F15 9.12e+07 1.45e+07
  37. Comparando con MOS MaxEvals = 6 · 105 (20%) Función

    SHADE-ILS MOS F1 3.71e-23 3.48e+00 F2 1.80e+03 1.78e+03 F3 2.01e+01 1.33e-10 F4 1.54e+09 2.56e+09 F5 2.29e+06 6.95e+06 F6 1.04e+06 1.48e+05 F7 9.25e+05 8.19e+06 F8 6.93e+12 8.41e+13 F9 2.50e+08 3.84e+08 F10 9.29e+07 9.03e+05 F11 1.37e+08 8.05e+08 F12 1.28e+03 2.20e+03 F13 5.68e+07 8.10e+08 F14 6.97e+07 2.03e+08 F15 1.22e+07 6.26e+06
  38. Comparando con MOS MaxEvals = 3 · 106 (100%) Función

    SHADE-ILS MOS F1 2.69e-24 0.00e+00 F2 1.00e+03 8.32e+02 F3 2.01e+01 9.17e-13 F4 1.48e+08 1.74e+08 F5 1.39e+06 6.94e+06 F6 1.02e+06 1.48e+05 F7 7.41e+01 1.62e+04 F8 3.17e+11 8.00e+12 F9 1.64e+08 3.83e+08 F10 9.18e+07 9.02e+05 F11 5.11e+05 5.22e+07 F12 6.18e+01 2.47e+02 F13 1.00e+05 3.40e+06 F14 5.76e+06 2.56e+07 F15 6.25e+05 2.35e+06
  39. Comparando con MOS Considering the number of evaluations Alg 4%

    20% 100% MOS 9 5 5 SHADEILS 6 10 10 Conclusiones sobre SHADE-ILS Desde el 20% de evaluaciones obtiene mejores resultados. Mejor en funciones más complejas. • Peor en las separables. Muy competitivo en funciones no-separables/solapamiento.
  40. Comparando con MOS Considering the number of evaluations Alg 4%

    20% 100% MOS 9 5 5 SHADEILS 6 10 10 Conclusiones sobre SHADE-ILS Desde el 20% de evaluaciones obtiene mejores resultados. Mejor en funciones más complejas. • Peor en las separables. Muy competitivo en funciones no-separables/solapamiento.
  41. Mejora en las funciones más complejas Porcentaje de Mejora Fun

    MOS ⇒ SHADEILS 4% 20% 100% F7 1.6e+4 ⇒ 7.4e+1 -12.7% 88.6% 99.4% F8 8e+12 ⇒ 3.1e+11 53.8% 91.8% 96.0% F9 3.8e+8 ⇒ 1.6e+8 23.3% 34.9% 57.2% F10 9.0e+5 ⇒ 9.2e+7 -95.4% -99.0% -99.0% F11 5.2e+7 ⇒ 5.1e+5 -45.8% 83.0% 99.0% F12 2.5e+2 ⇒ 6.2e+1 77.6% 41.8% 74.9% F13 3.4e+6 ⇒ 1.0e+5 -38.8% 93.0% 97.1% F14 2.6e+7 ⇒ 5.8e+6 -61.7% 65.5% 77.3% F15 2.3e+6 ⇒ 6.2e+5 -87.7% -48.7% 73.2% Ratio = 100 · ErrorMOS − ErrorSHADEILS max(ErrorMOS , ErrorSHADEILS )
  42. Comparando con el criterio CEC'2013 Para cada función 1 Se

    ordenan los algoritmos por su tness/error. 2 Se asigna un ranking a cada uno por ese orden. 3 Cada uno recibe puntos en base al orden (más a los mejores). Resultado Global Para cada algoritmo se suma sus puntos por función. Se analizan conjuntamente o por categorías.
  43. Comparando con el criterio CEC'2013 Algorithm Values Accuracy: 1.200e+05 Non-separable

    Functions Overlapping Functions Functions with no separable subcomponents Functions with a separable subcomponent Unimodal IHDELS_2015 MOS SHADE-ILS VMODE 0 100 200 300 400 Highcharts.com
  44. Comparando con el criterio CEC'2013 Algorithm Values Accuracy: 6.000e+05 Non-separable

    Functions Overlapping Functions Functions with no separable subcomponents Functions with a separable subcomponent Unimodal IHDELS_2015 MOS SHADE-ILS VMODE 0 100 200 300 400 Highcharts.com
  45. Comparando con el criterio CEC'2013 Algorithm Values Accuracy: 3.000e+06 Non-separable

    Functions Overlapping Functions Functions with no separable subcomponents Functions with a separable subcomponent Unimodal IHDELS_2015 MOS SHADE-ILS VMODE 0 100 200 300 400 Highcharts.com
  46. Competición CEC'2018 Competidores SHADE-ILS Propuesta. BICCA Bi-Spaces Interactive Cooperative Coevolutionary

    Algorithm for Large Scale Global Black-Box Optimization, by Mongde Zhao et at. MLSHADE-SPA LSHADE-SPA Memetic Framework for Solving Large Scale Problems, by Anas A. Hadi, Ali W. Mohamed, and Kamal M. Jambi. MOS Algoritmo de referencia. Los resultados se han realizado usando https://tacolab.org
  47. Conclusiones Hemos propuesto un nuevo algoritmo para LSGO: SHADE-ILS. Aplica

    iterativamente SHADE+LS SHADE como el algoritmo DE. Aplica de forma iterativa la BL: • Mejor ratio previo de mejora. Resultados SHADEILS mucho más competitivo, especialmente en funciones más complejas. SHADEILS supera al anterior estado-del-arte MOS. SHADEILS ganador de la competición CEC'2018.
  48. Conclusiones Hemos propuesto un nuevo algoritmo para LSGO: SHADE-ILS. Aplica

    iterativamente SHADE+LS SHADE como el algoritmo DE. Aplica de forma iterativa la BL: • Mejor ratio previo de mejora. Resultados SHADEILS mucho más competitivo, especialmente en funciones más complejas. SHADEILS supera al anterior estado-del-arte MOS. SHADEILS ganador de la competición CEC'2018.