Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

GreenLSI
October 15, 2013

Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

Talk “Advances in Electronic Systems Engineering” seminar, within the M.Sc. in Electronic Systems Engineering (MISE), to present the session on Energy Optimization in Data Centers.

Speech title: Energy efficiency beyond PUE: exploiting knowledge about application and resources

Abstract: The current techniques for data center energy optimization, based on efficiency metrics like PUE, pPUE, ERE, DCcE, etc., do not take into account the static and dynamic characteristics of the applications and resources (computing and cooling). However, the knowledge about the current state of the data center, the past history, the resource characteristics, and the characteristics of the jobs to be executed can be used very effectively to guide decision-making at all levels in the datacenter in order to minimize energy needs. For example, the allocation of jobs on the available machines, if done taking into account the most appropriate architecture for each job from the energetic point of view, and taking into account the type of jobs that will come later, can reduce energy needs by 30%.
Moreover, to achieve significant reductions in energy consumption of state-of-the-art data centers (low PUE) is becoming increasingly important a comprehensive and multi-level approach, ie, acting on different abstraction levels (scheduling and resource allocation, application, operating system, compilers and virtual machines, architecture, and technology), and at different scopes (chip, server, rack, room, and multi-room).

Date and Time: Tuesday, October 15, 2013, 16:00, room B-221

GreenLSI

October 15, 2013
Tweet

More Decks by GreenLSI

Other Decks in Research

Transcript

  1. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Eficiencia Energética más

    allá del PUE: Explotando el Conocimiento de la Aplicación y los Recursos José%M.%Moya%<[email protected]>% Laboratorio%de%Sistemas%Integrados% Dpto.%Ingeniería%Electrónica% Universidad%Politécnica%de%Madrid% José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 1%
  2. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Contenido •  MoLvación%

    •  Enfoque%actual% •  Nuestro%enfoque% –  Planificación%y%gesLón% de%recursos% –  OpLmización%de% máquinas%virtuales% –  GesLón%de%modos%de% bajo%consumo% –  Diseño%de%procesadores% •  Conclusiones% José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 2%
  3. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Motivación José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 3%

    •  Consumo%energéLco%en%data%centers% – 1.3%%de%la%producción%energéLca%mundial%en%2010% – USA:%80%mill%MWh/año%en%2011%=%1,5%x%NYC% – 1%datacenter%medio%=%25%000%casas% •  Más%de%43%Millones%de%Toneladas%de%CO2 %/%año% (2%%mundial)% •  Más%agua%que%la%industria%del%papel,%automóvil,% petróleo,%%madera%o%plásLco% %%%%%%%%%%Jonathan%Koomey.%2011.%Growth%in%Data%center%electricity%use%2005%to%2010%
  4. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Motivación José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 4%

    •  Se%espera%que%la%electricidad% total%uLlizada%por%los%data% centers%en%2015%exceda%los% 400%GWh/año.% •  El%consumo%de%energía%de%la% refrigeración%conLnuará% teniendo%una%importancia% similar%o%superior%al%consumo% de%la%computación% •  La%opLmización%energéLca% de%los%data%centers%del%futuro% requerirá%un%enfoque%global% y%mulLfdisciplinar.% 0% 5000% 10000% 15000% 20000% 25000% 30000% 35000% 2000% 2005% 2010% World%server%installed%base% (thousands)% Highfend%servers% Midfrange%servers% Volume%servers% 0% 50% 100% 150% 200% 250% 300% 2000% 2005% 2010% Electricity%use%% (billion%kWh/year)% Infrastructure% CommunicaLons% Storage% Highfend%servers% Midfrange%servers% Volume%servers% 5,75%Millones%de%servidores%nuevos%/%año% 10%%de%servidores%sin%uLlizar%(CO2 %de%6,5% millones%de%coches)%
  5. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Problemas de fiabilidad

    que dependen de la temperatura José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 5% Timefdependent% dielectricf breakdown%(TDDB)% ElectromigraLon%(EM)% Stress% migraLon%(SM)% Thermal% cycling%(TC)% ✔% ✖% ✖% ✖%
  6. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Refrigeración de un

    data center José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 6%
  7. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE •  Virtualización% %

    % f%27%% •  Servidores%conforme%a% Energy%Star% % % =%6.500% •  Mejor%planificación%de% capacidad% % 2.500% Mejoras en servidores José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 7% . . . . . . . . . . . . . . . . . . . . . . . . . . . Servidores 5,75 millones de nuevos servido- res se instalan cada año para mantenerse al ritmo de creci- miento de los servicios on-line, y todavía aproximadamente el 10% de los servidores instalados no se utilizan debido a sobrestima- ciones conservadoras a la hora de planificar las necesidades de almacenamiento. La energía utilizada para los servidores en desuso podría compensar las emisiones de 6,5 millones de coches. de los servidores. En un centro de datos convencional, algunas de estas mejoras pueden reducir su impacto en las siguientes cifras: (excluyendo el software) $ $ $ $ A menudo los servidores se sobredimensionan para afrontar picos de demanda, lo que significa que como media suelen funcionar sólo al 20% 2.500 6,5 millones = 6.500 El equivalente a retirar 6.500 coches de las carreteras, me- diante la utilización de servidores acordes a Energy Star, lo que re- duciría el consumo eléctrico de los centros de datos en 82.000 megavatios-hora. 10% no se utilizan US 27% Reducir un 27% el consumo energético mediante la virtuali- zación, lo que reduce la capaci- dad productiva no empleada. El equivalente a la energía consumida por 2.500 hogares en EEUU, mediante una mejor planifica- ción de la capacidad. UN%SOLO% CENTRO% DE%DATOS%
  8. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Mejoras en refrigeración

    •  Mejoras%en%gesLón%de%flujos%de%aire%y%rangos% de%temperatura%ligeramente%más%amplios% José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 8% Reducción%del%consumo% hasta%un%25%% 25.000% Recuperación%de%la%inversión%% en%solo%2%años% % UN%SOLO% CENTRO% DE%DATOS%
  9. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE CA%!%CC% – 20%%reducción%de%pérdidas%de%conversión% – 47%millones%de%dólares%de%gastos%

    inmobiliarios%por%data%center% – Mayor%eficiencia,%ahorro%de%energía%suficiente%para% cargar%un%iPad%durante% 70% millones%de%años% Mejoras en infraestructura José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 9%
  10. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE   

           Mejores prácticas de eficiencia energética José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 10%
  11. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Potencial de mejora

    con mejores prácticas José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 11% ot aisle 0 200 400 600 800 1000 1200 1400 0 20 40 60 80 100 Power (KW) job size relative to data center capacity (%) Total power (computing and cooling) for various scheduling approaches savings by minimizing computing power savings by minimizing the recirculation’s effect savings by turning off idle machines unaddressed heat recirculation cost basic (unavoidable) cost max computing power, worst thermal placement min computing power, worst thermal placemenit optimal computing+cooling optimal computing+cooling, shut off idles optimal computing+cooling, shut off idles, no recirculation Fig. 3. Data center operation cost (in kilowatts) for various “savings modes”. Savings are based on heat recirculation data obtained by
  12. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE PUE Power Usage

    Effectiveness •  Estado%del%arte:%%PUE%≈%1,2% –  La%parte%importante%es%el%consumo%de%computación% –  El%trabajo%en%eficiencia%energéLca%en%DC%está% centrado%en%la%reducción%del%PUE% –  Reducir%P IT$$no%reduce%el%PUE,%pero%se%nota%en%la% factura%de%la%luz% •  %¿Cómo%se%puede%reducir%P IT$?% José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 12% !"# = 1 !"#$ = !!"!#$ !!" = !!"#$%&!'( + !!"#!$%"!&'$() + !!"#$ !!"#$% !
  13. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Ahorro energético según

    el nivel de abstracción José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 13%
  14. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Nuestro enfoque • 

    Estrategia%global%para%permiLr%la%uLlización%de% múlLples%fuentes%de%información%y%para%coordinar%las% decisiones%con%el%fin%de%reducir%el%consumo%total% •  ULlización%del%conocimiento%de%las%caracterísLcas%de% demanda%energéDca%de%las%aplicaciones%y%las% caracterísDcas%de%los%recursos%de%computación%y% refrigeración%para%aplicar%técnicas%proacDvas%de% opLmización% José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 14%
  15. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Optimización proactiva José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%

    16% Datacenter Workload Model Sensors Actuators Sensor configuration Visualization Power Model Energy Model Thermal Model Dynamic Cooling Opt. Resource Alloc. Opt. Global DVFS VM Opt. Anomaly Detection and Reputation Systems Communication network Sensor network Workload
  16. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Enfoque holístico José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%

    18% Chip% Server% Rack% Room% MulDJ room% Sched%&%alloc% 2% 1% app% OS/middleware% Compiler/VM% 3% 3% architecture% 4% 4% technology% 5%
  17. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE 1. Gestión de

    recursos en la sala José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 19% Chip% Server% Rack% Room% MulDJ room% Sched%&%alloc% 2% 1 app% OS/middleware% Compiler/VM% 3% 3% architecture% 4% 4% technology% 5%
  18. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Aprovechando la heterogeneidad

    •  ULlización%de%la%heterogeneidad%para%minimizar%el% consumo%energéLco%desde%un%punto%de%vista% estáLco/dinámico% –  EstáDco:%Encontrar%el%mejor%setfup%del%datacenter,% dado%un%número%heterogéneo%de%máquinas% –  Dinámico:%OpLmización%de%la%asignación%de%tareas%en% el%Resource%Manager% •  Demostramos%que%la%mejor%solución%se%encuentra% en%un%datacenter%heterogéneo% –  Muchos%datacenters%son%heterogéneos%(diversas% generaciones%de%máquinas)% 20% CCGrid 2012 José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% M.%Zapater,%J.M.%Moya,%J.L.%Ayala.%Leveraging%Heterogeneity%for% Energy%MinimizaLon%in%Data%Centers,%CCGrid%2012%
  19. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Escenario actual 21%

    WORKLOAD% Scheduler% Resource%% Manager% ExecuDon% José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%
  20. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Planificación y asignación

    de recursos consciente de la refrigeración José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 22% 0 50 100 150 200 FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT energy consumed (GJ) Energy consumption, Scenario (a) 40 jobs, 25014 core-hours, idle servers on Throughput Turnaround time Alg. runtime Energy savings 0.197 jobs/hr 0.197 jobs/hr 0.172 jobs/hr 0.197 jobs/hr 0.163 jobs/hr 18.41 hr 18.41 hr 20.75 hr 18.41 hr 51.75 hr 3.4 ms 6.9 ms 213 ms 23 min 40 min 0% 6.2% 8.6% 8.7% 10.2% cooling energy computing energy (a) 0 5 10 15 20 25 30 35 40 FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT energy consumed (GJ) Energy consumption, Scenario (a) 40 jobs, 25014 core-hours, idle servers off Throughput Turnaround time Alg. runtime Energy savings 0.197 jobs/hr 0.197 jobs/hr 0.172 jobs/hr 0.197 jobs/hr 0.163 jobs/hr 18.41 hr 18.41 hr 20.75 hr 18.41 hr 38.02 hr 3.4 ms 6.9 ms 213 ms 23 min 43 min 0% 11.8% 54.7% 21.8% 60.5% cooling energy computing energy (b) 0 50 100 150 200 250 300 FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT energy consumed (GJ) Energy consumption, Scenario (b) 120 jobs, 16039 core-hours, idle servers on Throughput Turnaround time Alg. runtime Energy savings 0.580 jobs/hr 0.580 jobs/hr 0.349 jobs/hr 0.580 jobs/hr 0.254 jobs/hr 8.98 hr 8.98 hr 12.17 hr 8.98 hr 48.49 hr 170 ms 186 ms 397 ms 40.8 min 88.6 min 0% 1.7% 4.1% 3.6% 4.7% cooling energy computing energy (c) 0 5 10 15 20 25 30 35 40 FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT energy consumed (GJ) Energy consumption, Scenario (b) 120 jobs, 16039 core-hours, idle servers off Throughput Turnaround time Alg. runtime Energy savings 0.580 jobs/hr 0.580 jobs/hr 0.349 jobs/hr 0.580 jobs/hr 0.427 jobs/hr 8.98 hr 8.98 hr 12.17 hr 8.98 hr 17.75 hr 171 ms 186 ms 397 ms 42 min 100 min 0% 4.0% 14.6% 14.2% 15.1% cooling energy computing energy (d) 300 350 400 450 (GJ) Energy consumption, Scenario (c) 174 jobs, 45817 core-hours, idle servers on Throughput Turnaround time Alg. runtime Energy savings 0.892 jobs/hr 0.892 jobs/hr 0.861 jobs/hr 0.892 jobs/hr 0.561 jobs/hr 9.99 hr 9.99 hr 13.39 hr 9.99 hr 65.38 hr 173 ms 196 ms 346 ms 20 min 142 min 0% 2.5% 5.9% 9.4% 12.5% cooling energy computing energy 80 100 (GJ) Energy consumption, Scenario (c) 174 jobs, 45817 core-hours, idle servers off Throughput Turnaround time Alg. runtime Energy savings 0.892 jobs/hr 0.892 jobs/hr 0.861 jobs/hr 0.892 jobs/hr 0.590 jobs/hr 9.99 hr 9.99 hr 13.39 hr 9.99 hr 61.49 hr 173 ms 191 ms 346 ms 21 min 147 min 0.0% 7.5% 17.3% 25.7% 41.4% cooling energy computing energy 0 50 100 150 FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT energy consumed (GJ) Turnaround time Alg. runtime Energy savings 18.41 hr 18.41 hr 20.75 hr 18.41 hr 51.75 hr 3.4 ms 6.9 ms 213 ms 23 min 40 min 0% 6.2% 8.6% 8.7% 10.2% (a) 0 5 10 15 20 25 30 FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT energy consumed (GJ) Throughput Turnaround time Alg. runtime Energy savings 0.197 jobs/hr 0.197 jobs/hr 0.172 jobs/hr 0.197 jobs/hr 0.163 jobs/hr 18.41 hr 18.41 hr 20.75 hr 18.41 hr 38.02 hr 3.4 ms 6.9 ms 213 ms 23 min 43 min 0% 11.8% 54.7% 21.8% 60.5% (b) 0 50 100 150 200 250 300 FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT energy consumed (GJ) Energy consumption, Scenario (b) 120 jobs, 16039 core-hours, idle servers on Throughput Turnaround time Alg. runtime Energy savings 0.580 jobs/hr 0.580 jobs/hr 0.349 jobs/hr 0.580 jobs/hr 0.254 jobs/hr 8.98 hr 8.98 hr 12.17 hr 8.98 hr 48.49 hr 170 ms 186 ms 397 ms 40.8 min 88.6 min 0% 1.7% 4.1% 3.6% 4.7% cooling energy computing energy (c) 0 5 10 15 20 25 30 35 40 FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT energy consumed (GJ) Energy consumption, Scenario (b) 120 jobs, 16039 core-hours, idle servers off Throughput Turnaround time Alg. runtime Energy savings 0.580 jobs/hr 0.580 jobs/hr 0.349 jobs/hr 0.580 jobs/hr 0.427 jobs/hr 8.98 hr 8.98 hr 12.17 hr 8.98 hr 17.75 hr 171 ms 186 ms 397 ms 42 min 100 min 0% 4.0% 14.6% 14.2% 15.1% cooling energy computing energy (d) 0 50 100 150 200 250 300 350 400 450 FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT energy consumed (GJ) Energy consumption, Scenario (c) 174 jobs, 45817 core-hours, idle servers on Throughput Turnaround time Alg. runtime Energy savings 0.892 jobs/hr 0.892 jobs/hr 0.861 jobs/hr 0.892 jobs/hr 0.561 jobs/hr 9.99 hr 9.99 hr 13.39 hr 9.99 hr 65.38 hr 173 ms 196 ms 346 ms 20 min 142 min 0% 2.5% 5.9% 9.4% 12.5% cooling energy computing energy (e) 0 20 40 60 80 100 FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT energy consumed (GJ) Energy consumption, Scenario (c) 174 jobs, 45817 core-hours, idle servers off Throughput Turnaround time Alg. runtime Energy savings 0.892 jobs/hr 0.892 jobs/hr 0.861 jobs/hr 0.892 jobs/hr 0.590 jobs/hr 9.99 hr 9.99 hr 13.39 hr 9.99 hr 61.49 hr 173 ms 191 ms 346 ms 21 min 147 min 0.0% 7.5% 17.3% 25.7% 41.4% cooling energy computing energy (f) Fig. 8. Energy comparison of the simulated schemes for the three scenarios. The plots correspond in respective positions to the plots of Figure 7. policy used in the data center, which enables job execution as soon as they arrive if the queue is empty and the data center is lightly loaded. In the “idle-on” case (Figure 8a), the total energy consumption using SCINT, EDF-LRH, iMPACT Lab (Arizona State U)
  21. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Planificación y asignación

    de recursos consciente de la aplicación 23% LSI-UPM WORKLOAD% Resource%% Manager% (SLURM)% ExecuDon% Profiling%and% ClassificaDon% Energy%% OpDmizaDon% José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%
  22. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Planificación y asignación

    de recursos consciente de la aplicación •  Workload:% –  12%tareas%del%benchmark%SpecCPU%2006% –  Workload%aleatorio%de%2000%tareas,%dividido%en%job%sets% –  Tiempo%de%llegada%aleatorio%entre%job%sets% •  Servidores:% 24% Escenario José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%
  23. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Planificación y asignación

    de recursos consciente de la aplicación 25% Profiling de energía WORKLOAD% Resource%% Manager% (SLURM)% ExecuDon% Profiling%and% ClassificaDon% Energy%% OpDmizaDon% Energy%profiling% José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%
  24. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Caracterización de la

    carga de trabajo José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 26%
  25. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Trabajo realizado 27%

    Optimizaciones WORKLOAD% Resource%% Manager% (SLURM)% ExecuDon% Profiling%and% ClassificaDon% Energy%% OpDmizaDon% Energy%MinimizaDon:% • %MinimizaDon%subjected%to%constraints% • %MILP%problem%(solved%with%CPLEX)% • %StaDc%and%Dynamic% José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%
  26. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Planificación y asignación

    de recursos consciente de la aplicación 28% Optimización estática •  Definición%del%datacenter%ópLmo% –  Dado%un%pool%de%100%máquinas%de%cada% –  1%job%set%del%workload% –  El%opLmizador%escoge%los%mejores%servidores% –  Constraints%de%presupuesto%y%espacio% Mejor%solución:% • %40%Sparc% • %27%AMD% % Ahorros:% • %5%a%22%%en%energía% • %30%%Dempo% José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%
  27. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Planificación y asignación

    de recursos consciente de la aplicación 29% Optimización dinámica •  Asignación%ópLma%del%workload% –  Uso%del%workload%completo%(2000%tareas)% –  El%algoritmo%encuentra%una%buena%asignación%(no%la%mejor)% en%términos%de%energía% –  Ejecución%del%algoritmo%en%runLme% Ahorros%del%24%% al%47%%en%energía% José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%
  28. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Planificación y asignación

    de recursos consciente de la aplicación •  Primera%prueba%de%concepto%en%cuanto%a%ahorros% energéLcos%gracias%a%heterogeneidad% •  Solución%automáLca% •  La%solución%automáLca%de%procesadores%ofrece% notables%ahorros%energéLcos.% •  La%solución%puede%ser%fácilmente%implementable%en% un%entorno%real% –  Uso%del%Resource%Manager%SLURM% –  Workloads%y%servidores%más%realistas% 30% Conclusiones José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%
  29. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE 2. Gestión de

    recursos en el servidor José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 31% Chip% Server% Rack% Room% MulDJ room% Sched%&%alloc% 2 1% app% OS/middleware% Compiler/VM% 3% 3% architecture% 4% 4% technology% 5%
  30. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Políticas de planificación

    y asignación de recursos en MPSoCs A.%Coskun%,%T.%Rosing%,%K.%Whisnant%and%K.%Gross%%"StaLc%and%dynamic%temperaturef aware%scheduling%for%mulLprocessor%SoCs",%%IEEE%Trans.%Very%Large%Scale%Integr.%Syst.,%% vol.%16,%%no.%9,%%pp.1127%f1140%2008%% José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 32% Fig. 3. Distribution of thermal hot spots, with DPM (ILP). A. Static Scheduling Techniques We next provide an extensive comparison of the ILP based techniques. We refer to our static approach as Min-Th&Sp. As discussed in Section III, we implemented the ILP for min- imizing thermal hot spots (Min-Th), energy balancing (Bal- En), and energy minimization (Min-En) to compare against Fig. 4. Distribution of spatial gradients, with DPM (ILP). hot spots. While Min-Th reduces the high spatial differentials above 15 C, we observe a substantial increase in the spatial gradients above 10 C. In contrast, our method achieves lower and more balanced temperature distribution in the die. In Fig. 5, we show how the magnitudes of thermal cycles vary with the scheduling method. We demonstrate the average per- Fig. 3. Distribution of thermal hot spots, with DPM (ILP). A. Static Scheduling Techniques We next provide an extensive comparison of the ILP based techniques. We refer to our static approach as Min-Th&Sp. As discussed in Section III, we implemented the ILP for min- imizing thermal hot spots (Min-Th), energy balancing (Bal- Fig. 4. Distribution of spatial gradients, with DPM (ILP). hot spots. While Min-Th reduces the high spatial differentials above 15 C, we observe a substantial increase in the spatial gradients above 10 C. In contrast, our method achieves lower and more balanced temperature distribution in the die. In Fig. 5, we show how the magnitudes of thermal cycles vary UCSD – System Energy Efficiency Lab
  31. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Planificación y asignación

    de recursos consciente de la aplicación •  La%caracterización%energéLca%de%las% aplicaciones%permite%la%definición%de%políLcas% proacLvas%de%planificación%y%asignación%de% recursos%que%minimizan%los%hotspots& •  La%reducción%de%hotspots%permite%aumentar%la% temperatura%del%aire%de%los%sistemas%de% refrigeración% José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 33%
  32. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE 3. Máquina virtual

    consciente de la aplicación y los recursos José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 34% Chip% Server% Rack% Room% MulDJ room% Sched%&%alloc% 2% 1% app% OS/middleware% Compiler/VM% 3 3 architecture% 4% 4% technology% 5%
  33. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Compilación JIT en

    máquinas virtuales •  La%máquina%virtual% compila%(JIT)%la% aplicación%a%código% naLvo%por%eficiencia% •  El%opLmizador%es% genérico%y%orientado%a% la%opDmización%de% rendimiento% José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 35%
  34. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Backfend% Compilación JIT

    para reducción de energía •  Compilador%consciente%de%la%aplicación% –  Caracterización%de%aplicaciones%y%transformaciones% –  OpLmizador%dependiente%de%la%aplicación% –  Visión%global%de%la%carga%de%trabajo%del%data%center% •  OpLmizador%de%energía% –  En%la%actualidad,%los%compiladores%para%procesadores% de%altas%prestaciones%solo%opLmizan%rendimiento% José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 36% Frontfend% OpLmizador% Generador%de% código%
  35. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Potencial de ahorro

    desde el compilador (MPSoCs) T.%Simunic,%G.%de%Micheli,%L.%Benini,%and%M.%Hans.%“Source%code%opLmizaLon%and% profiling%of%energy%consumpLon%in%embedded%systems,”%InternaLonal%Symposium%on% System%Synthesis,%pages%193%–%199,%Sept.%2000% – Reducción%de%un%77%%%de%energía%en%un% decodificador%MP3% FEI,%Y.,%RAVI,%S.,%RAGHUNATHAN,%A.,%AND%JHA,%N.%K.%2004.%EnergyfopLmizing%source% code%transformaLons%for%OSfdriven%embedded%so{ware.%In%Proceedings%of%the% InternaLonal%Conference%VLSI%Design.%261–266.% – Hasta%el%37,9%%(media%23,8%)%de%ahorro% energéLco%en%programas%mulLproceso%sobre% Linux% José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 37%
  36. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE 4. Gestión automática

    de frecuencia a nivel global José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 38% Chip% Server% Rack% Room% MulDJ room% Sched%&%alloc% 2% 1% app% OS/middleware% Compiler/VM% 3% 3% architecture% 4 4 technology% 5%
  37. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE DVFS – Dynamic

    Voltage and Frequency Scaling •  Al%decrementar%la%tensión%de%alimentación,%la% potencia%se%reduce%cuadráLcamente%(a% frecuencia%constante)% •  El%retardo%se%incrementa%solo%linealmente% •  La%frecuencia%máxima%también%se%decrementa% linealmente% •  Actualmente%los%modos%de%bajo%consumo%se% acLvan%por%inacLvidad%del%sistema%operaLvo% de%un%servidor% José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 39%
  38. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE DVFS a nivel

    de sala •  Para%minimizar%el%consumo%hay%que%minimizar% los%cambios%de%modo% •  Existen%algoritmos%ópLmos%para%un%conjunto% conocido%de%tareas%(YDS)% •  El%conocimiento%de%la%carga%de%trabajo% permite%planificar%los%modos%de%bajo%consumo% a%nivel%global%sin%pérdida%de%rendimiento% José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 40%
  39. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Paralelismo para ahorrar

    energía Use of Parallelism Use of Parallelism V dd V dd /2 V dd /2 f f /2 f /2 f max f max /2 f max /2 9-17 Swiss Federal Institute of Technology Computer Engineering and Networks Laboratory José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 41%
  40. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE 5. Emplazamiento de

    cores consciente de la temperatura José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 43% Chip% Server% Rack% Room% MulDJ room% Sched%&%alloc% 2% 1% app% OS/middleware% Compiler/VM% 3% architecture% 4% 4% technology% 5
  41. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Floorplanning consciente de

    la temperatura José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 44%
  42. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Potencial de ahorro

    energético por floorplaning –  Reducciones%de%temperatura%máxima%de%hasta%21oC% –  Media:%f12oC%en%temperatura%máxima% –  Mayor%reducción%en%los%casos%más%críLcos% José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 45% Temperature Reductions Average MaxTemp reduction: 12 oC Larger temperature reductions for benchmarks with higher maximum temperature For many benchmarks, temperature reducions are larger than 20 oC Maximum Temperature 0 20 40 60 80 100 120 140 ammp applu apsi art bzip2 crafty eon equake facerec fma3d gap gcc gzip lucas mcf mesa mgrid parser perlbmk swim twolf vortex vpr wupwise avg original modified Y.%Han,%I.%Koren,%and%C.%A.%Moritz.%Temperature%Aware%Floorplanning.%In%Proc.%of%the%% Second%Workshop%on%TemperaturefAware%Computer%Systems,%June%2005%
  43. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Floorplanning consciente de

    la temperatura en chips 3D José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 46% •  El%circuito%integrado%3D%está%recibiendo% atención:% –  ↑%↑% %Escalado:%reduce%área%2D%equivalente% –  ↑%↑% %Rendimiento:%menor%longitud%de% comunicaciones% –  ↑ %Fiabilidad:%menor%cableado% % •  Desventaja:% –  Aumentan$drás3camente$los$picos$de$ temperatura$con$respecto$a$los$diseños$2D$ equivalentes$
  44. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Floorplanning consciente de

    la temperatura José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 47% •  Reducción%de%hasta%30oC%por%capa%en%un%chip% 3D%de%4%capas%y%48%cores%
  45. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Y todavía hay

    más •  Smart%Grids% – Consumir%cuando%nadie%consume% – Reducir%el%consumo%cuando%todo%el%mundo% consume% •  Reducción%de%la%factura%de%luz% – Coste%dependiente%del%horario% – Coeficiente%de%energía%reacLva% – Picos%de%consumo% José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 48%
  46. “Ingeniamos el futuro”! CAMPUS OF INTERNATIONAL EXCELLENCE Conclusiones •  Reducir%el%PUE%no%es%lo%mismo%que%reducir%el%consumo%

    –  El%consumo%de%computación%es%dominante%en%data%centers% modernos% •  El%conocimiento%de%la%aplicación%y%de%los%recursos%puede% ser%uLlizado%para%establecer%políDcas%proacDvas%para% reducir%la%energía%total% –  A%todos%los%niveles% –  En%todos%los%ámbitos% –  Considerando%simultáneamente%computación%y%refrigeración% •  La%gesLón%adecuada%del%conocimiento%del%comportamiento% térmico%del%data%center%permite%reducir%los%problemas%de% fiabilidad% •  Reducir%el%consumo%total%no%es%lo%mismo%que%reducir%la% factura%de%la%luz% José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 49%