Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

GreenLSI
October 15, 2013

Optimización energética de centros de datos aprovechando el conocimiento de la aplicación y los recursos

Talk “Advances in Electronic Systems Engineering” seminar, within the M.Sc. in Electronic Systems Engineering (MISE), to present the session on Energy Optimization in Data Centers.

Speech title: Energy efficiency beyond PUE: exploiting knowledge about application and resources

Abstract: The current techniques for data center energy optimization, based on efficiency metrics like PUE, pPUE, ERE, DCcE, etc., do not take into account the static and dynamic characteristics of the applications and resources (computing and cooling). However, the knowledge about the current state of the data center, the past history, the resource characteristics, and the characteristics of the jobs to be executed can be used very effectively to guide decision-making at all levels in the datacenter in order to minimize energy needs. For example, the allocation of jobs on the available machines, if done taking into account the most appropriate architecture for each job from the energetic point of view, and taking into account the type of jobs that will come later, can reduce energy needs by 30%.
Moreover, to achieve significant reductions in energy consumption of state-of-the-art data centers (low PUE) is becoming increasingly important a comprehensive and multi-level approach, ie, acting on different abstraction levels (scheduling and resource allocation, application, operating system, compilers and virtual machines, architecture, and technology), and at different scopes (chip, server, rack, room, and multi-room).

Date and Time: Tuesday, October 15, 2013, 16:00, room B-221

GreenLSI

October 15, 2013
Tweet

More Decks by GreenLSI

Other Decks in Research

Transcript

  1. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Eficiencia Energética más allá del PUE:
    Explotando el Conocimiento de la
    Aplicación y los Recursos
    José%M.%Moya%%
    Laboratorio%de%Sistemas%Integrados%
    Dpto.%Ingeniería%Electrónica%
    Universidad%Politécnica%de%Madrid%
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 1%

    View Slide

  2. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Contenido
    •  MoLvación%
    •  Enfoque%actual%
    •  Nuestro%enfoque%
    –  Planificación%y%gesLón%
    de%recursos%
    –  OpLmización%de%
    máquinas%virtuales%
    –  GesLón%de%modos%de%
    bajo%consumo%
    –  Diseño%de%procesadores%
    •  Conclusiones%
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 2%

    View Slide

  3. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Motivación
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 3%
    •  Consumo%energéLco%en%data%centers%
    – 1.3%%de%la%producción%energéLca%mundial%en%2010%
    – USA:%80%mill%MWh/año%en%2011%=%1,5%x%NYC%
    – 1%datacenter%medio%=%25%000%casas%
    •  Más%de%43%Millones%de%Toneladas%de%CO2
    %/%año%
    (2%%mundial)%
    •  Más%agua%que%la%industria%del%papel,%automóvil,%
    petróleo,%%madera%o%plásLco%
    %%%%%%%%%%Jonathan%Koomey.%2011.%Growth%in%Data%center%electricity%use%2005%to%2010%

    View Slide

  4. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Motivación
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 4%
    •  Se%espera%que%la%electricidad%
    total%uLlizada%por%los%data%
    centers%en%2015%exceda%los%
    400%GWh/año.%
    •  El%consumo%de%energía%de%la%
    refrigeración%conLnuará%
    teniendo%una%importancia%
    similar%o%superior%al%consumo%
    de%la%computación%
    •  La%opLmización%energéLca%
    de%los%data%centers%del%futuro%
    requerirá%un%enfoque%global%
    y%mulLfdisciplinar.%
    0%
    5000%
    10000%
    15000%
    20000%
    25000%
    30000%
    35000%
    2000% 2005% 2010%
    World%server%installed%base%
    (thousands)%
    Highfend%servers%
    Midfrange%servers%
    Volume%servers%
    0%
    50%
    100%
    150%
    200%
    250%
    300%
    2000% 2005% 2010%
    Electricity%use%%
    (billion%kWh/year)%
    Infrastructure%
    CommunicaLons%
    Storage%
    Highfend%servers%
    Midfrange%servers%
    Volume%servers%
    5,75%Millones%de%servidores%nuevos%/%año%
    10%%de%servidores%sin%uLlizar%(CO2
    %de%6,5%
    millones%de%coches)%

    View Slide

  5. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Problemas de fiabilidad
    que dependen de la temperatura
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 5%
    Timefdependent%
    dielectricf
    breakdown%(TDDB)%
    ElectromigraLon%(EM)%
    Stress%
    migraLon%(SM)%
    Thermal%
    cycling%(TC)%
    ✔%
    ✖%
    ✖%
    ✖%

    View Slide

  6. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Refrigeración de
    un data center
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 6%

    View Slide

  7. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    •  Virtualización%
    %
    %
    f%27%%
    •  Servidores%conforme%a%
    Energy%Star%
    %
    %
    =%6.500%
    •  Mejor%planificación%de%
    capacidad%
    %
    2.500%
    Mejoras en servidores
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 7%
    . . . . . . . . . . . . . . . . . . . . . . . . . . .
    Servidores
    5,75 millones de nuevos servido-
    res se instalan cada año para
    mantenerse al ritmo de creci-
    miento de los servicios on-line, y
    todavía aproximadamente el 10%
    de los servidores instalados no
    se utilizan debido a sobrestima-
    ciones conservadoras a la hora
    de planificar las necesidades de
    almacenamiento.
    La energía utilizada para
    los servidores en desuso
    podría compensar
    las emisiones de 6,5
    millones de coches.
    de los servidores.
    En un centro de datos convencional, algunas de
    estas mejoras pueden reducir su impacto en las
    siguientes cifras:
    (excluyendo el software)
    $ $ $ $
    A menudo los servidores se sobredimensionan
    para afrontar picos de demanda, lo que significa
    que como media suelen funcionar sólo al 20%
    2.500
    6,5 millones
    = 6.500
    El equivalente a retirar 6.500
    coches de las carreteras, me-
    diante la utilización de servidores
    acordes a Energy Star, lo que re-
    duciría el consumo eléctrico de
    los centros de datos en 82.000
    megavatios-hora.
    10% no se utilizan
    US
    27% Reducir un 27% el consumo
    energético mediante la virtuali-
    zación, lo que reduce la capaci-
    dad productiva no empleada.
    El equivalente a la energía consumida por 2.500
    hogares en EEUU, mediante una mejor planifica-
    ción de la capacidad.
    UN%SOLO%
    CENTRO%
    DE%DATOS%

    View Slide

  8. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Mejoras en refrigeración
    •  Mejoras%en%gesLón%de%flujos%de%aire%y%rangos%
    de%temperatura%ligeramente%más%amplios%
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 8%
    Reducción%del%consumo%
    hasta%un%25%%
    25.000%
    Recuperación%de%la%inversión%%
    en%solo%2%años%
    %
    UN%SOLO%
    CENTRO%
    DE%DATOS%

    View Slide

  9. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    CA%!%CC%
    – 20%%reducción%de%pérdidas%de%conversión%
    – 47%millones%de%dólares%de%gastos%
    inmobiliarios%por%data%center%
    – Mayor%eficiencia,%ahorro%de%energía%suficiente%para%
    cargar%un%iPad%durante%
    70%
    millones%de%años%
    Mejoras en infraestructura
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 9%

    View Slide

  10. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE







    Mejores prácticas de
    eficiencia energética
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 10%

    View Slide

  11. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Potencial de mejora
    con mejores prácticas
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 11%
    ot aisle
    0
    200
    400
    600
    800
    1000
    1200
    1400
    0 20 40 60 80 100
    Power (KW)
    job size relative to data center capacity (%)
    Total power (computing and cooling) for various scheduling approaches
    savings by minimizing computing power
    savings by minimizing the recirculation’s effect
    savings by turning off idle machines
    unaddressed heat recirculation cost
    basic (unavoidable) cost
    max computing power, worst thermal placement
    min computing power, worst thermal placemenit
    optimal computing+cooling
    optimal computing+cooling, shut off idles
    optimal computing+cooling, shut off idles, no recirculation
    Fig. 3. Data center operation cost (in kilowatts) for various “savings
    modes”. Savings are based on heat recirculation data obtained by

    View Slide

  12. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    PUE
    Power Usage Effectiveness
    •  Estado%del%arte:%%PUE%≈%1,2%
    –  La%parte%importante%es%el%consumo%de%computación%
    –  El%trabajo%en%eficiencia%energéLca%en%DC%está%
    centrado%en%la%reducción%del%PUE%
    –  Reducir%P
    IT$$no%reduce%el%PUE,%pero%se%nota%en%la%
    factura%de%la%luz%
    •  %¿Cómo%se%puede%reducir%P
    IT$?%
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 12%
    !"# =
    1
    !"#$
    =
    !!"!#$
    !!"
    =
    !!"#$%&!'(
    + !!"#!$%"!&'$()
    + !!"#$
    !!"#$%
    !

    View Slide

  13. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Ahorro energético según el
    nivel de abstracción
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 13%

    View Slide

  14. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Nuestro enfoque
    •  Estrategia%global%para%permiLr%la%uLlización%de%
    múlLples%fuentes%de%información%y%para%coordinar%las%
    decisiones%con%el%fin%de%reducir%el%consumo%total%
    •  ULlización%del%conocimiento%de%las%caracterísLcas%de%
    demanda%energéDca%de%las%aplicaciones%y%las%
    caracterísDcas%de%los%recursos%de%computación%y%
    refrigeración%para%aplicar%técnicas%proacDvas%de%
    opLmización%
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 14%

    View Slide

  15. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Optimización proactiva
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 15%
    Datacenter%
    Model%
    OpLmizaLon%

    View Slide

  16. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Optimización proactiva
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 16%
    Datacenter
    Workload
    Model
    Sensors
    Actuators
    Sensor
    configuration
    Visualization
    Power Model
    Energy Model
    Thermal Model
    Dynamic
    Cooling Opt.
    Resource Alloc.
    Opt.
    Global DVFS
    VM Opt.
    Anomaly Detection
    and Reputation
    Systems
    Communication network
    Sensor network
    Workload

    View Slide

  17. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Sensores
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 17%

    View Slide

  18. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Enfoque holístico
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 18%
    Chip% Server% Rack% Room% MulDJ
    room%
    Sched%&%alloc% 2% 1%
    app%
    OS/middleware%
    Compiler/VM% 3% 3%
    architecture% 4% 4%
    technology% 5%

    View Slide

  19. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    1. Gestión de recursos
    en la sala
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 19%
    Chip% Server% Rack% Room% MulDJ
    room%
    Sched%&%alloc% 2% 1
    app%
    OS/middleware%
    Compiler/VM% 3% 3%
    architecture% 4% 4%
    technology% 5%

    View Slide

  20. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Aprovechando la heterogeneidad
    •  ULlización%de%la%heterogeneidad%para%minimizar%el%
    consumo%energéLco%desde%un%punto%de%vista%
    estáLco/dinámico%
    –  EstáDco:%Encontrar%el%mejor%setfup%del%datacenter,%
    dado%un%número%heterogéneo%de%máquinas%
    –  Dinámico:%OpLmización%de%la%asignación%de%tareas%en%
    el%Resource%Manager%
    •  Demostramos%que%la%mejor%solución%se%encuentra%
    en%un%datacenter%heterogéneo%
    –  Muchos%datacenters%son%heterogéneos%(diversas%
    generaciones%de%máquinas)%
    20%
    CCGrid 2012
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%
    M.%Zapater,%J.M.%Moya,%J.L.%Ayala.%Leveraging%Heterogeneity%for%
    Energy%MinimizaLon%in%Data%Centers,%CCGrid%2012%

    View Slide

  21. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Escenario actual
    21%
    WORKLOAD%
    Scheduler% Resource%%
    Manager%
    ExecuDon%
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%

    View Slide

  22. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Planificación y asignación de recursos
    consciente de la refrigeración
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 22%
    0
    50
    100
    150
    200
    FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
    energy consumed (GJ)
    Energy consumption, Scenario (a) 40 jobs, 25014 core-hours, idle servers on
    Throughput
    Turnaround time
    Alg. runtime
    Energy savings
    0.197 jobs/hr 0.197 jobs/hr 0.172 jobs/hr 0.197 jobs/hr 0.163 jobs/hr
    18.41 hr 18.41 hr 20.75 hr 18.41 hr 51.75 hr
    3.4 ms 6.9 ms 213 ms 23 min 40 min
    0% 6.2% 8.6% 8.7% 10.2%
    cooling energy
    computing energy
    (a)
    0
    5
    10
    15
    20
    25
    30
    35
    40
    FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
    energy consumed (GJ)
    Energy consumption, Scenario (a) 40 jobs, 25014 core-hours, idle servers off
    Throughput
    Turnaround time
    Alg. runtime
    Energy savings
    0.197 jobs/hr 0.197 jobs/hr 0.172 jobs/hr 0.197 jobs/hr 0.163 jobs/hr
    18.41 hr 18.41 hr 20.75 hr 18.41 hr 38.02 hr
    3.4 ms 6.9 ms 213 ms 23 min 43 min
    0% 11.8% 54.7% 21.8% 60.5%
    cooling energy
    computing energy
    (b)
    0
    50
    100
    150
    200
    250
    300
    FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
    energy consumed (GJ)
    Energy consumption, Scenario (b) 120 jobs, 16039 core-hours, idle servers on
    Throughput
    Turnaround time
    Alg. runtime
    Energy savings
    0.580 jobs/hr 0.580 jobs/hr 0.349 jobs/hr 0.580 jobs/hr 0.254 jobs/hr
    8.98 hr 8.98 hr 12.17 hr 8.98 hr 48.49 hr
    170 ms 186 ms 397 ms 40.8 min 88.6 min
    0% 1.7% 4.1% 3.6% 4.7%
    cooling energy
    computing energy
    (c)
    0
    5
    10
    15
    20
    25
    30
    35
    40
    FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
    energy consumed (GJ)
    Energy consumption, Scenario (b) 120 jobs, 16039 core-hours, idle servers off
    Throughput
    Turnaround time
    Alg. runtime
    Energy savings
    0.580 jobs/hr 0.580 jobs/hr 0.349 jobs/hr 0.580 jobs/hr 0.427 jobs/hr
    8.98 hr 8.98 hr 12.17 hr 8.98 hr 17.75 hr
    171 ms 186 ms 397 ms 42 min 100 min
    0% 4.0% 14.6% 14.2% 15.1%
    cooling energy
    computing energy
    (d)
    300
    350
    400
    450
    (GJ)
    Energy consumption, Scenario (c) 174 jobs, 45817 core-hours, idle servers on
    Throughput
    Turnaround time
    Alg. runtime
    Energy savings
    0.892 jobs/hr 0.892 jobs/hr 0.861 jobs/hr 0.892 jobs/hr 0.561 jobs/hr
    9.99 hr 9.99 hr 13.39 hr 9.99 hr 65.38 hr
    173 ms 196 ms 346 ms 20 min 142 min
    0% 2.5% 5.9% 9.4% 12.5%
    cooling energy
    computing energy
    80
    100
    (GJ)
    Energy consumption, Scenario (c) 174 jobs, 45817 core-hours, idle servers off
    Throughput
    Turnaround time
    Alg. runtime
    Energy savings
    0.892 jobs/hr 0.892 jobs/hr 0.861 jobs/hr 0.892 jobs/hr 0.590 jobs/hr
    9.99 hr 9.99 hr 13.39 hr 9.99 hr 61.49 hr
    173 ms 191 ms 346 ms 21 min 147 min
    0.0% 7.5% 17.3% 25.7% 41.4%
    cooling energy
    computing energy
    0
    50
    100
    150
    FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
    energy consumed (GJ)
    Turnaround time
    Alg. runtime
    Energy savings
    18.41 hr 18.41 hr 20.75 hr 18.41 hr 51.75 hr
    3.4 ms 6.9 ms 213 ms 23 min 40 min
    0% 6.2% 8.6% 8.7% 10.2%
    (a)
    0
    5
    10
    15
    20
    25
    30
    FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
    energy consumed (GJ)
    Throughput
    Turnaround time
    Alg. runtime
    Energy savings
    0.197 jobs/hr 0.197 jobs/hr 0.172 jobs/hr 0.197 jobs/hr 0.163 jobs/hr
    18.41 hr 18.41 hr 20.75 hr 18.41 hr 38.02 hr
    3.4 ms 6.9 ms 213 ms 23 min 43 min
    0% 11.8% 54.7% 21.8% 60.5%
    (b)
    0
    50
    100
    150
    200
    250
    300
    FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
    energy consumed (GJ)
    Energy consumption, Scenario (b) 120 jobs, 16039 core-hours, idle servers on
    Throughput
    Turnaround time
    Alg. runtime
    Energy savings
    0.580 jobs/hr 0.580 jobs/hr 0.349 jobs/hr 0.580 jobs/hr 0.254 jobs/hr
    8.98 hr 8.98 hr 12.17 hr 8.98 hr 48.49 hr
    170 ms 186 ms 397 ms 40.8 min 88.6 min
    0% 1.7% 4.1% 3.6% 4.7%
    cooling energy
    computing energy
    (c)
    0
    5
    10
    15
    20
    25
    30
    35
    40
    FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
    energy consumed (GJ)
    Energy consumption, Scenario (b) 120 jobs, 16039 core-hours, idle servers off
    Throughput
    Turnaround time
    Alg. runtime
    Energy savings
    0.580 jobs/hr 0.580 jobs/hr 0.349 jobs/hr 0.580 jobs/hr 0.427 jobs/hr
    8.98 hr 8.98 hr 12.17 hr 8.98 hr 17.75 hr
    171 ms 186 ms 397 ms 42 min 100 min
    0% 4.0% 14.6% 14.2% 15.1%
    cooling energy
    computing energy
    (d)
    0
    50
    100
    150
    200
    250
    300
    350
    400
    450
    FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
    energy consumed (GJ)
    Energy consumption, Scenario (c) 174 jobs, 45817 core-hours, idle servers on
    Throughput
    Turnaround time
    Alg. runtime
    Energy savings
    0.892 jobs/hr 0.892 jobs/hr 0.861 jobs/hr 0.892 jobs/hr 0.561 jobs/hr
    9.99 hr 9.99 hr 13.39 hr 9.99 hr 65.38 hr
    173 ms 196 ms 346 ms 20 min 142 min
    0% 2.5% 5.9% 9.4% 12.5%
    cooling energy
    computing energy
    (e)
    0
    20
    40
    60
    80
    100
    FCFS-FF FCFS-LRH EDF-LRH FCFS-Xint SCINT
    energy consumed (GJ)
    Energy consumption, Scenario (c) 174 jobs, 45817 core-hours, idle servers off
    Throughput
    Turnaround time
    Alg. runtime
    Energy savings
    0.892 jobs/hr 0.892 jobs/hr 0.861 jobs/hr 0.892 jobs/hr 0.590 jobs/hr
    9.99 hr 9.99 hr 13.39 hr 9.99 hr 61.49 hr
    173 ms 191 ms 346 ms 21 min 147 min
    0.0% 7.5% 17.3% 25.7% 41.4%
    cooling energy
    computing energy
    (f)
    Fig. 8. Energy comparison of the simulated schemes for the three scenarios. The plots correspond in respective positions to the plots of Figure 7.
    policy used in the data center, which enables job execution as soon as they arrive if the queue is empty and the data
    center is lightly loaded. In the “idle-on” case (Figure 8a), the total energy consumption using SCINT, EDF-LRH,
    iMPACT Lab (Arizona State U)

    View Slide

  23. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Planificación y asignación de
    recursos consciente de la aplicación
    23%
    LSI-UPM
    WORKLOAD%
    Resource%%
    Manager%
    (SLURM)%
    ExecuDon%
    Profiling%and%
    ClassificaDon%
    Energy%%
    OpDmizaDon%
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%

    View Slide

  24. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Planificación y asignación de
    recursos consciente de la aplicación
    •  Workload:%
    –  12%tareas%del%benchmark%SpecCPU%2006%
    –  Workload%aleatorio%de%2000%tareas,%dividido%en%job%sets%
    –  Tiempo%de%llegada%aleatorio%entre%job%sets%
    •  Servidores:%
    24%
    Escenario
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%

    View Slide

  25. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Planificación y asignación de
    recursos consciente de la aplicación
    25%
    Profiling de energía
    WORKLOAD%
    Resource%%
    Manager%
    (SLURM)%
    ExecuDon%
    Profiling%and%
    ClassificaDon%
    Energy%%
    OpDmizaDon%
    Energy%profiling%
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%

    View Slide

  26. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Caracterización de la
    carga de trabajo
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 26%

    View Slide

  27. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Trabajo realizado
    27%
    Optimizaciones
    WORKLOAD%
    Resource%%
    Manager%
    (SLURM)%
    ExecuDon%
    Profiling%and%
    ClassificaDon%
    Energy%%
    OpDmizaDon%
    Energy%MinimizaDon:%
    • %MinimizaDon%subjected%to%constraints%
    • %MILP%problem%(solved%with%CPLEX)%
    • %StaDc%and%Dynamic%
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%

    View Slide

  28. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Planificación y asignación de
    recursos consciente de la aplicación
    28%
    Optimización estática
    •  Definición%del%datacenter%ópLmo%
    –  Dado%un%pool%de%100%máquinas%de%cada%
    –  1%job%set%del%workload%
    –  El%opLmizador%escoge%los%mejores%servidores%
    –  Constraints%de%presupuesto%y%espacio%
    Mejor%solución:%
    • %40%Sparc%
    • %27%AMD%
    %
    Ahorros:%
    • %5%a%22%%en%energía%
    • %30%%Dempo%
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%

    View Slide

  29. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Planificación y asignación de
    recursos consciente de la aplicación
    29%
    Optimización dinámica
    •  Asignación%ópLma%del%workload%
    –  Uso%del%workload%completo%(2000%tareas)%
    –  El%algoritmo%encuentra%una%buena%asignación%(no%la%mejor)%
    en%términos%de%energía%
    –  Ejecución%del%algoritmo%en%runLme%
    Ahorros%del%24%%
    al%47%%en%energía%
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%

    View Slide

  30. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Planificación y asignación de
    recursos consciente de la aplicación
    •  Primera%prueba%de%concepto%en%cuanto%a%ahorros%
    energéLcos%gracias%a%heterogeneidad%
    •  Solución%automáLca%
    •  La%solución%automáLca%de%procesadores%ofrece%
    notables%ahorros%energéLcos.%
    •  La%solución%puede%ser%fácilmente%implementable%en%
    un%entorno%real%
    –  Uso%del%Resource%Manager%SLURM%
    –  Workloads%y%servidores%más%realistas%
    30%
    Conclusiones
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013%

    View Slide

  31. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    2. Gestión de recursos
    en el servidor
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 31%
    Chip% Server% Rack% Room% MulDJ
    room%
    Sched%&%alloc% 2 1%
    app%
    OS/middleware%
    Compiler/VM% 3% 3%
    architecture% 4% 4%
    technology% 5%

    View Slide

  32. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Políticas de planificación y
    asignación de recursos en MPSoCs
    A.%Coskun%,%T.%Rosing%,%K.%Whisnant%and%K.%Gross%%"StaLc%and%dynamic%temperaturef
    aware%scheduling%for%mulLprocessor%SoCs",%%IEEE%Trans.%Very%Large%Scale%Integr.%Syst.,%%
    vol.%16,%%no.%9,%%pp.1127%f1140%2008%%
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 32%
    Fig. 3. Distribution of thermal hot spots, with DPM (ILP).
    A. Static Scheduling Techniques
    We next provide an extensive comparison of the ILP based
    techniques. We refer to our static approach as Min-Th&Sp.
    As discussed in Section III, we implemented the ILP for min-
    imizing thermal hot spots (Min-Th), energy balancing (Bal-
    En), and energy minimization (Min-En) to compare against
    Fig. 4. Distribution of spatial gradients, with DPM (ILP).
    hot spots. While Min-Th reduces the high spatial differentials
    above 15 C, we observe a substantial increase in the spatial
    gradients above 10 C. In contrast, our method achieves lower
    and more balanced temperature distribution in the die.
    In Fig. 5, we show how the magnitudes of thermal cycles vary
    with the scheduling method. We demonstrate the average per-
    Fig. 3. Distribution of thermal hot spots, with DPM (ILP).
    A. Static Scheduling Techniques
    We next provide an extensive comparison of the ILP based
    techniques. We refer to our static approach as Min-Th&Sp.
    As discussed in Section III, we implemented the ILP for min-
    imizing thermal hot spots (Min-Th), energy balancing (Bal-
    Fig. 4. Distribution of spatial gradients, with DPM (ILP).
    hot spots. While Min-Th reduces the high spatial differentials
    above 15 C, we observe a substantial increase in the spatial
    gradients above 10 C. In contrast, our method achieves lower
    and more balanced temperature distribution in the die.
    In Fig. 5, we show how the magnitudes of thermal cycles vary
    UCSD – System Energy Efficiency Lab

    View Slide

  33. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Planificación y asignación de
    recursos consciente de la aplicación
    •  La%caracterización%energéLca%de%las%
    aplicaciones%permite%la%definición%de%políLcas%
    proacLvas%de%planificación%y%asignación%de%
    recursos%que%minimizan%los%hotspots&
    •  La%reducción%de%hotspots%permite%aumentar%la%
    temperatura%del%aire%de%los%sistemas%de%
    refrigeración%
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 33%

    View Slide

  34. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    3. Máquina virtual consciente
    de la aplicación y los recursos
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 34%
    Chip% Server% Rack% Room% MulDJ
    room%
    Sched%&%alloc% 2% 1%
    app%
    OS/middleware%
    Compiler/VM% 3 3
    architecture% 4% 4%
    technology% 5%

    View Slide

  35. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Compilación JIT en
    máquinas virtuales
    •  La%máquina%virtual%
    compila%(JIT)%la%
    aplicación%a%código%
    naLvo%por%eficiencia%
    •  El%opLmizador%es%
    genérico%y%orientado%a%
    la%opDmización%de%
    rendimiento%
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 35%

    View Slide

  36. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Backfend%
    Compilación JIT para
    reducción de energía
    •  Compilador%consciente%de%la%aplicación%
    –  Caracterización%de%aplicaciones%y%transformaciones%
    –  OpLmizador%dependiente%de%la%aplicación%
    –  Visión%global%de%la%carga%de%trabajo%del%data%center%
    •  OpLmizador%de%energía%
    –  En%la%actualidad,%los%compiladores%para%procesadores%
    de%altas%prestaciones%solo%opLmizan%rendimiento%
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 36%
    Frontfend%
    OpLmizador%
    Generador%de%
    código%

    View Slide

  37. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Potencial de ahorro desde
    el compilador (MPSoCs)
    T.%Simunic,%G.%de%Micheli,%L.%Benini,%and%M.%Hans.%“Source%code%opLmizaLon%and%
    profiling%of%energy%consumpLon%in%embedded%systems,”%InternaLonal%Symposium%on%
    System%Synthesis,%pages%193%–%199,%Sept.%2000%
    – Reducción%de%un%77%%%de%energía%en%un%
    decodificador%MP3%
    FEI,%Y.,%RAVI,%S.,%RAGHUNATHAN,%A.,%AND%JHA,%N.%K.%2004.%EnergyfopLmizing%source%
    code%transformaLons%for%OSfdriven%embedded%so{ware.%In%Proceedings%of%the%
    InternaLonal%Conference%VLSI%Design.%261–266.%
    – Hasta%el%37,9%%(media%23,8%)%de%ahorro%
    energéLco%en%programas%mulLproceso%sobre%
    Linux%
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 37%

    View Slide

  38. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    4. Gestión automática de
    frecuencia a nivel global
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 38%
    Chip% Server% Rack% Room% MulDJ
    room%
    Sched%&%alloc% 2% 1%
    app%
    OS/middleware%
    Compiler/VM% 3% 3%
    architecture% 4 4
    technology% 5%

    View Slide

  39. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    DVFS – Dynamic Voltage
    and Frequency Scaling
    •  Al%decrementar%la%tensión%de%alimentación,%la%
    potencia%se%reduce%cuadráLcamente%(a%
    frecuencia%constante)%
    •  El%retardo%se%incrementa%solo%linealmente%
    •  La%frecuencia%máxima%también%se%decrementa%
    linealmente%
    •  Actualmente%los%modos%de%bajo%consumo%se%
    acLvan%por%inacLvidad%del%sistema%operaLvo%
    de%un%servidor%
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 39%

    View Slide

  40. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    DVFS a nivel de sala
    •  Para%minimizar%el%consumo%hay%que%minimizar%
    los%cambios%de%modo%
    •  Existen%algoritmos%ópLmos%para%un%conjunto%
    conocido%de%tareas%(YDS)%
    •  El%conocimiento%de%la%carga%de%trabajo%
    permite%planificar%los%modos%de%bajo%consumo%
    a%nivel%global%sin%pérdida%de%rendimiento%
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 40%

    View Slide

  41. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Paralelismo para ahorrar
    energía
    Use of Parallelism
    Use of Parallelism
    V
    dd
    V
    dd
    /2 V
    dd
    /2
    f f /2 f /2
    f
    max
    f
    max
    /2 f
    max
    /2
    9-17
    Swiss Federal
    Institute of Technology
    Computer Engineering
    and Networks Laboratory
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 41%

    View Slide

  42. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Resultados de simulación
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 42%

    View Slide

  43. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    5. Emplazamiento de cores
    consciente de la temperatura
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 43%
    Chip% Server% Rack% Room% MulDJ
    room%
    Sched%&%alloc% 2% 1%
    app%
    OS/middleware%
    Compiler/VM% 3%
    architecture% 4% 4%
    technology% 5

    View Slide

  44. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Floorplanning consciente
    de la temperatura
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 44%

    View Slide

  45. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Potencial de ahorro
    energético por floorplaning
    –  Reducciones%de%temperatura%máxima%de%hasta%21oC%
    –  Media:%f12oC%en%temperatura%máxima%
    –  Mayor%reducción%en%los%casos%más%críLcos%
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 45%
    Temperature Reductions
    Average MaxTemp reduction: 12 oC
    Larger temperature reductions for benchmarks
    with higher maximum temperature
    For many benchmarks, temperature reducions are
    larger than 20 oC
    Maximum Temperature
    0
    20
    40
    60
    80
    100
    120
    140
    ammp
    applu
    apsi
    art
    bzip2
    crafty
    eon
    equake
    facerec
    fma3d
    gap
    gcc
    gzip
    lucas
    mcf
    mesa
    mgrid
    parser
    perlbmk
    swim
    twolf
    vortex
    vpr
    wupwise
    avg
    original modified
    Y.%Han,%I.%Koren,%and%C.%A.%Moritz.%Temperature%Aware%Floorplanning.%In%Proc.%of%the%%
    Second%Workshop%on%TemperaturefAware%Computer%Systems,%June%2005%

    View Slide

  46. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Floorplanning consciente de la
    temperatura en chips 3D
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 46%
    •  El%circuito%integrado%3D%está%recibiendo%
    atención:%
    –  ↑%↑% %Escalado:%reduce%área%2D%equivalente%
    –  ↑%↑% %Rendimiento:%menor%longitud%de%
    comunicaciones%
    –  ↑ %Fiabilidad:%menor%cableado%
    %
    •  Desventaja:%
    –  Aumentan$drás3camente$los$picos$de$
    temperatura$con$respecto$a$los$diseños$2D$
    equivalentes$

    View Slide

  47. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Floorplanning consciente
    de la temperatura
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 47%
    •  Reducción%de%hasta%30oC%por%capa%en%un%chip%
    3D%de%4%capas%y%48%cores%

    View Slide

  48. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Y todavía hay más
    •  Smart%Grids%
    – Consumir%cuando%nadie%consume%
    – Reducir%el%consumo%cuando%todo%el%mundo%
    consume%
    •  Reducción%de%la%factura%de%luz%
    – Coste%dependiente%del%horario%
    – Coeficiente%de%energía%reacLva%
    – Picos%de%consumo%
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 48%

    View Slide

  49. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Conclusiones
    •  Reducir%el%PUE%no%es%lo%mismo%que%reducir%el%consumo%
    –  El%consumo%de%computación%es%dominante%en%data%centers%
    modernos%
    •  El%conocimiento%de%la%aplicación%y%de%los%recursos%puede%
    ser%uLlizado%para%establecer%políDcas%proacDvas%para%
    reducir%la%energía%total%
    –  A%todos%los%niveles%
    –  En%todos%los%ámbitos%
    –  Considerando%simultáneamente%computación%y%refrigeración%
    •  La%gesLón%adecuada%del%conocimiento%del%comportamiento%
    térmico%del%data%center%permite%reducir%los%problemas%de%
    fiabilidad%
    •  Reducir%el%consumo%total%no%es%lo%mismo%que%reducir%la%
    factura%de%la%luz%
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 49%

    View Slide

  50. “Ingeniamos el futuro”!
    CAMPUS OF
    INTERNATIONAL
    EXCELLENCE
    Contacto
    José%M.Moya%|%%Madrid,%15%de%octubre%de%2013% 50%
    José M. Moya
    Laboratorio de Sistemas Integrados
    +34%607%082%892%
    [email protected]%
    %
    Gracias:%

    View Slide