Upgrade to Pro — share decks privately, control downloads, hide ads and more …

CPU-Update - Wie Äpfel zu Melonen werden (2010)

CPU-Update - Wie Äpfel zu Melonen werden (2010)

Sun (Rainbow Falls aka Niagara 3), Fujitsu SPARC64, IBM POWER7, Intel (Nehalem-EX), AMD (Magny-Cours), Technologieausblick auf ca. zwei Jahre.

Wolfgang Stief

April 21, 2010
Tweet

More Decks by Wolfgang Stief

Other Decks in Technology

Transcript

  1. best OpenSystems Day April 2010 Unterföhring Wolfgang Stief [email protected] Senior

    Systemingenieur best Systeme GmbH GUUG Board Member CPU-Update Wie Äpfel zu Melonen werden
  2. Trends von 2008 Wie gut war die Kristallkugel dieses Mal?

    Implementierungen Sun (Rainbow Falls aka Niagara 3), Fujitsu SPARC64, IBM Power7, Intel (Nehalem-EX), AMD (Magny-Cours) Technologien für die nächsten zwei Jahre Wohin fährt der Zug? Agenda 2010-04-21 3 / 26
  3. Many-Cores (> 2 Cores) haben jetzt alle Strom sparen (Green

    IT) machen jetzt alle Special Purpose CPUs, GPGPUs traut sich keiner in großem Stil weiterhin höhere Integration kleinere Strukturen, mehr Funktion im Microcode (z. B. Dezimal-Unit in IBM Power oder Crypto-Units in Sun Oracle Niagara) Wie gut war die Kristallkugel? 2010-04-21 4 / 26
  4. Trends von 2008 Wie gut war die Kristallkugel dieses Mal?

    Implementierungen Sun (Rainbow Falls aka Niagara 3), Fujitsu SPARC64, IBM Power7, Intel (Nehalem-EX), AMD (Magny-Cours) Technologien für die nächsten zwei Jahre Wohin fährt der Zug? Agenda 2010-04-21 5 / 26
  5. Sun Rainbow Falls (Niagara 3) Fujitsu SPARC64 VIII IBM Power7

    Intel Nehalem-EX AMD Magny-Cours Implementierungen 2010-04-21 6 / 26
  6. Sun Rainbow Falls 40nm 16 cores / 16 threads →

    256 threads/sockets (!) Fläche ~ T2+, aber ca. 30% mehr Wärme → clock speed? verbesserte Crypto und Floating Point Unit „balanced distribution of hot spots“ → gleichmäßige Erwärmung „glueless node-to-node interconnect“ → # interfaces 2010-04-21 7 / 26
  7. Rainbow Falls ++ Yosemite Falls 8 cores / 8 threads

    neue Mikro-Architektur (core) 2.5 GHz, 40nm Yellostone Falls (2012) 4 cores / 8 threads 3 GHz, 28nm Server mit 4...192 (!) Sockets (6144 threads max) Cascade Falls (Ende 2012) 16 cores / 8 threads 3 GHz Server mit 1...8 Sockets (1024 threads max) Rock? → eingestellt, Gründe leider unbekannt. Roadmap vom Juni 2009 2010-04-21 8 / 26
  8. Sun Rainbow Falls (Niagara 3) Fujitsu SPARC64 VIII IBM Power7

    Intel Nehalem-EX AMD Magny-Cours Implementierungen 2010-04-21 9 / 26
  9. Fujitsu SPARC64 VIII aka Venus 45nm, 8 cores doppelte #

    Transistoren zu VII, aber nur 1/3 Wärme Erweiterungen für HPC Labor: 128 GFLOPS/socket TOP500 3. Platz in 1995 Ziel: HPC bis 10 PetaFLOPS TOP500 1. Platz: ~6 PetaFLOPS HPC-Systeme mit eigenem 3D Torus (> 100.000 nodes) Venus in Oracle-Systemen → ?? 2010-04-21 10 / 26
  10. Sun Rainbow Falls (Niagara 3) Fujitsu SPARC64 VIII IBM Power7

    Intel Nehalem-EX AMD Magny-Cours Implementierungen 2010-04-21 11 / 26
  11. IBM Power 7 45nm, 8 core / 4 threads +

    memory subsystem 256 kB L2$/core 4 MB L3$/core on die → 1/6 Latenz ./. Power6 10 LPAR/core 2 MemCtl/socket Turbo Core Mode Active Memory Expansion (AIX 6.1) Active Memory Sharing (zw. Partitions) Power 8? → in Konzept-Phase, keine Details bekannt 2010-04-21 12 / 26
  12. Sun Rainbow Falls (Niagara 3) Fujitsu SPARC64 VIII IBM Power7

    Intel Nehalem-EX AMD Magny-Cours Implementierungen 2010-04-21 14 / 26
  13. Intel Nehalem-EX aka Xeon 7500 noch 45nm („tock“) 8 core

    / 2 threads 2.3 Mio Transistoren → größter x86 Prozessor neuer Sockel, Chipsatz 7500 („Boxboro“) 95...130W, abhängig im wesentlichen von Taktung „Turbo-Boost“ DDR3 1066, 4 Kanäle, 16 DIMMs je Kanal max. (1TB/16GB) RAS: MCA/MCR, (Machine Check Architecture → Itanium) OpenSolaris: hot-plug support for ACPI-based systems 2010-04-21 15 / 26
  14. Intel Nehalem-EX Anwendung: IBM eX5 Erweiterung per EXA5 → Auftrennen

    QPI → Verbindung zu Chassis oder DIMM Expansion → NUMA Blade HX5 X3850 X5 (4 socket) X3950 X5 (2x3850 EXA5) mit 16GB DIMMs (teuer!) → 1 TB @ 4U (4 socket) 64 DIMMs in 4U Chassis + 32 DIMMs in 1U MAX5 OEM-Preis: 900...3700 U$ (1000er Stückpreis) 2010-04-21 17 / 26
  15. Sun Rainbow Falls (Niagara 3) Fujitsu SPARC64 VIII IBM Power7

    Intel Nehalem-EX AMD Magny-Cours Implementierungen 2010-04-21 18 / 26
  16. AMD Magny-Cours aka Opteron 6100 45nm, 1.8 Mio Transistoren 346mm²

    / Die 8 core / 12 core 1.7...2.4 GHz 65...105 W 512 kB L2$ / core 12 MB L3$ / socket HT 3.0, 4x 6.4GT/s Direct Connect 2.0 4 Memory-Channels / Sockel je 12 DIMMs, DDR3-1333 Verkauf über Preis: 500...1400 U$ (1000er Stückpreis OEM) 1-Die Magny-Cours → „Thuban“, Desktop-CPU 2010-04-21 19 / 26
  17. AMD Magny-Cours ++ „Bulldozer“ → Desktop + Server, 2011 →

    2 „tightly linked“ Cores teilen sich Ressourcen → Erweiterungen im Power Management → 32nm SOI mit „high-k metal gate“ „Bobcat“ → low-power, < 1W soll möglich sein → „90% of today‘s mainstream performance in less than half of the silicon area“ → 2011, überwiegend in Notebooks und mobile devices 2010-04-21 20 / 26
  18. Trends von 2008 Wie gut war die Kristallkugel dieses Mal?

    Implementierungen Sun (Rainbow Falls aka Niagara 3), Fujitsu SPARC64, IBM Power7, Intel (Nehalem-EX), AMD (Magny-Cours) Technologien für die nächsten zwei Jahre Wohin fährt der Zug? Agenda 2010-04-21 21 / 26
  19. Intel SCC SCC – Single Chip Cloud Computer 48 (!)

    Cores, Nachfolger von Polaris (80 core FPU only) vollständige x86 Cores (~ 1. Generation Pentium) 45nm, 1.66/1.83 GHz, 25...125W 24 dualcore tiles, vermascht (mesh network) → 256 GB/s throughput Taktung dynamisch je dualcore tile Spannung dynamisch je 4-fach dualcore ~100 Chips in Forschung, nach Bewerbung → Apps/Compiler f. Vielcore-CPUs 2010-04-21 22 / 26
  20. Intel Labs Intel Labs, Circuits and Systems division Strom sparen

    → weniger „Hitzedichte“ kleinere Strukturen, 22nm voraussichtlich in 2011 niedrigere Core-Spannungen → durch chemische Prozesse bei Halbleiterherstellung → „dynamische“ Stromaufnahme abhängig von Last, bis zu 800% verbesserter Wirkungsgrad Signal-Noise-Ratio wird bei kleiner Core-Spannung schlechter → „resilient“ circuits kleinere Netzteile/Akkus, Abfangen von Lastspitzen mit Super Caps → jetzt 65W max auf ca. 12...13W möglich 2010-04-21 23 / 26
  21. Fazit Verlustleistung wird weiter kleiner werden. → „Hitzedichte“ Compiler /

    Betriebssystem / Applikation muss Multicore und Manycore unterstützen. Cloud braucht viele billige, einheitliche Systeme/CPUs. Performance über Parallelität ähnlich HPC. Virtualisierung wird umfangreicher unterstützt werden (müssen). Immer kleinere Strukturgrößen lassen mehr und mehr Funktionen direkt auf dem Die zu. Mobile Devices und Industrieanwendungen verlangen nach leistungsfähigen, strom- und platzsparenden CPUs. 2010-04-21 24 / 26
  22. Blogs @ Intel, AMD, Sun, IBM http://blogs.intel.com/ http://developer.amd.com/ http://forums.amd.com/devblog/ http://blogs.sun.com/

    http://www.ibm.com/developerworks/blogs/page/powerarchitecture Ars Technica Jon Stokes http://www.arstechnica.com/ The Register Ashlee Vance u. Timothy Prickett Morgan http://www.theregister.co.uk/ Wikipedia http://en.wikipedia.org/ Quellen 2010-04-21 25 / 26
  23. best OpenSystems Day April 2010 Unterföhring Wolfgang Stief [email protected] Senior

    Systemingenieur best Systeme GmbH GUUG Board Member Danke für die Aufmerksamkeit. Fragen?