Voor AI en grote databases: Intel’s Cooper-Lake CPU

De derde generatie van Intel’s Xeon schaalbare processoren is ontworpen voor servers met vier of acht sockets. De Cooper-Lake CPU’s worden geleverd met een verbeterde Intel Deep Learning Boost voor AI-toepassingen. Bovendien is in combinatie met Optane PMem tot 18 TB geheugen mogelijk in 4-socket systemen.

Als een verdere ontwikkeling van de Cascade-Lake familie lanceert Intel de derde generatie Xeon Scalable processoren voor servers met ten minste vier sockets. In totaal behoren elf CPU’s tot deze nieuwe Cooper-Lake-generatie: vijf Xeon Gold-modellen met 16 tot 24 cores voor systemen met 4 sockets en zes Xeon Platinum-processoren voor servers met maximaal acht CPU-sockets. Ze hebben 18 of 28 kernen. Net als bij Cascade-Lake bieden de CPU’s elk 48 PCI Express 3.0 lanes en zes DDR4 geheugenkanalen. Met één geheugenmodule per kanaal wordt nu ook DDR4-3200 ondersteund. Voor een snellere verbinding tussen de CPU’s op het moederbord is het aantal UPI-verbindingen verdubbeld van drie naar zes. Ultra Path Interconnect (UPI) heeft de voorheen gebruikte QPI-links in de Xeon CPU’s vervangen door FCLGA3647.

Deep Learning Boost met BFloat16

Terwijl Intel met Xeon duidelijk is achtergebleven bij AMD’s Epyc van de Rome-generatie in het aantal cores per socket en PCI Express-prestaties, loopt de chipfabrikant voorop in de ondersteuning van AI-toepassingen via speciale CPU-functies. AMD heeft hier nog niets te bieden. In Cooper Lake is de Deep Learning Boost (DLBoost), die voorheen bestond uit de Vector Neural Network Instructions (VNNI) voor AVX-512, aangevuld met ondersteuning voor het BFloat16-gegevensformaat (BF16). Volgens Intel verhoogt dit de snelheid van AI-training en -inferentie met een factor 1,9 vergeleken met FP32. De nauwkeurigheid neemt slechts minimaal af. De Cooper Lake Xeons zijn de eerste x86 CPU’s met BF16-ondersteuning. De onlangs geïntroduceerde A100 GPU van Nvidia beschikt ook over BF16-ondersteuning.

Meer geheugen met Optane PMem 200

De HL-varianten van de nieuwe Xeon schaalbare processoren ondersteunen Intels nieuwe Optane Persistant Memory 200-serie, die naar verluidt een 25 procent hogere gegevensoverdrachtsnelheid biedt in vergelijking met zijn voorganger. Optane Memory (PMem) niet-vluchtige geheugenmodules blijven beschikbaar in moduulgroottes gaande van 128GB tot 512GB. Zij kunnen in de geheugensleuven worden gebruikt in plaats van DDR4-modules om de omvang van het RAM-geheugen te vergroten en gegevens persistent te houden. Per CPU-socket is 4,5 TB gecombineerd geheugen mogelijk, 1,5 TB DDR4 en 3 TB PMem. Grote in-memory databases, zoals SAP Hana, maar ook Oracle-databases moeten kunnen profiteren van een snellere opvraging. Bovendien kunnen meer VM’s tegelijkertijd draaien en moeten data-analysetoepassingen zoals Apache Spark sneller resultaten opleveren.

KI FPGA: Stratix 10 NX

Een extra bouwsteen in Intels AI-strategie is de Stratix 10 NX FPGA-chip die samen met Cooper Lake wordt gepresenteerd. Deze eerste FPGA van Intel die is geoptimaliseerd voor AI-toepassingen is voorzien van speciale AI-sensorunits, een 3D-pakket met HBM2-geheugen en een snellere netwerkverbinding.

>