Cerebras Systems, une startup basée aux États-Unis, a lancé la plus grande puce intégrant plus de 1,2 billion de transistors et dimensionnée à 46 225 millimètres carrés. La nouvelle puce Cerebras Wafer Scale Engine (WSE) est optimisée pour l' IA et est 56,7 fois plus grande que la plus grande unité de traitement graphique qui mesure 815 millimètres carrés et contient 21,1 milliards de transistors. Le nouveau moteur Wafer Scale Engine (WSE) de Cerebras fournit 3 000 fois plus de mémoire sur puce haute vitesse et 10 000 fois plus de bande passante mémoire. La plus grande taille de la puce garantit que les informations peuvent être traitées plus rapidement et peut même réduire le temps de perspicacité, ou «temps de formation», ce qui permet aux chercheurs de tester plus d'idées, d'utiliser plus de données et de résoudre de nouveaux problèmes.
Le Cerebras WSE est conçu pour l'intelligence artificielle et contient des innovations fondamentales qui font progresser l'état de l'art en résolvant des défis techniques vieux de plusieurs décennies et dont la taille de puce est limitée - tels que la connectivité croisée des réticules, le rendement, la fourniture d'énergie et le conditionnement. Le WSE peut accélérer les calculs et les communications, ce qui réduit le temps de formation. Le WSE a 56,7 fois plus de surface de silicium que la plus grande unité de traitement graphique. En outre, le WSE peut fournir plus de cœurs pour effectuer plus de calculs et dispose de plus de mémoire plus proche des cœurs, afin que les cœurs puissent fonctionner efficacement. Toutes les communications sont conservées sur le silicium lui-même en raison de sa vaste gamme de cœurs et de la mémoire intégrée sur une seule puce.
La puce Cerebras WSE contient 46 225 mm2 de silicium et abrite 400 000 cœurs de calcul optimisés pour l'IA, sans cache, sans surcharge, et 18 gigaoctets de mémoire SRAM locale, distribuée et ultrarapide. La puce est livrée avec 9 pétaoctets par seconde de bande passante mémoire où les cœurs sont reliés entre eux avec un réseau de communication maillé sur puce à grain fin, entièrement matériel, qui fournit une bande passante totale de 100 pétabits par seconde. Cela signifie que la bande passante de communication à faible latence de WSE est extrêmement grande, ce qui oblige les groupes de cœurs à collaborer avec une efficacité maximale, et la bande passante mémoire n'est plus un goulot d'étranglement. Plus de mémoire locale, plus de cœurs et une structure à bande passante élevée à faible latence combinées forment l'architecture optimale pour accélérer le travail de l'IA.
Les caractéristiques de la puce Cerebras WSE:
- Augmentation des cœurs: Le WSE intègre 400000 cœurs de calcul optimisés pour l'IA appelés SLAC (Sparse Linear Algebra Cores) qui sont programmables, flexibles et optimisés pour l'algèbre linéaire clairsemée qui sous-tend tous les calculs de réseau de neurones. La fonction de programmabilité du SLAC garantit que les cœurs peuvent facilement exécuter tous les algorithmes de réseau neuronal dans un domaine d'apprentissage automatique en constante évolution. Les cœurs WSE intègrent la technologie de récolte de parcimonie inventée par Cerebras qui accélère les performances de calcul sur des charges de travail clairsemées (charges de travail contenant des zéros) comme l'apprentissage en profondeur.
- Mémoire améliorée: le Cerebras WSE intègre plus de mémoire locale et plus de cœurs, ce qui est plus que toute puce permettant un calcul flexible et rapide avec une latence plus faible et avec moins d'énergie. Le WSE est livré avec 18 Go (gigaoctets) de mémoire sur puce accessible par son cœur en un cycle d'horloge. Cette collection de mémoire centrale locale permet au WSE de fournir un agrégat de 9 pétaoctets par seconde de bande passante mémoire, soit 10000 X plus de bande passante mémoire et 3000 X