Cerebras Systems, una startup con sede en EE. UU., Lanzó el chip más grande que integra más de 1.2 billones de transistores y tiene un tamaño de 46,225 milímetros cuadrados. El nuevo chip Cerebras Wafer Scale Engine (WSE) está optimizado para IA y es 56,7 veces más grande que la unidad de procesamiento de gráficos más grande que mide 815 milímetros cuadrados y contiene 21,1 mil millones de transistores. El nuevo motor Cerebras Wafer Scale Engine (WSE) proporciona 3.000 veces más memoria en chip de alta velocidad y viene con 10.000 veces más ancho de banda de memoria. El tamaño más grande del chip asegura que la información se pueda procesar más rápidamente e incluso puede reducir el tiempo de comprensión o "tiempo de capacitación" que permite a los investigadores probar más ideas, usar más datos y resolver nuevos problemas.
El Cerebras WSE está diseñado para IA y contiene innovaciones fundamentales que hacen avanzar el estado del arte al resolver desafíos técnicos de décadas de antigüedad que tienen un tamaño de chip limitado, como la conectividad de retícula cruzada, el rendimiento, la entrega de energía y el empaque. El WSE puede acelerar los cálculos y las comunicaciones, lo que reduce el tiempo de formación. El WSE tiene 56,7 veces más área de silicio que la unidad de procesamiento de gráficos más grande. Además, WSE puede proporcionar más núcleos para hacer más cálculos y presenta más memoria más cerca de los núcleos, por lo que los núcleos pueden funcionar de manera eficiente. Toda la comunicación se mantiene en el propio silicio debido a su amplia gama de núcleos y la memoria está incrustada en un solo chip.
El chip Cerebras WSE contiene 46,225 mm2 de silicio y alberga 400,000 núcleos de cómputo optimizados para IA, sin caché, sin sobrecarga y 18 gigabytes de memoria SRAM local, distribuida y superrápida. El chip viene con 9 petabytes por segundo de ancho de banda de memoria donde los núcleos están conectados entre sí con una red de comunicación de grano fino, todo hardware, en chip conectado en malla que ofrece un ancho de banda agregado de 100 petabits por segundo. Esto significa que el ancho de banda de comunicación de baja latencia de WSE es extremadamente grande, lo que hace que los grupos de núcleos colaboren con la máxima eficiencia, y el ancho de banda de la memoria ya no es un cuello de botella. Más memoria local, más núcleos y una estructura de alto ancho de banda de baja latencia combinados forman la arquitectura óptima para acelerar el trabajo de IA.
Las características del chip Cerebras WSE:
- Núcleos aumentados: el WSE integra 400.000 núcleos de cómputo optimizados para IA llamados SLAC (núcleos de álgebra lineal dispersos) que son programables, flexibles y optimizados para el álgebra lineal dispersa que sustenta todos los cálculos de redes neuronales. La función de programabilidad de SLAC garantiza que los núcleos puedan ejecutar fácilmente todos los algoritmos de redes neuronales en un campo de aprendizaje automático en constante cambio. Los núcleos WSE incorporan tecnología de recolección de dispersión inventada por Cerebras que acelera el rendimiento computacional en cargas de trabajo escasas (cargas de trabajo que contienen ceros) como el aprendizaje profundo.
- Memoria mejorada: Cerebras WSE integra más memoria local junto con más núcleos, que es más que cualquier chip que permite un cálculo rápido y flexible con una latencia más baja y con menos energía. El WSE viene con 18 GB (Gigabytes) de memoria en chip accesible por su núcleo en un ciclo de reloj. Esta colección de memoria core-local hace que WSE entregue un agregado de 9 petabytes por segundo de ancho de banda de memoria, que es 10,000 X más ancho de banda de memoria y 3,000 X