La inteligencia artificial ha cambiado completamente la forma en la que se procesan datos, y Nvidia está sin duda a la cabeza de esta revolución, y lo ha vuelto a demostrar con el anuncio de su próxima generación de servidores de IA, los GB300.
Los servidores GB200 y B200, es decir, la generación anterior, tuvieron problemas de sobrecalentamiento y un diseño complejo, pero parece que Nvidia ha aprendido de estos errores.
La principal mejora en el GB300 es su procesador B300, diseñado en el nodo de 4 nm específicamente optimizado para Nvidia. Por si no lo sabes, un nodo es la medida de lo pequeñas que son las partes internas de un chip, como las carreteras por donde viaja la electricidad para que funcione.
Cuanto más pequeño sea el nodo, más componentes pueden entrar en un chip, lo que lo hace más rápido y eficiente, y 4 nm es increíblemente pequeño.
Por otro lado, el B300 tiene un rendimiento de cómputo 50% mayor en comparación con la serie B200, lo que significa que puede hacer un 50% más de trabajo en el mismo tiempo. Sin embargo, su consumo energético es de 1.400 W, apenas 200 W más que su predecesor, por lo que hace bastante más gastando solo un poco más de energía.
Además, incorpora una memoria HBM3E de 12 capas que hace que su capacidad total sea de 288 GB, con un ancho de banda de 8 TB/s. Para que comprendas esto, lo de "12 capas" significa que esta memoria está apilada, como si fuera un rascacielos con 12 pisos. Se construye así para que ocupe menos espacio y funcione mucho más rápido que la memoria convencional.
Por otra parte, el hecho de que la capacidad total sea de 288 GB y el ancho de banda de 8 TB/s no solo mejora los tiempos de entrenamiento de modelos de IA, sino que también reduce los costos operativos en hasta tres veces al permitir mayores tamaños de lote (realizar más tareas de una sola vez) y resolver problemas de latencia.
Otro cambio que llama la atención en estos nuevos servidores es la adopción del adaptador ConnectX-8 NIC, que dobla la capacidad de ancho de banda de su predecesor ConnectX-7, alcanzando velocidades de 1,6 Tbps, suficiente para descargar más de 200 películas en calidad 4K en un solo segundo, por ejemplo.
Además, con 48 carriles PCIe frente a los 32 anteriores, en el GB300 se pueden conectar más dispositivos sin renunciar a una mayor eficiencia. Asimismo, integra la tecnología NVL72, que permite la interconexión de hasta 72 GPUs en una sola tarea con latencia ultrabaja.
Por otro lado, para la serie GB300, en lugar de ofrecer el servidor de forma integral, como ocurrió en la serie GB200, Nvidia va a poner a la venta estos nuevos servidores por piezas, lo cual es ideal para empresas que quieren diseñar configuraciones personalizadas.
Hace tan solo unos meses hablábamos sobre que Nvidia había crecido un 122% más en 2024 que en 2023, y se ve que la empresa no ha ralentizado su marcha en este sentido, por lo que esperamos ver más innovaciones sorprendentes en los próximos meses.
Vía: Tom's Hardware y Semianalysis
- Ver Comentarios