Este movimiento refleja completamente la reciente asociación entre Meta y Broadcom. Las limitadas cuotas de TSMC para imprimir chips de IA y los colosales márgenes de NVIDIA están obligando a Sam Altman a buscar formas alternativas de escalar la infraestructura. La arquitectura Wafer-Scale Engine (WSE) de Cerebras permite potencialmente entrenar modelos AGI pesados de manera más eficiente que los clústeres de GPU tradicionales. Para OpenAI, esta maniobra es una garantía de que el desarrollo de futuras iteraciones de GPT no se estancará debido a la escasez de hardware físico en el mercado.
Fuente: Reuters
HardwareOpenAICerebrasInversionesInfraestructura