Qualcomm revela el revolucionario Qualcomm Cloud AI100 Ultra, prometiendo un rendimiento cuatro veces mayor con solo 150 vatios.
Qualcomm está causando sensación una vez más en el mundo de la tecnología con su último lanzamiento, el Qualcomm Cloud AI100 Ultra. Este potente acelerador de inferencia de centros de datos promete ofrecer un rendimiento cuatro veces mayor mientras consume tan solo 150 vatios. El chip es capaz de manejar modelos de lenguaje grandes con 100 mil millones de parámetros en una sola tarjeta de 150 vatios, lo que lo convierte en un cambio de juego para aquellos que dependen de dichos modelos para su trabajo. Emocionantemente, HPE también se ha asociado con Qualcomm para respaldar el nuevo chip en su servidor HPE Proliant DL380a, con el objetivo de proporcionar a los clientes una solución de cómputo optimizada para la inferencia de IA a gran escala. La continua innovación de Qualcomm en el procesamiento de inferencia eficiente en energía es evidente, y su nuevo Cloud AI100 está listo para revolucionar la inferencia de modelos de lenguaje grandes a un costo asequible. Estén atentos a las pruebas de rendimiento de MLPerf en los próximos meses para obtener más información sobre esta tecnología notable.
Juan Brignardello, asesor de seguros, se especializa en brindar
asesoramiento y
gestión comercial en el ámbito de seguros y
reclamaciones por siniestros para destacadas empresas en el mercado peruano e internacional.
Qualcomm vuelve a estar en el centro de atención con su último anuncio del Qualcomm Cloud AI100 Ultra. Esta nueva versión de su acelerador de inferencia para centros de datos, eficiente en consumo de energía, promete un rendimiento cuatro veces mayor con apenas 150 vatios. Parece que Qualcomm ha estado tranquilo por un tiempo, pero no te preocupes, han estado trabajando arduamente.
Los rumores sobre cuándo Qualcomm lanzaría su chip de inferencia para centros de datos han estado circulando, y resulta que han estado trabajando en algo aún mejor. La versión "Ultra" de su chip presume la capacidad de manejar modelos de lenguaje grandes con 100 mil millones de parámetros en una sola tarjeta de 150 vatios, e incluso admite modelos con 175 mil millones de parámetros utilizando dos tarjetas. Esto es una gran noticia para aquellos que dependen de modelos de lenguaje grandes para su trabajo.
HPE, una conocida empresa de tecnología, también se ha sumado a la última oferta de Qualcomm. Planean respaldar la nueva tarjeta en su servidor HPE Proliant DL380a. Con esta colaboración, esperan proporcionar a los clientes una solución informática optimizada para inferencia que ofrezca el rendimiento y la eficiencia energética necesarios para la inferencia de IA a gran escala. Es emocionante ver cómo se desarrollará esta asociación.
Está claro que Qualcomm no se está frenando cuando se trata de procesamiento de inferencia eficiente en consumo de energía. La adición de más memoria a su solución de IA ha cuadruplicado su rendimiento, lo cual es crucial para manejar las demandas de los modelos de lenguaje grandes. Qualcomm está en racha, desde su Snapdragon X Elite para Windows hasta el nuevo Snapdragon 8 Gen 3 para teléfonos móviles. Ahora, su Qualcomm Cloud AI100 está lista para revolucionar la accesibilidad de la inferencia de modelos de lenguaje grandes con un consumo de energía increíblemente bajo. Mantente atento a las pruebas de rendimiento de MLPerf en los próximos meses, ya que seguramente arrojarán más luz sobre las capacidades de esta impresionante tecnología.