noticias

Red Hat cierra un acuerdo definitivo para adquirir Neural Magic



Dirección copiada

La propuesta de adquisición refuerza el compromiso de Red Hat de permitir a sus clientes ejecutar cualquier aplicación o carga de trabajo —incluida la IA— en cualquier entorno de nube híbrida, desde on premises hasta nubes públicas y el edge

Publicado el 22 nov 2024



Red Hat
La inteligencia artificial protagoniza el Red Hat Summit 2023

Red Hat ha anunciado un acuerdo definitivo para la adquisición de Neural Magic, empresa pionera en software y algoritmos que aceleran las cargas de trabajo de inferencia de IA generativa. La experiencia de Neural Magic en ingeniería de rendimiento de inferencia y su compromiso con el código abierto se alinean con la visión de Red Hat de cargas de trabajo de IA de alto rendimiento que se adaptan directamente a los casos de uso y datos específicos del cliente, en cualquier lugar de la nube híbrida.

Si bien la promesa de la IA generativa domina gran parte del panorama tecnológico actual, los grandes modelos lingüísticos (LLM) que sustentan estos sistemas continúan aumentando de tamaño. Como resultado, construir servicios LLM rentables y confiables requiere una potencia de cálculo, recursos energéticos y habilidades operativas especializadas significativas. Estos desafíos, en la práctica, ponen los beneficios de una IA personalizada, lista para implementar y más consciente de la seguridad fuera del alcance de la mayoría de las organizaciones.

Red Hat pretende abordar estos desafíos haciendo que la IA generativa sea más accesible para más organizaciones a través de la innovación abierta de vLLM. Desarrollado por la Universidad de California, Berkeley, vLLM es un proyecto de código abierto impulsado por la comunidad para open model serving (cómo los modelos de IA generativa infieren y resuelven problemas), con soporte para todas las familias de modelos clave, investigación avanzada en aceleración de inferencia y diversos backends de hardware, incluyendo GPUs AMD, AWS Neuron, TPUs de Google, Intel Gaudi, GPUs NVIDIA y CPUs x86. El liderazgo de Neural Magic en el proyecto vLLM, combinado con la sólida cartera de tecnologías de IA para nube híbrida de Red Hat, ofrecerá a las organizaciones una vía abierta para construir estrategias de IA que satisfagan sus necesidades únicas, dondequiera que estén sus datos.

Red Hat + Neural Magic: Haciendo posible un futuro de IA generativa lista para la nube híbrida

Neural Magic surgió del MIT en 2018 con el objetivo de construir software de inferencia de alto rendimiento para deep learning. Con la tecnología y la experiencia en ingeniería de rendimiento de Neural Magic, Red Hat busca acelerar su visión para el futuro de la IA, impulsada por el portfolio de tecnología de IA de Red Hat. Diseñada para superar los desafíos de la IA empresarial a gran escala, Red Hat utiliza la innovación de código abierto para una mayor democratización del acceso al poder transformador de la IA a través de:

  • Modelos con licencia de código abierto, desde una escala de parámetros de 1B a 405B, que pueden ejecutarse en cualquier lugar necesario de la nube híbrida: en centros de datos corporativos, en múltiples nubes y en el edge.
  • Capacidades de ajuste que permiten a las organizaciones personalizar más fácilmente los LLM a sus datos privados y casos de uso con una mayor seguridad.
  • Experiencia en ingeniería de rendimiento de inferencia, lo que resulta en una mayor eficiencia operativa y de infraestructura.
  • Un ecosistema de partners y de código abierto, y estructuras de soporte que permiten una mayor variedad de opciones para los clientes, desde LLM y herramientas hasta hardware de servidor certificado y arquitecturas de chips subyacentes.

El liderazgo en vLLM mejora Red Hat AI

Neural Magic utiliza su experiencia y conocimiento en vLLM para construir un stack de inferencia empresarial que permite a los clientes optimizar, desplegar y escalar cargas de trabajo LLM en entornos de nube híbrida con control total sobre la elección de la infraestructura, las políticas de seguridad y el ciclo de vida del modelo. Neural Magic también desarrolla investigación de optimización de modelos, construye LLM Compressor (una biblioteca unificada para optimizar LLM con algoritmos de vanguardia de dispersión y cuantización) y mantiene un repositorio de modelos preoptimizados listos para implementar con vLLM.

Red Hat AI tiene como objetivo ayudar a los clientes a reducir los costes y las barreras de conocimiento de la IA con potentes tecnologías, que incluyen:

  • Red Hat Enterprise Linux AI (RHEL AI): una plataforma de modelos fundacionales para desarrollar, probar y ejecutar de forma más fluida la familia IBM Granite de LLM de código abierto para aplicaciones empresariales en despliegues de servidores Linux.
  • Red Hat OpenShift AI: una plataforma de IA que proporciona herramientas para desarrollar, entrenar, servir y supervisar rápidamente modelos de aprendizaje automático en entornos Kubernetes distribuidos, ya sea en las instalaciones, en la nube pública o en el edge.
  • InstructLab: un proyecto comunitario de IA de código abierto accesible, creado por Red Hat e IBM, que permite a cualquiera dar forma al futuro de la IA generativa mediante la mejora colaborativa de los LLM Granite con licencia de código abierto utilizando la tecnología de ajuste de InstructLab.

El liderazgo tecnológico de Neural Magic en vLLM mejorará la capacidad de Red Hat AI para admitir despliegues de LLM en cualquier lugar de la nube híbrida con un stack de inferencia listo para usar, altamente optimizado y abierto.

La transacción está sujeta a las revisiones regulatorias aplicables y otras condiciones de cierre habituales.

Artículos relacionados

Artículo 1 de 5