El marco de aprendizaje automático de Apple MLX, diseñado originalmente para Apple Silicon, obtiene un Backend CUDA. Esto significa que los desarrolladores podrán ejecutar modelos MLX directamente en las GPU de NVIDIA, lo cual es un gran problema. Aquí está por qué.
El trabajo está dirigido por el desarrollador @Zcbenz en Github (a través de Manzana), que comenzó a apoyar la creación de prototipos CUDA hace unos meses. Desde entonces, ha dividido el proyecto en pequeñas piezas y los fusionó gradualmente en la rama principal de Apple de Apple.
El backend siempre es un trabajo en progreso, pero varias operaciones básicas, como la multiplicación de matriz, Softmax, reducción, clasificación e indexación, ya están atendidas y probadas.
Espera, ¿qué es Cuda?
Básicamente, Cuda (o calcular la arquitectura del dispositivo unificado) es el metal de los equipos NVIDIA: una plataforma de computadora que la compañía ha creado específicamente para realizar en sus propias GPU y aprovechar al máximo las tareas de computadora de alto rendimiento.
Para muchos, CUDA es la forma estándar de ejecutar cargas de trabajo de aprendizaje automático en las GPU de NVIDIA, y se utiliza en todo el ecosistema ML, desde la investigación académica hasta la implementación comercial. Los gerentes como Pytorch y TensorFlow, que son cada vez más familiarizados incluso fuera de los círculos de ML profundos, todos descansan en CUDA para extraer la aceleración de la GPU.
Entonces, ¿por qué el Apple MLX ahora admite CUDA?
Dado que MLX está estrechamente integrado en plataformas de metal en Apple, no fue diseñado originalmente para operar fuera de los macOS.
Pero la adición de un Backend CUDA cambia, y brinda a los investigadores e ingenieros un mediano prototiper local en una Mac, utilizando silicio en metal y manzana, luego ejecuta el mismo código en grupos de nvidia GPU a gran escala que siempre dominan las cargas de trabajo de capacitación automática de aprendizaje.
Dicho esto, todavía hay límites, la mayoría de los cuales son trabajo en progreso. Por ejemplo, todos los operadores MLX aún no se implementan, y el soporte de GPU de AMD es aún más bajo en la carretera.
Sin embargo, llevar el código MLX a las GPU de NVIDIA sin tener que reescribirla abre la puerta a pruebas, experimentación e investigación más rápidas, que es casi todo lo que el desarrollador de IA puede esperar escuchar.
Si quieres probarlo tú mismo, los detalles son Disponible en Github.
Ofertas de Apple Watch
FTC: utilizamos enlaces de afiliación de ingresos automáticos. Más.