Ollama 0.19 trae soporte MLX a los Mac Apple Silicon, aprovechando el framework de machine learning de Apple para utilizar mejor la memoria unificada entre CPU y GPU. La vista previa actualmente solo soporta el modelo Qwen3.5-35B de Alibaba y requiere al menos 32GB de RAM. Los usuarios con chips M5 obtienen aceleración adicional a través de los nuevos Neural Accelerators de Apple, mejorando tanto el rendimiento de tokens-per-second como time-to-first-token.
Esto importa porque la IA local ha estado ganando tracción real más allá del grupo usual de aficionados. El ascenso meteórico de OpenClaw a 300k estrellas en GitHub muestra que los desarrolladores están hambrientos de alternativas a las suscripciones API caras y los límites de tasa. Cuando estás llegando a los límites de uso de Claude o pagando precios premium por asistencia de codificación, ejecutar un modelo decente localmente empieza a verse atractivo—especialmente con beneficios de privacidad incluidos.
El requisito de 32GB de RAM cuenta la historia real aquí. Esto no está democratizando la IA local; la está haciendo viable para desarrolladores con hardware de gama alta. La arquitectura de memoria unificada de Apple teóricamente debería darle a los Mac una ventaja sobre las configuraciones GPU tradicionales, pero requerir configuraciones premium limita el impacto real. El soporte de un solo modelo en vista previa también sugiere que este es trabajo de optimización en etapa temprana.
Para desarrolladores que ya ejecutan máquinas Apple Silicon de 32GB+, esto podría genuinamente reemplazar algunos servicios IA pagados para tareas de codificación. Las ganancias de rendimiento de la optimización de memoria de MLX combinadas con el soporte Neural Accelerator podrían finalmente hacer que los modelos locales sean lo suficientemente responsivos para workflows reales. Pero hasta que el soporte se expanda más allá de un modelo y los requisitos de hardware bajen, esto sigue siendo una solución para early adopters bien equipados, no para la comunidad más amplia de desarrolladores buscando escapar de la fatiga de suscripciones.
