«

机器学习格局新变化:苹果的机器学习框架MLX将支持英伟达的CUDA平台

一把老骨头 发布于 阅读:10 科技新闻


近日,苹果在机器学习领域有了新动作,其专为苹果芯片设计的MLX机器学习框架将获得英伟达CUDA平台的后端支持,这一举措在行业内引起了广泛关注。

项目推进:开发者主导,逐步落地
此次支持CUDA的工作并非一蹴而就,而是由开发者@zcbenz在GitHub上精心主导推进的(消息源自AppleInsider)。早在几个月前,这位开发者就开始着手为CUDA支持构建原型,展现出了前瞻性的眼光和强大的执行力。此后,为了更好地推进项目,他将整个项目巧妙地拆分成多个小部分,然后有条不紊地逐步将其合并到苹果MLX的主分支中。这种分步实施、稳步推进的策略,确保了项目能够顺利地进行下去。

后端进展:核心操作已支持,但仍需完善
目前,该CUDA后端仍处于开发阶段,不过已经取得了阶段性的成果。矩阵乘法、Softmax函数、归约、排序和索引等几个核心操作已经得到了支持,并且经过了严格的测试。这些核心操作是机器学习计算中的基础,它们的实现为后续更复杂的功能开发奠定了坚实的基础。然而,我们也要清醒地认识到,目前仍存在一些不足之处。例如,并非所有的MLX操作符都已经实现,这意味着在功能上还存在一定的局限性。而且,对AMD GPU的支持也还在后续的规划之中,距离实际应用还有一段路要走。

深度剖析:CUDA为何如此重要
对于不熟悉机器学习领域的人来说,可能会对CUDA感到陌生。简单来说,CUDA(统一计算设备架构)就像是英伟达硬件的“专属引擎”,是该公司专门为在其自家GPU上运行而精心打造的计算平台。它的出现,让英伟达GPU能够充分发挥出强大的性能,尤其是在执行高性能并行计算任务时,表现得尤为出色。

在机器学习领域,CUDA的地位举足轻重。对于许多人而言,它是在英伟达GPU上运行机器学习工作负载的标准方式。从学术研究到商业部署,在整个机器学习生态系统中,CUDA都得到了广泛的应用。像PyTorch和TensorFlow这样在行业内赫赫有名的框架,即便在深度机器学习领域之外也日益为人熟知,它们都依赖CUDA来实现GPU加速。正是因为有了CUDA的支持,这些框架才能够在处理大规模数据和复杂模型时,展现出高效、快速的计算能力。

苹果MLX支持CUDA:意义与挑战并存
那么,苹果的MLX框架为什么要支持CUDA呢?这背后有着深刻的战略考量。MLX最初是针对苹果芯片和Metal进行优化的,这使得它在苹果设备上能够发挥出最佳的性能。然而,随着机器学习技术的不断发展,对计算资源的需求也越来越高。添加CUDA后端,为MLX框架带来了新的发展机遇。

现在,研究人员和工程师可以使用MLX在Mac上本地构建基于CUDA的模型原型。这意味着他们可以在熟悉的苹果设备上进行快速的模型开发和测试,大大提高了工作效率。而且,完成原型开发后,他们还可以将这些模型轻松地部署到仍主导机器学习训练工作负载的大型英伟达GPU集群上。这种本地开发与大规模部署的无缝衔接,为机器学习的研究和应用提供了更加便捷的途径。

当然,支持CUDA也并非一帆风顺。除了前面提到的并非所有MLX操作符都已实现以及对AMD GPU支持还在规划中之外,苹果还需要考虑与英伟达的技术兼容性问题。毕竟,苹果和英伟达是不同领域的科技巨头,它们的技术体系和生态存在一定的差异。如何确保MLX框架与CUDA平台能够完美融合,发挥出最大的效能,是苹果需要解决的重要问题。

英伟达 苹果 CUDA MLX