AI魔法学院客服
苹果发布轻量化开源大模型OpenELM!
 2024-04-25
复制地址分享海报

苹果公司一直对其生成型AI的规划保持低调,但随着新AI模型的发布,公司在“让AI在苹果设备上本地运行”的愿景上似乎已经迈出了坚实的一步。

这个星期三,苹果研究团队在Hugging Face模型库上发布了OpenELM——一个包含四种极小型语言模型的系列。

苹果在其Hugging Face的模型页面上表示,OpenELM(开源高效语言模型)在处理诸如编写电子邮件等文本相关任务时表现出了极高的效率。这些模型是开源的,开发者可以自由使用。

相较于市面上大多数轻量级AI模型,OpenELM的体积更小,包括四种规模:2.7亿参数、4.5亿参数、11亿参数及30亿参数。

在AI领域,参数的数量决定了模型在决策过程中能够理解的变量数量。例如,微软最近发布的Phi-3模型的参数量为38亿,而谷歌的Gemma模型提供了20亿参数的版本。较小的模型运行成本更低,且特别优化以适应手机和笔记本电脑等设备。



苹果首席执行官蒂姆·库克曾在二月份暗示,生成型AI功能将会被集成到公司的设备中,他表示苹果在这一领域“投入了大量的时间和精力”。然而,苹果尚未分享其AI应用的具体细节。

尽管苹果以前也发布过其他AI模型,但它还没有像其竞争对手那样发布用于商业用途的AI基础模型。

去年十二月,苹果推出了MLX机器学习框架,旨在使AI模型在Apple Silicon上的运行更加流畅。此外,苹果还发布了一个名为MGIE的图像编辑模型,该模型允许用户通过简单的提示来修复照片。另一个名为Ferret-UI的模型可用于智能手机导航。有传言称苹果还在开发一个类似GitHub的Copilot的代码完成工具。

然而,即便苹果发布了这么多模型,据报道公司仍在寻求与谷歌和OpenAI合作,将他们的模型引入苹果产品。这一战略的实施表明,苹果正试图在保持自身软件独立性的同时,也能够借助外部力量,以强化其在快速发展的AI领域中的竞争力。

通过这些举措,苹果不仅展示了其在硬件优化方面的传统优势,还表明了将更多的高级AI功能带给终端用户的决心。对技术爱好者和开发者而言,苹果的这些创新开放了前所未有的可能性,使他们能够在苹果生态系统中探索和实现更多的应用场景。