苹果取得技术突破:可在 iPhone 上运行大型语言模型

2023-12-21 www.dnxtw.com

电脑系统网 12 月 21 据日本新闻报道,苹果的人工智能研究人员表示,通过创新的闪存利用技术,他们取得了重大突破,并在内存有限方面取得了成功 iPhone 大型语言模型部署在其他苹果设备上(LLM)。这一结果有望变得更强大 Siri、实时语言翻译,融入摄影,增强现实 AI 未来功能登录 iPhone。

近年来,像 ChatGPT 和 Claude 这样的 LLM 聊天机器人在世界各地都很受欢迎。它们可以进行流畅的对话,写不同风格的文本,甚至生成代码,表现出强大的语言理解和生成能力。然而,这些模型有一个致命的弱点:它们非常“吃”数据和内存,普通手机根本无法满足它们的运行需求。

为了突破这一瓶颈,苹果研究人员开辟了一条新的道路,将注意力转向手机中常见的闪存,即存储应用程序和照片的地方。在题为“闪存中” LLM:利用有限的内存实现有效的大型语言模型推理(LLM in a flash: Efficient Large Language Model Inference with Limited Memory)在论文中,研究人员提出了一种巧妙的闪存利用技术,将 LLM 在闪存中存储模型数据。作者指出,与传统一起用于操作 LLM 的 RAM 闪存在移动设备中比较丰富。

计算机系统网络注意到,他们的方法巧妙地利用两种关键技术绕过限制,从而最小化数据传输,最大化闪存内存吞吐量:

窗口化(Windowing):它可以被视为一种回收方法。AI 该模型不会每次都加载新数据,而是会重复使用一些处理过的数据。这减少了频繁读取内存的需要,使整个过程更加流畅和高效。

行-列捆绑(Row-Column Bundling): 这种技术类似于当你读一本书时,不是逐字逐句地读,而是分段地读。通过更有效的分组数据,数据可以从闪存中更快地读取,从而加速 AI 理解和产生语言的能力。

论文指出,这项技术可以使用 AI 达到模型的运行规模 iPhone 可用内存的两倍。这意味着标准处理器 (CPU) 速度提高了 4-5 倍,图形处理器 (GPU) 速度提高了 20-25 倍。“在资源有限的环境下部署先进的突破” LLM 它们的适用性和可访问性极其重要,” 研究人员写道。

更快更强的 iPhone AI

未来人工智能效率的突破 iPhone 例如,更先进的可能性已经开辟了新的可能性 Siri 实时语言翻译、摄影和增强现实中的复杂性 AI 驱动功能。该技术也是。 iPhone 人工智能助手和聊天机器人在设备上的复杂运行奠定了基础,苹果已经开始了这项工作。

苹果开发的生成式 AI 它最终可能会被整合 Siri 在语音助手中。2023 年 2 今年1月,苹果举行了人工智能峰会,并向员工介绍了其大型语言模型。据彭博社报道,苹果的目标是创造一个更智能的 Siri,与 AI 深度集成。苹果计划更新 Siri 与信息应用程序的交互使用户能够更有效地处理复杂的问题,并自动完成句子。此外,苹果还计划传闻 AI 尽可能多地添加到苹果应用程序中。

Apple GPT:口袋里的超级大脑

据报道,苹果正在开发自己的生成方式 AI 模型,代号为“Ajax”,旨在与 OpenAI 的 GPT-3 和 GPT-4 竞争,拥有 2000 1亿参数表明其在语言理解和生成方面具有高度复杂和强大的能力。Ajax 内部被称为“内部”Apple GPT目的是统一苹果机器的学习和开发,这表明苹果将 AI 更深入地整合到其生态系统中。

据最新报道,Ajax 被认为比早期更重要 ChatGPT 3.5 不过,一些消息人士也指出,更强大。OpenAI 新模型可能已经超越了 Ajax 的能力。

The Information 和分析师 Jeff Pu 均声称苹果会在这里 2024 年底左右,也就是 iOS 18 发布时,在 iPhone 和 iPad 提供某种形式的生成式 AI 功能。Pu 在 10 据说苹果将在月份 2023 年建数百台 AI 服务器,2024 更多的服务器将在年内建成。据报道,苹果将提供云 AI 和设备端处理 AI 结合解决方案。

广告声明:文本中包含的外部跳转链接(包括不限于超链接、二维码、密码等形式)用于传递更多信息,节省选择时间。结果仅供参考。计算机系统网络上的所有文章都包含了本声明。

相关阅读