9月7日消息,据外媒援引知情人士透露,苹果始终在增加构建人工智能所需计算的预算,并且已经扩大到每天数百万美元。该公司的一个目标是开发一些功能,允许iPhone用户使用简单的语音命令来自动执行涉及多个步骤的任务。举例来说,这项技术可以让用户命令Siri语音助手用他们最近拍摄的五张照片创建GIF动图,并将其发送给朋友。如今,iPhone用户必须手动完成这个过程。 据了解该团队的人士称,早在四年前,苹果的人工智能主管约翰·詹南德里亚(John Giannandrea)就被授权组建团队,开发被称为大语言模型(LLM)的对话式人工智能(或称生成式人工智能)。当时,这项技术尚未成为软件行业的焦点。在OpenAI于去年推出聊天机器人ChatGPT之后,人们才发现苹果有先见之明。聊天机器人ChatGPT推动了大语言模型的繁荣。 几位苹果员工表示,尽管詹南德里亚多次表达了对由人工智能语言模型驱动的聊天机器人潜在用途的怀疑,但苹果并不是完全没有为语言模型的繁荣做好准备。这要归功于詹南德里亚,他帮助对苹果的软件研究文化做出了改变。 这些变化现在正获得回报,因为大语言模型的出现可能会改变人们创造一切东西的方式,从计算机程序到幻灯片演示再到书籍,都是如此。这项技术还有望自动化涉及文本的繁琐、重复性的任务,从摘要到处理企业IT票据或客户服务查询等。 这个名为“基础模型”(Foundational Models)的对话式人工智能团队,由几位曾在谷歌工作多年的工程师组成,詹南德里亚在加入苹果之前是他们的主管。该团队由庞若明(Ruoming Pang,音译)领导,他于2021年加入苹果,此前在谷歌工作了15年,包括詹南德里亚负责领导的人工智能研究部门。 苹果组建多个LLM团队 知情人士表示,“基础模型”团队的规模仍然很小,大约有16人,但用于培训苹果最先进模型的预算已经增加到每天数百万美元。相比之下,开发ChatGPT的初创企业OpenAI首席执行官萨姆·奥特曼(Sam Altman)曾表示,该公司在几个月的时间里,花费了超过1亿美元来培训GPT-4,这是该公司为聊天机器人提供支持的最先进软件。 苹果的“基础模型”团队扮演着与谷歌和Meta等公司人工智能团队类似的角色。在这些公司,研究人员需要构建人工智能模型,然后其他团队将这些模型应用到公司的各种产品中。 不过,苹果似乎至少还有另外两个相对较新的团队,正在开发语言或图像模型。苹果最近的一份人工智能研究报告和LinkedIn上的员工简介显示,该公司存在一个“视觉智能”(Visual Intelligence)团队,致力于开发能够生成“图像、视频或3D场景”的软件。 另一个团队正在进行涉及多模式人工智能的长期研究,这种模型可以识别和生成图像、视频或文本。这个多模式团队的领导者之一是乔恩·什伦斯(Jon Shlens),他曾在2021年底开始在苹果工作,之前在谷歌从事人工智能工作。什伦斯于今年早些时候加入了谷歌的人工智能团队(现在被称为Google DeepMind)。谷歌即将推出的Gemini模型具有多模式功能。 苹果“基础模型”团队已经开发出几个先进的模型,并正在内部测试。一位直接了解苹果聊天机器人开发情况的人士说,一款基于大语言模型的苹果聊天机器人最终可能会与使用苹果AppleCare客户互动。AppleCare是该公司提供保修和技术支持的售后服务。 Siri升级 另外,Siri团队也计划整合大语言模型,让苹果的智能语音助手用户以目前无法实现的方式自动完成某些复杂的任务,比如前面提到的用简单指令创建和发送GIF的例子。这项新功能与苹果的快捷方式应用Shortcuts有关,该应用允许用户使用不同的应用手动编程一系列操作,预计将于明年与新版iPhone操作系统一起发布。一位知情人士说,谷歌也一直在努力将其大语言模型与语音助手整合,以便能够理解和处理更复杂的任务。 据这位知情人士透露,苹果“基础模型”团队中的成员认为,其最先进的大语言模型AJAX GPT的功能超过了OpenAI的GPT 3.5,后者是支持ChatGPT最初版本的大语言模型。自那以后,OpenAI推出了一系列功能明显更强大的模型。 关于苹果如何在其产品中融入大语言模型,目前仍不清楚细节。据多位离职的苹果机器学习工程师说,该公司领导层更喜欢在设备上运行软件,这提高了隐私和性能,而不是在云服务器上运行。 但这可能很难实现。例如,据一位直接了解该模型的人士透露,AJAX GPT已经接受了2000多亿个参数的培训。参数反映了机器学习模型的大小和复杂性,参数数量越多,表示模型越复杂,需要更多的存储空间和计算能力。一个拥有2000多亿个参数的大语言模型,可能不适合在iPhone上运行。 缩小大语言模型的规模已经有先例可循。例如,谷歌的PaLM 2有四种尺寸,其中一种可以在设备上使用,另一种则可以离线使用。 苹果发言人拒绝就此置评。 谷歌的影响力 詹南德里亚被同事们称为J.G.,他最初加入苹果是为了帮助改进Siri,并为苹果的软件注入更多的机器学习功能。尽管他曾多次向同事们表示,对由大语言模型驱动的聊天机器人的潜在用途持怀疑态度,但一位知情人士表示,在过去一年里,在看到一些内部演示后,他开始承认这项技术有能力完成指定任务。 苹果“基础模型”团队的组建源于詹南德里亚的决定,他希望让苹果更像他的前雇主,让员工在进行各种研究和发表论文方面有更大的灵活性。此前,对这些做法的限制损害了苹果招聘人才的能力,尽管该公司成功地在其产品中使用了早期的人工智能技术。 2018年加入苹果后,詹南德雷亚帮助从谷歌招聘了关键工程师和研究人员。他还支持更多地使用谷歌的云服务,包括安装了谷歌开发的人工智能芯片(即张量处理单元)的服务器,用来训练苹果的机器学习模型,进而帮助改进Siri和提高其他产品功能。 据了解庞若明的人说,他在神经网络方面发表的研究成果吸引了大批追随者。神经网络是机器学习的一个子集,涉及训练软件识别数据中的模式和关系,类似于人类大脑的工作方式。庞若明某些比较著名的研究涉及神经网络如何与手机处理器协同工作,以及如何使用并行计算来训练神经网络,并行计算是将较大的问题分解成多个处理器可以同时计算的较小任务的过程。 开源运动 庞若明对苹果的影响可以从AXLearn中看出来,这是他的团队在过去1年中开发用于培训AJAX GPT的内部软件。AXLearn是一个机器学习框架,可以快速训练机器学习模型。AXLearn的部分构成基于庞若明的研究,并针对谷歌张量处理单元进行了优化。 AXLearn是JAX的一个分支,JAX是谷歌研究人员开发的开源框架。如果将苹果的AJAX GPT比作一栋房子,那AXLearn就是蓝图,而JAX就是用来绘制蓝图的笔和纸。苹果用来培训大语言模型的数据主要源自建筑行业,目前尚未公开。 今年7月份,苹果“基础模型”团队悄悄地将AXLearn的代码上传到代码存储库GitHub,公众可以使用它来培训自己的大语言模型,而不必从头开始构建所有内容。苹果公开发布AXLearn代码的原因尚不清楚,但公司这样做通常是希望其他工程师能对模型进行改进。在詹南德雷亚到来之前,对于向来行事隐秘的苹果来说,开放可用于商业用途的源代码的决定显得不同寻常。 团队领导 荷兰计算机科学家阿瑟·范·霍夫(Arthur Van Hoff)最初领导的团队,后来成为苹果“基础模型”团队的骨干。据熟悉霍夫的人说,他是上世纪90年代开发Java的太阳微系统公司团队的早期成员,后来成为了知名的企业家。霍夫于2019年加入苹果,最初致力于开发新版Siri,内部代号为黑鸟(Blackbird),但苹果最终放弃了这个版本。 然后,霍夫的团队开始专注于构建大语言模型,他们的目标是将其用于黑鸟的基本版本。该团队最初只有几名员工,其中最著名的是两名专门从事自然语言处理的英国研究人员汤姆·冈特(Tom Gunter)和托马斯·尼克森(Thomas Nickson)。这两位研究人员都在牛津大学获得了高等学位,并于2016年加入苹果从事Siri的研究。 据知情人士透露,2021年,庞若明加入苹果,帮助培训尖端的大语言模型。与其他苹果研究人员不同,他获得了留在纽约的特殊请求,并被授权在那里为公司的机器学习团队建立一个新的前哨基地。几个月后,苹果聘请了谷歌前人工智能高管达芙妮·梁(Daphne Luong)来监督霍夫的团队,并聘请谷歌研究员萨米·本吉奥(Samy Bengio)领导一个专注于长期机器学习研究的平行团队。 庞若明如今接管了“基础模型”团队,而霍夫则在今年早些时候开始无限期休假。据知情人士透露,庞若明团队的几名成员目前常驻纽约。 谷歌云交易 庞若明被招聘之际,苹果内部越来越意识到大语言模型在机器学习领域正变得越来越重要。据知情人士透露,OpenAI的GPT-3于2020年6月发布,这促使苹果机器学习团队要求获得更多资金来训练他们自己的模型。 据两名直接了解此事的人士透露,为了节省成本,苹果的管理人员历来鼓励机器学习工程师使用谷歌的云计算服务,而不是亚马逊的类似服务,因为谷歌的成本更低。 据一位熟悉相关讨论的离职苹果高管透露,谷歌高管过去曾对苹果表示,云服务定价较低,在一定程度上是对两家公司之间广泛商业合作的认可。根据协议,谷歌搜索是苹果Safari浏览器的默认搜索提供商。多年来,苹果始终是全球最大的云服务器租赁商,并已成为谷歌云的最大客户之一,尽管它仍然是亚马逊的重要客户。 一名知情人士表示,苹果还积极从谷歌和Meta的人工智能团队中招募人才。自从AXLearn代码于7月上传到GitHub上以来,已有18人对其进行了改进,其中至少有12人在过去两年内加入了苹果的机器学习团队。这些人中,有7人曾在谷歌或Meta工作过。 |