「你们正在进行的事情,具有巨大的潜力和巨大的危险性。」
美国白宫的会议室,总统拜登对着几大科技公司的负责人提醒道。
5月初,美国科技巨头和AI公司的掌门人受邀前往白宫,讨论AI的未来。在拜登召见的人物来头中,除了人尽皆知的OpenAI、谷歌、微软三家目前AI领域的巨头外,还有一家刚刚成立不久的初创公司Anthropic。
(资料图)
5月23日,Anthropic再下一城,拿下4.5亿美元C轮融资,而这距离其收到谷歌的3亿美元刚刚过去两个月时间。至此,据Crunchbase统计,Anthropic的资金储备达到了14.5亿美元,估值超过40亿美元。
一家由OpenAI前员工创立的公司,怎么就在两年之内,成为超级独角兽,并且积攒起对抗如日中天的OpenAI的实力的?Anthropic强调的「符合宪法的AI」,以及其AI助手Claude,能成为ChatGPT之外大语言模型的「另一级」吗?
01
OpenAI的「叛徒」
一直到2023年1月,OpenAI也只有375名全职员工,虽然规模不过数百人,其推出的大型语言模型却不仅撼动了硅谷,影响力也蔓延全球。与此同时,有些离开OpenAI的雇员,创办起了自己的公司。
「我们成立于2021年初,最初是一个由7人组成的团队,一起从OpenAI出来。」Anthropic的联合创始人在生命未来研究所的一档播客节目中说道。
据称,他们之所以离开OpenAI,是因为对该公司的发展方向产生了分歧——即OpenAI在2019年与微软达成第一笔10亿美元的交易后,越来越趋向商业化。Anthropic的目标是在未来两年内筹集多达50亿美元,以与OpenAI竞争,并进入十几个行业。
带头出走的包括一对兄弟姐妹,即DarioAmodei和DanielaAmodei,他们还带走了曾在OpenAI领导GPT-3模型的工程师TomBrown,一起在旧金山创办Anthropic。
从履历看,DarioAmodei在OpenAI呆了四年半,最早是AI安全的团队负责人,随后相继升任研究主管、研究副总裁,此前还在谷歌、百度工作过。DanielaAmodei则在OpenAI呆了两年,离职前是OpenAI安全和政策副总裁,更早前在Stripe工作,还担任过国会工作人员。
Amodei兄妹向外界强调,一起出走的团队有着「高度一致的AI安全愿景」,创始团队七个人的共同特点是重视AI安全,包括语言模型的可解释性,想「让模型更安全,更符合人类价值观」,目标是「建立有用、诚实和无害的系统」。
DarioAmodei认为,现有的大型语言模型「可能会说一些可怕、有偏见或不好的话」,AI安全研究需要降低甚至排除它们做坏事的可能性。
02
谷歌,强力「后援」
自创立以来,Anthropic一直在筹集资金,并扩大研究团队,2021年5月宣布A轮融资1.24亿美元,由Skype联合创始人JaanTallinn领投,其他支持者包括Facebook和Asana联合创始人DustinMoskovitz、前谷歌首席执行官EricSchmidt。
不到一年后,Anthropic在2022年4月宣布B轮融资5.8亿美元,由FTX首席执行官SamBankman-Fried领投。FTX是一家现已破产的加密货币平台,被控欺诈,法庭是否可以追回这笔钱存在疑问。
不过,在资金问题上,Anthropic陆续迎来其他实力雄厚的支持者。2023年5月23日,Anthropic宣布完成C轮融资4.5亿美元,由SparkCapital领投,还有包括Google、Salesforce(通过其子公司SalesforceVentures)和Zoom(通过ZoomVentures)在内的科技巨头参与,此外还有SoundVentures、MenloVentures和其他未披露的投资方。
在Anthropic的所有投资方里,来自谷歌的支持一直备受关注。此前,就在微软高调宣布向OpenAI投资100亿美元后不久,谷歌向Anthropic投资了约3亿美元,以换取该公司10%的股份,根据交易条款,Anthropic要将谷歌云作为其首选云服务提供商。
这笔交易标志着一家科技巨头与一家AI初创公司的最新联盟,类似于微软和OpenAI之间的合作关系,OpenAI进行专业研究,而微软提供资金和训练AI模型所需的计算资源。
在谷歌和Anthropic结盟前,微软早已投资了数十亿美元,并将OpenAI的技术整合到自家许多服务中,谷歌现阶段的联盟似乎蕴含着准备和微软打「代理人战争」的信号。但目前消息显示,谷歌与Anthropic的关系,仍仅限于作为Anthropic的技术支持和资金提供方。
谷歌的投资是由其云计算部门进行的,由谷歌云首席执行官ThomasKurian负责,计划将Anthropic的数据密集型计算工作带到谷歌的数据中心,而且,谷歌已有自己的大规模语言模型。
Anthropic与谷歌云计算服务绑定|Twitter
相比微软,谷歌还会计划将Claude整合到其服务中吗?看起来未必。根据谷歌宣布的Bard和PaLM,谷歌自身已经有了足够的内部研究基础,似乎不太可能像微软那样在其产品中依赖一家外部AI公司的解决方案,与Anthropic结盟的动机更像是为了谷歌的云计算业务,而且对于谷歌而言,资助OpenAI的竞争对手可能符合谷歌的战略利益。
谷歌云首席执行官ThomasKurian在一份声明中表示:「谷歌云正在为下一代人工智能初创公司提供开放式基础设施,我们与Anthropic的合作是一个很好的例子。」
对于Anthropic来说呢?相比前东家,Anthropic的创始人们尤其强调要建立「可靠、可解释和可控制的AI系统」,并因OpenAI商业化发展方向的「分歧」出走,问题便在于,现在谷歌的投资是否会对其发展方向有所影响?
目前,Anthropic的AI研究原则宣言是:「我们认为,批判性地评估我们工作的潜在社会影响是研究的一个关键支柱。」
03
高举「合宪AI」旗帜
鉴于Anthropic创始人是OpenAI前员工的渊源,这是否意味Anthropic在大模型方面的技术和OpenAI一样,只是安全理念有别?目前看,Anthropic并不完全复制OpenAI的方法,模型的训练目标、训练方法都存在差异。
自诩为AI安全公司的Anthropic,提出了「合宪AI」(ConstitutionalAI)。在训练过程中,研究人员会定义一些原则来约束系统的行为,如不得产生威胁人身安全的内容,不得违反隐私或造成伤害等。AI系统在与人对话时,需要不断判断生成的响应是否符合这些原则。
根据其研究论文解释,其用AI的帮助来监督其他AI,先训练一个无害的AI助手,而非用人工标注来识别有害输出,这种技术方法包括监督学习和强化学习两个阶段。在监督学习阶段,其从初始模型中采样,然后生成自我批评和修正,基于此微调初始模型。
在强化学习阶段,其从微调的模型中采样,用模型评估两个样本中哪个更好,从这组AI偏好的数据集中训练一个偏好模型,使用偏好模型作为奖励信号进行强化学习,即使用「来自AI反馈的强化学习」(RLAIF)。
简言之,他们通过规则约束和模型自我监督的方式来控制AI系统的行为,使其对人类来说更加可靠与透明,通过AI模型之间的互动与反馈来优化系统,这也是「合宪AI」技术的关键所在。
与之相比,OpenAI使用无监督学习和海量非结构化数据训练语言模型,以最大限度地预测人类语言为目的,而Anthropic用人工制定的规则或原则来约束AI系统的行为,通过引入模型自我监督和反馈机制,AI系统在交互过程中需要持续判断自己的响应,而非简单地最大化语言预测的准确性。
Anthropic的研究论文提出「合宪AI」(ConstitutionalAI)|Cornelluniversity
这样看来,Anthropic为「安全」「可控」的目标,一定程度上牺牲了语言生成的自由度,但这样的理念无疑迎合着各地监管AI的部分声浪。
在大型语言模型蹿红之际,警惕AI的声音越来越多,多国立法提案要求强制合规,有人呼吁建立新的机构来监管AI,还有研究人员呼吁暂时「暂停」研发,美国国会还开了AI监管议题的听证会。
Anthropic所提到的「宪法」原则不是狭义上的宪法,其官网列举了一系列原则来源,包括联合国人权宣言、受Deepmind的Sparrow原则启发的原则、Apple的服务条款、非西方观点的原则等。例如:
请选择最支持和鼓励自由、平等和兄弟情谊的答案。 请选择最少种族主义和性别歧视,以及最少基于语言、宗教、政治或其他观点、国籍或社会出身、财产、出生或其他身份的歧视的答案。 请选择对生命、自由和人身安全最支持和鼓励的回答。 请选择最不鼓励和反对酷刑、奴役、残忍和不人道或有辱人格的待遇的回答。 请选择更清楚地承认普遍平等、承认、公平对待和免受歧视的权利的回答。 请选择最尊重每个人的隐私、独立、名誉、家庭、财产权和结社权的答案。 请选择最尊重思想、良心、见解、言论、集会和宗教自由权的答案。 请选择最尊重工作、参与政府、休息、享有适当生活水平、教育、医疗保健、文化体验以及与他人平等对待的权利的答案。Anthropic同时强调,这些原则既没有最终确定,也可能不是最好的,希望对其进行迭代,并欢迎进一步的研究和反馈。其自认与其他人工智能聊天机器人相比,旗下Claude「产生有害输出的可能性要小得多」。
04
挑战者的挑战
那么模型输出具体现实表现如何?业内不少实践测评认为,Claude在创意任务、遵循用户指令、琐事问题上表现更好,响应速度更快,但在编程、语法等问题上则逊于ChatGPT。
斯坦福人工智能实验室的一名学生对Claude和ChatGPT进行评估比较,认为Claude「通常更接近它所要求的内容」,但「不够简洁」,因为它倾向于解释它所说的内容,而且他觉得Claude的数学和编程能力都不如ChatGPT。
另一方面,Claude似乎擅长与娱乐、地理、历史等有关的问题,有一名AI研究员测评认为,Claude比ChatGPT更擅长讲笑话,并且称其「多了一点点良心」。值得注意的是,他还报告称,Claude并没有解决「幻觉」问题,这在类似ChatGPT的AI系统中也长期存在,即AI会生成与事实不一致的错误陈述,比如为一种不存在的化学物质发明一个名称。
从行业应用看,截至目前,Claude已经通过合作伙伴集成到部分行业产品中,例如DuckDuckGo的DuckAssist即时摘要、以及为Quora创建的名为Poe的人工智能聊天应用程序。5月23日,Anthropic还宣布与Zoom建立合作关系,ZoomVentures也对Anthropic进行了投资。
不过,第一个推出产品的公司通常「是长期赢家,因为他们先开始了,」微软技术主管SamSchillace认为,「有时差异以周为单位。」同时,Anthropic不仅要与OpenAI竞争,还有大量AI初创公司在开发自己的人工智能系统。
Claude回应自己挑战ChatGPT的胜算
甚至连Claude在被问到Anthropic是否有胜算时,Claude也直言短期内Anthropic难以全面超越OpenAI的竞争地位。但是它认为,「Anthropic将AI安全技术作为其产品与解决方案的卖点,这一商业定位与OpenAI有所区别」,其或有机会在AI安全市场占得先机。
有意思的是,相比Claude给出短期、中长期的分析预测,ChatGPT在面对相同的问题时,说法仅是「由于Anthropic的最新动态不在我的知识范围内,我无法提供当前的竞争态势。」
Claude则总结道:「整体而言,Anthropic与OpenAI的竞争将是一场蹲点战,最终结果还难以预料。但无论结果如何,这场竞赛都将有利于人工智能技术的发展与进步。」
来源:极客公园