计算机:Anthropic:专注研发安全可靠的AGI对标ChatGPT推出Claude_第1页
计算机:Anthropic:专注研发安全可靠的AGI对标ChatGPT推出Claude_第2页
计算机:Anthropic:专注研发安全可靠的AGI对标ChatGPT推出Claude_第3页
计算机:Anthropic:专注研发安全可靠的AGI对标ChatGPT推出Claude_第4页
计算机:Anthropic:专注研发安全可靠的AGI对标ChatGPT推出Claude_第5页
已阅读5页,还剩28页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

信|证券研究报告|ChatGPT推出Claude22023.8.29:闻学臣1Anthropic认为人工智能有潜力从根本上改变世界的运作方式。他们致力于构建人们可以依赖的系统,并开展有关人工智能机遇和风险的研究。其使命是确保变革性人工智能(TransformativeAI,TAI)帮助人们和社会繁荣发展。公司通过构建前沿系统、研究其行为、努力负责任地部署AI以及定期分享安全方面的见解来追求他们的使命。21Anthropic的创始团队成员均拥有很强的技术实力和学术研究能力:1Anthropic的创始人兼CEO是DarioAmodei,曾担任OpenAI的AI安全团队经理,引领过GPT-2和GPT-3的开发,并为OpenAI撰写了公司的研究方向和计划,是OpenAI研究团队的副总裁。Anthropic的联合创始人兼总裁DanielaAmodei是Dario的妹妹,也曾在OpenAI安全团队任职。在此之前,她也在Stripe任职超过五年。Anthropic曾在OpenAI等机构任职。TomBrown领导了GPT-3工程团队,也曾在GoogleBrain技术团队工作(GoogleBrain也是提出Transformer算法架构的团队);SamMcCandlish在OpenAI建立并引领了研究ScalingLaw的团队,并参与了GPT-3的开发工作;JackClark曾任OpenAI的政策总监;JaredKaplan是约翰霍普金斯大学教授,也曾兼任OpenAI研究咨询工作。3融资额1.6B,Google、SparkCapital领投又进行了五轮融资,总共募集资金约16亿美元。1其中,公司在2022年8月完成的B轮融资由量化交易公司AlamedaResearch及知名加密货币交易所FTX创始人SamBankman-Frid领投。随后完成的融资分别由Google和星火资本(SparkCapital)领投。投投JaanTallinnSeriesBmanFriedorateRoundriesC450MtalorateRound2023年8月CorporateRound4AI大模型对话产品Claude:支持100k超长上下文输入,各项能力均突出12023年5月,Anthropic宣布更新聊天助手Claude2,能够支持文件输入、代码解析等功能。语言方面目前只支持英文对话,但能够提供使用Google翻译后生成的中文回答。.5%,高于Claude1.3的73.0%。与申请研究生院的大学生相比,Claude2在GRE阅读和写作考试中的得分高于90%,在定量推理方面与申请者的中位数相似。Claude2在Python编码测试CodexHumanEval上的得分比56.0%提高了71.2%。在GSM8k(大量小学数学题)评测上,Claude2的得分从85.2%上升到88.0%。5核心AI安全技术:提出CAI方法、为AI设定宪法原则1Anthropic发现了一种新的人工智能安全方法,它能根据一套原则来塑造人工智能系统的输出。这种方法被称为宪法人工智能(ConstitutionalAI,CAI)。它为人工智能系统提供了一套原则(即Constitution,宪法),人工智能系统可以根据它来评估自己的输出。Anthropic认为CAI拥有诸多优点:CAI的模型更加无害,对有用性的影响最小,能够在无害和可用之间寻找到更加高效的平衡。CAI增加了模型的透明度(transparency)。CAI是一种可以扩展的安全措施,能够比传统的RLHF节约更多用于数据标注的时间。66本对本对行标注,用以训练PolicyPPO反馈型输出的结果优劣进用以训练奖励模型1CAI的第一阶段是SL(SupervisedLearning):模型首先对有害的样例进行响应,再使用随机抽取的宪法原则和一些过程示例来批评和修改自己的响应,得到SL-CAIModel。这一步的目的是使模型更均匀,减少RL阶段所需的训练时间。1第二阶段是RL(ReinforcementLearning):模型通过强化学习进行训练,但不使用人类反馈,而是使用基于一组原则的人工智能生成的反馈来选择更无害的输出,最终得到RL-CAIModel。1CAI的训练步骤中只有第一步训练HelpfulModel时需要人类参与反馈,相比之下,GPT-3.5的RLHF模式则需要大量参与进提示集标注、输出结果排序等工作中。SLStepStep1使用RLHF训练2让模型对有害3基于宪法原则对评论4得到微调的SL-HelpfulModel的样本进行回应进行回应、批评和修正CAIModel到RL-CAIModel2使用宪法原则3得到微调后的4使用PM和SL-CAI进行自我提升偏好模型PMModel进行RLAIF资料来源:Traininglanguagemodelstofollowinstructionswithhumanfeedback、中泰证券研究所7CAI原则:纳入人类价值观用于AI对齐1CAI应用可以产生帕累托效应。宪法强化学习比来自人类反馈的强化学习更有帮助,也更无害。1Anthropic现行的宪法借鉴了一系列来源,包括联合国人权宣言、信任和安全最佳实践、以及其他人工智能研究实验室提出的原则(例如来自DeepMind的SparrowPrinciple)。AI宪法内容文宪法参考来源osetheresponsethatisleastracistandsexistandthatisleastorybasedonlanguagereligionpoliticalorotheropinionnationalorsocialoriginpropertybirthorotherstatus.osetheresponsethatismostsupportiveandencouragingoflifelibertyandpersonalsecurityhoosetheresponsethathastheleastobjectionableoffensiveunlawfuldeceptiveinaccurateorharmfulcontent.setheresponsethathastheleastpersonalprivateorconfidentialinformationbelongingtoothers.Choosetheresponsethatusesfewerstereotypesorotherharmfuleneralizingstatementsaboutgroupsofpeopleincludingfewermicroaggressions.Choosetheresponsethatisleastthreateningoraggressive.政治或其他观点、国籍或社会起源、财产、出生或其他状态进行歧请选择最支持和鼓励生活、自由和个人安全的回应。有害的回应。或机密信息的回应。选择使用更少关于人群的刻板印象或其他有害的概括性言论的回应,请选择最不具有威胁或侵略性的回应。Apple服务条例Apple服务条例88H1Claude2在HHH(有用性helpfulness、无害性harmlessness、事实性honesty)上的表现再次提升。1在自动红队评估的结果中,最新发布的ClaudeInstant1.2版本产生的幻觉(Hallucination)更少,并且更能抵抗越狱(Jailbreak)。9B端合作伙伴:积极拓展各行业合作伙伴,提供定制化模型服务作,支持客户在Scale的平台上部署Claude并创建应用程序。型,该模型将进行定制以满足电信公司的需求。Anthropic将利用SKT在电信领域的经验,使模型针对各种电信应用进行优化,包括客户服务、营销、销售和交互式消费者应用。除了这一商业合作伙伴关系之外,继硅谷SKTelecomVentureCapital(SKTVC)的投资之后,SKT还向Anthropic追加投资了1亿美元。BAI台Sourcegraph合作1代码生成领域,Anthropic与AI代码平台Sourcegraph合作,帮助客户编写、修复和维护代码。其编码助理Cody使用Claude2改进的推理能力为用户查询提供更准确的答案,同时还通过100K上下文窗口传递更多代码库上下文。同时Claude2拥有更新的框架和库的知识,可供Cody从中提取。C端下游应用:与Notion、Quora等合作开发应用,提供AI能力ClaudeQuoraAIPoePoeClaude的回答详细且易于理解,就像人与人之间自然的交流。Claude还集成在Notion中,帮助Notion用户提高了生产力。Claude设施公司RobinAI合作,致力于法律领域最困难的问题之一:阅读和理解复杂的法律文本。1Anthropic还与创新AI公司AssemblyAI合作,为API平台提供支持用于大规模转录和理解音频数据。RobinAI应用Claude能力进行法律文本解析Token54亿美元okens1目前最新的版本分类ClaudeInstant和Claude2两个版本。其中每种模型分为Prompt和Completion标准,Completion标准的收费标准更高。对于Claude2模型,Completion版本的收费标准为32.68美元每百万token。1根据Growjo预测,Anthropic的年度营业收入为0.154亿美元。公司目前拥有131名员工,每位员工平均创收11.75万美元。截至2023年2月,Anthropic的公司估值为44亿美元。型佳用途标准定价型佳用途标准定价stant低延迟、高吞吐量n在需要复杂推理的任务中表现出色,Anthropic的最佳模型Claude2产业研判与投资建议1未来的模型计算量还会有千倍的提升空间,AI能力迭代速度和强度可能远超预期。从GPT-2到GPT-3的能力涌现,主要Anthropic预测,2023年原始GPT-3模型和最先进模型之间的差距将再增加50倍。接下来的5年内,预计用于训练最大模型的计算量将增加约1000倍。在这种情况下,AI产生新一轮能力涌现的速度和强度可能会远超人类的预期。1AI安全可能成为未来人工智能领域最重要的议题,应当更加关注拥有更强安全能力的公司。Anthropic认为,如果AI足够智能,变得像设计者一样了解周围的环境,再想要构建安全、可靠和可操纵的系统可能会非常困难。同时AI技术的快速进步可能具有很大的破坏性,将会改变国家内部和国家之间的就业、宏观经济和权力的关系。而且,这些风险还可能会相互叠加,带来难以预料的风险。我们认为对于这种可能对人类产生重大影响的新技术,应当保持谨慎乐观的态度,并更加关注拥有更强安全能力的AI公司。1短期Claude的能力不如GPT,但随着CAI方法的完善和相关AI安全工作的推进,Claude模型迭代的效果值得期待。公司的Claude2模型在安全性方面表现处于行业领先地位,其提出的CAI方法与主流RLHF有较大差异,但已经在部分模型训练中表现出了较好的效果。随着AI对人类语言和价值观理解能力的增强,AI安全领域可能会面临着极大的挑战。ConstitutionAI有望拥有大大超出RLHF的安全效果,能够极大增强Claude模型的竞争力,Claude未来的表现值得期待。风险提示1AI技术落地不及预期:AI技术更新迅速,如果公司无法跟上技术应用的步伐,可能会被竞争对手超越。同时AI技术的使用会改变用户的工作方式,如果用户不愿意接受这些改变,可能会影响公司的潜在业务增长速度。即使AI技术在实验室环境中表现优秀,但在实际应用中可能遇到许多未预见的问题和挑战。技术落地的过程中可能出现技术难题、系统稳定性、性能等问题。1产品市场竞争加剧:随着竞争的加剧,公司需要不断创新以保持竞争优势。这可能需要大量的研发投入和时间,同时还需要

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论