Cohere:着力于B端赛道OpenAI 的强劲对手_第1页
Cohere:着力于B端赛道OpenAI 的强劲对手_第2页
Cohere:着力于B端赛道OpenAI 的强劲对手_第3页
Cohere:着力于B端赛道OpenAI 的强劲对手_第4页
Cohere:着力于B端赛道OpenAI 的强劲对手_第5页
已阅读5页,还剩8页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2图表:Cohere提供生成和代表语言模型资料来源:Cohere、中泰证券研究所图表:Cohere官网首页资料来源:Cohere、中泰证券研究所Cohere成立于2019年,是一家加拿大AI初创企业,因上榜“福布斯AI50强”以及“CNBC

2023年颠覆50强”而受到广泛关注。Cohere在为开发者和企业提供不需要昂贵的机器学习开发的

NLP解决方案,让各类开发人员都可以使用大型神经网络和最先进AI来解决任何语言相关问题,但却不依托于任何公共云,让模型能在私有云或本地部署中运行。Cohere:2019年成立的初创公司,提供高性价比的NLP方案3资料来源:Cohere、中泰证券研究所Cohere的联合创始人兼CEO

Aidan

Gomez是2017年学术著作《Attention

is

All

You

Need》的作者之一,该论文在人工智能研究领域具有里程碑意义,推动了计算机分析和生成文本方式的进步,ChatGPT等现代大型语言模型都由其基础衍生。

Aidan

Gomez分别在多伦多大学(本科)和牛津大学(博士)学习,也曾是Google

Brain的成员之一。Ivan

Zhang是Cohere的首席科学家兼首席技术官。他创立了FOR.ai(现为Cohere

For

AI),是一个独立的AI研究小组,他也是生物技术

和ML

Ops

领域的软件工程师。Nick

Frosst也是Cohere的联合创始人,他是多伦多谷歌大脑实验室的第一位员工,也是谷歌大脑团队的前成员,主要从事机器学习领域相关研究。图表:Cohere联合创始人创始人团队:Google

Brain背景加持,成员技术过硬4图表:Cohere募资情况资料来源:Crunchbase、中泰证券研究所Cohere自创立以来,一共进行过四轮融资。其中最早的是2021年9月7日由Index

Ventures领投,投资金额4000万美元,2023年6月,Cohere获得2.7亿美元C轮融资,由Inovia

Capital领投,这笔交易对该公司的估值约为22亿美元,使其成为又一家AI超级独角兽企业。迄今为止,Cohere共募集了4.35亿美元的资金,融资额仅次于OpenAI和Anthropic,一度跻身美国生成式AI行业第三大“吸金”公司。

同时其投资者包括NVIDIA、Oracle、SAP等硅谷巨头,专业能力获得专业投资机构认可。时间募资轮数募集资金领投2023年7月18日Corporate

round--2023年5月2日Series

C2.7亿美元Inovia

Capital2022年2月15日Series

B1.59亿加元TigerGlobal

Management2021年9月7日Series

A4000万美元Index

Ventures募资情况:背靠NVIDIA、Oracle,当之无愧的AI独角兽企业5图表:T-Few微调过程资料来源:Cohere、中泰证券研究所图表:T-Few微调算法架构资料来源:Few-Shot

Parameter-Efficient

Fine-Tuning

is

Better

and

Cheaperthan

In-Context

Learning论文、中泰证券研究所T-Few

微调提供了一种有效的方法来微调大型语言模型,解决了训练时间慢和服务资源昂贵的挑战。通过仅更新模型权重的一小部分并启用模型堆叠,T-Few

微调可显着减少训练时间,同时保持高质量的微调结果。他们引入了MoV和

MoLORA这种参数高效型混合专家适应方法。在未曾见过的任务上,这种新方法只需更新0.32%

的参数,就能实现与完全微调方法相当的性能。其表现也能轻松胜过

(IA)³

LORA

等基础的参数高效型技术。Cohere的研究团队基于

55

个数据集,在

12

个不同任务上,用

770M

11B

的不同大小

T5

模型进行了实验,均得到了一致的结果。核心技术:创新T-Few方法,仅更新0.32%即可完成30亿参数微调6资料来源:Cohere、中泰证券研究所核心技术:运用RAG方法增强对话准确性RAG能够在对话中提供reference要完成更复杂和知识密集型的任务,可以基于语言模型构建一个系统,访问外部知识源来做到。这样的实现与事实更加一性,生成的答案更可靠,还有助于缓解“幻觉”问题。这就是检索增强生成(Retrieval

Augmented

Generation,RAG)方法。通过运用RAG方法,Cohere的对话产品可以更好理解消息背后的意图,记住对话历史记录,并通过多轮对话进行智能响应。将用户的模型与网络搜索和重要数据源连接起来,以提高聊天响应的相关性和准确性。Cohere通过训练

Command来优化

RAG的准确性,包括从多个数据源确定相关信息。以及通过引用减少幻觉并在生成的响应和用户之间建立信任,以了解响应的来源。图表:RAG支持的对话界面 图表:RAG支持更强大的对话功能资料来源:Cohere、中泰证券研究所7核心产品:着力于B端赛道,提供定制生成式AI服务Cohere主要面向

B

端企业客户,致力于为企业定制生成式

AI

服务。Cohere的垂直应用产品集中在企业运营过程中与文本有关的三个关键领域,分别是文本生成、文本分类和文本检索。文本生成领域有Summarize、Generate、Command

Model;文本检索领域有

Embed

Model、SemanticSearch

和Rerank;文本分类领域的主要产品是

Classify。图表:Cohere主要产品列表场景 产品 主要功能文本生成SummarizeGenerateCommand

Model文本检索Embed

Model由大型语言模型支持,提供大规模的文本总结功能。能够即时准确总结文档要点,获取高质量摘要,支持输

10

万个字符和文本格式选项可生成电子邮件、登陆页面、产品描述等独特内容,用户将自己的数据与Command结合并经过训练后,能够遵循用户命令并在实际业务中快速发挥作用将文本映射到向量空间,并能够定位类似含义的文本Semantic

SearchRerank提供强大的语义搜索功能,能够根据含义查找文本、文档和文章基于语义相关性分析现有工具的搜索结果并进行排名,为搜索结果提供强大的语义提升文本分类 Classify分类组织信息,使用户能够个性化地组织信息来帮助内容审核、用户分

析和进行

聊天机器人体验 资料来源:Cohere、中泰证券研究所8资料来源:Cohere、中泰证券研究所资料来源:HELM、中泰证券研究所Cohere

针对各个产品推出不同尺寸的模型供用户选择。Summarize、Rerank、Embed、Base、Command

等各种不同功能的系列模型都有不同大小尺寸,其中Command

系列模型曾推出标准版

Command

模型、

Command-xlarge-20221108、Command-lightly、

Command-nightly等不同类型。在斯坦福大学的语言模型全面评估(HELM)中,从最大的524亿参数Command模型微调得到的对话模型

Command

Beta在总共

61个模型中排名第二,准确率

90.6%,仅次于属于

GPT-3.5系列模型

text-davinci-002

。图表:Command模型优化 图表:HELM准确度评估核心产品:模型尺寸丰富,Command在评测中表现优异Cohere对Command模型系列进行优化,提供更优性能的Command-lightly模型9资料来源:OpenAI、中泰证券研究所资料来源:Cohere、中泰证券研究所Cohere在产品定价方面按照不同的模型分别制定了不同的价格,同时定制化模型会收取更高的价格,方便用户根据其实际情况选择符合具体需求的产品。Cohere系列模型价格整体低于OpenAI的微调系列模型。Cohere产品的价格远远低于OpenAI产品的最低价,且定制化价格多为基础价格的2倍。与其相比,OpenAI产品的使用价格均是其训练价格的4倍。产品定价:价格精细化,总体远低于OpenAI图表:Cohere产品定价产品DefaultCustomEmbed$0.1/1M

Tokens-Rerank$1/1kSearch

Units$2/1kSearch

UnitsGenerate$1.5/1M

Tokens$2/1M

TokensSummarize$1.5/1M

Tokens$2/1M

TokensClassify$0.05/1k

Classifications$0.05/1k

ClassificationsChat$1.5/1M

Tokens$2/1M

Tokens图表:OpenAI产品定价微调模型 TRAINING

PRICE USAGE

PRICEada$0.0004/1K

tokens$0.0016/1K

tokensbabbage$0.0006/1K

tokens$0.0024/1K

tokenscurie$0.003/1K

tokens$0.012/1K

tokensdavinci$0.03/1K

tokens$0.12/1K

tokens10图表:网站月访问量(万次)资料来源:Similarweb、中泰证券研究所2023年5月以来,网站月访问量呈稳定趋势,在8月回升之后又有所下降。总体看,网站访问量能够维持在百万级别。其中美国、印度、加拿大等国家所占流量份额较高。外链访问来源中,Programming

and

Developer

Software及Computers

Electronics

andTechnology领域占比较高。从访问用户年龄来看,25-34岁年龄段用户占比最高。网站月度访问量百万级别,访问用户25-34岁年龄占比最高图表:访问用户年龄结构资料来源:Similarweb、中泰证券研究所104.693.885.2101.489.302040608010012030.00%25.00%20.00%15.00%10.00%5.00%0.00%2023年5月2023年6月2023年7月2023年8月2023年9月18.81%43.72%17.22%11.76%5.26%3.23%40.00%35.00%45.00%50.00%18-2425-3435-4445-5455-6465+11图表:Cohere合作伙伴资料来源:Cohere、中泰证券研究所图表:Cohere投资者资料来源:Cohere、中泰证券研究所Cohere在业界拥有Salesforce、NVIDIA、Oracle、SAP等投资者和Oracle、MCKinsey、AWS、Google

Cloud等合作伙伴。如通过与Oracle的合作,用户可以使用由经过专门训练的

Cohere

基础模型,使用基于

Oracle

云基础设施

(OCI)构建的原生生成式

AI

服务。向量数据库领域,Cohere拥有

Weaviate、Pinecone和drant等合作伙伴。Weaviate的text2vec-cohere

模块允许用户直接在

Weaviate

矢量搜索引擎中使用

Cohere

嵌入作为矢量化模块;Pinecone支持使用

Cohere生成语言嵌入,然后将其存储在

Pinecone中并用于语义搜索;Drant与Cohere结合使用,可以提出针对特定文本分析用例的全面解决方案。投资者与合作伙伴12资料来源:Cohere、中泰证券研究所◼

Cohere专门为企业用户提供数据防火墙,解决企业数据在输入大模型中的隐私和安全问题。

Cohere强调会保证客户的数据安全,在多个合作伙伴的加持下,能够提供具有数据安全性,并根据不同企业的需求和数据制作的高性能定制化模型,应用于实际业务场景。图表:Cohere核心观念——安全、定制和客户支持秉持安全、定制和客户支持的核心观念,强调隐私保护和数据安全13从模型角度看,Cohere将继续扩充优化模型规模,训练更加强大的基础模型,提升用户体验。Gomez在采访中提到公司每周都会发布一个新的模型版本,并不断对模型进行基准测试和评估以降低用户使用风险,相信未来

Cohere将继续提升大模型的AI能力,打造更高性能、更高安全性的大模型。从产品功能角度,除了继续提升模型性能之外,Cohere在未来会持续在数据保护和客户支持方面加大投入力度。对于很多企业来说,数据安全是首要考虑的问题,而大模型迭代训练需要庞大的数据,如果能够解决数据隐私和安全的问题将会是一次巨大的飞跃

;客户服务方面,

Cohere可以在更多领域提供定制化的

AI服务,以打通市场,提高同行竞争优势。从产品定位角度看,

Cohere专注于打造toB服务型的产品,与业内云、数据库等服务型厂商进行合作,能够保障自身的

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论