传媒-AI搜索:怎么看Kimi的空间_第1页
传媒-AI搜索:怎么看Kimi的空间_第2页
传媒-AI搜索:怎么看Kimi的空间_第3页
传媒-AI搜索:怎么看Kimi的空间_第4页
传媒-AI搜索:怎么看Kimi的空间_第5页
已阅读5页,还剩74页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

行业评级强大于市(维持评级)AAI搜索:怎么看Kimi的空间?杨晓峰执业证书编号:S02105240200012摘要1、通过研究Kimi技术核心基础论文《Transformer-XL:AttentiveLanguageModelsBeyondaFixed-LengthContext》和《XLNet:GeneralizedAutoregressivePretrainingforLanguageUnderstanding》,发现Kimi在长文本能力上采用TransformerXL模型,使用分段级循环机制和相对位置编码技术,解决了Transform模型存在的问题;在整理能力方面,XL-Net模型模型结合了置换语言建模机制和两流自注意力机制,提高了推理的效率和准确度。2、对Kimi、文心一言、通义千问和豆包进行搜索实测对比:在长文本能力的网络资源搜索方面,应用优缺表现不一,Kimi综合表现较好;在长文本能力的本地资源搜索方面,对比可以处理本地文件的kimi和文心一言,kimi搜索较为准确。和海外AI搜索引擎龙头Perplexity对比:资料检索能力方面,从资料来源方面、答案整理、推理能力来看,Kimi能力范围约为Perplexity免费版与付费版之间。同时,Kimi展示出较大进步,在不到一个月时间内,资料来源更多元化。1、垂类搜索需求增加,逐渐代替传统搜索引擎;而通过内嵌AI搜索功能或开发AI搜索应用,AI搜索获得青睐。2、Kimi热度逐渐消失后,开始进入自然增长时期,自然增长仍然强劲。类比海外AI搜索应用Perplexity,kimi显示出APP端增长落后于网页端增长的规律。Kimi正在新一轮的广告投放,将流量导向APP下载,后续广告投放有效性还有待确认。阿里云对标中国版“微软云”,积极布局与第三方AI大模型的合作;Kimi获得阿里最新一轮参投,可对标海外“OpenAI+微软”模式。据IT桔子显示,目前阿里已投资Minimax、百川智能、零一万物、智谱AI和Kimi等AI创投公司。Kimi商业化对标海外Pperplexity:目前perplexity的收入主要来自于会员收入,未来可能会引入广告模式。3投资建议>一、国产AI应用:>二、港股互联网公司的布局>风险提示:AI竞争激烈,AI发展不及预期4目录目录>结合了自回归(AR)语言建模和自编码(AE)的优点>XLNet通过一种称为置换语言建模(PermutationLanguageModeling)的机制,使得模型能够学习到双向上下文信息,而不需要依赖于像BERT那样的数据损坏(例如,通过遮蔽输入中的某些位置)TransformerXL是基于TransformeTransformerXL模型1、Kimi技术核心基础论文:长文本(XL)和整理能力(XL-Net)Transformer模型只能获取单向信息,即只能前向读取信息并预测t位置的单词或者从后向读取信息并预测t位置的单词,却不能同时获取双向信息获取双向信息进行预测,如想要预测位置t的单词,既可以前向获取信息也可以后向获取信息资料来源:《Transformer-XL:AtentiveLanguageModelsBeyondaFixed-LengthContext》,戴尔科技集团,aman.ai,华福证券研究所5潜在问题潜在问题1.1长文本:TransformerXL模型——分段级循环机制和相对位置编码传统的Transformer受制于输入的长度。这种模式带来了模块割裂、时间混乱、速度慢的问题,TransformerXL模型对此提出了解决办法。假设一个文本总共有12M的tokens,我们将其分成三个模块(S1、S2、S3每个部分是4Mtoken。用Transformer去进行模型的跑动,模块按照S1、S2、S3逐个跑模型。TransformerTransformerTransformerTransformerXL模型:分段级循环机制和相对位置编码1、模块之间的互相分割:分段级循环机制(Segment-LevelRec,x5和x1的位置就是同样的。如果所有模块都能3、加快模型对同一内容的跑动速度:由于传统的T资料来源:《Transformer-XL:AtentiveLanguageModelsBeyondaFixed-LengthContext》,华福证券研究所6流(contentstream)和查询流流(contentstream)和查询流1.2整理能力:XL-Net模型——推理效率和准确度提升XL-Net模型模型结合了置换语言建模机制和两流自注意力机制,提高了推理的效率和准确度。置换语言建模机制训练时充分融合了上下文特征,同时也不会造成掩码机制下的有效信息缺失,提高了推理准确度;双流注意力用于置换语言建模机制,需要计算序列的上下文信息(上文信息和下文信息各使用一种注意力机制)在不降低模型的精度的情况下,提高了推理的效率。图表:置换语言建模机制图表:两流自注意力机制一定程度上会导致预训练和微调输入的数据,输入顺序为x1、,即获取了x3的后资料来源:《XLNet:GeneralizedAutoregressivePretrainingforLanguageUnderstanding》,华福证券研究所72、Kimi理论技术效果:XL-Net大部分数据集准确率高于Bert图表:XL-Net和Bert在各数据集的跑分对比数据集名称简要说明BertXL-Net--资料来源:《XLNet:GeneralizedAutoregressivePretrainingforLanguageUnderstanding》,华福证券研究所8资料来源:Kimi,文心一言,通义千问,豆包,华福证券研究所93.1长文本能力实测——网络资源:Kimivs文心一言vs通义千问vs豆包图表:网络资源长文本能力测试表现总结(实测日期:24年3月20日)是否否是是是是否致资料来源:Kimi,华福证券研究所10 3.1.1长文本能力实测——网络资源(Kimi)图表:网络资源长文本能力测试表现——Kimi数据来源额外提供增长率仅能给出2019-2021年数据,·无最新数据2016、2017年无具体数值提供4年数据无2020年具体数值提供4年数据无2020年具体数值3.1.2长文本能力实测——网络资源(文心一言)图表:网络资源长文本能力测试表现——文心一言资料来源:文心一言,华福证券研究所11资料来源:通义千问,华福证券研究所12 3.1.3长文本能力实测——网络资源(通义千问)图表:网络资源长文本能力测试表现——通义千问2019年数据错误2020、2021年无具体数值增长率2019年数据错误2020、2021年无具体数值增长率数据错误数据错误3.1.4长文本能力实测——网络资源(豆包)图表:网络资源长文本能力测试表现——豆包提供数据来源2018年数据错误2021、2022年数据错误资料来源:豆包,华福证券研究所13资料来源:Kimi,文心一言,通义千问,豆包,英伟达官网,华福证券研究所14 3.2长文本能力实测—本地资源:Kimivs文心一言vs通义千问vs豆包图表:Nvidia2023年财报图表:本地资源长文本能力测试表现总结Kimi文心一言通义千问豆包读取程度读取92%文件大小超过10M,无法上传约50%文件大小超过限制,无法上传能否给出净利润是-否-净利润是否准确是---3.2.1长文本能力实测—本地资源:KimiVS通义千问>通义千问表现:图表:本地资源长文本能力测试表现——Kimi给出净利润并回答正确给出净利润并回答正确图表:本地资源长文本能力测试表现——通义千问无法阅读至净利润的位置无法阅读至净利润的位置资料来源:Kimi,华福证券研究所15目录目录可以选择不同的模型接入可以选择不同的模型接入1、perplexity:海外AI搜索引擎龙头图表:perplexity可以选择不同的模型。图表:perplexity搜索界面可以上传文档或图片,可以上传文档或图片,图片仅会员支持可以打开可以打开pro版本,20美元/月,200美元/年可以选择不同的资料来源,“可以选择不同的资料来源,“all”就会联网搜索资料来源:perplexity,data.ai,中国经营报,观网财经,量子位,华福证券研究所17资料来源:Kimi,Perplexity,华福证券研究所 2、资料检索:KimiVSPerplexity.资料来源:3月初Kimi资料来源多为知乎,附带一些网站,大约在5-9个;.答案整理:Kimi不会在答案中标柱引用了哪一个来源;Pe图表:资料检索能力对比页否否是是是是否是新闻类问题新闻类问题2.1Perplexity普通版:资料来源以普通网页为主常识类问题常识类问题5个答案来源5个答案来源,基本上为普通网页搜索并没有理解“买票”,并没有理解“买票”,找了和演唱会相关,没有剔除该资料有引用资料来源的标识有引用资料来源的标识资料来源:perplexity,华福证券研究所19有较为专业的”人民健康网”有较为专业的”人民健康网”2.2Perplexity付费版:资料来源会有专业网页新闻类问题新闻类问题常识类问题13个答案来源13个答案来源,会有“摩天轮票务”等较为专业的新闻网站来源并没有理解“今年”并没有理解“今年”,还是会查找以前的资料,但不会引用比普通版多了每种菇类的介绍有引用资料来源的标识有引用资料来源的标识资料来源:perplexity,华福证券研究所20 2.3Kimi—3月初:资料来源以知乎为主资料来源:Kimi,华福证券研究所21实时搜索类问题常识类问题实时搜索类问题实时搜索类问题常识类问题>会主动寻找一些专业性较强的网站。会主动寻找一些专业网站实时搜索类问题常识类问题>会主动寻找一些专业性较强的网站。会主动寻找一些专业网站2.4Kimi的进步:不到一个月,资料来源更多元化资料来源:Kimi,华福证券研究所223、推理能力:KimiVSperplexity图表:模型推理能力对比是否否否是是少否否是资料来源:Kimi,Perplexity,华福证券研究所233.1Kimi:回答较长且完整常识类问题常识类问题新闻类问题实时搜索类问题具有每种菇类的介绍具有每种菇类的介绍资料来源:Kimi,华福证券研究所24资料来源:Perplexity,华福证券研究所25回答长度和细节程度较少可以链接到相关外部视频和图片回答长度和细节程度较少可以链接到相关外部视频和图片3.2Perplexity普通版:回答不完善,物品无详细介绍新闻类问题新闻类问题常识类问题和和Kimi不同,没有对菇类的详细介绍新闻类问题同样可以链接到相关外部视频和图片新闻类问题同样可以链接到相关外部视频和图片3.3Perplexity付费版:回答更加完整常识类问题常识类问题回答长回答长度和细节程度较普通版丰富了许多较普通版较普通版,对物品有了一些简单的定义和功能介绍资料来源:Perplexity,华福证券研究所26 3.4Perplexity各版本对比资料来源:Perplexity,华福证券研究所27.Perplexity付费版及各个版本的回答完整度及细节描述程度都优于免费版。GPT-4和Claude-3版图表:Perplexity各个版本能力对比否否是是是片是是是是是少 3.4Perplexity各版本对比资料来源:Perplexity,华福证券研究所28GPT-4版本Sonar版本ClaudeGPT-4版本Sonar版本目录目录资料来源:小红书商业动态,量子位,昆仑万维集团,创业邦,华福证券研究所30 1、搜索需求:传统搜索->垂类搜索->AI搜索等垂类搜索受到关注。根据2024小红书用搜索。类似小红书等垂类搜索渠道正在一定程度上分走传统搜索图表:小红书搜索现状图表:微信搜索框内容丰富图表:AI搜索应用和功能创新时间AI搜索功能2023/10/12023/10/82023/10/152023/10/222023/10/292023/11/52023/11/122023/11/192023/11/262023/12/32023/12/102023/12/172023/12/242023/12/312024/1/72024/1/142024/1/212024/1/282024/2/42024/2/112024/2/182024/2/252024/3/32024/3/102024/3/172024/3/242023/3/12023/3/162023/3/312023/4/152023/4/302023/5/152023/5/302023/6/142023/6/292023/7/142023/7/292023/8/132023/8/282023/9/122023/9/272023/10/122023/10/272023/11/112023/11/262023/12/112023/12/262024/1/102024/1/252024/2/92024/2/242024/3/102024/3/25100.090.080.070.060.050.040.030.020.010.00.02023/10/12023/10/82023/10/152023/10/222023/10/292023/11/52023/11/122023/11/192023/11/262023/12/32023/12/102023/12/172023/12/242023/12/312024/1/72024/1/142024/1/212024/1/282024/2/42024/2/112024/2/182024/2/252024/3/32024/3/102024/3/172024/3/242023/3/12023/3/162023/3/312023/4/152023/4/302023/5/152023/5/302023/6/142023/6/292023/7/142023/7/292023/8/132023/8/282023/9/122023/9/272023/10/122023/10/272023/11/112023/11/262023/12/112023/12/262024/1/102024/1/252024/2/92024/2/242024/3/102024/3/25100.090.080.070.060.050.040.030.020.010.00.02、对标海外Perplexity发展顺序:先网页,后APP>类比海外AI搜索应用Perplexity,图表:Perplexity应用端日活数据(万次)23年12月底23年12月底Perplexity应用数据(Android端)Perplexity应用数据(IOS端)图表:PerplexityAI网页访问量(万次)300.0245.5250.0200.0150.0100.023年8月底50.023年8月底0.0资料来源:dataai,similarweb,华福证券研究所31资料来源:similarweb,QuestMobile,微信指数,华福证券研究所32 3、Kimi自然增长速度强劲:小程序和网页端,于4.1日再次创下访问量峰值达91.27万次;图表:Kimi的微信热度指数图表:Kimi网页端访问量(次)小程序端日均活跃数(万次;周度120.00100.0080.0060.0040.0020.000.00资料来源:Appgrowing,similarweb,七麦榜单,华福证券研究所33 4、APP用户引流:Kimi正在新一轮的广告投放图表:Kimi近一个月的排行变化图表:Kimi广告投放量级图表:Kimi广告流量平台、媒体概览及广告效果目录目录1.1阿里云:中国版“微软云”—加大第三方AI模型厂商的合作>据机器之心,微软通过投资为OpenAI提供云服务并获得模型.微软通过对OpenAI的投资达成合作,成为独家云计算服务提供.微软于24年2月投资1600万给MistralAI,可将其模型提供给.此外微软还投有GoodGist、I.据IT桔子显示,目前阿里已投资Minimax、百川智能、零一万物、智谱AI和Kimi等AI创投公司。图表:阿里巴巴投资布局情况图表:微软投资布局情况公司名称投资详情合作内容OpenAI微软投资总计或达130亿美元根据Information,合建AI数据中心,开发“星际之门”AI超级计算机MistralAI微软投资约1600万美元将MistralAI的人工智能模型提供给Azure云服务的客户英伟达微软与英伟达合作提供AI工坊服务英伟达AI工坊服务汇集了英伟达AI基础模型系列工具,以及A

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论