传媒行业潜在受益标的梳理:国产模型Kimi突破长文本能力_第1页
传媒行业潜在受益标的梳理:国产模型Kimi突破长文本能力_第2页
传媒行业潜在受益标的梳理:国产模型Kimi突破长文本能力_第3页
传媒行业潜在受益标的梳理:国产模型Kimi突破长文本能力_第4页
全文预览已结束

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

一、KimiChat最高支持20万汉字输入,逐渐破圈智能助手KimiChat具备长文本能力,近期访问量显著增加。KimiChat是国内创业公司月之暗面的首个C端产品,于23年11月正式向所有用户免费开放,能高效处理约20万汉字的上下文,完成智能搜索、高效阅读、资料、辅助创作等功能。该产品已先后推出网页版、小程序版和APP版本。据Similarweb,2月网页版访问量291万,环比翻倍;3/2-3/8周度访问量135万,环比+24%,屡创新高。据七麦数据,目前App版本排名IOS中国区效率(免费)榜20-30名,呈现上升趋势。产品具体功能包括:智能搜索:整合并总结互联网信息,并附上相关链接,支持在特定网站内搜索。PDFExcelPPT资料:自动识别和提取文档中的关键信息,例如识别发票图片中的关键信息。API文档。图表1:KimiChat使用案例资料来源:AI信息Gap,KimiChat,图表2:KimiChat网页版访问量变化(万) 图表3:Kimi智能助手IOS中国效率(免费)榜排名806040200

134.8

0204060802024/2/112024/2/162024/2/212024/2/262024/3/22024/3/72024/2/112024/2/162024/2/212024/2/262024/3/22024/3/7资料来源:SimilarWeb, 资料来源:七麦数据,月之暗面同时布局模型和应用,主推C端产品。20233月,仅用一年时间完成无损长上下KimiCKimiBAPI接口,上下文长度8-128k1000tokens0.012-0.06C端产品,主要是因为国内市B端产品往往需要私有化部署和定制化开发,而基于现有模型的某个版本做私有化部署和定制化的开发,B端产品的能力和用户体验跟不上模型能力的快速提升。公司已完成3253623105000万美元、3亿美元;210亿美金融资,投资方包括阿里、红杉中国、小红书、美团等,估25亿美元。技术人才密度高,发力产品营销。据每日经济新闻,目前团队规模超80人,其中大部分为技术人员。创始20192MetaCMU、Google、Meta、Amazon等海外大厂的工作经历。在产品和运营领域,公司相关人员曾操DAU316图表4:月之暗面招聘市场、运营类岗位资料来源:月之暗面,二、长文本能力拓宽大模型应用场景大模型上下文窗口长度持续突破。文本生成以toen(可能会分解为若干toentoen。通常而言,1个toen相当于1.52个汉字;最大上下文长度,则指文本输入和输出合计使用的token数量上限。23年上半年发布的GPT-4、Claude-100k32k、100k2.5万、8万汉字的上下文;23Turbo10242Gemini100tokenChat20Turbo。图表5:大模型上下文长度持续突破模型名称发布时间上下文长度理解汉字数量GPT-3.5Turbo2023年3月4k0.3万GPT-42023年3月8k0.6万Claude100k2023年5月100k8万GPT-4Turbo2023年11月128k10万Claude2.12023年11月200k16万Gemini1.52024年2月1000k80万Claude32024年3月200k16万资料来源:OpenAI官网,Claude官网,谷歌官网,大模型上下文窗口受限,会制约大模型技术落地。模型参数量影响计算复杂度,上下文窗口则影响大模型虚拟角色:长文本能力不足时,虚拟角色会在多轮对话后忘记自己的身份;AI+promptAIAgent:Agent运行需要基于大量历史信息和当前场景,进行多轮规划和决策,上下文长度限制了信息的输入量。长文本能力增加,能

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论