申请 ChatGPT 和新 Bing 们的账号为什么都要等这么久_第1页
申请 ChatGPT 和新 Bing 们的账号为什么都要等这么久_第2页
申请 ChatGPT 和新 Bing 们的账号为什么都要等这么久_第3页
申请 ChatGPT 和新 Bing 们的账号为什么都要等这么久_第4页
申请 ChatGPT 和新 Bing 们的账号为什么都要等这么久_第5页
已阅读5页,还剩1页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

申请ChatGPT和新Bing们的账号,为什么都要等这么久?AIGC的出现正在为人们带来更多的想象和颠覆空间,不过在使用这类产品时,大多数用户都需要先有一场“排队”体验。那么,为什么现阶段的AI体验还无法一次性向所有人敞开大门?一起来看看作者的分析和解读吧。上周,AIGC的变化让世界变得疯狂,每天醒来都可能是一个「新世界」。但从另一个角度上来说,无论AIGC如何智能和颠覆,我们仍然处于「旧世界」,或者准确的说,应该是「候补」世界。不止是新Bing,GithubCopilotX,ChatGPT的插件,MidjourneyV5,以及Adobe的Firefly,甚至是百度的文心一言,在你体验之前,都需要加入Waitlist名单进行排队等待名额。随着AIGC的服务越多,也包括原有的像是GPT-4、MidjourneyV5的升级,Waitlist的时间仿佛被延长。直到如今,仍然有相当多人还存在于新Bing的Waitlist之内,更别说其他更新的生成式AI体验。或许是对Waitlist这个潜规则的无声反抗,有人做了一个「一键进行所有排队」的网站。不过讽刺的是,「一键加入」的功能还未做好,需要先加入Waitlist等待,且网站域名后缀是wtf,怨气拉满。一、候补名单的背后是为了更稳的服务当我把这个问题丢给Bing,Bing从OpenAI官方网站的三个页面里找到了四个原因。限制用户数量,保证服务质量和稳定性。收集用户反馈,改进服务功能和体验。增加用户期待和参与感,提高服务知名度和口碑。筛选出符合目标人群的用户,提高服务转化率和留存率。而这也更像是OpenAI、微软、Google等大公司针对无限期Wait的一些官方话术。相对来说,最先走入大众的ChatGPT,随着模型的升级,以及大幅度降价,ChatGPT的服务也出现过不少的波动。问答列表的混乱,宕过机,响应慢等等稳定性问题。而基于OpenAI的新Bing同样也出现过过激的言辞,一直到现在,微软也在限制新Bing的对话次数与长度。你可以说,限制使用ChatGPT和新Bing的人数,能够提供更稳定和快速的响应和内容生成。但要知道这些功能和服务,已经消耗了相当的资源,几乎占用了微软Azure一半的算力。目前,AIGC还尚未迎来超级App,仍然处于一个快速迭代的过程,甚至也可以说仍然是一个Beta测试版本。通过传统的对话框与AI进行交互,其实是与2023年人手一部智能手机的状况不太相匹配。AIGC现在只能算是一个功能,而即将推出的Copilot、Firefly等才更像是个产品。Office365的Copilot功能但它们仍然还未向外开放,躺在一个个Waitlist里。从某方面来说,微软、Google、Adobe还在「打磨」自己的产品,而从另一个方向来看,想要对所有人敞开大门,或者说AI成为每个人的Copilot,还需要突破一些「瓶颈」。二、蓬勃发展的AIGC,或许开始触及瓶颈这里的「瓶颈」,并非是外在表现的,生成式AI所遇到的伦理、法律法规或者说其响应的准确度。反而是AI背后提供算力的硬件,以及各种用于训练的云算力。微软正持续在OpenAI上大手笔的投入,先后投入几十亿美元,也逐步出现了基于GPT-4的新bing,和后续还在Waitlist上的新Office。同时,为了保证新bing,以及后续具有Copilot功能的新Office能够稳定快速地响应。微软也提供和预留了其Azure云服务的一半算力和运算容量。如此也导致了微软内部Azure算力资源的紧张。TheInformation就采访了微软内部员工,针对于有限的硬件运算资源,微软正在实行内部硬件Waitlist制度。微软内部其他开发机器学习模型的团队和部门,想要调用Azure的AI云服务,需要逐级审批报备,并最终由一位副总裁来定夺。就如同我们在排队体验新的生成式AI服务,除了新bing和新Office和OpenAI服务外,微软其他部门也在等待多余的Azure云算力。只是,随着微软AllinOpenAI的策略,Azure云相关算力和容量也显得十分紧张。除了内部调用外,Azure也提供了各种产品和服务,包括AI、计算、容器、混合云、物联网等。作为云服务供应商Azure目前扩展到全球60多个区域,其对外服务器产品和云服务收入占到微软总营收的36%。但与微软内部团队类似,购买Azure的客户也受到了算力受限的影响,尤其是想要调用AzureOpenAI依旧需要加入Waitlist。大概从2022年底,微软就打算增加更多的硬件(GPU或者TPU)来扩充更多的算力。并且也与英伟达达成协议,为Azure增加数万个H100GPU计算卡,为后续OpenAI提供更高的AI训练和推理效率。不过,目前微软与英伟达并未透露在Azure当中H100的部署情况,微软内部也只有一小部分团队拥有H100的调用权限(大概率是新bing和Office),大部分的部门仍然被排除在外。一块H100大概的售价可能在24万元上下,以此为参考的话,微软为Azure扩容则需要投入数亿资金。不止是微软,Google、甲骨文这些云服务商,也在大力投入GPU等硬件为自己的云服务扩容,准备在AIGC彻底爆发之前,做好算力上的准备。但从GTC2022发布到现在,英伟达并没有对外公布H100的供应和销售情况,微软对于Azure的扩容计划是否成效也不得而知。而在今年的GTC2023中,英伟达并没有带来关于H100、A100硬件上的进展,而是一直在强调英伟达在云计算硬件上的优势。并且其首席技术官也开始强调,「加密货币对于社会没有任何有益的贡献」,也从侧面开始强调AIGC领域将会是英伟达接下来30多年所专注的领域。随着AIGC领域的持续迭代,大概从2022年10月份,英伟达的股价也随之增长,一扫此前因为加密货币衰退而导致的业务下滑颓势。目前,英伟达的市值又达到了一个高点,几乎等同于Intel、AMD、ARM这三家市值之和。但如此的高市值,似乎并没有改善硬件的供应状况,反而随着Google、微软等大企业不计成本资源地对云计算硬件投入,按照此前英伟达的供应状况,很可能再次出现工业显卡慌的一个局面。不止是硬件供应状况,这些高性能GPU组成的计算矩阵也有着很高的功率,单张SXM接口的H100计算卡功率就达到了700W。用于AI模型训练和大数据处理的计算中心的耗电量实际上也十分惊人。在2021年,加州大学的DavidPatterson、JosephGonzalez通过研究表明,训练GPT-3大概需要耗费1.287千兆瓦时的电力,它相当于120个美国家庭一年的用电量。同时,这篇论文还发现,训练GPT-3会产生502吨的碳排放,等同于110辆汽车的一年排放量。他们也强调这只是一个模型的训练成本,随着它涌入市场,也会产生更多的资源消耗,可能要比训练成本还高。OpenAI的GPT-3使用了1750亿个参数或者变量,而GPT-4的参数预计在1750亿到2800亿之间。对于能耗,云计算的需求只增不减。为此,OpenAICEOSamAltman在接受TheVerge采访时表示,OpenAI正在寻找有效的方法来提升模型的性能和安全性。换句话说,OpenAI也在试图通过更高效的算法来寻找节省训练运行模型的硬件、电力资源。Waitlist的机制,从浅层次来看,它确保了当前AIGC的使用体验,以及相关服务的响应速度。但从深层次来看,它也是一场资源角力,是GPU、TPU为核心的云计算中心算力和容量的互相角力,

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论