版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
解读人工智能的2021:回顾那些激动人心的重大突破AI前线·7小时前一文道尽「人工智能的
2021
年」,本文是“2021InfoQ年度技术盘点与展望”系列文章之一,由InfoQ编辑部制作呈现,重点聚焦AI领域在2021年的重要进展、动态,希望能帮助你准确把握2021年AI领域的核心发展脉络,在行业内始终保持足够的技术敏锐度。“InfoQ年度技术盘点与展望”是InfoQ全年最重要的内容选题之一,将涵盖架构、AI、大数据、大前端、云计算、数据库、中间件、操作系统、开源、编程语言十大领域,后续将聚合延展成专题、迷你书、直播周、合集页面,在InfoQ媒体矩阵陆续放出,欢迎大家持续关注。特此感谢何苗、侯军、蒋宏飞、刘知远、⻢泽君、吴韶华、许欣然、曾冠荣、张杰、张凯(按姓名首字母排序)对本文的贡献,他们的真知灼见,是本文能与大家见面的关键。即将过去的2021年,又是跌宕起伏的一年。疫情仍没有结束的苗头,缺芯造成的供应链中断此起彼伏,与此同时,数字化、智能化转型已是大势所趋。全球企业和机构在不断学会适应“新常态”,并从中捕捉新的商业机会。2021年,人工智能领域依然热潮汹涌。AphaFold2成功预测98%蛋白质结构,预训练大模型迎来大爆发,自动驾驶迈入商业化试点探索新阶段,元宇宙概念东风劲吹,首个关于AI伦理的全球协议通过,HYPERLINK商汤科技即将摘得“AI第一股”...前沿技术突破令人欣喜,落地应用“润物细无声”般深入各行业,业界也开始正视人工智能的问题和挑战。在岁末年初之际,InfoQ采访了众多行业专家,回顾了2021年人工智能大模型、深度学习框架、NLP、智能语音、自动驾驶、知识图谱等各项AI技术的发展情况,并展望了未来一年可能的技术趋势。2021年度AI技术突破
人工智能预测蛋白质结构
12月15日,Nature发布了《2021年十大科学新闻》;12月17日,Science紧随其后,公布了《2021年度十大科学突破》。Nature和Science都将「人工智能预测蛋白质结构」评为本年度最重要的发现,Science更是将其列为“2021年十大科学突破进展”之首。长期以来,蛋白质结构的预测一直是生物学领域的研究热点和难点。传统的蛋白质结构探测方法主要有三种:X射线晶体学、核磁共振和冷冻电镜。但这些方法成本较高,研究周期漫长,且进展有限。人工智能为这一困扰生物学界数十年的难题按下了快进键。今年7月,蛋白结构两大AI预测算法——DeepMind的AphaFold2和华盛顿大学等机构研发的RoseTTAFold相继开源。AphaFold2“解锁”98%人类蛋白质组
7月16日,DeepMind在Nature发表论文,宣布已利用AlphaFold2预测了35万种蛋白质结构,涵盖了98.5%的人类蛋白质组,及其他20种生物几乎完整的蛋白质组。研究团队还公布了AlphaFold2的开源代码和技术细节。RoseTTAFold可十分钟内计算出蛋白质结构
同日,华盛顿大学蛋白设计研究所DavidBaker教授课题组及其他合作机构在Science上发表论文,公布了其开源蛋白质预测工具RoseTTAFold的研究结果。研究团队探索了结合相关思想的网络架构,并通过三轨网络获得了最佳性能。三轨网络产生的结构预测精度接近CASP14中的DeepMind团队的AlphaFold2,且速度更快、所需计算机处理能力更低。仅用一台游戏计算机,在短短十分钟内就能可靠地计算出蛋白质结构。其他研究进展
8月,中国研究人员使用AlphaFold2绘制了近200种与DNA结合的蛋白质结构图。11月,德国和美国的研究人员利用AlphaFold2和冷冻电镜绘制了核孔复合物的结构图。12月22日,深势科技推出了蛋白结构预测工具Uni-Fold,在国内首次复现谷歌Alphafold2全规模训练并开源训练、推理代码。AI技术2021年发展总结与展望
人工智能迈向“炼大模型”阶段
今年是超大规模预训练模型的爆发之年。去年,GPT-3横空出世,这个具有1750亿参数规模的预训练模型所表现出来的零样本与小样本学习能力刷新了人们的认知,也引爆了2021年AI大模型研究的热潮。谷歌、微软、英伟达、智源人工智能研究院、阿里、百度、浪潮等国内外科技巨头和机构纷纷展开大模型研究和探索。超大规模预训练模型的“军备竞赛”
2021年1月,Google推出的SwitchTransformer模型以高达1.6万亿的参数量打破了GPT-3作为最大AI模型的统治地位,成为史上首个万亿级语言模型。国内研究机构也不甘示弱。今年6月,北京智源人工智能研究院发布了超大规模智能模型“悟道2.0”,达到1.75万亿参数,超过SwitchTransformer成为全球最大的预训练模型。值得一提的是,今年国产化大模型研发工作进展飞速,华为、浪潮、阿里、百度等都发布了自研的大模型。浪潮人工智能研究院首席研究员吴韶华向InfoQ表示,现在业界提高模型参数量有两种技术路线,产生两种不同的模型结构,一种是单体模型,一种是混合模型。如浪潮的源大模型,华为的盘古大模型、百度的文心大模型、英伟达联合微软发布的自然语言生成模型MT-NLG等走的都是单体模型路线;而智源的悟道模型、阿里M6等走的是混合模型路线。预训练模型技术新进展
OPPO小布智能中心、NLP算法工程师曾冠荣认为,预训练模型在今年取得的重要技术进展有:知识表示和学习机理进一步创新突破随着对预训练模型的深入理解,预训练模型的知识学习和表征的机理逐步明确,人们得以更加顺利地往模型里注入需要其学习的知识,在这些知识的加持下,对复杂任务的应对能力得到了大幅提升。对比学习、自监督和知识增强以对比学习为中心,多种增强方法为工具的方式能进一步提升预训练模型的语义理解和表征能力,增强方法的深入让模型自监督成为可能,让对比学习对样本,尤其是正样本的依赖降低,数据依赖的降低势必让模型对少样本甚至无样本任务的适应性提升,模型能更好地完成这类型的任务,这将让预训练模型落地的成本再降低一个层次。降低AI规模化落地的门槛
预训练大模型降低了AI应用的门槛,解决了AI应用的两个难题:数据和行业知识。它既不需要大量的标注数据,又保障了基础底座。在预训练模型的业务定制优化和应用方面,曾冠荣认为,从第一个预训练语言模型BERT发布至今,已在多个热门任务下得到应用,逐步从一种“潮流”变成前沿技术的“基本操作”,如预训练模型已成为机器翻译领域的基础关键性技术。此外,预训练模型也成为大系统中的一部分,发挥着其语义理解的优势。无论是业界还是科研,对预训练模型的使用方式逐渐灵活,能从预训练模型中拆解出适合任务的部分并组装到自己的实际任务模型中。时至今日,对预训练大模型的性能优化仍未终止,在学界,仍有大量的研究在预训练模型的落地能力上努力,压缩、剪枝、蒸馏的工作仍起到重要作用。不止于算法本身,编译、引擎、硬件等方面的优化也在大步迈进。小结和展望
吴韶华认为,整体而言,现在大规模预训练模型的研究,包括模型结构的演进和落地仍处在探索阶段,各家的持续探索正在不断扩大对大规模预训练模型的认知边界。“大规模预训练模型是人工智能的最新技术高地,是对海量数据、高性能计算和学习理论原始创新的全方位考验”,清华大学教授、智源大模型技术委员会成员刘知远在接受InfoQ采访时展望了明年大模型的发展趋势。刘知远表示,他明年将重点关注两个层面的问题:一是人工智能技术正呈现“大一统”趋势,如预训练模型在PromptTuning等技术的支持下可用于很多不同的任务,再如Transformer模型框架正在从自然语言处理扩展到计算机视觉模态,接下来我们也许会看到更多的从框架、模型和任务等方面推进人工智能技术趋向统一的工作;另一个问题是,随着预训练模型规模增大,如何更好更高效地实现任务适配和推理计算,将是让大模型飞入千家HYPERLINK万户的重要技术。国产深度学习框架不再是“技术的跟随者”
过去十年涌现了大量的AI算法和应用,这背后都离不开开源深度学习框架提供的支持。开源深度学习框架是AI算法研发和AI应用落地的“脚手架”,帮助AI研究员和开发者大幅降低算法研发门槛,提升研发效率。IDC的调研显示,中国人工智能领域90%以上的产品都使用了开源的框架、库或者其他工具包。新进展,新趋势
深度学习框架的发展核心是跟随着深度学习领域的发展而前进的。开源深度学习框架HYPERLINK旷视天元MegEngine研发负责人许欣然在接受InfoQ采访时,分享了过去这一年他所观察到的深度学习的新进展:(1)以ViT、Swin为代表的Transformer类模型开始向NLP以外的领域进军,在更多场景中展现威力,让“大”模型的趋势愈演愈烈。相应的,深度学习框架也在训练大模型方面进展颇多(如DeepSpeed+ZeRO),多种混合并行方案层出不穷。无论是深度学习框架还是硬件厂商,都在思考Transformer是否是会长期固定的计算pattern。(2)A100这类显卡的诞生,催生了一股从动态图回到静态图的趋势。本身对动态图更友好的框架也纷纷尝试通过编译的方式提升效率,比如PyTorch的LazyTensor、Jax的XLA。很多国产框架也在尝试通过动静结合的方式提升效率,比如旷视天元MegEngine推出的TensorInterpreter、MindSpore的Python代码转静态图的方案等。此外,MLIR和TVM这两个深度学习编译器领域的灯塔都在快速增长,如何靠机器做好编译也正成为各个深度学习框架研发的主要方向。同时随着深度学习方法的持续发展,也诞生了更多的新兴框架,如图神经网络领域的DGL。技术自立之路
近两年,国产深度学习框架陆续开源且发展迅速,逐渐在开源框架市场占有一席之地。在技术研发方面,国产框架不再是技术的“跟随者”的角色,研发出了很多领先的创新点,比如MegEngine的DTR技术、OneFlow的SBP并行方案和MindSpore的AKG等等。此外,在功能、代码质量和文档等方面都达到了很高的水准。在开源生态建设方面,各家也都持续投入,通过开源社区扶植、产学研合作等方式,助力国产开源生态的发展和人才培养。业界现有的主流深度学习框架多来自国外大厂,目前,国内企业自研的深度学习框架还没有哪一款进阶成为国际主流的学习框架。许欣然坦言,国产深度学习框架在生态建设上还有很长的路要走,既需要持续投入、不断完善生态建设,也需要找到差异化的技术竞争点,充分结合我国国情和国产硬件,发挥好自身的技术优势和更好的生态洞察力。研发难点
现阶段,在深度学习框架方面,业界普遍面临的研发难点主要体现在以下三个方面:(1)在训练侧,NPU开始入场,不少厂商已经做出自己的训练芯片,如何高效对接训练NPU仍待解决;(2)学术研究发展迅速,框架技术需要持续跟进,这为框架研发带来了一定挑战。接下来一段时间会持续一段大Transformer的趋势,那么,下一个趋势是什么?(3)算力提升速度更多地开始依赖DSA硬件,只是单纯的手写kernel已难以支撑,框架需要更多的编译技术、domainknowledge才能不断提升训练效率。随着NPU、GPU等芯片的快速迭代,包括MLIR、XLA、TVM在内的编译技术将受到更多关注。将更好地支持大模型训练
随着大模型的持续火热,预期深度学习框架将在并行策略、重计算等能力上不断提升,以更好地支持大模型的训练。同时,目前训练大模型仍需消耗大量资源,如何依靠深度学习框架的力量节省计算资源,甚至在更小规模上完成任务,将是一个值得探索的技术方向。智能语音这一年:
技术突破不断,工业落地加速
语⾳领域的⼤规模预训练模型层出不穷
字节跳动AILAB语⾳技术总监⻢泽君向InfoQ表示,2021年度,智能语音技术的演进呈现出三个层面的趋势:(1)基础建模技术在打破领域边界加速融合,如Transformer系列模型在⾃然语⾔、视觉和语⾳领域都展现出⼀致性的优势,颇有“⼀统江湖”的意思。(2)超⼤规模⾃监督学习技术(self-supervisedlearning)在上述多个领域展现出很强的通⽤学习能⼒,即在海量⽆标签数据上训练⼤规模通⽤预训练模型,然后⽤少量有标签数据做精细调整就能取得⾮常好的效果。过去⼀年里,基于这种两段训练模式的超⼤模型不断刷新各项学术算法竞赛纪录,在⼯业界也成为⼀种模型训练和调优范式。最近⼀年,Facebook、亚⻢逊、⾕歌和微软等公司的研究学者陆续提出语⾳领域的⼤规模预训练模型,如Wav2vec、HuBERT、DecoAR、BigSSL、WavLM等。(3)除基础技术外,在不同应⽤场合场景下,多个领域模态的技术也在快速相互融合,形成视觉、语⾳和语义结合的多模态综合系统,如虚拟数字⼈。工业界落地加速
整体来说,智能语⾳技术在⼯业界的落地不断加速,来⾃业务和技术两个⽅向的合⼒共同作⽤牵引和驱动应⽤落地。从应⽤场景的牵引看,⼀⽅⾯如短中⻓视频业务,在全球仍保持着较⾼的增⻓速度,视频内容创作者和内容消费者活跃度很⾼;另⼀⽅⾯,疫情令居家办公和远程协作的需求增⻓,智能语⾳技术能在视频会议中提供通信增强和语⾳识别等关键能⼒,为参会者提供更佳的会议体验;以智能汽⻋和虚拟现实VR/AR为代表的新场景不断出现,需要更⽅便、更低延迟、更沉浸式的语⾳交互体验。从核⼼技术的驱动看,基础模型改进和⾃监督技术不断提升着模型性能上限,同时多模态技术融合使得技术⽅案的能⼒越来越强,可⽀持更复杂的场景并带来更好的体验。商业化难点主要在于商业模式选择
马泽君认为,现阶段,智能语音商业化的难点主要是商业模式探索和路线选择的问题,具体包括如何更好地满⾜需求,控制成本以及保证交付质量。⼀⽅⾯,AI商业模式探索需要始终围绕需求展开,提升模型效果和在真实场景中解决用户或客户的问题不能等同。解决实际问题需要AI研发⼈员深⼊业务场景,理解需求和条件限制,找到合理的产品技术⽅案,并不断思考和抽象功能和技术,沉淀通⽤的技术解决⽅案,探索验证可规模化的标准产品,降低定制周期和代价。另⼀⽅⾯,AI技术研发成本⾮常⾼,如何通过优化算法低对领域数据依赖,建设⾃动化平台降低⼈⼒消耗和提升研发流程效率对成本控制⾮常关键。最后还要重视交付质量和售后服务。只有同时做好上述三个环节,才能完成从需求到交付到服务的整个链路,从而奠定规模商业化的基础。端到端和预训练等技术仍然值得关注
端到端序列建模技术(1)准确率和推理速度更上⼀层楼的端到端技术值得期待,其中对⻬机制(alignmentmechanism)是端到端序列建模的关键。字节跳动AILAB正在探索的连续整合发放CIF模型(ContinuousIntegrate-and-Fire)是一种创新的序列端到端建模对齐机制,具有软对齐、计算代价低和容易扩展的特性。(2)在端侧设备上的端到端语⾳识别和合成技术落地值得关注,特别是轻量级、低功耗、⾼准确度和定制灵活的端到端语⾳识别和合成技术。(3)端到端语⾳识别技术⽅向的热词定制和领域⾃适应技术⾮常可能有重⼤进展。⽆监督预训练技术(1)超⼤数据规模和模型size的语⾳⽆监督预训练技术值得关注,语⾳⽆监督预训练的BERT已经出现(Wav2vec2.0/Hubert),语⾳⽆监督预训练的GPT-3很可能在2022年到来。(2)多模态语⾳⽆监督预训练技术也⾮常吸引⼈,该技术可能会极⼤地提升预训练模型的表征能⼒,从⽽带来⽆监督预训练技术更⼤范围的落地应⽤。(3)无监督预训练技术在语⾳合成、⾳乐分类、⾳乐识别领域的应⽤同样值得关注,借助⽆监督预训练的声学⾳频表征,可以有效提升下游任务的性能。语⾳对抗攻击与防御技术(1)语⾳领域的对抗攻击,从攻击⼿段上来看,将从当前的⽩盒攻击,进⼀步进化成⿊盒攻击;从攻击内容来看,将从当前流⾏的untarget攻击进化成target攻击。群雄逐鹿,谁能赢得自动驾驶之战?
2021年,自动驾驶领域格外热闹。造车热
今年,互联网大厂、新造车势力和传统企业纷纷进场布局自动驾驶,可以说能下场的巨头们基本上都下场造车了,自动驾驶“战场”群雄逐鹿,不知未来谁执牛耳?在资本市场上,自动驾驶也备受追捧。据零壹智库分析,继2016-2018年热潮之后,2021年自动驾驶领域迎来第二次投资热潮。今年11月,Momenta完成超10亿美元C轮系列融资,创下本年度自动驾驶领域最大规模融资记录。商业化前夜
Robotaxi是自动驾驶最有价值的商业模式,现阶段,很多自动驾驶技术公司都在做Robotaxi的尝试。今年,很多自动驾驶车辆从封闭路测场地走向真实道路。百度、小马智行、文远知行、等企业已实现面向公众的示范运营,开始探索商业化。11月,国内首个自动驾驶出行服务商业化试点在北京正式启动,百度和小马智行成为首批获许开展商业化试点的企业。业内人士认为,这标志着国内自动驾驶领域从测试示范迈入商业化试点探索新阶段。今年,自动驾驶卡车赛道也格外火热,量产和商业化均提速,头部玩家走向上市。近日,毫末智行董事长张凯在接受InfoQ等媒体采访时谈到了自动驾驶卡车的发展,他表示,相对乘用车辅助自动驾驶运行场景的复杂性,RoboTruck具有一些优势,例如长时间运行在较畅通的高速公路上,运行场景相对简单。现阶段,RoboTruck走得是类似于乘用车般从辅助驾驶到无人驾驶渐进式的发展路线。从发展前景看,Robotruck具备商业化闭环的可行性,但自动驾驶系统的量产将会是一个坎。毫末智行COO侯军认为,2021年是自动驾驶的爆发之年。一方面,得益于技术的持续进步、市场需求、政策加持、资本看好等各方面因素,高级别自动驾驶在落地探索方面,已有了初步的成果;另一方面,智能驾驶商业化落地也在快速渗透,开始走向量产时代。2022,这些技术将是下半场竞争胜负的关键
根据张凯的预判,“2022年将是自动驾驶行业发展最为关键的一年。乘用车辅助驾驶领域的竞争将会正式进入下半场,而下半场竞争的场景将会是城市开放场景。其他场景的自动驾驶也将正式进入商业化元年”。张凯认为,2022年,多项自动驾驶技术值得关注。(1)数据智能将成为自动驾驶量产决胜的关键。数据智能体系是自动驾驶商业化闭环的关键所在,搭建高效、低成本的数据智能体系有助于推动自动驾驶系统不断迭代前行。(2)Transformer与CNN技术深度融合,将会成为自动驾驶算法整合的粘合剂。Transformer技术帮助自动驾驶感知系统理解环境语义更深刻,与CNN技术深度融合能解决AI大模型量产部署的难题,这是自动驾驶行业下半场竞争的关键技术。(3)大算力计算平台将在2022年正式量产落地,Transformer技术与ONESTAGECNN技术都需要大算力计算平台做支撑。(4)随着自动驾驶系统的量产和规模化,激光雷达与机器视觉组成的AI感知技术,将与大算力计算平台深度融合,这将大幅提升自动驾驶感知、认知模块的运行效率。NLP,黄金时代持续?
这几年,NLP处于快速发展阶段。去年,多位NLP专家评判,NLP迎来了大爆发的黄金时代。那么今年,NLP的发展情况如何?基于提示的微调技术迅速流行
作业帮产研中心蒋宏飞博士告诉InfoQ,今年基于提示的微调(prompt-basedtuning)的技术迅速流行起来,这是一种人类知识和大模型较高效的结合模式。该技术是今年较值得关注的新进展。“今年NLP在基础模型方面没有大的突破。预训练模型方面,今年涌现了很多很大的模型,但整体上同质化也较严重,对于工业界实践效果来讲,往往按照'奥卡姆剃刀’原则,倾向于使用最适当的如Bert往往就够了”蒋宏飞表示。现阶段,NLP技术在发展过程中还存在不少技术挑战,其中之一便是很难获取到大量高质量的标注数据。深度学习依赖大规模标注数据,对于语音识别、图像处理等感知类任务,标注数据相对容易,但NLP往往是认识类任务,人的理解都有主观性,且任务和领域众多,导致大规模语料标注的时间成本和人力成本都很大。与CV、语音识别相比,NLP项目在业务中落地往往较慢
NLP落地项目往往和业务强相关。不像图像识别、语音识别,通用能力在具体业务也有大量落地场景,业务和算法协作边界和指标相对好确定。而NLP项目在业务中落地往往会比较慢,需要上下游不断深度磨合对齐。NLP解决的是最难的认知智能,而人类语言的歧义性、复杂性、动态性令其挑战重重。但NLP商业化落地必须面对这些本质的难题,所以不太可能有通用性的“一招吃遍天”的技术方案。“尽管现在的预训练模型一直在往这个方向努力,但我认为起码目前这种Transformer式的,或者更通用地说,DNN这种蜂巢智能式的技术范式不太行。所以,大家能看到也有不少研究学者在知识图谱类的各种其他范式上在做努力”蒋宏飞说。通用性的模型既然走不通,那垂类单一具体场景任务为什么也不能快速搭建?这个问题又涉及到数据的问题。数据标准的对齐、数据标注一致且高效、数据覆盖度和均衡度、长尾数据的处理、数据动态漂移等都是NLP从业者每天面对的麻烦事。而相关的方法论和基础工具还很不系统、不齐备,这是未来想达到快速商业化目的前必须打好的基础。明年,NLP将在哪些场景实现规模化落地?
2022年,NLP的大规模化应用可能会出现在以下行业出现突破:教育智能化场景化高标准机器辅助翻译,如专业领域文档翻译、会议实时翻译等。服务运营智能化:培训、销售、营销、服务等场景的智能化。外文学习/写作智能辅助,参考Grammarly和Duolingo的快速发展。医疗智能化。文本广泛存在于电子病历、临床试验报告、医学产品说明书、医学文献中。分析、挖掘和利用这些文本,有大量且能直接使用的场景,可能会有突破式发展。代码智能分析。代码bug识别、代码智能优化等。2022年,NLP值得关注的技术点
基于提示的微调(prompt-basedtuning)的技术。具有逻辑推理的文本生成技术、具有良好控制性以及一致性的文本生成技术。文本生成要在严肃场景用起来就必须满足这些,否则只能应用在娱乐场景。多模态技术。如NLP+CV、NLP+Image、NLP+Speech等。主动学习、数据增强等。NLP大规模快速落地时的很多痛点需要这些技术来缓解。代码智能。代码问题识别、代码翻译、自动代码优化、代码工作量评估(如Merico的方案)。元宇宙概念大火,计算机视觉是基石技术之一
回首过去的一年,OPPOAI技术产品化专家(语音语义和计算机视觉以及多模态融合方向)何苗总结了计算机视觉在工业界和学术界的进展。具身智能,从被动式AI转向主动式人工智能
具身智能(embodiedAI),强调智能体(agent)要与真实世界进行交互,并通过多模态的交互—不仅仅是让AI学习提取视觉上的高维特征,被“输入”的认知世界,而是通过“眼耳鼻舌身意”六根来主动获取物理世界的真实反馈,通过反馈进一步让智能体学习并使其更“智能”、乃至“进化”。今年2月,李飞飞提出了一套新的计算框架——DERL(deepevolutionreinforcementlearning)深度进化强化学习。她提到了生物进化论与智能体进化的关系,并借鉴了进化论的理论应用于假设的智能体的进化学习中。进入元宇宙,需要智能感知和交互这张门票
今年,元宇宙概念大火,各家纷纷入局。Facebook极为推崇元宇宙,为了表示投入元宇宙的决心,今年,Facebook改名为meta,并宣布“allin元宇宙”。扎克伯格提出云宇宙需要具备八要素,其中之一是Presence开发平台/套件。Presence是meta为OculusVR头显开发者提供的元宇宙基础开发套件,提供的即为基于计算机视觉和智能语音技术的工具集,分别是insightsdk、interactionsdk和voicesdk。进入元宇宙需要智能感知与交互技术这张门票,而这张门票里的视觉和语音技术是最重要的基石。趋势一:面向内容生成的AIGC
元宇宙世界需要孪生大量现实世界的物体或是对于现实世界的人物进行重建,而这些海量的重建必然不能按照传统游戏世界中的方法,由CG工程师一个个手工制作,这样效率远远无法满足实际场景的需求。因此面向内容生成的AIGC(算法层面)是必要的。相关技术方向包括:图像超分、domain迁移、外推、类似CLIP(对比式语言图像预训练模型,可以从自然语言监督中有效学习视觉模型)的隐式神经表示—通过文字描述来生成图像等多模态的(CV+NLP)等相关技术。趋势二:SCV合成
虚拟现实引擎有专门的生成合成数据的组件,这些合成数据不仅美观,而且有助于训练更好的算法。生成/合成的数据不仅是元宇宙的必备要素,也是训练模型的重要原料。如果有合适的工具来构建数据集,就可省去繁琐的给数据手工打标的过程,更好地对计算机视觉算法进行开发和训练。知名数据分析公司Gartner认为在未来3年中,合成数据将比真实数据更占优势。在合成计算机视觉(SCV)中,我们使用虚拟现实引擎训练计算机视觉模型,并将训练好的模型部署到现实世界。知识图谱商业化落地,制约因素主要在于标准化
重要技术进展
知识图谱技术在过去这一年取得的重要技术进展有:知识抽取方面,多模态信息抽取在同时处理文本和视频方面取得了进展;知识表示方面,自注意力机制的知识表示方法越来越走向实用;知识应用方面,很多行业开始构建行业知识库,用于各类下游任务。明略科技资深科学家张杰在接受InfoQ采访时指出,现阶段,在知识图谱方面,业界普遍面临的研发难点主要体现在两个方面:算法方面,针对非结构化数据的信息抽取和实体对齐的准确度难以保障直接商用,需人工校验;工程方面,行业HYPERLINK图谱构建成本高,需要大量的人工标注,另外构建进度也不是一蹴而就,需要业务专家不断运维。张杰预测,2022年,领域预训练语言模型和Prompt在知识图谱中的应用,有望使得信息抽取环节得到进一步提升。针对技能性知识的抽取技术和多模态抽取技术,商用前景广阔。应用落地进展
2021年,知识图谱技术的应用落地,在ToC场景中仍主要用于搜索、推荐的提升,在ToB场景中集中在可视化上。张杰认为,现阶段,制约知识图谱商业化落地的主要因素在于标准化,行业图谱的schema很难在企业内部大范围内达成认知的一致性,影响了后续的标注、抽取、应用。2022年,知识图谱技术的大规模化应用可能会在制造业出现突破,制造业的知识密度高、重视标准化,头部企业重视数字化建设,积累了大量原始数据。2022年,值得关注的重要技术趋势
人工智能工程化
近两年,人工智能工程化(AIEngineering)格外受关注。在Gartner发布的2021年和2022年重要战略技术趋势中,人工智能工程化都被列入其中。人工智能工程化是一种实现人工智能模型操作化的综合方法。不久前,Gartner高级研究总监高挺曾在接受InfoQ采访时表示,AI工程化本质上是AI在企业中大规模、全流程的落地过程,尽管目前大家现在对AI期待很高,但实际上AI目前的应用仍然是被低估的。因为,很多AI项目的价值只能体现在一些“点对点”的一次性的方案中。将AI大规模落地的工程化方法(包含DataOps、ModelOps和DevOps)总和起来,便是“AI的工程化”的一整套体系。人工智能工程化对企业有很多好处,企业在进行人工智能落地的时候,落地效率、落地广泛度会更高。可以预见,人工智能工程化将会是未来2-3年需要持续关注的方向,人工智能工程化应该关注三大核心要点:数据运维、模型运维、开发运维。Gartner预测,到2025年,10%建立人工智能工程化最佳实践的企业从其人工智能工作中产生的价值将
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 广东省粤西五校联考2025届高考仿真卷英语试卷含解析
- 2025届黑龙江省齐齐哈尔市龙江县二中高三一诊考试数学试卷含解析
- 河北省衡水滁州分校2025届高三最后一卷语文试卷含解析
- 2024年度重载货梯设计与制造购销合同3篇
- 村级基础设施施工合同(2篇)
- 工作总结之端午节包粽子活动总结
- 银行合规管理制度实施进度
- 物业经理个人总结
- 高一物理必修二《5.1曲线运动》课件
- 有关故宫的导游词(35篇)
- CA6140法兰盘工序卡片
- 拔牙-ppt课件
- 监控系统维保方案
- 注塑机作业指导书
- 建筑结构(第四版)
- 光伏并网调试方案
- 《铁路建设项目施工图审核管理办法》铁总建设[2014]299号
- 液态粉煤灰台背回填施工工艺
- 授权委托书电子版
- 100题分数加减法(有答案)
- 关于某中心各装置现场整治实施细则之消漏
评论
0/150
提交评论