人工智能之机器翻译研究报告_第1页
人工智能之机器翻译研究报告_第2页
人工智能之机器翻译研究报告_第3页
人工智能之机器翻译研究报告_第4页
人工智能之机器翻译研究报告_第5页
已阅读5页,还剩40页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工智能之机器翻译研究报告目录1. 概念篇 21.1 机器翻译简介 21.2 机器翻译发展历程 21.3 我国机器翻译现状 52. 技术篇 92.1 理性主义方法 92.1.1 92.2 经验主义方法 22.2.1 32.2.2 52.2.3 63. 人才篇 13.1. 领军人物 23.2. 中坚力量 83.3. 领域新星 34. 应用篇 64.1. 文本翻译 64.2. 语音翻译 64.3. 图像翻译 75. 趋势篇 35.1. 实用化 35.2. 多模态 35.3. 多语言 45.4. 网页端向移动端转移 45.5. 垂直领域结合更紧密 46. 参考文献 17. 关于AMiner 2摘要机器翻译概论。首先对机器翻译进行了定义,接着对机器翻译的发展历程进行了梳理,对我国机器翻译现状进行了介绍。机器翻译技术原理。机器翻译的技术原理可以概括为基于理性主义的方法和基于经验主机器翻译领域专家介绍。利用AMiner大数据对机器翻译领域专家进行深入挖掘,选取国内外有代表性的专家进行介绍。机器翻译的应用及趋势预测。机器翻译在现实生活中应用广泛,在文本翻译、语音翻译、图像翻译和视频、VR翻译等领域均有了不同的进展,在此基础上,对机器翻译未来的发展趋势做出相应的预测。11概述篇 1PAGEPAGE7概念篇机器翻译简介(MachineTranslation)(机器翻译可以实现世界上不同国家不同语言间的低成本交流,其主要优点体现为:速度快。(CopurAdednsaonGoogleTranslator、MicrosoftLocStudioT(chneanaon机器翻译发展历程194919461949ABA1954(Georgetown)IBM的协APLAC20801图1抽象转换的分层实现——Internet图2机器翻译技术源头实现这种功能的关键,分别依赖于两种神经网络架构,一个是循环神经网络(RNN,RecuentNeualNeoksCNCnouonalNeualNeok循环神经网络85%卷积神经网络FacebookDeepL20179Facebook度、计算机资源消耗、情感理解等多种维度上各有不同的表现。我国机器翻译现状中国的机器翻译研究始于20世纪50年代,但是由于国际环境和电脑发展水平的束缚,国内真正对机器翻译的研究是在20世纪80年代晚期。具有重要意义的标志性成果是著名的“8632090195717586”0IT201063028756API2OPPOAPI2014201520171.0plus供基本的翻译服务。2015365201610NMTNMT20172016AI15802017+NMTNLP引20165192017122120183AI2017年5GMICYNMT6eITNiuTrans2012570200064总而器翻在国从到现如其展更有新广和度深的时代义现价 22技术篇 899技术篇机器翻译的过程包括三个阶段,原文分析、原文译文转换和译文生成。图3机器翻译过程理性主义方法(Rule-based基于规则的方法比较直观,能够直接表达语言学家的知识。规则的颗粒具有很大的可收1010图4机器翻译的转换层面直接翻译word-to-wordIBMSystran图5直接翻译过程1111结构转换翻译[1]图6基于转换方法的翻译流程ancNeoae)og中间语言转换翻译[1]刘群机器翻译原理与方法讲义11PAGE8n(n1图7中间语言与转换方法比较(图8中间语转换翻译过程经验主义方法208090(Statistics-basedmachinetranslation)2090IBMIBM[2]图9统计机器翻译典型模型[2]机器翻译原理与方法讲义10.图10基于统计的机器翻译模型Google基于实例的翻译方法(Example-basedMachineTranslation)由日本翻译专家长尾真kkoNag194[1]3图11基于实例方法翻译过程3[1]机器翻译原理与方法讲义深度学习发展脉络以下是AMiner研究人员通过四个脉络对深度学习发展脉络进行了梳理。图12深度学习发展脉络脉络一cv/tensor1943年卡洛可和皮茨提出了抽象的神经元模型MP,该模型可以看作深度学习的雏形。1957年FrankRosenblatt发明了感知机,是当时首个可以学习的人工神经网络。1969年MarvinMinksySeymourPapert1986年Hinton等人提出一般DeltaMLP1998年以LeCun5LeNet-5CNN(卷积神经网络)的真正面世,LeNet-5的提出把CNN推上了一个小高潮。SVM2012AlexNetImageNetAlexNetLeNetrelu、dropoutVGG,GoogLeNet2016ResnetcvprbestpaperdensenetvRN2017HintonCapsuleNetcifar脉络二生成模型P(,。RM1962006deepbeliefHintonAuto-Encoder802008BengiodenoiseAuto-Encoder。Maxauto-encoderdecoder网络直接生成样本。2014DGGDCGANWGANJSPGGAN脉络三SequenceLearning1982年出现的HopfieldNetwork1997年Schmidhuber发明LSTM,2013HintonRNNBengioGoogleword2vecRNNseq2seqCNNLSTM/RNN脉络四DeepreinforcementLearning该领域最出名的是DeepMind,这里列出的DavidSilver则是一直研究reinforcementlearning(rl,强化学习)的高管。qeanng是很有名的传统ldepeanngqDavidSilverNaturedoubleduelq-learningDeepMindDDPG、A3C也非policygradient利用深度学习改进统计机器翻译(n-gram4-gram5-gramBengio2003BBNNualNeokJontodesn-1端到端神经机器翻译端到端神经机器翻译(End-to-EndNeuralMachineTranslation)是一种全新的机器翻译20132013NalKalchbrennerPhilBlunsomKalchbrennerBlunsomCnouonalNeualeokReuentNeualNeok为此,2014(LongMemory)GoogleBengio(Attention)GPU 33人才篇 2022PAGE9人才篇AMiner大数据,对该领域内的学者就行挖掘,并根据各学者在AMiner数据中的H-index图13机器翻译领域全球学者分布machinetranslationAMiner图14机器翻译领域中国学者分布图我们以“machinetranslation”为关键字在AMiner数据库中对国内机器翻译领域人才进行挖掘,得到了国内机器翻译领域人才分布图。可以看出,机器翻译研究主要集中在北京,这与北京高校众多、教育先进不无关系。领军人物BengioYoshuaBengio是加拿大蒙特利尔大学计算机科学与运筹学系的教授,机器学习实验室LearningDeepArchitecturesforAIBengioRNNneurallanguagemodel,gradientvanishingmachineBengio是《JournalofMachineLearningResearchNeuralComputation》和《FoundationsandTrendsinMachineLearning》的编辑。自1999年以来,一直与YannLeCun(CR我们根据AMiner大数据,筛选出YoshuaBengio发表论文中citation最高的几篇论文。KevinKnightKevinKnightPhilippKoehn等,JHUKevinKnight的研究兴趣包括自然语言生成器、自然语言处理、机器翻译、文本生成、密码学、人工智能、译码、计算语言学-自动语言翻译、自动文本摘要、大型词汇和分类法的构建以及与计算机的多媒体通信等。我们根据AMiner大数据,筛选出KevinKnight发表论文中citation最高的几篇论文。NAGAOMakoto(IAMT)EmanuelR.Piore20我们根据AMiner大数据,筛选出长尾真发表论文中citation最高的几篇论文。PhilippKoehnPhilippKoehn毕业于南加州大学计算机科学系,目前是爱丁堡信息学院和约翰·霍普金斯大学计算机科学系的教授。2013(EPO)Koehn2003FranzJosefOchDanielMarcu我们根据AMiner大数据,筛选出PhilippKoehn发表论文中citation最高的几篇论文。FranzJosefOchFranzJosefOchIBMGiza++Ochnoisy-channelOhOchGIZA++我们根据AMiner大数据,筛选出FranzJosefOch发表论文中citation最高的几篇论文。DavidChiangDavidChiangDavidChiang2005我们根据AMiner大数据,筛选出DavidChiang发表论文中citation最高的几篇论文。中坚力量以“machinetranslationAMinerH-index刘群863我们根据AMiner大数据,筛选出刘群发表论文中citation最高的几篇论文。张民200312200720122013年能、智能计算和机器学习。近年来在国际顶级学报和顶级会议发表学术论文150余篇,SpringerSpringerIEEECPS我们根据AMiner大数据,筛选出张民发表论文中citation最高的几篇论文。3030周明1989ETI了中国大陆政府的科学技术进步奖。1998年,他设计了著名的中日文机器翻译软件产品J-Beijing2008周明团队也为Bingbreakerspeller、QnASkype翻译。小冰chat-bot400045+ACL论文NLP10038我们根据AMiner大数据,筛选出周明发表论文中citation最高的几篇论文。33PAGE4赵铁军863目等20余项。2009年获得国防科技进步奖。近4年来获得软件著作权7项,在国内外刊物和会议上发表论文150余篇。我们根据AMiner大数据,筛选出赵铁军发表论文中citation最高的几篇论文。 刘洋刘洋是清华大学计算机科学与技术系特别研究员。然语言处理和人工智能领域重要国际刊物ComputationalLinguistics和国际会议ACL、EMNLPIJCAIAAAI50ACLtutorialACL2017杰出论文和ACL200610863201520152014我们根据AMiner大数据,筛选出刘洋发表论文中citation最高的几篇论文。领域新星AMiner在机器翻译领域知名科研机构和实验室中挖掘了新生代的代表,简单例举如下。MariaNădejdeMariaNădejde(SMT)PhDPhilippKoehnDFKISaarbrucken做HIWIMScFBKTrenton-grams。ShuoyangDingShuoyangDing是约翰霍普金斯大学计算机科学系的PhD,师从PhilippKoehn和KevinSunAdithyaRenduchintalaAdithyaRenduchintala是约翰霍普金斯大学语言和语言处理中心的PhD,师从PhilippKoehnKevinDuhMinLin、DevanshArpit、JasonJo、JosephPaulCohen等人都是YoshuaBengio教授的post-doc。DumoulinGuillaumeAlainBartvanMerrienboerJessicaThompsonJulianVladSerbanBengioPhD。BrianDuSellBanDuSelPadChang的NPRNN架KentonMurrayKentonMurrayPhDDavidChiang张飚AAAI、IJCAIEMNLPCOLINGINS沈世奇863” 4应用篇4应用篇3533PAGE7应用篇20012004FranzJosefOch2005NIST200610320169GoogleGNMT20176AttentionTransformerWMT2014Facebook2017329Go

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论