




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
英语流利说level7-u2-p3文本英语流利说level7-u2-p3文本英语流利说level7-u2-p3文本xxx公司英语流利说level7-u2-p3文本文件编号:文件日期:修订次数:第1.0次更改批准审核制定方案设计,管理制度Level7Unit2Part3Machineintelligencemakeshumanmoralsmoreimportant机器智能使人类道德更重要byZeynepTufekciSo,Istartedmyfirstjobasacomputerprogrammerinmyveryfirstyearofcollege--basically,asateenager.所以,我在大学一年级时就开始了我的第一份电脑程序员的工作,基本上是一个十几岁的孩子。SoonafterIstartedworking,writingsoftwareinacompany,amanagerwhoworkedatthecompanycamedowntowhereIwas,andhewhisperedtome,"CanhetellifI'mlying"Therewasnobodyelseintheroom.我开始工作后不久,在一家公司写软件,一位在公司工作的经理来到我所在的地方,他低声对我说:“他能告诉我我在撒谎吗?”房间里没有其他人。"Canwhotellifyou'relyingAndwhyarewewhispering"
“谁能告诉我你在撒谎我们为什么要窃窃私语”Themanagerpointedatthecomputerintheroom."CanhetellifI'mlying"Well,thatmanagerwashavinganaffairwiththereceptionist.经理指着房间里的电脑。“他能告诉我我在撒谎吗?”嗯,那个经理和接待员有暧昧关系。(Laughter)(笑声)AndIwasstillateenager.SoIwhisper-shoutedbacktohim,"Yes,thecomputercantellifyou'relying."我还是个十几岁的孩子。于是我小声地对他喊道:“是的,电脑能分辨出你在撒谎。”(Laughter)(笑声)Well,Ilaughed,butactually,thelaugh'sonme.Nowadays,therearecomputationalsystemsthatcansussoutemotionalstatesandevenlyingfromprocessinghumanfaces.Advertisersandevengovernmentsareveryinterested.嗯,我笑了,但事实上,我笑了。现在,有一些计算系统可以解决情绪状态,甚至可以从处理人脸上撒谎。广告商甚至政府都很感兴趣。IhadbecomeacomputerprogrammerbecauseIwasoneofthosekidscrazyaboutmathandscience.ButsomewherealongthelineI'dlearnedaboutnuclearweapons,andI'dgottenreallyconcernedwiththeethicsofscience.Iwastroubled.However,becauseoffamilycircumstances,Ialsoneededtostartworkingassoonaspossible.SoIthoughttomyself,hey,letmepickatechnicalfieldwhereIcangetajobeasilyandwhereIdon'thavetodealwithanytroublesomequestionsofethics.SoIpickedcomputers.我已经成为一名电脑程序员,因为我是一个对数学和科学着迷的孩子。但我在某个地方学到了核武器,我真的很关心科学的伦理学。我很烦恼。然而,由于家庭情况,我也需要尽快开始工作。因此,我想,嘿,让我选择一个技术领域,我可以轻松地找到一份工作,在那里我不需要处理任何棘手的道德问题。所以我选择了电脑。(Laughter)(笑声)Well,ha,ha,ha!Allthelaughsareonme.Nowadays,computerscientistsarebuildingplatformsthatcontrolwhatabillionpeopleseeeveryday.They'redevelopingcarsthatcoulddecidewhotorunover.They'reevenbuildingmachines,weapons,thatmightkillhumanbeingsinwar.It'sethicsallthewaydown.哈,哈,哈!所有的笑声都在我身上。如今,计算机科学家正在构建一个平台,控制着每天有十亿人看到的东西。他们正在开发可以决定谁来跑的汽车。他们甚至制造机器,武器,可能会在战争中杀死人类。这是道德的一路下滑。Machineintelligenceishere.We'renowusingcomputationtomakeallsortofdecisions,butalsonewkindsofdecisions.We'reaskingquestionstocomputationthathavenosinglerightanswers,thataresubjectiveandopen-endedandvalue-laden.机器智能在这里。我们现在使用计算来做所有的决定,但也有新的决定。我们问的问题是没有一个正确答案的计算,这是主观的,开放的和价值的。We'reaskingquestionslike,"Whoshouldthecompanyhire""Whichupdatefromwhichfriendshouldyoubeshown""Whichconvictismorelikelytoreoffend""Whichnewsitemormovieshouldberecommendedtopeople"我们在问这样的问题:“公司应该雇佣谁?”“你应该从哪个朋友那里得到更新?”“哪一个犯人更有可能重新犯罪?”“应该向人们推荐哪种新闻或电影?”Look,yes,we'vebeenusingcomputersforawhile,butthisisdifferent.Thisisahistoricaltwist,becausewecannotanchorcomputationforsuchsubjectivedecisionsthewaywecananchorcomputationforflyingairplanes,buildingbridges,goingtothemoon.AreairplanessaferDidthebridgeswayandfallThere,wehaveagreed-upon,fairlyclearbenchmarks,andwehavelawsofnaturetoguideus.Wehavenosuchanchorsandbenchmarksfordecisionsinmessyhumanaffairs.
看,是的,我们已经使用了一段时间的电脑,但这是不同的。这是一个历史的转折,因为我们不能锚定计算这样的主观决定的方式,我们可以锚定计算的飞行飞机,建造桥梁,去月球。飞机安全吗这座桥摇晃了吗在那里,我们已经达成一致,相当明确的基准,我们有自然法则来指导我们。在混乱的人类事务中,我们没有这样的锚定和基准。
Tomakethingsmorecomplicated,oursoftwareisgettingmorepowerful,butit'salsogettinglesstransparentandmorecomplex.Recently,inthepastdecade,complexalgorithmshavemadegreatstrides.Theycanrecognizehumanfaces.Theycandecipherhandwriting.Theycandetectcreditcardfraudandblockspamandtheycantranslatebetweenlanguages.Theycandetecttumorsinmedicalimaging.TheycanbeathumansinchessandGo.为了使事情变得更复杂,我们的软件变得越来越强大,但它也变得越来越不透明,越来越复杂。最近,在过去的十年中,复杂的算法取得了很大的进步。他们可以识别人脸。他们能辨认笔迹。他们可以检测信用卡诈骗和阻止垃圾邮件,他们可以翻译之间的语言。他们可以在医学影像中发现肿瘤。他们可以在国际象棋中击败人类。Muchofthisprogresscomesfromamethodcalled"machinelearning."Machinelearningisdifferentthantraditionalprogramming,whereyougivethecomputerdetailed,exact,painstakinginstructions.It'smorelikeyoutakethesystemandyoufeeditlotsofdata,includingunstructureddata,likethekindwegenerateinourdigitallives.Andthesystemlearnsbychurningthroughthisdata.Andalso,crucially,thesesystemsdon'toperateunderasingle-answerlogic.Theydon'tproduceasimpleanswer;it'smoreprobabilistic:"Thisoneisprobablymorelikewhatyou'relookingfor."这种进步很大程度上来自一种叫做“机器学习”的方法。机器学习不同于传统编程,在那里你给计算机详细、精确、细致的指令。它更像是你采取的系统,你喂它大量的数据,包括非结构化数据,像我们在我们的数字生活中产生的那种。系统通过这些数据来学习。而且,关键的是,这些系统不在一个单一的答案逻辑下运作。他们并没有给出一个简单的答案,而是更多的概率:“这一个可能更像你正在寻找的。”Now,theupsideis:thismethodisreallypowerful.TheheadofGoogle'sAIsystemscalledit,"theunreasonableeffectivenessofdata."Thedownsideis,wedon'treallyunderstandwhatthesystemlearned.Infact,that'sitspower.Thisislesslikegivinginstructionstoacomputer;it'smoreliketrainingapuppy-machine-creaturewedon'treallyunderstandorcontrol.Sothisisourproblem.It'saproblemwhenthisartificialintelligencesystemgetsthingswrong.It'salsoaproblemwhenitgetsthingsright,becausewedon'tevenknowwhichiswhichwhenit'sasubjectiveproblem.Wedon'tknowwhatthisthingisthinking.现在,好处是:这种方法真的很强大。谷歌的人工智能系统的负责人称之为“数据的不合理有效性”。缺点是,我们并不真正理解系统所学到的东西。事实上,这就是它的力量。这不像是给电脑指令,更像是训练puppy-machine-creature我们并不真正理解或控制。这就是我们的问题。当这种人工智能系统出错时,这是个问题。这也是一个问题,当它得到正确的东西,因为我们甚至不知道这是什么时候,这是一个主观的问题。我们不知道这是什么想法。So,considerahiringalgorithm--asystemusedtohirepeople,usingmachine-learningsystems.Suchasystemwouldhavebeentrainedonpreviousemployees'dataandinstructedtofindandhirepeopleliketheexistinghighperformersinthecompany.Soundsgood.Ionceattendedaconferencethatbroughttogetherhumanresourcesmanagersandexecutives,high-levelpeople,usingsuchsystemsinhiring.Theyweresuperexcited.Theythoughtthatthiswouldmakehiringmoreobjective,lessbiased,andgivewomenandminoritiesabettershotagainstbiasedhumanmanagers.因此,考虑一种雇佣算法——一种用来雇佣人的系统,使用机器学习系统。这样的系统将被培训在以前的员工的数据,并指示找到和雇用的人,如现有的高绩效的公司。听起来不错。我曾经参加过一个会议,汇集了人力资源经理和高级管理人员,高层人员,在招聘中使用这种系统。他们非常兴奋。他们认为这会使招聘更加客观,减少偏见,给女性和少数群体一个更好的机会来对付有偏见的人类管理者。Andlook--humanhiringisbiased.Iknow.Imean,inoneofmyearlyjobsasaprogrammer,myimmediatemanagerwouldsometimescomedowntowhereIwasreallyearlyinthemorningorreallylateintheafternoon,andshe'dsay,"Zeynep,let'sgotolunch!"I'dbepuzzledbytheweirdtiming.It's4pm.LunchIwasbroke,sofreelunch.Ialwayswent.Ilaterrealizedwhatwashappening.Myimmediatemanagershadnotconfessedtotheirhigher-upsthattheprogrammertheyhiredforaseriousjobwasateengirlwhoworejeansandsneakerstowork.Iwasdoingagoodjob,Ijustlookedwrongandwasthewrongageandgender.看,人的雇佣是有偏见的。我知道。我的意思是,在我作为一名程序员的早期工作中,我的直属经理有时会到我真正早到的地方,或者是在下午很晚的时候,她会说:“Zeynep,我们去吃午饭吧!”我会被奇怪的时间所迷惑。下午四点。午餐?我破产了,所以免费的午餐。我总是去。后来我意识到发生了什么。我的直属经理们还没有承认他们的上司,他们雇用的一个严肃的工作是一个十几岁的女孩穿着牛仔裤和运动鞋上班。我做得很好,我只是看起来错了,是错误的年龄和性别。
Sohiringinagender-andrace-blindwaycertainlysoundsgoodtome.Butwiththesesystems,itismorecomplicated,andhere'swhy:Currently,computationalsystemscaninferallsortsofthingsaboutyoufromyourdigitalcrumbs,evenifyouhavenotdisclosedthosethings.Theycaninferyoursexualorientation,yourpersonalitytraits,yourpoliticalleanings.Theyhavepredictivepowerwithhighlevelsofaccuracy.Remember--forthingsyouhaven'tevendisclosed.Thisisinference.因此,在一个性别和种族的盲目的方式雇用听起来对我很好。但是,随着这些系统,它是更复杂的,这就是为什么:目前,计算系统可以推断出各种各样的事情,你从你的数字面包屑,即使你没有透露这些东西。他们可以推断出你的性取向,你的个性特征,你的政治倾向。他们具有高精度的预测能力。记住--对于你还没有透露的事情。这是推理。Ihaveafriendwhodevelopedsuchcomputationalsystemstopredictthelikelihoodofclinicalorpostpartumdepressionfromsocialmediadata.Theresultsareimpressive.Hersystemcanpredictthelikelihoodofdepressionmonthsbeforetheonsetofanysymptoms--monthsbefore.Nosymptoms,there'sprediction.Shehopesitwillbeusedforearlyintervention.Great!Butnowputthisinthecontextofhiring.我有一个朋友开发了这样的计算系统,从社会媒体数据预测临床或产后抑郁症的可能性。结果令人印象深刻。她的系统可以预测几个月前出现任何症状之前的抑郁的可能性。没有症状,有预测她希望这将被用于早期干预。太棒了!但现在把这放在招聘的背景下。Soatthishumanresourcesmanagersconference,Iapproachedahigh-levelmanagerinaverylargecompany,andIsaidtoher,"Look,whatif,unbeknownsttoyou,yoursystemisweedingoutpeoplewithhighfuturelikelihoodofdepressionThey'renotdepressednow,justmaybeinthefuture,morelikely.Whatifit'sweedingoutwomenmorelikelytobepregnantinthenextyearortwobutaren'tpregnantnowWhatifit'shiringaggressivepeoplebecausethat'syourworkplaceculture"
Youcan'ttellthisbylookingatgenderbreakdowns.Thosemaybebalanced.Andsincethisismachinelearning,nottraditionalcoding,thereisnovariabletherelabeled"higherriskofdepression,""higherriskofpregnancy,""aggressiveguyscale."Notonlydoyounotknowwhatyoursystemisselectingon,youdon'tevenknowwheretobegintolook.It'sablackbox.Ithaspredictivepower,butyoudon'tunderstandit.
所以在这次人力资源经理会议上,我找了一家非常大的公司的高级经理,我对她说:“看,如果你不知道,你的系统正在淘汰那些未来可能有抑郁症的人呢他们现在不沮丧,只是可能在未来,更有可能。如果在接下来的一年或两年内淘汰妇女更可能怀孕,但现在又没有怀孕怎么办如果它雇佣有侵略性的人,因为那是你的工作场所文化”你不能通过看性别问题来判断。这些可能是平衡的。而且由于这是机器学习,而不是传统的编码,没有可变的标签“高风险的抑郁症,”“更高的风险怀孕,”“侵略性的家伙规模。”不仅你不知道你的系统在选择什么,你甚至不知道从哪里开始看。它是一个黑匣子。它具有预测力,但你不理解它。"Whatsafeguards,"Iasked,"doyouhavetomakesurethatyourblackboxisn'tdoingsomethingshady"ShelookedatmeasifIhadjuststeppedon10puppytails.“什么保障措施,”我问,“你必须确保你的黑匣子没有做什么可疑的事情?”她看着我,好像我刚刚踩了10条小狗的尾巴。(Laughter)(笑声)Shestaredatmeandshesaid,"Idon'twanttohearanotherwordaboutthis."Andsheturnedaroundandwalkedaway.Mindyou--shewasn'trude.Itwasclearly:whatIdon'tknowisn'tmyproblem,goaway,deathstare.她盯着我,她说:“我不想再听到这个消息了。”她转身走开了。注意你--她并不粗鲁。很明显:我不知道的不是我的问题,走开,死亡凝视。(Laughter)(笑声)Look,suchasystemmayevenbelessbiasedthanhumanmanagersinsomeways.Anditcouldmakemonetarysense.Butitcouldalsoleadtoasteadybutstealthyshuttingoutofthejobmarketofpeoplewithhigherriskofdepression.Isthisthekindofsocietywewanttobuild,withoutevenknowingwe'vedonethis,becauseweturneddecision-makingtomachineswedon'ttotallyunderstand?看,这样的系统在某些方面甚至可能比人类管理者有更少的偏见。这可能会使货币变得有意义。但这也可能导致一个稳定但却悄无声息的退出就业市场的人,有更高的忧郁症风险。这是我们想要建立的社会,甚至不知道我们已经这样做了,因为我们把决策变成了我们不完全理解的机器?Anotherproblemisthis:thesesystemsareoftentrainedondatageneratedbyouractions,humanimprints.Well,theycouldjustbereflectingourbiases,andthesesystemscouldbepickinguponourbiasesandamplifyingthemandshowingthembacktous,whilewe'retellingourselves,"We'rejustdoingobjective,neutralcomputation."另一个问题是:这些系统通常是由我们的行为、人类印记所产生的数据训练的。嗯,他们可能只是反映了我们的偏见,这些系统可能会发现我们的偏见,放大他们,并让他们回到我们,而我们告诉自己,“我们只是做客观的,中立的计算。”ResearchersfoundthatonGoogle,womenarelesslikelythanmentobeshownjobadsforhigh-payingjobs.AndsearchingforAfrican-Americannamesismorelikelytobringupadssuggestingcriminalhistory,evenwhenthereisnone.Suchhiddenbiasesandblack-boxalgorithmsthatresearchersuncoversometimesbutsometimeswedon'tknow,canhavelife-alteringconsequences.研究人员发现,在谷歌上,女性比男性更不可能在高薪职位上招聘广告。而寻找非裔美国人的名字更可能带来犯罪历史的广告,即使没有。研究人员有时会发现这种隐藏的偏见和黑箱算法,但有时我们不知道,会有改变生活的结果。InWisconsin,adefendantwassentencedtosixyearsinprisonforevadingthepolice.Youmaynotknowthis,butalgorithmsareincreasinglyusedinparoleandsentencingdecisions.Hewantedtoknow:HowisthisscorecalculatedIt'sacommercialblackbox.Thecompanyrefusedtohaveitsalgorithmbechallengedinopencourt.ButProPublica,aninvestigativenonprofit,auditedthatveryalgorithmwithwhatpublicdatatheycouldfind,andfoundthatitsoutcomeswerebiasedanditspredictivepowerwasdismal,barelybetterthanchance,anditwaswronglylabelingblackdefendantsasfuturecriminalsattwicetherateofwhitedefendants.在威斯康星州,一名被告因躲避警察被判六年监禁。你可能不知道这一点,但算法越来越多地用于假释和判决决定。他想知道:这是怎么计算的?它是一个商业黑匣子。该公司拒绝在公开法庭上对其算法提出质疑。但是ProPublica,一个调查性的非营利组织,对他们所能发现的公共数据进行了审计,发现其结果是有偏见的,其预测能力是令人沮丧的,几乎没有机会,并且错误地把黑人被告作为未来的犯罪分子,是白人被告的两倍。So,considerthiscase:ThiswomanwaslatepickinguphergodsisterfromaschoolinBrowardCounty,Florida,runningdownthestreetwithafriendofhers.Theyspottedanunlockedkid'sbikeandascooteronaporchandfoolishlyjumpedonit.Astheywerespeedingoff,awomancameoutandsaid,"Hey!That'smykid'sbike!"Theydroppedit,theywalkedaway,buttheywerearrested.所以,考虑一下这个案例:这个女人在佛罗里达州布劳沃德县的一所学校接她的教母,她和她的一个朋友在街上跑来跑去。他们发现一个未上锁的孩子的自行车和一辆滑板车在门廊和愚蠢地跳上它。当他们超速行驶时,一个女人跑出来说:“嘿!那是我孩子的自行车!”他们把它扔了,他们走开了,但他们被逮捕了。Shewaswrong,shewasfoolish,butshewasalsojust18.Shehadacoupleofjuvenilemisdemeanors.Meanwhile,thatmanhadbeenarrestedforshopliftinginHomeDepot--85dollars'worthofstuff,asimilarpettycrime.Buthehadtwopriorarmedrobberyconvictions.Butthealgorithmscoredherashighrisk,andnothim.Twoyearslater,ProPublicafoundthatshehadnotreoffended.Itwasjusthardtogetajobforherwithherrecord.He,ontheotherhand,didreoffendandisnowservinganeight-yearprisontermforalatercrime.Clearly,weneedtoauditourblackboxesandnothavethemhavethiskindofuncheckedpower.她错了,她很愚蠢,但她也只有18岁。她有过两次未成年的轻罪。与此同时,那名男子因在家得宝商店行窃被逮捕——价值85美元的东西,类似的轻微犯罪。但他有两次持枪抢劫的前科。但该算法的得分高风险,而不是他。两年后,propublica发现她没有再生气。她很难找到一份有记录的工作。另一方面,他又重新犯罪,现在为以后的罪行服刑8年。显然,我们需要审计我们的黑匣子,而不是让他们拥有这种不受约束的权力。(Applause)(掌声)Auditsaregreatandimportant,buttheydon'tsolveallourproblems.TakeFacebook'spowerfulnewsfeedalgorithm--youknow,theonethatrankseverythinganddecideswhattoshowyoufromallthefriendsandpagesyoufollow.Shouldyoubeshownanotherbabypicture?审计是伟大而重要的,但它们并不能解决我们所有的问题。采取Facebook的强大的新闻feed算法-你知道,一个排名一切,并决定什么显示你从所有的朋友和网页,你跟随。你应该再给我看一张婴儿照片吗?
(Laughter)(笑声)AsullennotefromanacquaintanceAnimportantbutdifficultnewsitemThere'snorightanswer.Facebookoptimizesforengagementonthesite:likes,shares,comments.
一个熟人的闷闷不乐的便条一个重要但困难的新闻没有正确的答案。Facebook优化了对网站的参与:喜欢,分享,评论。InAugustof2014,protestsbrokeoutinFerguson,Missouri,afterthekillingofanAfrican-Americanteenagerbyawhitepoliceofficer,undermurkycircumstances.ThenewsoftheprotestswasallovermyalgorithmicallyunfilteredTwitterfeed,butnowhereonmyFacebook.WasitmyFacebookfriendsIdisabledFacebook'salgorithm,whichishardbecauseFacebookkeepswantingtomakeyoucomeunderthealgorithm'scontrol,andsawthatmyfriendsweretalkingaboutit.It'sjustthatthealgorithmwasn'tshowingittome.Iresearchedthisandfoundthiswasawidespreadproblem.2014年8月,在密苏里州的弗格森,在一名白人警官在黑暗的环境下杀害一名非洲裔美国少年后,发生了抗议活动。抗议的消息充斥了我的算法未过滤的Twitterfeed,但在我的Facebook上却没有。是我的Facebook朋友吗?我禁用了Facebook的算法,这很难,因为Facebook一直想让你在算法的控制下,看到我的朋友们在谈论它。只是算法没有显示给我看。我研究了这一点,发现这是一个普遍的问题。ThestoryofFergusonwasn'talgorithm-friendly.It'snot"likable."Who'sgoingtoclickon"like"It'snoteveneasytocommenton.Withoutlikesandcomments,thealgorithmwaslikelyshowingittoevenfewerpeople,sowedidn'tgettoseethis.Instead,thatweek,Facebook'salgorithmhighlightedthis,whichistheALSIceBucketChallenge.Worthycause;dumpicewater,donatetocharity,fine.Butitwassuperalgorithm-friendly.Themachinemadethisdecisionforus.Averyimportantbutdifficultconversationmighthavebeensmothered,hadFacebookbeentheonlychannel.弗格森的故事不太友好。这不是“可爱”。谁会点击“喜欢”这甚至不容易评论。没有喜欢和评论,算法可能会显示它更少的人,所以我们没有看到这一点。相反,在那个星期,Facebook的算法突出了这一点,这是ALS冰桶挑战。有价值的事业;倾倒冰水,捐给慈善机构,罚款。但它是超级算法友好。机器为我们做了这个决定。一个非常重要但困难的谈话可能被扼杀了,Facebook是唯一的渠道。Now,finally,thesesystemscanalsobewronginwaysthatdon'tresemblehumansystems.DoyouguysrememberWatson,IBM'smachine-intelligencesystemthatwipedthefloorwithhumancontestantsonJeopardyItwasagreatplayer.Butthen,forFinalJeopardy,Watsonwasaskedthisquestion:"ItslargestairportisnamedforaWorldWarIIhero,itssecond-largestforaWorldWarIIbattle."现在,最后,这些系统也可能是错误的方式,不象人类系统。你们还记得Watson,IBM的机器智能系统吗?这是一个伟大的球员。但是,最后的危险,沃森被问到这个问题:“它最大的机场被命名为一个二战英雄,它的第二次世界大战第二次战斗。”(HumsFinalJeopardymusic)(人类最后的危险音乐)Chicago.Thetwohumansgotitright.Watson,ontheotherhand,answered"Toronto"--foraUScitycategory!Theimpressivesystemalsomadeanerrorthatahumanwouldnevermake,asecond-graderwouldn'tmake.芝加哥。这两个人是对的。华生,另一方面,回答“多伦多”-为美国城市类别!令人印象深刻的系统也犯了一个错误,一个人类永远不会做出,一个二年级学生不会作出。Ourmachineintelligencecanfailinwaysthatdon'tfiterrorpatternsofhumans,inwayswewon'texpectandbepreparedfor.It'dbelousynottogetajoboneisqualifiedfor,butitwouldtriplesuckifitwasbecauseofstackoverflowinsomesubroutine.我们的机器智
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2025至2030年中国四路硬盘录像机数据监测研究报告
- 2025至2030年中国凉屋顶节能隔热防晒涂料数据监测研究报告
- 2025至2030年中国三腔双囊胃管数据监测研究报告
- 遗产继承协议咨询合同
- 2025年法律知识竞赛抢答题库及答案(共50题)
- 健康健身挑战赛参赛协议
- 医疗行业模拟试题
- 事业单位岗位聘用协议
- 健康保险代理销售合作协议
- 关于产品研发方向决策会议的纪要
- 全国优质课一等奖职业学校《绘制切割类组合体的三视图》课件
- 【自考复习资料】03011儿科护理学(二)复习重点
- 跳绳之双脚跳教案
- 大象版小学科学四年级下册5.1小船与浮力 教学课件
- 物资管理工作流程图
- 中国马克思主义与当代思考题(附答案)
- 中西式点心新手制作教程
- 读书分享交流会《从一到无穷大》课件
- 高大模板支撑体系安全检查验收表
- 苏教版六年级下册综合实践活动计划及全册教案
- 村集体经济组织会计制度讲解
评论
0/150
提交评论