云计算实验报告_第1页
云计算实验报告_第2页
云计算实验报告_第3页
云计算实验报告_第4页
云计算实验报告_第5页
已阅读5页,还剩9页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

-.z.云计算原理课程期末实践报告题目:Linu*集群、MapReduce和CloudSim实践成绩:**:161440119:罗滔登录邮箱:750785185qq.任课教师:许娟2016年11月12日目录实验一:AWS身份与访问管理〔P2~P11〕实验二:AmazonRelationalDatabaseService(P11~P20)实验三:Hadoop实验报告(P21~)AWS管理控制台使用qwikLABS登录AWS管理控制台6.在AWS管理控制台中,单击【效劳/Services】,然后单击【IAM或身份与访问管理/IAMorIdentity&AccessManagement】。7.在IAM控制台的左侧面板中,单击【用户/Users】。8.找到"userone〞,然后单击其名称以显示有关该用户的详细信息。在用户详细信息中,找到有关该用户的以下三方面的信息:a.已向该用户分配了一个密码b.该用户不属于任何组c.目前没有任何策略与该用户关联〔"附加到〞该用户〕9.现在,单击左侧导航窗格中的【组/Groups】。本实验的CloudFormation模板还创立了三个组。在IAM控制台中的【用户/Users】仪表板中可以看到,自动化CloudFormation脚本在创立这些组时为其提供了唯一的名称。这些唯一名称包含以下字符串:"EC2support〞"EC2admin〞"S3admin〞完整组名的格式如下所示:arn:aws:iam::1:group/spl66/qlstack2--labinstance--47090--666286a4--f8c--EC2support--GA9LGREA7*4S从现在开场,我们在本实验中将使用上面这些简写名称来指代这些组。您可以在【组/Groups】仪表板中搜索子字符串,以便为后续实验操作确定正确的组。10.单击"EC2support〞对应的组名。其格式应与上面的类似。11.向下滚动至组详细信息页面中的【权限/Permissions】局部后,在【内联策略/InlinePolicies】局部,可以看到一个名称为"EC2supportpolicy〞的策略与该组关联。在策略中,您可以规定将允许或拒绝对特定AWS资源执行哪些操作。您可以使用自定义策略,或通过选择AWS托管策略来使用一组预定义的权限。12.虽然我们不会更改此策略,但请单击【编辑策略/EditPolicy】,使其显示在一个窗口中,以便您进展查看和滚动。请留意IAM策略中语句的根本构造。"Action〞局部指定了该效劳内的AWS效劳和功能。"Resource〞部分定义了该策略规则所涵盖的实体范围,而"Effect〞局部则定义了所需结果。更多有关定义IAM策略的信息,请访问"AWSIdentityandAccessManagement:权限和策略〞文档页面。13.单击另外两个组〔"EC2admin〞和"S3admin〞〕,查看附加到这两个组的策略。您现在能否识别出附加到这些组的策略所允许的权限?18.完成后,再次单击左侧面板中的【组/Groups】。各组的【用户/Users】列中应显示"1〞,表示各组中的用户数。设置自定义密码替换和设置自定义密码为"userone〞设置一个密码,然后在临时的记事本文件中记下该密码。重复上述步骤,为"usertwo〞和"userthree〞设置密码。测试对S3的访问权限您在本实验中使用的"awsstudent〞用户所拥有的权限寥寥无几,例如,您可以访问S3仪表板,但无法查看其中的存储桶。立即对此进展测试:25.在主AWS控制台上,单击【效劳/Services】,然后单击【S3】。26.您应该会看到三个存储桶。尝试单击存储桶以查看其内容–您将无法查看其内容。28.在主IAM仪表板上,在【欢送使用身份识别和访问管理/WelcometoIdentityandAccessManagement】下方,您将看到IAM用户登录链接。复制此URL,然后将其粘贴到临时记事本文件中。现在,您的记事本文件中应包含登录URL、完整的"userthree〞登录名和密码。在新的浏览器中,使用这些信息以"userthree〞的身份登录。31.您应该会看到标准的AWS控制台。但是,在右上角,您的用户名不再是"awsstudent〞,而是"userthree〞。32.现在,访问S3效劳仪表板。您可以看到之前的三个存储桶,但现在,作为"S3admin〞组的一局部,您可以查看这些存储桶、复制文件、创立新的存储桶和文件等。实验二:AmazonRelationalDatabaseService(P12~P21)1.登录AWS管理控制台登录之后,返回qwikLAB™⽹网2.创立RelationalDatabaseService(RDS)实例要开场创立第⼀一个AmazonRDS实例,您需要访问Amazon管理控制台上的AmazonRDS图标,然后使⽤RelationalDatabaseService向导。单击⾸首页上的AmazonRDS图标并转到该控制⾯面板。8.单击"LaunchaDatabaseInstance/启动数据库实例〞按钮来启动RDS向导。9.单击MySQL数据库引擎类型对⾯面的"Select/选择〞按钮。10.看到该数据库是否⽤用于⽣生产⽬目的的询问时,选择"开发测试〞单项选择按钮,然后单击"Ne*tStep/下⼀一步〞。11.在接下来的"DBInstanceDetails/指定数据库详细信息〞屏幕上,按以下内容进⾏行设置:a.DBInstanceClass/数据库实例类b.Multi--AZDeployment/多可⽤用区部署c.AllocatedStorage/分配的存储空间:5d.DBInstanceIdentifier/数据库实例标识符:RDSLabe.MasterUsername:/主⽤用户名AWSMasterf.MasterPassword/主密码:AWS1234512.单击"Ne*tStep/下⼀一步〞。13.在接下来的"AdditionalConfig/配置⾼高级设置〞屏幕上,按以下内容进⾏行设置:a.DatabaseName/数据库名称:RDSLabb.PublicallyAccessible/公开访问:否c.VPCSecurityGroup/VPC平安组:选择包含⽂文本"qlstack〞的平安组14.在备份中,选择备份保存期为0天。15.单击"LaunchDBInstance/启动数据库实例〞。从亚马逊系统映像(AMI)创立AmazonLinu*实例要开场创立第⼀一个Amazon实例,您需要访问Amazon管理控制台上的AmazonEC2图标,然后使⽤用向导。16.返回AWS管理控制台〔它在浏览器中仍是翻开的〕。17.单击AWS管理控制台⾸首页上的EC2图标。18.单击"Instances/实例〞链接来创立实例。19.单击"LaunchInstance/启动实例〞按钮来开场该过程。20.在第⼀一个对话窗⼜.口中,步骤1:选择⼀一个Amazon系统映像,然后单击该AMI旁边的"Select/选.〞来选择AmazonLinu*AMI实例。注意:确认是64位的映像。21.步骤2:使实例类型保存默认设置,即t2.micro。要继续,则单击"Ne*t:ConfigureInstanceDetails/下⼀一步:配置实例详细信息〞。22.步骤3:ConfigureInstanceDetails/配置实例详细信息,我们将保存所有默认选项,并单击"Ne*t:AddStorage/下⼀一步:添加存储〞。23.步骤4:AddStorage/添加存储,保存默认虚拟拟硬。单击"Ne*t:TagInstance/下⼀一步:标签实例〞。注意:您可以在此轻松增加更多虚拟硬盘或更改硬盘⼤大⼩小。24.步骤5:TagInstance/标.实例,使⽤标签实例界⾯面为实例命名。您将注意到左边⽂文本框填充了标签的名字为Name,右边.文本框为空。在空⽂文,键⼊入名称,例如"EC2FreeLab〞并单击"Ne*t:ConfigureSecurityGroup/下⼀一步:配置平安组。步骤6:ConfigureSecurityGroup/配置平安组,承受默认平安组,因为它允许通过端⼜⼝口22(SSH)从任意位置连接此Linu*实例,单击"ReviewandLaunch/审核和启.步骤7:通过"ReviewInstanceLaunch/审核和启.动〞,您可以获取全部设置的概览。。单击"Launch/启动〞以继续。QwikLab⾃自动.您⽣生成的密钥.应.自动填第⼆二个下拉框。单击"acknowledgement/确认〞复选框,声明。现在,单."LaunchInstance/启.实例。单击"ViewInstances/查看实例。40.将ec2--user键⼊入HostName字段,然后将您复制到剪贴板板的连接字符串粘贴到42.单击单词"Auth〞选择"Auth〞类〔⽽而不是单词"Auth〞旁边的+符号〕。43.单击"Browse〞。44.浏览到您稍早在本实验中保存.ppk⽂文件的位置。45.选择您下载的.ppk⽂文件。46.单击"Open〞。47.在PuTTY客户端,单击"Open〞。48.出现提⽰示时,单击"Yes〞允许PuTTY缓存效劳器的主机键。您已成功登录了Linu*主机!50.回到RDS页⾯面,选中并展开之前创立的RDS实例。记录下Endpoint/终端节点名字,⽐比方:51.回到Linu*EC2主机的终端,输⼊入以下命令:$mysql–h<endpoint>-­p–uAWSMaster52.在密码的提⽰示符下输⼊入AWS1234553.然后在mysql>提⽰示符下输⼊入showdatabases;;并检查结果。54.您现在已将MySQL客户端连接到您新创立的RDS实例。恭喜您!Hadoop云计算实验报告(P21-)实验目的在虚拟机Ubuntu上安装Hadoop单机模式和集群;编写一个用Hadoop处理数据的程序,在单机和集群上运行程序。2、实验环境虚拟机:VMware9操作系统:ubuntu-12.04-server-*64Hadoop和Jdk和EclipseHadoop集群:一台namenode主机master,一台datanode主机salve,master主机IP为,slave主机IP为。3、主要设计思路在ubuntu操作系统下,安装必要软件和环境搭建,使用eclipse编写程序代码。实现大数据的统计。本次实验是统计软件代理系统操作人员处理的信息量,即每个操作人员出现的次数。4、算法设计该算法首先将输入文件都包含进来,然后交由map程序处理,map程序将输入读入后切出其中的用户名,并标记它的数目为1,形成<word,1>的形式,然后交由reduce处理,reduce将一样key值(也就是word)的value值收集起来,形成<word,listof1>的形式,之后再将这些1值加起来,即为用户名出现的个数,最后将这个<key,value>对以Te*tOutputFormat的形式输出到HDFS中。5、安装实验环境5.1安装ubuntu操作系统翻开VMware,在Hometab中单击"CreateaNewVirtualMachine〞,选择custom,选择虚拟硬件版本Workstation9.0,选择ios文件,ne*t,录入目标操作系统信息,包括Fullname、Uername和Password,ne*t,选择默认的选项,一般不做更改,最后确认信息,Finish,安装成功后,会看到如下画面,5.2安装配置Samba安装samba主要为了实现与windows操作系统的通讯,由于server版本的ubuntu没有自带图形操作界面,所以下载资料等操作不太方便,这也是安装samba的目的之一。安装samba,输入如下命令:安装vim创立共享目录,并修改权限配置samba。修改samba的配置文件/etc/samba/smb.conf,将security=share,并在文件的末尾追加如下内容,测试。在windows实机中,通过ip访问ubuntu虚拟机,可以见到share文件夹5.3安装配置JDK首先,下载java开发工具包JDK。在本次试验中,我们下载的版本是jdk-7u80-linu*-*64.gz。解压安装到/usr/lib/jvm/目录下,更名为java-7-sun。配置环境变量/etc/environment,使配置生效测试安装配置结果5.4在单节点〔伪分布式〕环境下运行HADOOP添加Hadoop用户并赋予sudo权限安装配置SSH切换至hadoop用户,配置密钥,使得hadoop用户能够无须输入密码,通过SSH访问localhost,测试结果:安装配置Hadoop首先下载Hadoop,解压缩到/opt/hadoop目录下,本次试验中我们下载的版本是,更改目录名称为hadoop。修改与hadoop相关的配置文件〔在/opt/hadoop/conf目录下〕,分别是core-site.*ml,hadoop-env.sh,hdsf-site.*ml,mapred-site.*ml。在此不一一列举。运行Hadoop首先格式化HDFS,启动单节点集群,通过jps查看,masterslave停顿单节点集群,5.5在多节点〔分布式〕环境下运行HADOOP设置/etc/hosts文件实验中两台机器处于同一局域网中,其中一台作为master,ip地址为,一台作为slave,ip地址为,修改两台机器的/etc/hosts文件,设置节点之间无密码SSH登陆验证配置SSH是否正确修改集群配置文件修改master的masters、slaves,修改所有节点的core-site.*ml,hdsf-site.*ml,mapred-site.*ml,在此不一一列出。在master上格式化HDFS启动和停顿集群启动集群,在master上启动HDFS后,jps结果如下:masterslave在master上启动mapreduce后,jps结果如下:masterslave停顿集群6、运行程序1.在单机上运行程序在Eclipse下,新建map/reduce工程新建一个java类UserNameCount,编写代码运行程序,结果如下:在eclipse中编译好源代码后,导出程序的jar包,供在集群上使用。2.在集群上运行程序启动集群,通过jps命令查看master,slave上启动的效劳列表,结果如下:在集群环境下运行该程序jar包〔UserNameCount.jar〕,结果如下:查看集群环境下启动程序生成的结果,即output文件,结果如下:数据统计结果在part-r-00000中,具体内容如下,7、源代码:packagehadoop;importjava.io.IOE*ception;importjava.util.StringTokenizer;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.io.IntWritable;importorg.apache.hadoop.io.LongWritable;importorg.apache.hadoop.io.Te*t;importorg.apache.hadoop.mapreduce.Job;importorg.apache.hadoop.mapreduce.Mapper;importorg.apache.hadoop.mapreduce.Reducer;importorg.apache.hadoop.mapreduce.lib.input.FileInputFormat;importorg.apache.hadoop.mapreduce.lib.input.Te*tInputFormat;importorg.apache.hadoop.mapreduce.lib.output.FileOutputFormat;importorg.apache.hadoop.mapreduce.lib.output.Te*tOutputFormat;publicclassUserNameCount{publicstaticclassUserNameCountMape*tendsMapper<LongWritable,Te*t,Te*t,IntWritable>{privatefinalIntWritableone=newIntWritable(1);privateTe*tword=newTe*t();publicvoidmap(LongWritablekey,Te*tvalue,Conte*tconte*t)throwsIOE*ception,InterruptedE*ception{Stringline=value.toString();StringTokenizertoken=newStringTokenizer(line);while(token.hasMoreTokens()){word.set(token.ne*tToken());conte*t.write(word,one); } } }publicstaticclassUserNameCountReducee*tendsReducer<

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论