云计算虚拟化hadoop实验报告_第1页
云计算虚拟化hadoop实验报告_第2页
云计算虚拟化hadoop实验报告_第3页
已阅读5页,还剩2页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、四川大学计算机学院、软件学院实验报告学号:姓名:专业:班级:9 第15周课程 名称云计算与分布式系统实验课时6实验 项目在最终部署的 Hadoop上运行 WordCount程序实验时间2015年6月11日星期四实验 目的1. 首先通过Linux系统和KVM虚拟机的安装达成对Linux系统与虚拟机相关知识的了解和熟悉;2. 通过Linux下JAVA-ADT勺安装以及Hadoop的相关配置了解Hadoop的基础知识及基础的应用 方法;3. 通过多台主机的虚拟化以及 Hadoop的联合部者,在该平台上运行 WordCou nt程序,体验基本 的云计算的雏形应用并加深对云计算相关知识的了解。实验 环境

2、硬件环境:PC机软件环境:Ubuntu镜像,Linux镜像以及KVM虚拟机程序包实验背景1. 在云计算及其相关应用日益火爆的今天,我们通过课堂上老师讲述的云计算相关的基本知识, 已经对于利用Hadoop的配置实现一个较为简单的云计算环境有了一定的认识,因此,在本课程的期末设计中,我们采用 Linux下的Hadoop搭建来运行一些简单的程序比如 Wordcount来 达成对云计算的实现的基本知识的学习效果;2. 本实验中使用的是MapReduce勺编程模型,采用“分而治之”的基本思想,把对大规模数据集 的操作,分发给一个主节点管理下的各个分节点共同完成, 然后通过整合各个节点的中间结果, 得到最

3、终结果。简单地说,MapReduce就是"任务的分解与结果的汇总"3. 在Hadoop中,用于执行 Map Reduce任务的机器角色有两个:一个是 JobTracker ;另一个是 TaskTracker,JobTracker是用于调度工作的,TaskTracker是用于执行工作的。一个 Hadoop 集群中只有一台JobTracker ;4. 但是值得注意的一点是若要使用本实验中的 MapReduce来处理数据集(或任务),其必须具备 如下特点:待处理的数据集可以分解成许多小的数据集,而且每一个小数据集都可以完全并行实验内容(算 法、 程 序、 步骤 和方 法)地进行处

4、理。二、Linux及KVM虚拟机安装1. 首先我们找到比较常用的 Linux适用版本镜像文件,这里我们使用的是图形化做得非常好的 Ubuntu ,然后使用UltraISO做出一个启动盘并在电脑上做出一个双系统,分区大小我们参照网络上的建议将主分区目录设置为 20G成功做出一个Linux系统(这里我忘了截图了)装机的过程和下面的虚拟机装机是一样的。2. 然后我们在完成Linux下的基础软件安装的情况下进行程序的KVM虚拟机安装,首先使用如下指令:$ egrep -o '(vmx|svm)' /proc/cpuinfo检查Linux是否支持安装 KVM结果显示是可以安装的,于是我们

5、这里使用指令:$ apt-get in stallqemu-kvmlibvirt-b invirt-ma nagerbridge-utils 安装KVM虚拟机,安装过程是自动完成的,如下图所示:3. 经验证我们发现KVM是安装成功并且正常运行的,安装成功的验证指令为:# lsmod | grep kvm, 到这里KVM的安装就基本完成了。4. 然后我们需要在KVM上创建一个虚拟机,具体操作步骤如下:在根下创建images目录,在images下创建iso 和test 目录。5. 之后我们使用指令:virt-i nstall -n ame ubu ntutest -hvm -ram 1024 -v

6、cpus 1 -disk path=/images/test/,size=10 -n etwork n etwork:default -accelerate -vnc-vncport=5911 -cdrom /images/iso/- d创建虚拟机,至此我们基本完成了前期的基础性工作,操作流程图如下所示:虚拟机装机界面:6. 虚拟机创建完成之后还可以使用# virsh list- all指令验证虚拟机是否存在,以及# virshstart VMNAME指令启动虚拟机三、SSH的创建及使用首先创建Hadoop用户组,使用指令:$ sudo addgroup hadoop ,然后创建一个Hadoo

7、p用户,使用如下指令:$ sudo adduser -ingroup hadoop hadoop,并且为用户添加权限,使用如下指令:$ sudo gedit /etc/sudoers,操作截图如下所示:1.2. 然后我们使用新增加的Hadoop用户登录Ubuntu系统,之后我们使用指令sudo apt-getin stall ope nssh-server安装ssh,运行截图如下所示:3. ssh安装元成之后我们使用指令:sudo /etc/ssh start启动服务,并且使用指令 ps -e | grep ssh查看服务是否启动正确,程序运行截图如下所示:4. 然后我们设置免密码登录并生成公

8、钥和私钥,使用如下指令:ssh-keygen -t rsa -P "",程序运行截图如下所示:(接 上) 实验 内容(算 法、程 序、 步骤 和方 法)5. 此时会在/ home/hadoop/.ssh下生成两个文件:id_rsa和,前者为私钥,后者为公钥。下面我们将公钥追加到authorized_keys 中,它用户保存所有允许以当前用户身份登录到ssh客户端用户的公钥内容。cat /.ssh/ >> /.ssh/authorized_keys,程序截图如下所6. 最后我们使用指令:ssh localhost 来登录ssh,元成我们第一部分的前期准备工作,程序

9、截 图如下所示:四、JAVA环境变量配置1.我们使用指令:sudo即t-get in stall openjdk-7-jdk来获取并安装java的jdk,并使用指令:java - version来检测jdk是否安装成功,程序截图如下所示:五、安装Hadoop1. 首先从官网下载Hadoop的安装包,然后使用指令:sudo tar xzf 将hadoop解压,然后我们在命令窗口中输入指令:sudo mv /usr/local/hadoop拷贝到/usr/local/ 下,使用指令:sudochmod 774 /usr/local/hadoop获取文件读与权限,步骤截图如下所示:2. 然后我们需要

10、对/.bashrc文件进行配置,需要知道 JAVHOM环境变量,使用如下指令查询:update-alternatives - -config java,然后禾U用指令: sudo gedit /.bashrc打开文本编辑窗口,并如图所示编辑内谷,保存后关闭,执行指令:source /.bashrc使更改生效,步骤截图如下所示:3.最后我们进行目录为 /usr/local/hadoop/etc/hadoop/的文件更改,执行命令:sudo gedit/usr/local/hadoop/etc/hadoop/打开文本编辑窗口,如图所示修改文本内谷,保存后关闭,步骤截图如下所示:六、WordCou

11、nt实例测试1. 首先我们在/usr/local/hadoop路径下创建in put文件夹,使用指令:mkdir in put ,然后使用指令:cp in put将拷贝到in put文件夹下,步骤截图如下所示:2. 最后到现在我们已经基本头现了程序运行的初始化条件,然后我们输入如下指令:bin/hadoopjar share/hadoop/mapreduce/sources/ in put output完成程序的运行,运行截图如下所结 论 (结 果)由上图的实验记录以及截图过程可以看到,本次实验基本完成了老师的要求,成功安装linux 操作系统,在linux操作系统中成功安装KVM虚拟机,但是在KVMF在安装linux操作系统还存 在问题,安装遇到麻烦,并没有成功。成功安装JAVA环境以及hadoop,并成功执行了 hadoop下经典的WordCount程序,完成了老 师的要求。小结虽然只是安装,配置好hadoop的环境,但是在实验过程中,并不是想象的那么简单,还是遇 到了较大的问题。在安装kvm的时候,由于没有在操作系统里开虚拟机,所以造成了后面的命令 一直不能成功,在这里卡了很久。再后来查阅资料后,弄清楚了这些细节,才能完成后续的实验 安装操作。然后就是我找的教程上面的 wordcount部分是有错误的,导致很

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论