MPI综合实验报告_第1页
MPI综合实验报告_第2页
MPI综合实验报告_第3页
MPI综合实验报告_第4页
MPI综合实验报告_第5页
已阅读5页,还剩7页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、精选优质文档-倾情为你奉上MPI综合实验报告 目前三次MPI实验已经结束,结合之前所写的实验报告,对总体的实验内容做一个总结。参考资料:MPI简介多线程是一种便捷的模型,其中每个线程都可以访问其它线程的存储空间。因此,这种模型只能在共享存储系统之间移植。一般来讲,并行机不一定在各处理器之间共享存储,当面向非共享存储系统开发并行程序时,程序的各部分之间通过来回传递消息的方式通信。要使得消息传递方式可移植,就需要采用标准的消息传递库。这就促成的消息传递接口(Message Passing Interface, MPI)的面世,MPI是一种被广泛采用的消息传递标准1。与OpenMP并行程序不同,MP

2、I是一种基于消息传递的并行编程技术。消息传递接口是一种编程接口标准,而不是一种具体的编程语言。简而言之,MPI标准定义了一组具有可移植性的编程接口。各个厂商或组织遵循这些标准实现自己的MPI软件包,典型的实现包括开放源代码的MPICH、LAM MPI以及不开放源代码的Intel MPI。由于MPI提供了统一的编程接口,程序员只需要设计好并行算法,使用相应的MPI库就可以实现基于消息传递的并行计算。MPI支持多种操作系统,包括大多数的类UNIX和Windows系统。三次实验总结第一次实验:实验要求:配置好MPI运行的基本环境,测试MPI的基本通信程序。程序:#include "stda

3、fx.h"#include <mpi.h>void main( void ) MPI_Status status; char string="xxxxx" int myid; MPI_Init(NULL,NULL); MPI_Comm_rank(MPI_COMM_WORLD,&myid); if(myid=2) MPI_Send("HELLO",5,MPI_CHAR,7,1234,MPI_COMM_WORLD); if(myid=7) MPI_Recv(string,5,MPI_CHAR,2,MPI_ANY_TAG,MPI_

4、COMM_WORLD,&status); printf("Got %s from P%d,tag %dn",string,status,status.MPI_SOURCE,status.MPI_TAG); MPI_Finalize();运行环境配置过程:(这个是在根据网上的环境配置教程做的)1、 安装软件MPICH2,本次操作安装在C:Program FilesMPICH2文件夹中。2、 打开安装好的MPICH2目录,打开bin文件夹中的wmpiregister.exe文件,进行注册。填入本机的用户名和密码。3、 建立一个控制台应用程序空文档,MY MPI,输入程序

5、4、添加库和包含文件打开Tool->Options对话框选择项目和解决方案下的VC+目录一栏,如下图所示:分别添加包含文件C:Program FilesMPICH2include和库文件C:Program FilesMPICH2lib5、 取消预编译头打开Project->Property,设置框如下图所示展开C/C+项,选择与编译头,在创建/使用预编译头中选择 :不使用预编译头6、打开Project->Property,设置框如下图所示将配置属性中的常规项中的字符集设置成未设置展开连接器中输入项,在附件依赖项中添加mpi.lib7、 自定义多线程运行打开MPICH2安装目录

6、显得mpiexec.exe装入运行产生的.exe文件并选择线程数,运行结果如下图所示第二次实验实验要求:MPI实验第二部分1. 了解计算粒度、问题规模(计算负载)、并行程度概念;2. 测试基于MPI的Pi并行计算程序;3. 完成实验报告(MPI程序代码、运行结果截屏、实验分析总结)在这次的实验过程中,我们的程序是通过数值方法计算 的值来观察运行时间。程序:#include "stdafx.h"#include <stdio.h>#include "mpi.h"static long num_steps = ; void main(int ar

7、gc, char* argv) int i_start, i_end, i, myid, numprocs; double pi, mypi, x, step, sum = 0.0; double start, end; MPI_Init(&argc, &argv); MPI_Comm_size(MPI_COMM_WORLD, &numprocs); MPI_Comm_rank(MPI_COMM_WORLD, &myid); if(myid = 0) start = MPI_Wtime(); MPI_Bcast(&num_steps, 1, MPI_IN

8、T, 0, MPI_COMM_WORLD); i_start = myid * (num_steps / numprocs); i_end = i_start + (num_steps / numprocs); step = 1.0 / (double) num_steps; for( i = i_start; i < i_end; i+) x = (i + 0.5) * step; sum = sum + 4.0 / (1.0 + x * x); mypi = step * sum; MPI_Reduce(&mypi, &pi, 1, MPI_DOUBLE, MPI_S

9、UM, 0, MPI_COMM_WORLD);if(myid = 0) printf("Pi = %fn", pi);end = MPI_Wtime();printf("Run time is : %.10fn", end - start);fflush(stdout);MPI_Finalize();实验原理:利用公式PI的近似值计算圆周率7,定积分的计算可以转化为求一个曲边梯形的面积问题。将积分区间等分成n个小的子区间,可将每个小的子区间上的曲边梯形近似地看成矩形,这些矩形面积的和就近似地等于原来曲边梯形的面积。这样最终将求圆周率的问题转化成了一个面积

10、迭加的计算。 当进程数为2时,运算时间很小,要比进程数为1时时间要短,说明该情况下,多进程的运行效率要比单进程高。然后,我使用了几台计算机在同一局域网之下构成了集群计算机系统,采用非共享内存方式利用多进程完成任务。在两台机器构成的集群计算机系统之下,我分别测了多组进程之下并行计算的时间比较,运算结果如下所示:做表格比较之:进程数1481216运行时间0.0.0.0.0.结果分析:因为计算规模较小,集群计算机系统并行多进程计算并不能很明显的表现出计算优势。反而,经过验证,在较大规模计算量之下,集群计算机系统的计算速度优越性得到明显展现。第三次实验实验要求:1. 理解同步(synchronous)

11、计算和同步路障(barrier)2. 测试基于MPI_Barrier()的并行程序3. 完成实验报告(MPI程序代码、运行结果截屏、实验分析总结)程序:#include "stdafx.h"#include <stdio.h>#include "mpi.h"int main(int argc, char* argv) int taskid, ntasks; int ierr;MPI_Init(&argc, &argv);MPI_Comm_rank(MPI_COMM_WORLD, &taskid);MPI_Comm_si

12、ze(MPI_COMM_WORLD, &ntasks);if(taskid = 0) printf("nnnnnn"); ierr = MPI_Barrier(MPI_COMM_WORLD);if(taskid = 0) printf("Hel"); fflush(stdout);if(taskid = 1) printf("lo "); fflush(stdout);if(taskid = 2) printf("Wor"); fflush(stdout);if(taskid = 3) printf(&qu

13、ot;ld!"); fflush(stdout);ierr = MPI_Barrier(MPI_COMM_WORLD);if(taskid = 0) printf(" (Unordered)n"); fflush(stdout);if(taskid = 0) printf("Hel"); fflush(stdout);ierr = MPI_Barrier(MPI_COMM_WORLD);if(taskid = 1) printf("lo "); fflush(stdout);ierr = MPI_Barrier(MPI_CO

14、MM_WORLD);if(taskid = 2) printf("Wor"); fflush(stdout);ierr = MPI_Barrier(MPI_COMM_WORLD);if(taskid = 3) printf("ld!"); fflush(stdout);ierr = MPI_Barrier(MPI_COMM_WORLD);if(taskid = 0) printf(" (Ordered)nnnnn"); MPI_Finalize();return 0;实验原理:同步计算和同步路障Barriers:Blocks unti

15、l all processes in the communicator have reached this routine.A point at which all processes must wait until all other processes have reached that point.Synchronous & Barrier:In a fully synchronous application, all the processes synchronized at a regular points.实验结果截屏:结果分析:如果大于等于4个进程的话,输出的语句就是顺序的,正常的,但是如果进程数目小于4,由于同步路障的存在,只有当所有进程到来之时才会被同步,这样由于进程数小于要求进程数,所以同步会出现问题,所以输出的语句会出现乱码。MPI实验总结通过这次实验,我们对MPI有了一个初步了解。MPI是一种基于消息传递

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论