基于PC平台的AR系统技术14讲课件_第1页
基于PC平台的AR系统技术14讲课件_第2页
基于PC平台的AR系统技术14讲课件_第3页
基于PC平台的AR系统技术14讲课件_第4页
基于PC平台的AR系统技术14讲课件_第5页
已阅读5页,还剩93页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

基于PC平台的AR系统关键技术研究和基于VR培训系统开发基于PC平台的AR系统关键技术研究和基于VR培训系统开发1基于PC平台的AR系统关键技术研究

基于VR培训系统开发基于PC平台的AR系统关键技术研究2基于PC平台的AR系统关键技术研究系统总体结构实时跟踪系统多通道交互技术场景融合技术AR开发平台Illusion虚拟物体制作和头盔显示虚拟魔幻屋的设计与实现基于PC平台的AR系统关键技术研究系统总体结构3系统总体结构实时跟踪系统多通道交互场景融合AR开发平台Illusion显示部分系统总体结构实时跟踪系统多通道交互场景融合AR开发平台I4实时跟踪系统在AR系统中,实现虚拟信息和真实信息无缝集成要解决系统的静态和动态错误:解决静态错误所采用的技术方案解决动态错误所采用的技术方案实时跟踪系统在AR系统中,实现虚拟信息和真实信息无缝集5静态错误解决方案基于计算机视觉理论的实时跟踪技术和跟踪系统的实现实时的、较好精度和鲁棒的动态定位计算模块简便的、自动的、高精度和鲁棒的摄像头定标技术多目视觉跟踪系统的设计原则和安装措施返回静态错误解决方案基于计算机视觉理论的实时跟踪技术和跟踪系统6动态错误解决方案人工标志的设计针对标志的图像跟踪算法基于并行机制的实时图像处理技术基于并行机制的实时图像绘制技术基于PC平台的实时、高性能的图形数据显示管理系统动态错误解决方案人工标志的设计7两节点视觉跟踪系统两节点跟踪系统基本结构两节点视觉跟踪系统两节点跟踪系统基本结构8跟踪标志的设计所有的图案点共面;每个圆点的半径相同;相邻圆点的圆心上下左右的距离相等;其中边缘两组点的圆心分别共线,并且这两条线互相垂直;点的颜色为白色,背底为黑色;跟踪标志的设计所有的图案点共面;9人工特征点提取和匹配算法原始图像二值化图像候选特征连通域4,523候选特征点及其中心坐标特征点图像中基本点阵特征点的中心图像坐标和排列次序,扩展点阵特征点的中心图像坐标标准图像中扩展点阵中点的中心图像坐标和排列次序完成目标的识别6711阀值分割2种子填充3形状限制4求解几何中心5几何约束处理6透视变换7特征映射人工特征点提取和匹配算法原始图像二值化图像候选特征连通域4,10人工标志的空间姿态重建Zc1[u1,v1,1]T=M1[x,y,z,1]TZc2[u2,v2,1]T=M2[x,y,z,1]T单个人工标志物的跟踪和三维重建左图像右图像重建结果人工标志的空间姿态重建Zc1[u1,v1,1]T11多目视觉系统由于两个摄像头的有效跟踪范围有限,可采用多摄像头阵列的多目跟踪技术和姿态重建,本发明中采用了呈平面网格分布的多目立体视觉结构,每个摄像头的光轴垂直水平面,光心均匀的分布在网格点上,图中阴影部分为有效跟踪范围。在建立该多目视觉系统时,H为摄像头光心的安装高度,h为稳定的跟踪区域的高度,一般情况下,摄像头的两个方向的视角不同,设β>α;为保证各个方向稳定的跟踪区域的高度h相等,网格的间距d1、d2应满足一定的约束;如下式所示:

在实际安装多目立体视觉系统时,考虑到摄像头的参数和方向不可能完全一致,为保证稳定的跟踪区域的高度h,加入修正因子△h,可按下面两式的计算d1、d2。多目视觉系统由于两个摄像头的有效跟踪范围有限,可采用多摄像头12多目视觉系统构架多目视觉系统构架13多通道交互技术视觉通道AR系统通过视觉通道产生以用户本人为视点的包括各种景物和运动目标的场景,人通过头盔显示器(HMD)等立体显示设备进行观察。听觉通道在AR系统中加入三维虚拟声音,可以增强用户在虚拟环境中的沉浸感和交互性。项目中采用DirectSound技术完成了背景音乐、音效的三维声音定位。力反馈在本项目AR系统中,由引入力反馈,通过力学反馈操纵杆,让用户对增强现实环境有了一种“看得见摸得着”的感觉。用户的输入多通道交互技术视觉通道14零训练的语音识别系统目前环绕语言技术的另一个领域就是如何把现有的语音识别技术应用到各个领域,让增强现实环境理解人的语言,可以提高人机交互的自然性。本项目中采用SparkSDK开发工具包,无须进行语音训练,即可识别定义好的语音命令,并与Internet控制技术相结合,实现了增强现实环境的交互。系统的结构如下图所示:零训练的语音识别系统目前环绕语言技术的另一个领域就是如15场景融合技术坐标转换真实场景视频采集真实摄像头参数求解摄像头标定和校正虚拟摄像头校正虚实融合场景融合技术坐标转换16坐标转换返回坐标转换返回17真实场景视频采集

我们使用DirectShow构架的软件模块,通过视频采集卡采集外部视频信号。这个软件模块的滤镜图如下:返回真实场景视频采集我们使用DirectShow构架的软件模18真实摄像头参数求解方法摄像头模型标定算法畸变校正算法焦距、视角的计算返回真实摄像头参数求解方法摄像头模型返回19AR开发平台IllusionAR开发平台Illusion的任务是完成AR项目所需要的实时图形显示和交互功能。AR项目需要实现的图形功能是真实场景数据和虚拟场景数据融合并显示,融合后场景的内容能够通过各种已知或者未知的方式进行交互,支持特效的扩展,支持动画,支持故事线等。AR开发平台Illusion具有以下特征:管理扩展模块的能力采用OpenInventor的显示机能支持视频融合分层式软件结构:采用核心层、扩展层和应用层三层结构,从而可实现灵活的模块化管理、开放的扩展体系AR开发平台IllusionAR开发平台Illusio20AR开发平台Illusion模块化结构

系统核心主要由DM,FM,IM三大模块组成;AR核心系统功能框图如下:Illisionworkspace:COREDMFMIMDOC/VIEWFRAMEWNDIllision.dll功能管理MAP*.dll数据管理MAPAR开发平台Illusion模块化结构系统核心主要由DM,21模块划分Studio(用于构造基础模块)

iCom提供基于DirectPlay的通讯功能;iCore提供基础的模块和数据管理功能;iDeform提供变形计算,用于支持顶点动画;Illusion提供应用程序载体。Plugin(用于构造扩展模块)

Animation提供具体的动画实现Camera模块提供Camera控制功能GA、VA模块实现了具体的刚体动画(GA)、顶点动画(VA)数据操作Illusion模块提供了基础启动管理功能,决定了整个系统的启动配置Video模块实现的是视频捕捉,至于捕捉以后的数据如何使用则是由iCore模块决定的模块划分Studio(用于构造基础模块)22三维虚拟物体的制作AR系统中包括虚实两方面的数据,虚拟的数据就是必须创造一个虚拟环境,这个虚拟环境包括三维模型、三维声音等,在这些要素中,因为在人的感觉中,视觉摄取的信息量最大,反应亦最为灵敏,所以创造一个逼真而又合理的模型,并且能够实时动态地显示是最重要的。虚拟现实系统构建的很大一部分工作也是建造逼真合适的三维模型。三维虚拟物体的制作AR系统中包括虚实两方面的数据,虚拟的数据23三维虚拟物体的制作虚拟场景的构造主要有以下途径:基于模型的构造方法:(1)多边形建模;(2)NURBS建模;(3)细分曲面技术;基于图像的绘制(IBR)三维虚拟物体的制作虚拟场景的构造主要有以下途径:24增强现实中虚拟物体的创建技术为了充分利用发挥艺术创作人员的创造力,允许他们利用熟悉的主流三维建模工具3DMax进行虚拟场景和物体进行建模,然后利用开发的专用转换插件实现三维虚拟物体的导出,并AR系统中加以利用,可以大大加快系统的开发进程。本系统中的三维模型利用3DMAX制作、导出,然后在Illusion平台进行调整和显示,整个制作流程包括如下4个部分:物体造型材质纹理动画制作合成导出增强现实中虚拟物体的创建技术为了充分利用发挥艺术创作人员的25增强现实显示系统Monitor-based增强现实显示系统光学透视式(OpticalSee-through)增强现实显示系统视频透视式(VideoSee-through)增强现实显示系统增强现实显示系统Monitor-based增强现实显示系统26返回Monitor-based增强现实系统返回Monitor-based增强现实系统27返回光学透视式增强现实系统返回光学透视式增强现实系统28返回视频透视式增强现实系统返回视频透视式增强现实系统29头盔显示系统(I)本项目采用视频透视式头盔显示系统,为了实现良好的沉浸感,必须实现基于头盔双通道的立体显示技术。由于头盔具有两个微型液晶显示器,可以同时显示左右眼的图像,为了能够将增强场景立体显示出来,需要完成真实场景的立体视频采集和虚拟场景的立体渲染后,进行场景融合如下图所示。头盔显示系统(I)本项目采用视频透视式头盔显示系统,为了实现30

31采用微软公司(Microsoft)DirectShow的滤镜(Filter)技术与多线程技术的双通道视频数据采集。由于实时视频数据量很大,同时为了兼容多种不同的视频捕捉卡,所以采集视频数据时采用了滤镜技术,双通道的视频数据采集在两线程中分别进行,采集到的视频数据保存在两个视频缓冲区中,利用线程同步机制来保证采集的视频数据的同步,从而实现双通道视频数据的采集。这样有效地利用了CPU的资源,提高了系统的实时性,可在一般PC上实现。立体视频采集采用微软公司(Microsoft)DirectShow的滤镜32虚拟场景的立体渲染基于OpenInventor的立体渲染立体渲染有两种方式:旋转相机:该方法存在丢失集合一致性的问题:当两个摄像机旋转时,他们的投影轴就不同了。于是就会出现两种情况:由于两个视点的Z轴次序出现微小的差异,在两个视图中,形状方向就不能保持一致。该方法还要求当场景中的观察位置变化时,立体焦点也能一直变化。平移相机:该方法解决了上述问题,无扭曲实现所需的立体效果。通过增加与降低视景体的非对称,场景将相对屏幕发生移动。虚拟场景的立体渲染基于OpenInventor的立体渲染33基于PC平台的AR系统技术14讲课件34虚拟魔幻屋的设计与实现

虚拟魔幻屋是一个本项目研究成果的综合体现,结构图如下:虚拟魔幻屋的设计与实现虚拟魔幻屋是一个本项目研究成果35基于VR培训系统开发三维可视化驱动系统虚拟控制系统工程分析子系统结构基于VR培训系统开发三维可视化驱动系统36SHU-虚拟机床系统虚拟机床由虚拟控制系统、三维可视化驱动系统构成、机床结构建模和运动学分析共同构成,其功能结构图如下:SHU-虚拟机床系统虚拟机床由虚拟控制系统、三维可视化驱动系37三维可视化驱动系统

包括了场景绘制模块、机床装配模块、机床模型导入模块、切削仿真模块、人机交互模块、网络通信模块等六个模块。其中,网络通信模块与虚拟数控系统进行通信,将操作指令传送给切削仿真模块;场景绘制模块负责图形场景的渲染,根据导入的机床模型与切削仿真、装配仿真的结果事实绘出制虚拟车床;人机交互模块则使操作者可以通过三位鼠标与立体眼镜等交互设备对虚拟车床场景进行漫游。三维可视化驱动系统包括了场景绘制模块、机床装配模块、机床模38仿真系统的基本数据结构仿真系统的基本数据结构39虚拟控制系统本系统是仿上海开通数控的KT590-T控制系统而设计的虚拟数控系统。其可用于紧凑型机床的微处理器控制CNC连续轨迹控制系统。本虚拟数控系统是将KT590—T实现于PC平台上,并且通过网络将实时插补的数据输送基于OpenGL开发平台的虚拟机床上,实现对加工过程的仿真,功能模块选择示意如下图。虚拟控制系统本系统是仿上海开通数控的KT590-T控制系统而40工程分析子系统

包括数据读入模块、计算模块和可视化模块。通过将工程分析的参考数据读入系统,应用结点的参考数据或计算公式计算出工程分析结果,最后将工程分析结果采用可视化的手段表现出来。数据读入模块将工程分析的参考数据读入系统。参考数据是仿真图形结点的参考数据,他们是计算出结点的工程分析结果的基础。计算模块应用结点的参考数据或计算公式计算出工程分析结果。其中,工件的变形采用推导出的解析式可以直接求出,刀具的工程分析结果则需通过图形结点的参考值,结合插值等算法计算得出。可视化模块将工程分析结果采用可视化的手段表现出来。工件的变形通过轴线位移表示,刀具的工程分析结果则通过颜色的予以深浅反映。工程分析子系统包括数据读入模块、计算模块和可视化模块。通过41工程分析部分的基本数据结构工程分析部分的基本数据结构42采用的关键技术

虚拟机床的控制系统

系统集成及三维驱动采用的关键技术三维鼠标应用中采用的关键技术切削过程仿真的关键技术工程分析关键技术

采用的关键技术虚拟机床的控制系统43软数控系统解决的关键问题直线差补圆弧差补软数控通讯协议软数控系统解决的关键问题直线差补44系统集成及三维驱动解决的关键问题车床模型的导入机床装配过程描述语言的设计(V代码);机床装配仿真与场景绘制模块的接口。系统集成及三维驱动解决的关键问题车床模型的导入45三维鼠标技术三维鼠标是一款真正的三维输入设备,它能够监测到手指施加其上的最轻微的力,并将其分解成,X,Y,Z的平移与转动,同步即时地操作3D图形。在操作三维图形或对象时,提供了良好的六自由度的交互控制。用户即能够通过三维鼠标控制机床的平移与旋转运动,也可以使用三维鼠标的视点控制,浏览整个场景。三维鼠标技术三维鼠标是一款真正的三维输入设备,它能够监测到46切削过程仿真的关键技术运动参数的整理切削过程图形算法算法思想、工件分段、刀具位置表达、切削后的工件变化、切削量(切削厚度)的计算铁屑产生和运动状态描述算法铁屑的生成、铁屑运动切削过程仿真的关键技术运动参数的整理47工程分析关键技术

切削力模型的建立切削用量的计算、切削力的描述、切削力的近似公式、刀具的几何角度对切削力的影响切削用量对刀尖切削温度的影响

切削速度、进给量、背吃刀量工件的应力和应变分析

不同网格下的有限元数据转换算法

4结点四面体单元、10结点四面体单元返回工程分析关键技术切削力模型的建立返回48基于PC平台的AR系统技术14讲课件49基于PC平台的AR系统关键技术研究和基于VR培训系统开发基于PC平台的AR系统关键技术研究和基于VR培训系统开发50基于PC平台的AR系统关键技术研究

基于VR培训系统开发基于PC平台的AR系统关键技术研究51基于PC平台的AR系统关键技术研究系统总体结构实时跟踪系统多通道交互技术场景融合技术AR开发平台Illusion虚拟物体制作和头盔显示虚拟魔幻屋的设计与实现基于PC平台的AR系统关键技术研究系统总体结构52系统总体结构实时跟踪系统多通道交互场景融合AR开发平台Illusion显示部分系统总体结构实时跟踪系统多通道交互场景融合AR开发平台I53实时跟踪系统在AR系统中,实现虚拟信息和真实信息无缝集成要解决系统的静态和动态错误:解决静态错误所采用的技术方案解决动态错误所采用的技术方案实时跟踪系统在AR系统中,实现虚拟信息和真实信息无缝集54静态错误解决方案基于计算机视觉理论的实时跟踪技术和跟踪系统的实现实时的、较好精度和鲁棒的动态定位计算模块简便的、自动的、高精度和鲁棒的摄像头定标技术多目视觉跟踪系统的设计原则和安装措施返回静态错误解决方案基于计算机视觉理论的实时跟踪技术和跟踪系统55动态错误解决方案人工标志的设计针对标志的图像跟踪算法基于并行机制的实时图像处理技术基于并行机制的实时图像绘制技术基于PC平台的实时、高性能的图形数据显示管理系统动态错误解决方案人工标志的设计56两节点视觉跟踪系统两节点跟踪系统基本结构两节点视觉跟踪系统两节点跟踪系统基本结构57跟踪标志的设计所有的图案点共面;每个圆点的半径相同;相邻圆点的圆心上下左右的距离相等;其中边缘两组点的圆心分别共线,并且这两条线互相垂直;点的颜色为白色,背底为黑色;跟踪标志的设计所有的图案点共面;58人工特征点提取和匹配算法原始图像二值化图像候选特征连通域4,523候选特征点及其中心坐标特征点图像中基本点阵特征点的中心图像坐标和排列次序,扩展点阵特征点的中心图像坐标标准图像中扩展点阵中点的中心图像坐标和排列次序完成目标的识别6711阀值分割2种子填充3形状限制4求解几何中心5几何约束处理6透视变换7特征映射人工特征点提取和匹配算法原始图像二值化图像候选特征连通域4,59人工标志的空间姿态重建Zc1[u1,v1,1]T=M1[x,y,z,1]TZc2[u2,v2,1]T=M2[x,y,z,1]T单个人工标志物的跟踪和三维重建左图像右图像重建结果人工标志的空间姿态重建Zc1[u1,v1,1]T60多目视觉系统由于两个摄像头的有效跟踪范围有限,可采用多摄像头阵列的多目跟踪技术和姿态重建,本发明中采用了呈平面网格分布的多目立体视觉结构,每个摄像头的光轴垂直水平面,光心均匀的分布在网格点上,图中阴影部分为有效跟踪范围。在建立该多目视觉系统时,H为摄像头光心的安装高度,h为稳定的跟踪区域的高度,一般情况下,摄像头的两个方向的视角不同,设β>α;为保证各个方向稳定的跟踪区域的高度h相等,网格的间距d1、d2应满足一定的约束;如下式所示:

在实际安装多目立体视觉系统时,考虑到摄像头的参数和方向不可能完全一致,为保证稳定的跟踪区域的高度h,加入修正因子△h,可按下面两式的计算d1、d2。多目视觉系统由于两个摄像头的有效跟踪范围有限,可采用多摄像头61多目视觉系统构架多目视觉系统构架62多通道交互技术视觉通道AR系统通过视觉通道产生以用户本人为视点的包括各种景物和运动目标的场景,人通过头盔显示器(HMD)等立体显示设备进行观察。听觉通道在AR系统中加入三维虚拟声音,可以增强用户在虚拟环境中的沉浸感和交互性。项目中采用DirectSound技术完成了背景音乐、音效的三维声音定位。力反馈在本项目AR系统中,由引入力反馈,通过力学反馈操纵杆,让用户对增强现实环境有了一种“看得见摸得着”的感觉。用户的输入多通道交互技术视觉通道63零训练的语音识别系统目前环绕语言技术的另一个领域就是如何把现有的语音识别技术应用到各个领域,让增强现实环境理解人的语言,可以提高人机交互的自然性。本项目中采用SparkSDK开发工具包,无须进行语音训练,即可识别定义好的语音命令,并与Internet控制技术相结合,实现了增强现实环境的交互。系统的结构如下图所示:零训练的语音识别系统目前环绕语言技术的另一个领域就是如64场景融合技术坐标转换真实场景视频采集真实摄像头参数求解摄像头标定和校正虚拟摄像头校正虚实融合场景融合技术坐标转换65坐标转换返回坐标转换返回66真实场景视频采集

我们使用DirectShow构架的软件模块,通过视频采集卡采集外部视频信号。这个软件模块的滤镜图如下:返回真实场景视频采集我们使用DirectShow构架的软件模67真实摄像头参数求解方法摄像头模型标定算法畸变校正算法焦距、视角的计算返回真实摄像头参数求解方法摄像头模型返回68AR开发平台IllusionAR开发平台Illusion的任务是完成AR项目所需要的实时图形显示和交互功能。AR项目需要实现的图形功能是真实场景数据和虚拟场景数据融合并显示,融合后场景的内容能够通过各种已知或者未知的方式进行交互,支持特效的扩展,支持动画,支持故事线等。AR开发平台Illusion具有以下特征:管理扩展模块的能力采用OpenInventor的显示机能支持视频融合分层式软件结构:采用核心层、扩展层和应用层三层结构,从而可实现灵活的模块化管理、开放的扩展体系AR开发平台IllusionAR开发平台Illusio69AR开发平台Illusion模块化结构

系统核心主要由DM,FM,IM三大模块组成;AR核心系统功能框图如下:Illisionworkspace:COREDMFMIMDOC/VIEWFRAMEWNDIllision.dll功能管理MAP*.dll数据管理MAPAR开发平台Illusion模块化结构系统核心主要由DM,70模块划分Studio(用于构造基础模块)

iCom提供基于DirectPlay的通讯功能;iCore提供基础的模块和数据管理功能;iDeform提供变形计算,用于支持顶点动画;Illusion提供应用程序载体。Plugin(用于构造扩展模块)

Animation提供具体的动画实现Camera模块提供Camera控制功能GA、VA模块实现了具体的刚体动画(GA)、顶点动画(VA)数据操作Illusion模块提供了基础启动管理功能,决定了整个系统的启动配置Video模块实现的是视频捕捉,至于捕捉以后的数据如何使用则是由iCore模块决定的模块划分Studio(用于构造基础模块)71三维虚拟物体的制作AR系统中包括虚实两方面的数据,虚拟的数据就是必须创造一个虚拟环境,这个虚拟环境包括三维模型、三维声音等,在这些要素中,因为在人的感觉中,视觉摄取的信息量最大,反应亦最为灵敏,所以创造一个逼真而又合理的模型,并且能够实时动态地显示是最重要的。虚拟现实系统构建的很大一部分工作也是建造逼真合适的三维模型。三维虚拟物体的制作AR系统中包括虚实两方面的数据,虚拟的数据72三维虚拟物体的制作虚拟场景的构造主要有以下途径:基于模型的构造方法:(1)多边形建模;(2)NURBS建模;(3)细分曲面技术;基于图像的绘制(IBR)三维虚拟物体的制作虚拟场景的构造主要有以下途径:73增强现实中虚拟物体的创建技术为了充分利用发挥艺术创作人员的创造力,允许他们利用熟悉的主流三维建模工具3DMax进行虚拟场景和物体进行建模,然后利用开发的专用转换插件实现三维虚拟物体的导出,并AR系统中加以利用,可以大大加快系统的开发进程。本系统中的三维模型利用3DMAX制作、导出,然后在Illusion平台进行调整和显示,整个制作流程包括如下4个部分:物体造型材质纹理动画制作合成导出增强现实中虚拟物体的创建技术为了充分利用发挥艺术创作人员的74增强现实显示系统Monitor-based增强现实显示系统光学透视式(OpticalSee-through)增强现实显示系统视频透视式(VideoSee-through)增强现实显示系统增强现实显示系统Monitor-based增强现实显示系统75返回Monitor-based增强现实系统返回Monitor-based增强现实系统76返回光学透视式增强现实系统返回光学透视式增强现实系统77返回视频透视式增强现实系统返回视频透视式增强现实系统78头盔显示系统(I)本项目采用视频透视式头盔显示系统,为了实现良好的沉浸感,必须实现基于头盔双通道的立体显示技术。由于头盔具有两个微型液晶显示器,可以同时显示左右眼的图像,为了能够将增强场景立体显示出来,需要完成真实场景的立体视频采集和虚拟场景的立体渲染后,进行场景融合如下图所示。头盔显示系统(I)本项目采用视频透视式头盔显示系统,为了实现79

80采用微软公司(Microsoft)DirectShow的滤镜(Filter)技术与多线程技术的双通道视频数据采集。由于实时视频数据量很大,同时为了兼容多种不同的视频捕捉卡,所以采集视频数据时采用了滤镜技术,双通道的视频数据采集在两线程中分别进行,采集到的视频数据保存在两个视频缓冲区中,利用线程同步机制来保证采集的视频数据的同步,从而实现双通道视频数据的采集。这样有效地利用了CPU的资源,提高了系统的实时性,可在一般PC上实现。立体视频采集采用微软公司(Microsoft)DirectShow的滤镜81虚拟场景的立体渲染基于OpenInventor的立体渲染立体渲染有两种方式:旋转相机:该方法存在丢失集合一致性的问题:当两个摄像机旋转时,他们的投影轴就不同了。于是就会出现两种情况:由于两个视点的Z轴次序出现微小的差异,在两个视图中,形状方向就不能保持一致。该方法还要求当场景中的观察位置变化时,立体焦点也能一直变化。平移相机:该方法解决了上述问题,无扭曲实现所需的立体效果。通过增加与降低视景体的非对称,场景将相对屏幕发生移动。虚拟场景的立体渲染基于OpenInventor的立体渲染82基于PC平台的AR系统技术14讲课件83虚拟魔幻屋的设计与实现

虚拟魔幻屋是一个本项目研究成果的综合体现,结构图如下:虚拟魔幻屋的设计与实现虚拟魔幻屋是一个本项目研究成果84基于VR培训系统开发三维可视化驱动系统虚拟控制系统工程分析子系统结构基于VR培训系统开发三维可视化驱动系统85SHU-虚拟机床系统虚拟机床由虚拟控制系统、三维可视化驱动系统构成、机床结构建模和运动学分析共同构成,其功能结构图如下:SHU-虚拟机床系统虚拟机床由虚拟控制系统、三维可视化驱动系86三维可视化驱动系统

包括了场景绘制模块、机床装配模块、机床模型导入模块、切削仿真模块、人机交互模块、网络通信模块等六个模块。其中,网络通信模块与虚拟数控系统进行通信,将操作指令传送给切削仿真模块;场景绘制模块负责图形场景的渲染,根据导入的机床模型与切削仿真、装配仿真的结果事实绘出制虚拟车床;人机交互模块则使操作者可以通过三位鼠标与立体眼镜等交互设备对虚拟车床场景进行漫游。三维可视化驱动系统包括了场景绘制模块、机床装配模块、机床模87仿真系统的基本数据结构仿真系统的基本数据结构88虚拟控制系统本系统是仿上海开通数控的KT590-T控制系统而设计的虚拟数控系统。其可用于紧凑型机

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论