版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
【移动应用开发技术】简单谈谈GoogleARCore客户端
一、前言AR(AugmentedReality:增强现实)今年年初上的一部电影:《头号玩家》,就是一个虚拟游戏世界,模拟出了各种现实的感觉。当然,我个人的理解,头号玩家里面的场景我是划分为VR,大部分只是个虚拟现实,把人融入到虚拟的世界里面,而AR则是把虚拟的东西融入到现实的世界中来;咱们今天说的只是增强视觉方面,当然AR不仅仅只是增强视觉,包括听觉,触觉,味觉,嗅觉等等,使用虚拟的东西可以以更真实的姿态融入到我们现实的世界;二、AR的基础和核心思想简单介绍:1、在2D和3D空间中,跟踪用户的运动状态和运动轨迹,并最终定位它们的位置信息或者相对设备的位置信息比如之前的:支付宝AR红包,以及找宠物的那个游戏;ARCore工作时要做两件事情,首先跟踪手机的运动轨迹,然后构建出它对现实世界的理解,针对现实的理解,对现实的画像做一个定义,平面,曲面,物体;主要技术:1、运动跟踪:跟随摄像头视角成像的位置,进行位置捕获,ARCore使用称为并发测距和映射的过程来了解手机与周围环境的相对位置当手机在运动时,计算出手机相对真实世界所在的位置和方向,ARCore会检测捕获的摄像头图像中的视觉差异特征(称为特征点),并使用这些点来计算其位置变化;2、环境感知(环境理解):具体实现的功能其实就是检测平面,或者说主要功能是为了检测平面,这样可以现实环境中放置虚拟物体的时候位置相对合理,不会出现物体悬空,或者在斜面上仍然处于水平的姿态,水平面上防止虚拟物品出现倾斜状态等等;识别的时候,如果出现一种纯色,且上面没有任何物体的平面,平面没有任何纹理,这样是很难识别出来的;3、光线评估:ARCore能够判断和感知现实世界的光源位置,使虚拟物体能够形成相应方位的影子,从而增加虚拟物体在现实世界里的真实度。这个是其一,还有一种是为了,如果防止的物体本色就是一个颜色比较亮丽的,但是周围环境却比较暗淡,这种情况可以自动去调节物体的亮度(光强度);三、ARCore功能介绍1、云瞄点ArCore客户端:ARCore可以改变对自身位置和环境的理解来调整姿态。如我们要在ARCore环境中放置一个虚拟对象,首先要确定一个锚点,以确保ARCore能随着时间的推移不断跟踪对象的位置。连接到附近锚点的物体会在整个AR体验期间看起来更逼真,因为瞄点的定位可以使物体保持它们的位置和彼此之间的相对位置和姿势不需要再继续使用的额瞄点,及时废弃掉,有助于减少CPU的资源消耗;所以理论上:如果虚拟物体锚定到特定的可跟踪对象后,是可以确保虚拟物体与可跟踪对象之间的关系即使在设备移动时也能保持稳定(比如:瞄点定位平面成功后,调整了一下平面上的物体,增加或者减少物体,都不会影响虚拟物体相对平面的位置,仍然使虚拟物体看起来像是在这个平面上,但是,有一种情况,当我去移动这个平面的时候,或者翻转这个平面的时候,物体并没有跟随着平面而翻转)。云端:OK,这个东西实际上单机状态下是可以用ArCore独立完成,为啥它又叫做云瞄点呢,其实它里面存在一个数据共享的功能,简单说就是数据上传,某一台设备可以将锚点和附近的特征点发送到云端进行托管,上传后可以将这些锚点与同一环境中Android或iOS设备上的其他用户共享。这使应用可以渲染连接到这些锚点的相同3D对象,从而让不同的用户能够体验相同的AR效果;云锚点的数云端据具有以下存储和访问限制:托管锚点时上传至云端的原始视觉映射数据在七天后舍弃。锚点会根据存储的稀疏点图在服务器端解析。生成后,稀疏的点图可用于一天的云锚点解析请求。之前上传的映射数据永远不会发送至用户的设备。无法根据稀疏点图确定用户的地理位置或者重建任何图像或用户的物理环境。任何时候都不会存储请求中用于解析锚点的可视特征描述符。2、增强图像(在我看来,图片增强功能其实就是在图片识别技术上加上了图片位置定位功能而已)主要功能:提供一组图片,当摄像头捕捉到图片时,会返回图片的位置,可以做响应的处理和显示☆每个图像数据库可以存储最多1000张参考图像的特征点信息。☆ARCore可以在环境中同步跟踪最多20张图像,但无法跟踪同一图像的多个实例。☆环境中的物理图像必须至少为15cmx15cm且必须平坦(例如,不能起皱或卷绕在瓶子上)☆在物理图像被跟踪后,ARCore会提供对位置、方向和物理大小的估算。随着ARCore收集的数据增多,这些估算会持续优化。☆ARCore无法跟踪移动的图像,不过它可以在图像停止移动后继续跟踪。☆所有跟踪都在设备上完成,所以无需网络连接。可以在设备端或通过网络更新参考图像,无需应用更新。ArCoreSDK的tools目录下面有个arcoreimg.exe工具,这个是一个命令行工具,作用是获取一组参考图像并生成图像数据库文件:常用命令:(1)、检查图片质量,给出图片的评分(建议使用评分75以上的图片)arcoreimg.exeeval-img–input_image_path=xx/xx/a.png例外:WARNING:LoggingbeforeInitGoogleLogging()iswrittentoSTDERRI121811:08:11.6655406900distribute.cc:92]Nokeypointstoprune.Failedtogetenoughkeypointsfromtargetimage.(2)、生成图片列表对应的图片数据库:arcoreimg.exebuild-db--input_images_directory=img--output_db_path=myimage.imgdb3、Sceneform(构建和渲染场景):场景的构建和场景渲染,之前我们更多是在Unity里面听到过,里面使用的是OpenGL,其实ARCore早在17年刚出来的时候,并没有存在SceneformAPI,Sceneform让Android开发者不必学习3D图形和OpenGL就能使用ARCore。它包括一个高级场景图API,仿真基于物理的渲染器,一个用于导入、查看和构建3D资产的AndroidStudio插件,并且可以轻松地集成到ARCore内进行简单的AR应用构建。Renderable(ModelRenderable类)是一个3D模型,包括可由Sceneform在界面上渲染的网格、材料和纹理。Sceneform提供三种创建可渲染对象的方式:根据标准Android微件、根据基本形状/材料以及根据3D资产文件(OBJ、FBX、glTF)。四、ARCode的使用:环境:AndroidStudio3.1及以上;SDK24(7.0)及以上;JDK1.8及以上;支持OpenGLSE3.1及以上;还需要安装一个辅助插件:集成:仓库地址引用allprojects{repositories{google()}}包依赖(功能的实现主要是ArCore里面实现的,依赖的这个包只是)://需要使用java8去构建compileOptions{sourceCompatibilityJavaVersion.VERSION_1_8targetCompatibilityJavaVersion.VERSION_1_8}dependencies{implementation"com.google.ar.sceneform.ux:sceneform-ux:1.6.0"}强制性选择AR<uses-sdkandroid:minSdkVersion="{24orhigher}"<meta-dataandroid:name="com.google.ar.core"android:value="required"/>判断设备是否支持:publicstaticbooleancheckIsSupportedDeviceOrFinish(finalActivityactivity){if(Build.VERSION.SDK_INT<24){Log.e(TAG,"SceneformrequiresAndroidNorlater");Toast.makeText(activity,"SceneformrequiresAndroidNorlater",Toast.LENGTH_LONG).show();activity.finish();returnfalse;}ConfigurationInfoinfo=((ActivityManager)activity.getSystemService(Context.ACTIVITY_SERVICE)).getDeviceConfigurationInfo();StringopenGlVersionString=info.getGlEsVersion();if(Double.parseDouble(openGlVersionString)<MIN_OPENGL_VERSION){Log.e(TAG,"SceneformrequiresOpenGLES3.0later");Toast.makeText(activity,"SceneformrequiresOpenGLES3.0orlater",Toast.LENGTH_LONG).show();activity.finish();returnfalse;}returntrue;}核心类的介绍:Sessioncom.google.ar.core.Session类,Session管理AR系统状态并处理Session生命周期。该类是ARCoreAPI的主要入口点。该类允许用户创建Session,配置Session,启动/停止Session,最重要的是接收视频帧,以允许访问Camera图像和设备姿势。Configcom.google.ar.core.Config类,用于保存Session的设置。Framecom.google.ar.core.Frame类,该类通过调用update()方法,获取状态信息并更新AR系统。HitResultcom.google.ar.core.HitResult类,该类定义了命中点射线与估算的真实几何世界之间的交集。Pointcom.google.ar.core.Point类,它代表ARCore正在跟踪的空间点。它是创建锚点(调用createAnchor方法)时,或者进行命中检测(调用hitTest方法)时,返回的结果。PointCloudcom.google.ar.core.PointCloud类,它包含一组观察到的3D点和信心值。Planecom.google.ar.core.Plane类,描述了现实世界平面表面的最新信息。Anchorcom.google.ar.core.Anchor类,描述了现实世界中的固定位置和方向。为了保持物理空间的固定位置,这个位置的数字描述信息将随着ARCore对空间的理解的不断改进而更新。Posecom.google.ar.core.Pose类,姿势表示从一个坐标空间到另一个坐标空间位置不变的转换。在所有的ARCoreAPI里,姿势总是描述从对象本地坐标空间到世界坐标空间的转换。随着ARCore对环境的了解不断变化,它将调整坐标系模式以便与真实世界保持一致。这时,Camera和锚点的位置(坐标)可能会发生明显的变化,以便它们所代表的物体处理恰当的位置。这意味着,每一帧图像都应被认为是在一
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2024年二手摩托车买卖合同范本3篇
- 2024年度甲方聘请乙方进行品牌设计的合同
- 二零二四年度门卫人员与物业管理方安全责任分配合同2篇
- 2024年房产经纪标准化服务协议模板一
- 2024年个性化浴室家具定制合同3篇
- 2024年别墅装修项目调整协议2篇
- 旅游度假区开发建设招标合同三篇
- 2024年份红酒区域代理协议模板版
- 二零二四年度健身房连锁加盟协议3篇
- 全新2024版体育运动设施建设与运营合同2篇
- GB 45067-2024特种设备重大事故隐患判定准则
- 电力行业税收检查指引
- 高血压脑病的诊治
- 期末模拟考试卷02-2024-2025学年上学期高一思想政治课《中国特色社会主义》含答案
- 2024年高考真题-化学(福建卷) 含解析
- 司机岗位招聘笔试题及解答(某大型集团公司)2024年
- 苏教版四年级上册整数四则混合运算300题及答案
- 《陆上风电场工程概算定额》NBT 31010-2019
- 2024年北京证券交易所全国股转公司招聘笔试参考题库附带答案详解
- 浙江省行政执法证考试题库(整理)
- 自动增益控制电路设计
评论
0/150
提交评论