工业互联网边缘计算 课后习题及答案_第1页
工业互联网边缘计算 课后习题及答案_第2页
工业互联网边缘计算 课后习题及答案_第3页
工业互联网边缘计算 课后习题及答案_第4页
工业互联网边缘计算 课后习题及答案_第5页
已阅读5页,还剩15页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

模块1课后习题及答案1.填空题(1)中小企业数字化转型必须遵循循序渐进、逐步推进的原则,可以按照(数字化)、(数智化)、(数治化)三个阶段分步骤、分阶段来实施。(2)从技术角度来定义,云计算是(分布式计算)、(并行计算)、效用计算、网络存储、虚拟化、负载均衡、热备份冗余等技术发展融合的产物。(3)云计算部署模式分为(公有云)、(私有云)和(混合云)。(4)边缘计算中的(计算卸载)是将移动终端的计算任务卸载到边缘云服务器上,进行更有效地资源存储和运行计算。(5)对比移动边缘计算和移动云计算,与用户距离更(近)、隐私保护更(高)、时延更(低)。(6)面对边缘计算系统架构的设计,需要分析系统评价标准,面向终端用户的(服务质量)与(体验质量)是网络服务领域的经典评价方法,其要求直接影响了边缘计算架构设计的结果。2.选择题(1)下列哪些是云计算技术的特点。(A、B、C、D、E)A.超大规模系统架构B.虚拟化资源管理C.高可靠性D.高可用性E.高可扩展性与负载均衡(2)边缘计算具备一些云计算没有的优势,除低时延之外,还包括一下哪些?(A、B、C、D)A.数据过滤和压缩B.环境感知能力C.符合法规D.网络安全性(3)边缘缓存一般包括的步骤有哪些。(A、D)A.内容的放置B.内容交换C.内容保存D.内容传递(4)针对各类终端设备与系统对边缘计算在服务质量与体验质量方面的要求,主要体现在以下哪些方面。(B、C、D)A.低价格B.高可用C.低延迟D.高可靠3.简答题(1)简述什么是边缘计算。答:(仅参考)边缘计算是指数据或任务能够在靠近数据源头的网络边缘侧进行计算和执行计算的一种新型服务模型,允许在网络边缘存储和处理数据,为数据源端提供智能服务。(2)简述边缘计算与云计算的关系。答:(仅参考)在实际应用中,边缘计算可以独立部署,但大多数情况下与云计算协作部署。云计算适合非实时的网络系统整体管控、软件算法训练、数据处理分析、大量数据的长期保存、通过大数据技术进行商业决策等应用场景;而边缘计算在实时和短周期数据的处理、分析和判断,以及需要本地决策的场景下起着不可替代的作用,例如无人驾驶汽车、智能工厂等。(3)边缘计算的关键技术有哪些,简述每一种技术在边缘计算中所起的作用。答:1.计算卸载2.计算迁移3.边缘缓存4.安全保护略(4)列举几个边缘计算的应用场景,并与传统方式相对比。答:对于一些对实时性要求特别高的应用,诸如人脸识别、烟雾报警、人口密度指数预警防踩踏事件、动态监测、双摄像头测距、森林防火、天气监测、自动驾驶等,可以体现边缘计算的优势。(5)边缘计算的系统架构主要包含哪几种实体?它们分别在架构中起到怎样的作用?答:边缘计算的系统架构主要包含主要涉及3个实体:终端设备、边缘设备和云中心。用户请求从终端设备发出后,由边缘层设备接收。如果边缘层的设备上存在该请求对应的边缘服务,则该计算请求交由运行相关服务的边缘设备处理,处理完成后结果返回至终端设备。如果边缘层的设备上无法完成相应的计算请求,则边缘设备需要进一步向云中心转发请求,由云中心处理。又或者向云中心请求相关的边缘服务,将服务从云中心下拉到边缘层,从而能够处理未来的同类型请求。通过这一过程,终端设备的各类计算任务可以通过边缘服务的方式,从本地计算的方式转换到请求边缘设备计算的方式。同时,终端设备通过接入更多类型的边缘计算服务,也极大提升了其运算能力。模块2课后习题及答案1.填空题(1)边缘节点根据业务侧重点和硬件特点的不同,包括以网络协议处理和转换为重点的(边缘网关)、以支持实时闭环控制业务为重点的(边缘控制器)、以大规模数据处理为重点的(边缘云)、以低功耗信息采集和处理为重点的(边缘传感器)等。(2)逻辑上边缘计算网络架构的核心是(多接入边缘计算,MEC)服务器。(3)万物互联时代的到来,促使商业应用不断更新。相对于传统的“云—管—端”一体化模式来说,如今逐渐向(云—边—端)模式演变。(4)目前业界尝试推进的边缘场景中,(MEC)服务器作为其核心设备得以广泛应用。(5)边缘计算产业联盟提出的边缘计算参考架构3.0,按距离由近及远可分为(现场层)、(边缘层)和(云层)。(6)边缘计算的服务主体是(端侧感知设备)。(7)传统工业园区在进行智慧园区改造时将以(保护业主现有投资)、(系统可扩展性)为原则开展设计。(8)边缘计算设备按照其对外提供的功能可分为四种类型,分别是(智能传感器)、(可编程逻辑控制器)、(边缘智能路由器)和(ICT融合网关)。(9)按其实现功能,MEC基本架构可分为(基础设施层)、(虚拟化层)、(MEC管理层)、(MEC应用层)。(10)运营商针对当前市场对于边缘计算的需求,提出MEC五大产品及资费体系:(分流网关)、(MEC云资源)、(边缘云服务)、(定制边缘云)及(MEC咨询、规划、集成)(11)MEC服务器的缓存分为(ServiceCashing,服务兑现)缓存和(DataCashing,数据兑现)缓存两种。(12)边缘服务器的部署场景可分为(从静态部署场景)和(动态部署场景)。(13)边缘计算软件部署主要涉及把(端侧设备)、(边缘设备)、(运中心)3个实体通过软件方式有效的组织起来协同运转。2.选择题(1)边缘计算参考架构3.0按距离由近及远可分为(A、B、C)。A.现场层B.边缘层C.云计算层D网络层(2)边缘层包括边缘节点和边缘管理器两个主要部分。(A)是承载边缘计算业务核心的硬件实体。A.边缘节点B.边缘管理器(3)由于各种异构的端侧设备接入MEC系统,产生的接入安全问题主要有(A、B、C)A.终端认证组件B.网络安全C.敏感信息计算D.硬件安全(4)为了实现端侧设备的数据采集和预处理,端侧感知设备数据采集系统必须具备的三大特性是(ABC)A.便捷性B.时效性C.智能性D.5G3.简答题(1)简述MEC服务器定义。答:边缘计算作为一种计算模式,服务与计算资源被放置在靠近终端用户的网络边缘设备中。MEC服务器,是应用在边缘场景的边缘计算服务设备。边缘计算服务器相比工控机/智能网关等其他边缘计算设备,具备技术成熟、标准统一、计算性能和稳定性强等优势,更能适应边缘应用以及5G、AI技术发展而飞速提高的算力和可靠性需求。(2)简述MEC服务器其主要特点体现在那几个方面。答:1.形态灵活多变;2.灵活的可扩展性;3.运维管理统一便捷性;4.优异的环境适应性。(略)(3)简述边缘计算中端侧感知设备的接入所面临的主要挑战。答:1.应用场景的多样性使端侧感知设备和边缘设备的异构性对无线数据传输技术提出了挑战。2.数量庞大的端侧感知设备对有限的无线网络传输资源提出挑战。3.端侧感知设备较高的移动性对数据传输的可靠高效提出挑战。(4)简述现阶段传统工业园区主要存在的问题答:1.安全有隐患2.通行效率低3.管理难度大。(略)简述MEC网络架构各层实现的主要功能。答:1.基础设施层:主要基于通用服务器,为MEC提供存储、计算、渲染等硬件底座。2.虚拟化层:基于基础设施层,采用网络功能虚拟化的方式为MEC业务平台提供规划应用程序、服务、DNS服务器、3GPP网络和本地网络之间的通信路径。3.MEC管理层:提供全局业务编排、策略管理、基础服务注册与流量控制、生命周期管理等功能。4.应用层:视频直播平台、智慧工业、5G教育、AR/VR应用等第三方APP。(6)简述运营商结合5G网络构建边缘、区域、中心三层架构的MEC部署策略特征。答:1.基于地理构建边缘、区域、中心三层架构,各层MEC满足不同业务需求,按功能满足按时延、速率等进行业务分流。2.依托平台智能管理能力,对外开放平台功能,打造垂直行业产品,形成边缘云生态。3.利用平台AI能力,打造智慧安防、视觉智能检测、自动驾驶等产品。4.利用视频编解码能力,应用于直播加速、AR、VR、云游戏等;5.利用IoT设备管理能力,应用于各类物联网应用;6.利用平台的渲染能力,应用于AR、VR、全息投影等应用。(7)多端侧设备接入如何保障MEC服务器的稳定服务。答:(1)使用网络上的流量调度。在多个端侧设备同时连接进MEC系统时,通过优化算法合理的选择AP(accesspoint,接入点),以获得最大增益,保障MEC稳定高效对外提供服务。(2)在MEC服务器中提供缓存(cache)机制。在中心节点的MEC服务器上包含了接入端侧设备的全部信息,包含了CSI(ChannelStateInformation,信道状态信息)和计算卸载的各种请求。这些信息有些可以被复用,则保存在本地,如果一些一次性的计算任务,则不需要存储。(3)优化调度策略,减少MEC服务器功耗,提供持续稳定输出。在多个端侧设备同时对MEC服务器发包的情况下,MEC服务器需要对多终端的通信和计算卸载的数据包先存在缓冲器(buffer)中,这样MEC服务器便可以按接收包的顺序进行处理。如果MEC服务器在一段时间工作量很大,而另一部分时间则资源利用率很低,那么则需要优化调度策略。出于对MEC服务器的能耗考虑,可以设计一些调度策略使得多终端的数据包可以连续并稳定地发送到MEC服务中。(8)在多端侧设备接入的情况下,MEC服务器可以提供服务的方式。答:(1)根据MEC服务器的负载进行调度。(2)根据不同用户预先进行MEC服务器的资源划分(比如一个用户对应MEC服务器的一个虚拟机)。(3)根据就近原则为端侧设备提供服务。(9)简述边缘计算服务器部署硬件设施静态部署与动态部署区别。答:边缘计算服务器部署的硬件设施,需要考虑具体部署环境的要求。其目的是将边缘硬件资源部署在目标区域当中,为区域中的移动用户和设备提供边缘计算服务。而根据部署服务器是否具备移动性,可以将边缘系统部署场景分为静态部署和动态部署两类。1.静态部署指的是服务器位置确定后续无法再改变部署场景。出于不同的网络环境及商业用途,存在多种边缘服务器的静态部署场景。静态部署场景可根据具体环境的差异,细分为室内和室外两类场景。室内场景中,边缘计算服务器可以直接部署在无线接入网或其周边(如家用Wi-Fi路由器),目的是便于和无线接入网进行协调,在关键位置提供灵活的服务。室外场景中,边缘计算服务器的部署位置根据网络环境的不同而有所差异。在5G移动通信网络中,服务器既可以部署在上行链路网关,也可部署在更靠近用户端的小型基站,同时也可将边缘服务器部署在基带单元(BaseBandUnit,BBU)池的聚集点。2.动态部署是将部分服务器装载到移动小车、无人机或移动机器人上,使其获得移动能力,服务器可以通过移动设备的请求动态调整其部署位置。动态部署的出现解决了静态部署场景固有的如下问题。(1)部署决策一旦执行便无法更改,不能很好地应对用户任务请求量随时空变化的情况。(2)部署决策仅根据当前场景的节点规模确定部署方案,不利于网络系统扩展。(3)静态部署服务器负载无法支撑任务请求量急剧增长的突发性事件。(4)服务器覆盖范围有限,对于用户设备稀疏分布的场景,需要部署数量庞大的服务器才可实现对目标区域用户和物联网设备的全覆盖。模块3课后习题及答案1.填空题(1)从实现方式上看,虚拟机有三种典型的实现方式:(寄居虚拟化)、(裸金属虚拟化)、(混合虚拟化)。(2)操作系统级虚拟化是一种虚拟化技术,能够实现多个相互隔离的实例共享一个操作系统的内核,此过程中包含相应程序组件的实例即为(容器)。(3)从结构和功能上看,集群主要可以分为三类:(高可用集群)、(负载均衡集群)、(高性能计算集群)。(4)以云原生为指导的云端应用程序开发部署过程中,主要涉及(微服务)、(容器)、(DevOps)、(持续集成与持续交付)等四个关键技术。(5)从OSI参考模型的角度,可以将负载均衡分为:(四层负载均衡)、(七层负载均衡)、(DNS负载均衡)。(6)系统高可用性设计的核心思路包括(冗余备份机制)和(故障恢复机制)。(7)阿里云平台提供了三种不同等级的容灾机制,分别为:(普通容灾)、(同城容灾)、(同城+异地容灾)。2.选择题(1)(A)是云中心的基本硬件设备,也是云中心的核心设备,它为云计算平台提供计算能力,为用户提供大规模计算、大规模存储、高通量网络服务。A.服务器B.存储C.灾备D.核心网络设备及网络安全设备(2)(D)是一种主流的容器集群部署方案。A.KVMB.DockerC.KubernetesD.Docker+Kubernetes(3)(A)是一种企业级私有镜像仓库。A.HarborB.DockerHubC.DockerD.Kubernetes(4)DockerHub是Docker提供的一种(A)。A.公有镜像仓库B.私有镜像仓库C.镜像D.容器(5)Docker部署以后会在宿主机上启动一个(C),同时为用户提供命令行工具或者图形化工具作为客户端。A.镜像B.容器C.守护进程D.仓库(6)(D)是Kubernetes中定义的最小操作对象。A.镜像B.容器C.服务D.Pod(7)Kubernetes中,一个Pod通常包含(A)个容器。A.1B.2C.3D.任意(8)Kubernetes中,(A)为用户提供集群控制的入口。A.Master节点B.Node节点C.Docker客户端D.Docker守护进程(9)Kubernetes中,用户通过(B)对集群进行控制。A.docker命令B.kubectl命令C.yum命令D.systemctl命令(10)Kubernetes非常依赖(A),不支持离线运行,但是离线运行对于边缘而言是一种常态,比如设备重启或者休眠。A.list/watch机制B.多路复用的消息通道C.CloudHubD.EdgeHub(11)(C)是华为捐献给CNCF的第一个开源项目,也是全球首个基于Kubernetes扩展并且提供边云协同能力的开放式边缘计算平台,旨在依托Kubernetes对容器集群的调度能力和编排能力实现边云协同、计算下沉、海量接入等功能。A.KubernetesB.K8SC.KubeEdgeD.K3S(12)(D)是Rancher开源的一个自己剪裁的Kubernetes发行版,旨在更好适配ARM、持续集成与持续交付、边缘计算、物联网、测试等场景。A.KubernetesB.K8SC.KubeEdgeD.K3S(13)(C)将Kubernetes的管理面部署在云端,将Kubernetes的Agent部署在边缘,边缘属于去中心化结构,与云端结合为一个完整的Kubernetes集群,可以实现边云协同。A.KubernetesB.K8SC.KubeEdgeD.K3S(14)(D)将Kubernetes的管理面和Agent全部部署在边缘,边缘就是一个完整的Kubernetes集群,本身不属于去中心化结构,本身不具有边云协同能力,需要额外组件协助管理,但该组件Rancher并未开源。A.KubernetesB.K8SC.KubeEdgeD.K3S(15)进行云中心层部署时,从部署模式的角度看:具有一定经济实力的大中型企业从数据安全和个性化定制等角度出发,通常会选择在企业内部构建专供员工使用的(B)系统。A.公有云B.私有云C.混合云D.以上选项均不对(16)在边云协同方案设计中,从服务模式的角度看:(B)类型的服务主要提供给企业中的开发人员使用,可以让企业中的开发人员通过可视化界面灵活快速地实现对容器集群的节点管理、组件管理、服务管理、服务编排、资源调度、资源监控,实现对SaaS平台中各种应用的快速部署和全生命周期管理。A.IaaSB.PaaSC.SaaSD.以上选项均不对(17)在边云协同方案设计中,从硬件架构的角度看:基于(A)技术屏蔽物理硬件的复杂性,实现上层架构和物理硬件的解耦合,实现物理资源的充分利用。A.虚拟化B.容器C.集群D.微服务(18)在边云协同方案设计中,从系统架构的角度看:基于(B)技术为服务运行提供轻量级的隔离环境。A.虚拟化B.容器C.集群D.微服务(19)在边云协同方案设计中,从系统架构的角度看:基于(C)技术对容器服务进行调度编排、实现容器服务的横向扩展和动态部署。A.虚拟化B.容器C.集群D.微服务(20)在边云协同方案设计中,从平台架构的角度看:整体架构基于(D)理念,采用高内聚、低耦合、易于扩展、服务化的设计原则,构建百花齐放的触点应用,灵活快速支撑多端业务迭代创新。A.虚拟化B.容器C.集群D.微服务(21)在边云协同方案设计中,边缘计算管理平台可以看作(A)的一种落地形式。A.PaaS平台B.SaaS平台C.IoT平台D.应用平台(22)(C)技术是一种实现多节点负载均衡的软件技术,部署在充当负载均衡设备的负载均衡节点上,该节点提供对外IP作为用户请求的IP地址,收到用户请求以后基于内部调度算法向提供真实服务的各个节点进行转发。A.DockerB.KubernetesC.HAProxyD.KeepAlived(23)(D)技术是一种实现多节点容灾的软件技术,部署在互为主备的各个节点上,提供一个额外的虚拟IP作为用户请求的IP地址,各个节点基于预设好的权重和内部选举算法进行主节点的选举,选举出主节点作为虚拟IP的承载节点,主节点故障以后备节点间重新进行主节点的选举,选举出新的主节点作为虚拟IP的承载节点,即虚拟IP可以在不间断业务的情况下自动由故障节点漂移到新的主节点上。A.DockerB.KubernetesC.HAProxyD.KeepAlived(24)随着我国“新基建”持续发力,(A、B、C、D)互相融合的赋能效应日益显现,边云协同已经成为工业互联网场景下的新趋势。A.云(云计算)B.网(互联网)C.边(边缘计算)D.端(终端)(25)边云协同涉及边缘侧和云端关于(A、B、C)三个层面的全面协同。A.IaaSB.PaaSC.SaaSD.CaaS(26)边云协同的经典架构中包括(A、B、C)等方面的全面协同。A.资源协同B.服务协同C.应用协同D.人员协同(27)云计算数据中心简称云中心,是一整套复杂的设施,一种“仓库规模的计算机系统”,由(A、B、C、D)组成。A.环境B.硬件设备C.基础软件D.应用支撑平台(28)(C、D)为Kubernetes向边缘延伸提供了解决方案。A.DockerB.HarborC.KubeEdgeD.K3S3.简答题(1)简述边云协同架构体系。答:(仅参考)边云协同包括资源协同、服务协同、应用协同等方面的全面协同。1)资源协同边缘节点提供计算、存储、网络、虚拟化等基础设施资源,既具有本地资源调度管理能力,又接受并执行云端资源调度管理策略,包括云端对边缘节点的资源管理、设备管理、网络连接管理。从单节点的角度,资源协同提供了底层硬件的抽象,简化了上层应用的开发难度;从全局的角度,资源协同提供了全局视角的资源调度和全域的Overlay网络动态加速能力,使得边缘资源能够有效使用,边缘与边缘、边缘与中心的互动能够更加实时。2)服务协同服务协同为边缘应用的构建提供关键组件和快速灵活的对接机制,从而有效提升边缘应用的构建速度。服务协同主要包括两个方面:一个方面是云端提供的服务能力,包括数据类能力、智能类能力、应用使能类能力;另一方面是通过云原生架构,提供一套标准的接入框架,为边缘服务的接入、发现、使用、运维提供一套完整流程。3)应用协同应用协同实现边缘应用的统一接入,既包括将开发好的应用通过网络远程部署到用户希望的边缘节点,又包括在云端进行边缘应用的全生命周期管理。对于边缘计算的落地实践来说,应用协同是整个系统的核心,涉及云、边、管、端各个方面。(2)简述在云服务器的系统部署中,如何进行虚拟机操作系统的选择。答:(仅参考)常用操作系统有Windows、Linux、MacOS等多种类型。其中,Windows操作系统是日常生活中个人计算机的常用操作系统,其主要特点是界面友好、窗口优美、操作动作简单易学、多代系统之间具有良好传承、计算机资源管理效率较高。但是对于企业云服务器部署而言,Linux操作系统提供了更多优势。比如,Linux操作系统开源且免费,企业开发人员可以根据需要对Linux操作系统的内核代码进行查看、修改、再创作;再者,Linux操作系统不仅具有比Windows操作系统更高的稳定性、安全性、灵活性,而且具有比Windows操作系统更低的硬件要求和运维成本。所以Linux操作系统是企业云服务器部署的首要选择。而且本模块后面要进行的容器部署本身也是在Linux操作系统的基础上发展起来的,虽然现阶段也有针对Windows操作系统的容器部署,但是Linux操作系统依旧是容器部署的首要选择。故选择Linux操作系统为虚拟机的操作系统。Linux操作系统又有不同的发行版本,比如Ubuntu和CentOS就是Linux操作系统中的两种常用版本。Ubuntu和CentOS本身是基于Linux操作系统中的不同架构发展来的。Ubuntu基于的是Linux操作系统中的Debian架构,相比CentOS而言具有更好的图形界面支撑,更新频率较高。CentOS基于的是Linux操作系统中的RHEL架构,相比Ubuntu而言没有较好的图形界面支撑,更新频率较低。实际应用中,一方面,图形界面虽然可以简化操作,但是也会占用更多内存,所以图形界面是桌面操作系统的首要选择,但却不是企业云服务器操作系统或者虚拟机操作系统的首要选择。另一方面,相比更新频率而言,企业应用往往更看重操作系统的稳定性与可靠性。所以在实际应用中,Ubuntu是个人桌面部署Linux操作系统时的首要选择,CentOS是企业云服务器或者虚拟机部署Linux操作系统时的首要选择。故选择CentOS为Linux操作系统的具体版本。(3)从边云协同、设备管理、边缘节点离线自治三个方面,对KubeEdge和K3S进行深入对比。答:(仅参考)边云协同、设备管理、边缘节点离线自治三个方面。1)边云协同①KubeEdge基于Kubernetes标准API提供用户在云端对边缘节点、设备、负载的增删改查,边缘的系统升级和应用更新都可以从云端下发,有效提升边缘的运维效率。②KubeEdge使用的多路复用消息通道相比Kubernetes使用的list/watch机制而言具有更好的扩展性,允许海量接入。K3S本身不具有边云协同能力,需要额外组件协助管理,但该组件Rancher并未开源。2)设备管理①KubeEdge提供可插拔式的设备统一管理框架,允许用户在框架上根据不同协议开发设备的接入驱动,当前已支持的协议有:MQTT、BlueTooth、OPCUA、Modbus等。②KubeEdge提供设备抽象化并在云端生成映射。③KubeEdge基于KubernetesKubectl提供用户在云端对设备以Kubernetes资源对象形式的管理。K3S本身不具有设备管理能力。3)边缘节点离线自治KubeEdge基于消息总线和元数据存储提供边缘节点离线自治能力。用户期望的管理面配置和设备实时状态更新都通过消息总线同步到本地存储,使得边缘节点在离线情况下就算重启也不会丢失管理元数据,并且保持对本地的自治能力。K3S本身不具有边缘节点离线自治能力。(4)简述如何对Kubernetes集群架构中的Master节点进行负载均衡与容灾配置。答:(仅参考)HAProxy技术与KeepAlived技术的结合是解决该问题的一种主流配置方法。基于HAProxy技术实现多节点负载均衡的软件技术,部署在充当负载均衡设备的负载均衡节点上,该节点提供对外IP作为用户请求的IP地址,收到用户请求以后基于内部调度算法向提供真实服务的各个节点进行转发。基于KeepAlived技术实现多节点容灾的软件技术,部署在互为主备的各个节点上,提供一个额外的虚拟IP作为用户请求的IP地址,各个节点基于预设好的权重和内部选举算法进行主节点的选举,选举出主节点作为虚拟IP的承载节点,主节点故障以后备节点间重新进行主节点的选举,选举出新的主节点作为虚拟IP的承载节点,即虚拟IP可以在不间断业务的情况下自动由故障节点漂移到新的主节点上。模块4课后习题及答案1.填空题(1)5G通信网络的逻辑架构依然采用(接入网)、(承载网)和(核心网)三个模块进行数据转发。(2)通信基站的组成包括(BBU,室内基站处理单元)、(RRU,射频拉远单元)、(馈线)和(天线)四部分。(3)RRU通过馈线连接天线,主要包括4个模块:(中频模块)、(收发信机模块)、(功放模块)和(滤波模块)。(4)5G专网按其不同用户对网络设备的使用方式,分为三种类型:(5G虚拟专网)、(5G独立专网)以及(5G混合专网)。(5)(5G)与(边缘计算)的结合在企业网,特别是OT网络中的应用,给工业互联网带来了新的通信应用能力和应用模式。(6)OT网络架构中的设备和应用一般分为5层,即(设备层)、(边缘控制器层)、(边缘网关层)、(边缘云层)和(工业互联网云平台层)。(7)5G边缘计算在OT网络中,主要有(低延迟无线通信)和(无线通信+边缘计算)两种部署方式。(8)2019年,ECNI发布了“运营商边缘计算网络技术白皮书”将边缘计算网络分为三个逻辑网段为(ECA,边缘计算接入网络)、(ECN,边缘计算内部网络)、(ECI,边缘计算互联网络)。2.选择题(1)在移动通信发展过程中,动运营商在接入网的主要成本支出主要包括(A、B、C)。A.基站的租赁费B.基站正常运行的电费C.基站正常运行的维护费D员工工资(2)5G网络的部署过程中,应优先部署(B)。A.接入网B.承载网C.移动网D.内部网(3)5G承载网前传的部署方式由(A)决定。A.AAU站点与DU站点之间的连接方式B.分布单元DU与集中单元CU之间的连接方式C.集中单元CU到核心网之间的连接方式D.AAU站点到核心网之间的连接方式(4)5G承载网中传的部署方式由(B)决定。AAU站点与DU站点之间的连接方式B.分布单元DU与集中单元CU之间的连接方式C.集中单元CU到核心网之间的连接方式D.AAU站点到核心网之间的连接方式(5)5G承载网回传的部署方式由(C)决定。A.AAU站点与DU站点之间的连接方式B.分布单元DU与集中单元CU之间的连接方式C.集中单元CU到核心网之间的连接方式D.AAU站点到核心网之间的连接方式(6)5G专网中数据传输安全级别最高的是(B)。A.5G虚拟专网B.5G独立专网C.5G混合专网D.5G网络(7)5G专网在工业互联网领域的应用,大多数企业采用的是(C)模式。A.5G虚拟专网B.5G独立专网C.5G混合专网D.5G网络(8)对安全、性能、自管理要求苛刻的行业客户多采用的是(B)模式组网。A.5G虚拟专网B.5G独立专网C.5G混合专网D.5G网络(9)对网络性能和边缘计算要求不高,对成本比较敏感的中小企业多采用的是(A)模式组网。A.5G虚拟专网B.5G独立专网C.5G混合专网D.5G网络(10)对网络性能尤其是时延要求高,同时对本企业数据管控有较高要求的客户多采用的是(C)模式组网。A.5G虚拟专网B.5G独立专网C.5G混合专网D.5G网络(11)运营商为企业提供的产品和服务包括(A、B、C、D)。A.企业宽带、专线等连接服务。B.IDC、服务器等IT资源C.移动办公、视频服务等通用业务。D.深入企业OT的信息化解决方案。3.简答题(1)简述5G技术与前几代技术相比,所具有的优势。答:1.5G的网络速率是4G网络速度的10倍以上,可以达到500Mbps

~2GMbps。2.5G网络可以实现每平方公里至少载100万台终端设备,实现真正的“万物互联”。3.5G网络在把数据从网络一端传送到另一端所需要的时间,即时延上也大大的降低了,典型的端到端的时延为5-10ms左右,低时性延为万物互联提供了可能。(2)简述运营商对基站部署方式的改善发展历程。答:移动运营商出于对运营成本与设备运行环境要求综合考量,不断改善接入网设备的部署方式,发展至今,基站部署的发展历程大体经历了5个阶段。第一阶段:设备集成度高,集中部署管理。BBU、RRU和供电单元等设备,集成在一起放在专门建成的机房的机柜中。第二阶段:拆分BBU与RRU,设备分散放置。设备RRU和BBU硬件上不再放在一起,RRU通常会挂在机房的墙上。BBU有时候挂墙,不过大部分时候是在机柜里。第三阶段:RRU不再放在室内,而是被搬到了天线的身边,抱杆挂在塔杆上,业内称之为“RRU拉远”。第四阶段:除了RRU拉远之外,把BBU全部都集成存放在中心机房(CO,CentralOffice)形成一个BBU基带池。此时分布式无线接入网D-RAN演变成了C-RAN(Centralized-RAN,集中化无线接入网)。第五阶段:5G时代将基站结构做了一定的改变,重构为3个功能实体:BBU被拆分为CU、DU,即将高层协议处理分离出来成为独立的逻辑单元集中由CU处理,底层协议处理仍保留在在站点分部处理。天线和RRU被集成在一个AAU中,完成信号收发、缩放、滤波、光电转换等工作。(3)简述承载网前传的主要部署方式。答:1.光纤直连部署方式。每个AAU与DU之间全部采用光纤点到点直连的组网方式。2.无源WDM部署方式。是利用不同光波承载不同业务,实现在同一根光纤中同时传输多种业务的技术。将WDM模块安装到AAU和DU上,通过无源设备完成WDM功能,利用一对或者一根光纤提供多个AAU到DU的连接。3.有源WDM/OTN部署方式。在AAU站点和DU机房中配置相应的WDM/OTN设备,在很好利用光纤资源,提供大容量传输数据基础上,解决了无源WDM存在的运维困难,不易管理等问题。增加运维规则,具体措施是增加了帧结构,提升业务的监控管理运维能力;增加电交叉功能,使得OTN系统可以分别处理客户业务信号和波分信号。(4)简述5G专网与公网的区别。答:5G专网是相对于5G公网而言的。公网是面向全体用户提供普遍服务的公共通信网络,平时打电话、上网等用的都是公网。这时候,网络资源为所有用户共享,用户间权益平等。而所谓专网,是指在特定区域为特定行业或企业用户提供的专用通信网络。相较于公网,专网性能更强、可靠性更高,安全性更好,且可随用户需求进行专门的定制。简述5G专网的3种类型。答:5G专网按其不同用户对网络设备的使用方式,分为三种类型:5G虚拟专网、5G独立专网以及5G混合专网。1.5G虚拟专网解析在5G虚拟专网模式中,企业专网用户和企业内公众用户,共享5G基站、5G核心网(控制面和用户面)和5G承载网。2.5G独立专网解析5G独立专网模式中,为企业专网用户和企业内公众用户分别建设独立的5G网络。5G企业专网,有独立的无线频段、独立的基站和独立的无线核心网(独立的控制面和用户面),所有网络设备都在园区里,通过园区网络互连。5G企业独立专网可以由运营商来建设,也可以是企业自建。3.5G混合专网解析在5G混合专网模式中,企业专网用户和企业内公众用户,共享5G基站和5G核心网控制面。企业用户有专用的、部署在企业园区里的5GMEC服务器(包括专用的用户面)。5GMEC服务器在园区里面和企业云互连。(6)简述在工业互联网中传统有线OT网络与采用5G技术构建的OT网络部署的区别。答:传统的工业互联网OT网络是有线网络。设备和边缘控制器间一般采用简单、实时的现场总线来构建网络。边缘控制器和边缘网关之间,采用工业以太网来构建车间级网络。5G边缘计算在OT网络中的部署一般采用5G混合专网模式,为工业互联网应用提供了移动和低延迟通信能力。5G边缘计算在OT网络中,主要有“低延迟无线通信”和“无线通信+边缘计算”两种部署方式。(7)简述工业互联网网络架构模型规划要点有哪些。答:1.5GECA对OT网的协议和低延迟支持2.5GECA最短路径规划3.ECN集成通信安全4.ECI构建灵活多样性和低延迟网络(8)简述工业互联网场景对5G边缘计算的网络需求答:1.支持业务通过固网或移动网的多接入需求2.支持工业互联网的可靠连接性需求3.支持云边协同/跨域边云协同4.满足运营商网络和园区网融合的互联互通互操作、以及安全互信需求5.需要网络满足工业互联网确定性时延/低时延、高带宽、高并发网络需求6.支持现场异构接入模块5课后习题及答案1.填空题(1)工业互联网边缘计算中的设备和应用整体上可以分为五层:(设备层)、(边缘控制器层)、(边缘网关层)、(边缘云层)、(云中心层/工业互联网云平台层)。(2)计算机网络有以下八个重要的性能指标:(速率)、(带宽)、(吞吐量)、(时延)、(时延带宽积)、(往返时间)、(利用率)、(丢包率)。(3)在计算机网络性能指标的基础上,无线网络还有以下四个重要的性能指标:(辐射功率)、(信号强度)、(覆盖率)、(移动性)。(4)(RSRP)与(SINR)的配合使用是衡量4G网络信号强度的常用方式。(5)(SSRSRP)与(SSSINR)的配合使用是衡量5G网络信号强度的常用方式。(6)“在一定的区域内,按照所需的路线,或者随机跑几条路线,进行语音的长呼测试、短呼测试,或者进行数据业务的测试。”以上描述是在进行(拉网)测试。(7)针对边缘计算环境中潜在的攻击危险,可以将其划分为3个层面,分别是:(边缘接入)、(边缘服务器)、(边缘管理)。2.选择题(1)(B)又称为黑盒测试,即把系统看成一个黑色的盒子,不关心内部逻辑结构是怎样的,只关心输入和输出的结果是否达到预期目标。A.接口测试B.功能测试C.性能测试D.安全测试(2)(C)需要通过自动化的测试工具模拟多种正常、峰值、异常的负载条件来对系统的各项性能指标进行测试。A.接口测试B.功能测试C.性能测试D.安全测试(3)(C)需要让系统在峰值负载或者超负载的情况下运行,查看系统在峰值负载或者超负载的情况下的处理能力。A.基准测试B.负载测试C.压力测试D.稳定性测试E.并发测试(4)(D)需要让系统在加载一定压力的情况下持续运行一段时间(通常为N×24小时),查看系统是否能够稳定运行。A.基准测试B.负载测试C.压力测试D.稳定性测试E.并发测试(5)(E)需要让多个用户同时访问同一个系统中的同一个应用或者同一个模块,查看是否存在死锁或者其它性能问题。A.基准测试B.负载测试C.压力测试D.稳定性测试E.并发测试(6)(D)需要针对系统中可能存在的安全漏洞进行探测和发现。A.接口测试B.功能测试C.性能测试D.安全测试(7)iperf是一种网络测试工具,(A)命令表示让iperf以服务端形式启动。A.iperf3-sB.iperf3-cserverIPC.iperf3-versionD../configure(8)iperf默认使用TCP模式通信,(D)参数表示让iperf使用UDP模式通信。A.-nB.-FC.-PD.-u(9)运维工程师时常会把(B)工具比作“加强版的Windows任务管理器”,该工具非常适合作为接手服务器后执行的第一条命令。A.iperfB.topC.vmstatD.ls(10)(A)要求集群在多个操作单元上进行负载的均摊和平衡,将负载均衡分配到多个操作单元上。A.负载均衡B.稳定性C.高并发性D.高可用性(11)(C)是指通过设计让云服务器能够在同一时刻处理大量请求。A.负载均衡B.稳定性C.高并发性D.高可用性(12)(D)是指通过设计让云服务器能够尽量缩短因日常维护操作(计划)和突发系统崩溃(非计划)导致的停机时间。A.负载均衡B.稳定性C.高并发性D.高可用性(13)QPS、TPS、RT、并发数、吞吐量等指标,是衡量系统(C)的常用指标。A.负载均衡B.稳定性C.高并发性D.高可用性(14)RTO、RPO等指标,是衡量系统(D)的常用指标。A.负载均衡B.稳定性C.高并发性D.高可用性(15)(C)工具是一种常用的负载测试工具,通过该工具可以让客户端对系统发送并发请求。A.topB.vmstatC.vegataD.pdsh(16)(D)工具是一种常用的并行控制工具,通过该工具可以同步控制多个客户端。A.topB.vmstatC.vegataD.pdsh(17)工业生产的特殊性决定了相比消费互联网而言,工业互联网在(A、B、C、D)等方面有更高的技术要求。A.实时性B.稳定性C.可靠性D.安全性3.简答题(1)简述测试的作用、概念和分类。答:(仅参考)测试是认识客观世界的手段之一,是科学研究的基础方法,在各个领域都具有重要的作用,对于工业生产亦不可或缺,工程研究、产品开发、生产监督、质量控制、性能试验等众多环节都离不开测试技术。可以说,测试技术是推动工业发展、保障生产运行的重要技术,是工程技术人员必须掌握的一门实践性很强的技术。测试是指通过人工或者自动的手段,对被测试对象进行检测的活动,目的在于检测被测试对象是否实现了用户需求,或者弄清楚实际结果与预期结果之间的差异。从不同的角度出发,可以对测试进行不同的分类,常见的测试分类包括:单元测试集成测试接口测试功能测试,又称为黑盒测试性能测试,包括:基准测试、负载测试、压力测试、稳定性测试、并发测试安全测试(2)简述如何对边缘网关的断网续传能力进行测试。答:(仅参考)边缘网关断网续传能力测试包括对断网续传的测试和对边缘缓存的测试。1)断网续传的测试:在测试平台上设置边缘网关通过MQTT或者HTTP 方式传输数据到云服务器的测试脚本,启动测试脚本;手动断开边缘网关的网络连接,30秒后结束测试脚本;观察网络连接恢复以后边缘网关中未上传云服务器的数据是否能够继续上传;如果能

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论