湖仓一体大数据平台解决方案相关两份资料_第1页
湖仓一体大数据平台解决方案相关两份资料_第2页
湖仓一体大数据平台解决方案相关两份资料_第3页
湖仓一体大数据平台解决方案相关两份资料_第4页
湖仓一体大数据平台解决方案相关两份资料_第5页
已阅读5页,还剩78页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

湖仓一体大数据平台解决方案湖仓一体大数据平台概述湖仓一体大数据平台,承担了企业数据治理、开发、管理等职责,往下集成数据,往上搭载应用。通过数据同步、研发、运维、服务及治理等过程,对企业大数据进行智能管理,形成企业的数据资产。湖仓一体大数据平台架构基础设施阿里云本地IDC…H为云电信云腾讯云AzureAWS京东云引擎层S-EMR阿里云-EMRAWS-EMRH为云-MRS星环-TDH数据集成数据研发数据运维数据服务数据治理数据工厂规范建模指标管理参数配置API工厂脚本/向导模式自定义函数导入在线测试数据查询标签工厂实体管理标签管理任务管理算法工厂算法开发资源管理指标运维指标任务监控指标查询常规运维数据生产运维数据质量运维API中心

API授权API调用数据订阅标签中心量级、覆盖率标签值分布控制台项目管理子账号管理角色权限管理工作空间管理AccessKey管理平台安全设置数据地图数据管理类目管理常规开发离线开发实时开发数据安全数据脱敏数据加密数据规划资产盘点资产盘点报告元数据管理生命周期治理项管理治理效果分析全链血缘元数据检索元数据分析数据探查探查报告探查任务配置探查实例管理数据源管理数据源数据文件规范建表可视化建表DDL建表数据同步离线同步实时同步API运维配置、告警安全组配置标签运维标签任务监控标签查询算法运维算法任务监控配置及告警数据标准数据标准管理标准覆盖率评估2.湖仓一体数仓建设思路传统数仓的问题技术架构实时指标烟囱式开发效率低门槛高平台管理开发效率实时离线架构不统一依赖离线T+1导出报表缺少实时元数据管理未打通实时离线数据的联系宽表建设平台治理批流统一湖仓一体数仓建设思路统一数仓标准与元数据基于SQL统一开发流程引入Hudi加速宽表产出基于FlinkSQL构建实时数仓数仓平台化建设数据统一接入开发元数据管理统一规范体系(1/3)设计规范命名规范模型规范数仓规范开发规范存储规范流程规范业务板块规范定义模型设计数据应用业务系统业务板块2业务板块1业务源数据1业务源数据2业务源数据3……数据域/主题域统计粒度(维度组合)一致性维度修饰词派生指标原子指标(业务过程+度量)维表(DIM)把逻辑维度物理化的宽表统计周期(时间维)汇总事实表(DWS)把明细事实聚合的事实表数据应用层(ADS)业务过程事务事实表(DWD)最原始粒度的明细数据维度属性统一规范,OneData建模方法论(2/3)统一规范,可视化建模工具(3/3)统一元数据价值主张:理清数据字典,了解数据来龙去脉特点:丰富的采集适配器、智能识别关系、丰富的元数据分析和检核元数据采集元数据分析元数据变更数据地图适配器管理采集源采集任务配置采集日志入库审核影响分析依赖分析血缘分析全链分析关联度分析属性差异分析表关联关系字段关系变更查询变更订阅元数据核检一致性核检组合关系数据处理关系属性填充率名称重复率基于SQL统一开发流程afhaTableSQL离线批处理实时流处理即席查询Lambda架构Lambda架构的主要思想:将大数据系统架构分为三层:批处理层(BatchLayer)、实时计算层(SpeedLayer)、服务层(ServingLayer)优点:(1)数据的不可变性(2)强调了数据的重新计算问题缺点:双重计算+双重服务,且要求查询得到的是两个系统结果的合并,增加了运维成本输入数据流批处理数据流实时计算数据流预处理结果增量处理结果批处理流处理批处理层即席查询API服务自助取数批处理视图增量处理视图服务层实时计算层Lambda架构-数仓分层结构DIMRedisHBaseESMySQLADSKafkaESHBaseHiveHiveHiveDWSKafkaDWDKafkaETLPrestoOLAPClichHouseDorisDBSourceMessae

QueueRDS/

binlogSQLSQLSQLSQLSQLCDCSQLETLKafkaHiveODS大数据平台技术栈实时计算总体技术架构:实时同步业务系统数据、IoT等数据到Flink,实时计算指标和标签大数据平台Kafka数据源Flink数据处理Data

APIPrestoimpala数据服务报表应用数据消费预警数据存储OGGPG数据源MySQL解析层分布式消息队列流计算平台结果数据层数据接口层应用层Oracle数据源MySQL数据源层clickhouseIoTMQTTkuduStarRocks原DorisDBKappa架构针对Lambda架构的缺点,LinkedIn的JayKreps提出了Kappa架构:统一的计算引擎代替多个引擎优点:(1)架构简单,生产统一(2)一套逻辑,维护简单缺点:(1)适用场景的通用性不高(2)大数据量回溯成本高,生产压力大(3)流式计算结果不准确,和实时计算结果逐渐形成差异,最终需要对账输入数据流FlinkODSDWDDWSKafkaKafkaKafka流处理服务DB应用Kappa架构-数仓分层结构DIMRedisHBaseESMySQLADSKafkaESHBaseHiveDWS

DWD

ETLPrestoOLAPClichHouseDorisDBSourceMessae

QueueRDS/

binlogSQLSQLSQLSQLSQLCDCSQLKafkaODSKafkaKafka方案对比与实际需求引入数据湖Hudi加速宽表构建KafkaOff-lineETLFull

Dataincrementdata

databasesKafkaDorisDBkuduclickhouseHudi架构图增量实时更新时间漫游Hudi数据湖典型PipelineHudi数据湖关键特性引入数据湖Hudi-湖仓一体架构

MySQLOracleSQLServerPostgreSQLRedis结构化数据MongoDBJSONXMLCSVKafkaORC半结构化数据Parquet音频视频文档电子邮件非结构化数据数据源DataX(批量同步)API接口(Restful)数据集成文件直传Flink-CDC(流式写入)Flink计算/分析引擎计算引擎SparkHive机器学习训练Presto分析引擎Impala元数据管理ApacheHudi数据湖-存储存储对象S3OSSCOSHDFSAPI服务机器学习推理数据服务消息订阅数据应用大数据平台湖仓一体平台智能推荐BI报表即席查询人脸识别数据大屏引入数据湖Hudi-湖仓一体数仓分层结构DIMRedisHBaseESMySQLADSKafkaESHBaseHiveHiveHiveDWSKafkaDWDKafkaETLPrestoOLAPClichHouseDorisDBSourceMessae

QueueRDS/

binlogSQLSQLSQLSQLSQLCDCSQLETLHudi

on

FlinkHudi

on

FlinkHudi

on

FlinkKafkaHive引入数据湖Hudi-湖仓一体产品核心功能批量集成适用于需要进行复杂数据清理和转换、数据量较大的场景实时集成适用于需要高可用性和对数据源影响小的场景。使用基于日志的CDC捕获数据变更,实时获取数据消息集成通常通过API捕获或提取数据,适用于处理不同数据结构以及需要高可靠性和复杂转换的场景数据集成:结构化数据存储结构化数据的发现与更新,在数据湖创建数据库、表及分区半结构化数据存储半结构化数据发现,在数据湖中存储非结构化数据存储非结构化数据发现,在数据湖中存储数据湖管理:数据智能加工通过机器学习、深度学习等智能算法对半结构化、非结构化数据进行学习,训练加工成结构化数据,供数据研发和分析使用离线计算大规模数据周期性批量计算数据研发:实时计算根据业务需求进行数据实时研发与分析湖仓一体-HudiOnFlink的实现KafkaKafkaSourceGeneratorBinlogRecordInstantTimeFileIndexerWriteProcessOperatorFileIndexerWriteProcessOperator

CommitSinkMetadataPartitionerFileIndexerWriteProcessOperatorcheckpoint湖仓一体平台建设Table&SQL数据开发数据接入元数据管理实时数仓3.湖仓一体大数据平台产品湖仓一体大数据平台核心功能-①实时数据接入获取Schema

选择数据源自动接入接入配置湖仓一体大数据平台产品核心功能·实时同步+实时开发+实时运维配置来源表信息实时同步配置目标表Kafka信息通道控制设置实时开发源表中配置Kafka信息结果表中配置Kafka写入的目标库信息维表信息实时运维发布至运维设置启停与告警设置告警规则设置监控范围湖仓一体大数据平台产品核心功能-⑤元数据实时更新CDCSourceDatabaseSchemaTransformDDLDML

BinlogKafka

SinkAVROKafka

BinlogKafka

SourceHudiSinkCheckpointMetadataReportFetch湖仓一体大数据平台产品核心功能-⑥数据资产管理体系湖仓一体大数据平台产品核心功能-⑦性能压测压测场景:Oracle数据源数据实时计算写到MySQL目标数据库,内含Oracle数据源到Kafka、Kafka消费、写入MySQL目标数据库数据准备:单条数据20个字段,228个字节,Oracle源数据库200w条压测结果:压测场景单条数据量压测数据量压测链路压测结果Kafka生产与消费20个字段,228个字节40WMySQL数据源到Kafka耗时46s(qps:8700)Kafka消费耗时4.6s(qps:8.7W)实时计算Oracle-MySQL20个字段,228个字节40WOracle数据源数据新增到新增数据写到目标数据库MySQL(3进程,分配内存3G)qps:377840W*5qps:3715实时计算MySQL-Kudu20个字段,228个字节40WMySQL数据新增,经过Flink实时计算写到Kudu表中qps:5250结论:实时计算支持主流数据库1500万/小时的数据处理能力,且资源占用较低湖仓一体大数据平台产品未来支持功能-①增强SQL能力更多语法与特性支持更多数据源支持任务自动调优湖仓一体大数据平台产品未来支持功能-②精细化资源管理自动扩容缩容细粒度资源调度FlinkonK8s4、Hudi数据湖典型应用场景问题不支持事务由于传统大数据方案不支持事务,有可能会读到未写完成的数据,造成数据统计错误。数据更新效率低业务系统库的数据,除流水表类的数据都是新增数据外,还有很多状态类数据表需要更新操作(例如:账户余额表,客户状态表,设备状态表等),而传统大数据方案无法满足增量更新,常采用拉链方式,先进行join操作再进行insertoverwrite操作,通过覆盖写的方式完成更新操作,该操作往往需要T+1的批处理模式,从而导致端到端数据时延T+1,存在效率低、成本高等问题。无法及时应对业务表变化上游业务系统对数据schema发生变更后,会导致数据无法入仓,需要数据仓库的表schema进行同步调整。从技术实现上采用数据表重建的方式来满足该场景,导致数据仓库的数据表的管理与维护方案复杂,实现成本高。历史快照表数据冗余传统数据仓库方案需要对历史的快照表进行存储,采用全量历史存储的方式实现,例如:天级历史快照表,每天都会全量存储全表数据。这样就造成了大量的数据存储冗余,占用大量的存储资源。小批量增量数据处理成本高传统数据仓库为了实现增量ETL,通常将增量数据按照分区的方式进行存储,若为了实现T+0的数据处理,增量数据需要按照小时级或者分钟级的分区粒度。该种实现形式会导致小文件问题,大量分区也会导致元数据服务压力增大。传统数据仓库解决方案中,常用Hive来构建T+1级别的数据仓库,通过HDFS存储实现海量数据的存储与水平扩容,通过Hive实现元数据的管理以及数据操作的SQL化。虽然能够在海量批处理场景中取得不错的效果,但依然存在如下现状问题:传统数仓面临的问题与挑战

MySQLOracleSQLServerPostgreSQLRedisMongoDBKafka01场景说明无需直接对接数据库,数据由已有采集工具发送到Kafka或者由业务系统直接发送到Kafka。不需要实时同步DDL操作事件。02方案介绍支持了对Hudi中COW表以及MOR表的读写操作。作业开发与作业维护可视化操作。03方案收益入湖代码开发简单,通过FlinkSQL实现入湖的语句如下:Insertintotable_hudiselect*fromtable_kafkaCDHHudi数据湖flinksqlHudi数据湖典型应用场景①:传统CDC基于Flink-SQL入湖(1/2)Hudi数据湖典型应用场景①:传统CDC基于Flink-SQL入湖(2/2)

MySQLOracleSQLServerPostgreSQLRedisMongoDBFlink-CDC(流式写入)01场景说明可以从业务数据库中直接抽取数据数据入湖支持高实时性,秒级延迟数据表变更需要与数据湖表结构实时同步02方案介绍该方案基于Flink-CDC组件构建,由Flink-CDC组件实现业务库的操作事件捕获并写入的基于Hudi数据湖存储03方案收益入湖操作简单,全程零代码开发。入湖时效快,从业务系统数据调整到入湖,可在分钟内完成。Hudi数据湖典型应用场景②:基于Flink-CDC入湖(1/2)CDHHudi数据湖Hudi数据湖典型应用场景②:基于Flink-CDC入湖(2/2)开源CDC对比

MySQLOracleSQLServerPostgreSQLRedisMongoDB贴源层ODS01场景说明湖内数据通常会采用数仓分层存储,例如:贴源层(ODS)、汇总层(DWS)、集市层(ADS)。02方案介绍增量ETL作业与传统ETL作业业务逻辑完全一样,涉及到的增量表读取采用commit_time来获取增量数据。Hudi支持ACID特性、Upsert特性和增量数据查询特性,可以实现增量的ETL,在不同层之间快速的流转。03方案收益单个ETL作业处理时延降低,端到端时间缩短。消耗资源下降,单位ETL作业所处理数据量大幅下降,所需计算资源也会相应下降。原有湖内存储的模型无需调整。汇总层DWSflinksqlHudi数据湖典型应用场景③:湖内数据快速ETL集市层ADS增量ETLflinksql增量ETL

MySQLOracleSQLServerPostgreSQLRedisMongoDB贴源层ODS01场景说明数据湖存储的数据具有数据种类全、维度多、历史周期长的特点,直接交互式分析引擎直接对接数据湖可以满足业务各类需求数据需求。在数据探索、BI分析、报表展示等业务场景需要具备针对海量数据查询秒级返回的能力,同时要求分析接口简单SQL化。02方案介绍Presto/Trino是分布式高性能的交互式分析引擎,主要用于数据的快速实时查询场景。03方案收益结合flink-cdc数据入湖,业务系统库数据变更可在分钟内实现在数据湖内可见。对TB级到PB的数据量的交互式查询可达到秒级结果返回。可对湖内各层数据进行分析。Hudi数据湖典型应用场景④:交互式分析场景Presto/Trino引擎汇总层DWS集市层ADS快照查询增量查询读优化查询交互式分析

MySQLOracleSQLServerPostgreSQLRedisMongoDB贴源层ODS01场景说明传统处理架构中采用Lambda或者Kappa架构。Lambda使用比较灵活,也可以解决业务场景,但是在该架构中需要两套系统来存储数据(hive存储离线数据/kafka存储实时数据),维护比较复杂。数据分流以后也很难再关联应用。02方案介绍在实时场景中,对时延要求可以是分钟级的,这样可以通过CDH-Hudi数据湖和实时计算引擎Flink进行增量计算实现数据的快速处理,端到端实现分钟级延迟。CDH-Hudi数据湖本身就是湖存储,可以存储海量数据,支持批量计算,常用的批处理引擎可以采用Hive和Spark。03方案收益数据统一存储,实时数据与批量数据共用相同的存储。同时支持实时计算与批量计算。相同业务逻辑的处理结果复用。满足分钟级延时的实时处理能力和海量的批量处理。Hudi数据湖典型应用场景⑤:Hudi构建批流一体第三方数据集市结果库汇总层DWS集市层ADS快照查询增量查询读优化查询流任务批任务API服务自助取数Hudi数据湖典型应用场景⑥:数据库实时化(实时捕获/更新schema)SQLServerCDCSourceBinlogKafka

Sink元数据表信息元数据信息FilterTableUpdateMetadataDDLDMLFlinkStream库粒度表粒度Hudi数据湖典型应用场景⑦:数仓实时化DBConnectHudi

Sinkwrite初始化:Flink

BatchHudiSQLServer

增量更新:FlinkStreamKafkaSourceHudi

Sinkupdate初始化:增量更新:ODS(hive)DWD(hive)DWS(hive)SQLServer离线抽数

ODS(kafka)DWD(kafka)DWS(kafka)Hudion

FlinkFlink

SQL1.维表UDF2.外键主键映射3.主键索引4.增量更新HudiHudion

Flink实时BinLog

Hudi数据湖典型应用场景⑧:宽表构建实时化⽂档数据集市HudiOn

Flink在线交互式查询消息DataLake入湖建仓初始数据集DataLake增全量ETL高并发多维查询⽤户上传分析师报表时空科学预测机器学习

&

算法原始云服务和上传数据数据清洗、沉淀、聚合数据计算与分析数据应用操作型数据

文件型数据KV数据业务数据库 视频数据⽇志数据聚合数据集实时仓库云服务ODS/CDM层CDM/ADS层DataLakeETL统一调度统一元信息Hudi数据湖典型应用场景小结5、湖仓一体应用案例业务数据没有时间戳,每天都是需要按全量的方式进行数据更新,通过实时同步的方式为每一笔业务打上标记,增量更新。业务数据呈倍数增长,传统的数据仓库不能再满足日常数据的存储与运算,经常无法按时出数。需要替换为分布式、可扩展的大数据平台架构。海外业务分布在不同国家/地域,需要“跨云多域”的能力满足一套平台管理多套数据平台。历史数据更新频繁,通过湖仓一体数据接入方式实现数据更新实时变化。某保险公司|湖仓一体打造企业级大数据能力支撑架构(1/2)01020304UpdateUpdateUpdateR

a

w

tableETL

TableAETL

TableB增量查询增量查询海量离线数据+实时数据「更新、合并」需求,通过湖仓一体架构解决。05数据源离线数据+实时数据写失败,数据「回滚」需求,通过湖仓一体架构解决。06新文件原始文件更新后的文件

新增加的Delta

Files某保险公司|湖仓一体打造企业级大数据能力支撑架构(2/2)THANKS基于人工智能及大数据的综合智能交通管理平台功能简介02建设预期成效03互联网技术及手段04建设背景01目录CONTENTS建设背景新基建背景下智慧停车的发展现状及未来趋势近年来,国家陆续出台了多项停车行业相关政策文件,各级政府工作报告和“十四五”规划也将“增加停车场”和“智慧停车场数字化应用”列为改善民生、扩大需求、打造数字生态的重要任务之一。2020年4月,国家发改委首次明确了“新基础设施”的范围,在信息基础设施建设上,5G、物联网、数据中心、智能计算中心与智慧停车密切相关。在新基建大力推进智慧交通背景下,智慧停车的普及应用成为城市交通管理的新趋势。2015年,《城市停车设施规划导则》,建设城市停车信息综合管理服务平台,建立统一的数据接口和交换机制2017年,《智慧交通让出行更便捷行动方案(2017-2020)》,鼓励规范城市停车新模式发展2019年,《数字交通发展规划纲要》,推动“互联网+”使击交通发展,鼓E和规范发展定制公交、智能亭车、智能公交、汽车准修、网含舜批租车、互联对租赁自行车、小微趣客车分时租赁等城书出行服务新态2021年,《关于推动城市停车设施发展的意见》,到2025年,全国大中小城市基本建成配建停车设施为主、路外公共停车设施为辅、路内停车为补充的城市停车系统,社会资本广泛参与,信息技术与停车产业深度融合2022年1月,《“十四五”现代综合交通运输体系发展规划》,提出要坚持创新驱动发展,推动新技术与交通行业深度融合。着重强调要稳妥发展自动驾驶和车路协同等出行服务,鼓励自动驾驶在港口.物流园区等限定区域测试应用。推动发展智能公交、智慧停车、智慧安检等随着城市经济快速发展,居民生活条件改善,汽车保有量的不断增长,车多、位少、车难停的矛盾日益突出,解决停车问题也是各地一项重要的惠民工程。截至2022年4月,我国机动车保有量已达4.02亿辆,其中汽车3.07亿辆。目前,全国停车位缺口保守估计超过5000万个泊位。据报道,北京、上海、广州、深圳、南京等城市的停车位缺口已达690~150万个城市停车现状及问题城市停车项目建设初期未明确平台定位,平台开放能力不足,建设后满足不了管理方的需求,让停车资源整合接入举步维艰,与其他监管平台和运营平台的对接困难。01城市中心区域停车位严重不足、占道停车、停车混乱,区域的冷热不均、资源错配导致的部分区域车位“相对过剩”;缺乏引导机制,车主找车位困难,因盲目寻找停车位造成道路无效交通流现象突出,同时增加了尾气排放。0203面对日益增多的机动车乱停、非机动车占道等不文明现象,缺乏监管,加剧道路拥堵;同时依法应当采取行政强制措施扣留或拖移车辆的具体行政行为也在不断增多,缺乏信息化处理手段。04缺乏顶层设计车位紧缺,引导不足管理手段落后违法停车屡禁不止停车场管理无信息化支撑,停车收费不规范,效率低下;聘请人员多,大大增加运营管理成本。功能简介综合智能交通管理平台业务场景无人值守停车场大型商业综合体停车场新能源车位路外停车管理双模地磁检测高位视频检测路内停车管理交通引导信息发布交通引导违法停车检测执法扣车处理违法停车管理业务场景:路外停车管理-无人值守停车场通过高清车辆识别技术结合智能道闸及自助缴费,适用于移动便捷支付,车辆进出自动检索,扫描二维码缴费出入,减轻车辆进出拥挤,提升车主感受度。智能车牌识别可以识别多种类型的车辆,让车辆高效率的进出,减少车辆进出场的时间成本,提高停车场的运营效率。多种便捷支付多种支付方式、移动支付、自助机支付支付、APP支付、无感支付等多样化支付方式。云平台管理功能云平台管理功能,支持车辆授权管理、电子优惠券折扣、远程报表、智能运维数据分析、实时远程监管等功能。业务场景:路外停车管理–大型商业综合体停车场采用智能车牌识别技术和快速道闸技术,以车辆快速通行管理、自助缴费、车位诱导、便捷寻车等系统等为核心功能,实现商业消费、人员、车位信息共享,提高资源利用率。车牌/ETC智能识别,支持提前支付停车费用通过车位诱导屏发布停车位信息,方便车主寻找车位,实现便捷快速泊车视频检测器探测车位占用情况,停车车辆图像被获取并立即转换成数据传输到后台数据中心,相应车位随之变成被占用状态可利用查询机输入车牌号码查询到指定车辆的停放位置,查询机生成相应的地图路径指引用户找到车辆高效通行车位诱导车位监测寻车导航业务场景:路外停车管理–新能源车位通过对驶入车位的车辆号牌精准识别后与地锁联动进行区分管理。当识别到新能源车或有权限车辆的情况下,控制地面车位锁自动解锁降下,让车辆正常靠泊充电,并将车牌号上传平台。等车辆驶离车位时,相机识别车辆离开车位,记录停车时间车位锁自动升起。而当识别到燃油车,车位锁将拒绝解锁,燃油车无法驶入车位,从而阻止车位被占。业务场景:路内停车管理–双模地磁检测检测准确率高采用微波雷达和地磁双模检测技术,车位检测准确率高达99.5%以上;易安装,维护简便无线通信,内置电池,无需布线,安装简单;地磁功耗极低,可持续工作超过5年,不需经常维护与升级;支持蓝牙天线升级和校准;可拆卸结构设计,支持部件更换;成本低,收益高系统成本低:接入运营商网络。无需自组网;漏收费率低:实时监测,停车时间自动统计,降低跑冒漏流现象。业务场景:路内停车管理–高位视频检测当车辆行驶到车位检测区域时,高位智能识别相机判定该车辆具有较高的停车倾向,进行车牌抓拍,若车辆驶出车位检测区而未停车,则丢弃数据;若该车辆停入车位,则将该车辆的停入时间、车牌号以及占用车位号等信息上传至平台进行计时计费。应用场景部署方式方式一:有路灯杆分布的路段,高位视频相机借杆安装单枪管理3-5车位,双枪管理8车位方式二:无路灯杆分布的路段,高位视频相机立杆安装单枪管理8车位系统架构系统优势停车计费过程无需人工参与,大大降低运营成本。业务场景:交通引导多方式快速引导停车,有效盘活公共停车资源,提高车位利用率,缩短车主找车位的时间,缓解交通拥堵,提升停车体验。手机引导(小程序/微信公众号/百度高德地图)室外电子标牌/大屏引导业务场景:违法停车治理–违法停车检测基于视频流的智能图像识别,利用最新的深度学习与大数据技术,代替人眼,自动分析交通状况。系统可在视频画面划定检测范围,检测车辆模型,进行运动轨迹分析,判断车辆是否停车,不受其他类型车辆如自行车、电动车干扰,同时还可支持设定停车时间、停车区域。业务场景:违法停车治理–执法扣车处理通过利用移动互联网技术,将违法停车车辆的日常管理工作纳入信息化、流程化、规范化的轨道。从前端执法民警执法扣车、车辆转移保管入库、车辆出场等均采用信息化手段进行过程流程管理,并实时更新违法车辆信息报表,使基层公安交通管理部门能够更好的管理违法车辆。平台架构应用系统:智慧停车管理系统–电脑端平台支持多端灵活部署及应用,易于扩展和维护、稳定性好、业务吞吐能力强、支持高并发、访问性能优、用户体验良好。应用系统:智慧停车管理系统–收费员PDA端主要针对路内停车位,在车辆入场后,收费员将车位与车牌号绑定后,系统开始计费,并打印小票供用户支付使用。停车场概览信息录入记录查询异常订单处理应用系统:智慧停车管理系统–管理端面向停车业务主体的管理层使用,便于管理员随时随地掌握平台各项重要数据,针对停车收入、收费员工作考核、停车订单、车流量等数据统计分析。停车场概览信息录入记录查询异常订单处理应用系统:智慧停车管理系统–车主端车主在小程序里搜索车牌号即可查询该车辆的所有停车订单,并通过线上支付完成订单费用支付。同时还支持车位导航、广告查看、电子发票等功能。首页车辆管理订单支付车场导航应用系统:违法停车治理系统–现场执法端执法扣车外

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论