大数据集成产品介绍范文_第1页
大数据集成产品介绍范文_第2页
大数据集成产品介绍范文_第3页
大数据集成产品介绍范文_第4页
大数据集成产品介绍范文_第5页
已阅读5页,还剩2页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

大数据集成产品介绍范文第一篇大数据集成产品介绍范文第一篇在构建数据仓库的场景中,数据加载到数仓后,随后进行数据加工和数据应用,其中涉及的3类大数据产品如下:

数据集成:面向数据汇聚与交换

产品流程:配置数据源-->创建同步任务-->配置调度任务

核心任务:ETL、校验、补数、合并

数据加工:面向数据分析

产品流程:创建表-->编写加工逻辑(insert)-->配置调度任务

数据加工方式:离线计算、实时计算、机器学习等

任务调度:工作流编排

产品流程:创建任务节点-->配置节点依赖关系-->提交并执行

任务调度:任务执行、任务调度与运维

1)联系

数据集成和数据加工都是数据生命周期中的一环

数据集成任务和数据加工任务其实就是任务调度中的任务节点job,任务调度保证数据被顺序采集和加工出来

以用户画像分析为例,oss_数据同步和rds_数据同步两个节点是数据集成任务节点,ods_log_info_d、dws_user_info_all_d、rpy_user_info_d三个节点是数据加工任务节点,绘制各节点间的连线即工作流编排。

提交并执行画布中的流程节点,数据就会按照箭头方向执行各节点,产出最终结果。

2)区别

数据集成和数据加工虽然都是ETL,但是各自的重点并不相同

核心动作

数据集成核心动作是抽数(读、写、转换),也就是数据交换。转换动作也只是简单的数据清洗

数据加工的核心动作是计算逻辑/清洗等加工规则的编写。加工规则复杂

核心目标

数据集成的核心目标是保证数据被高效准确的迁移到目标端数据源

数据加工的核心目标是加工规则编写准确“翻译”业务需求

数据集成产品流程

离线集成与实时集成在实际运行中,的侧重点是不同的,对于离线集成,面对的是批数据,更多考虑大规模数据量的迁移效率问题,对于实时集成,面对的是流数据,更多考虑数据准确性问题。

大数据集成产品介绍范文第二篇离线集成分为全量和增量两种方式对大规模数据进行批量迁移,

全量迁移是将某些表的全部历史数据同步到目标数据源中(指定时间范围)

增量迁移,通常需要使用where子句(RDB)或者query子句(MongoDB)等增量配置参数,同时在结合调度参数(定时任务的重复周期:分钟、小时、天、周、月等)可实现增量迁移任意指定日期内的数据。

比如,想要实现每日数据的增量同步,各参数可配置为:

Where子句:配置为DS='${dateformat(yyyy-MM-dd,-1,DAY)}',

配置定时任务:重复周期为1天,每天的凌晨0点自动执行作业

增量迁移的数据可以对目标端数据源表中数据进行追加、覆盖和更新操作。

离线集成SQL实现逻辑如下:

-完-

大数据集成产品介绍范文第三篇我们主要采用基于日志的CDC方式来实现增量数据的实时同步,CDC即changedatacapture,捕获数据的变化。

实时集成通过读取源端数据库日志bin_log来捕获数据的变化情况(insert、update、delete),将其传输到kafkatopic中,然后通过sparkstreaming对数据进行转换/清洗,写入到stg增量表中,最后将增量数据与全量数据合并到数仓ods表中。

由于数据库日志抽取一般是获取所有的数据记录的变更(增、删、改),落到目标表时,需要根据主键去重,并按照日志时间倒序排列获取最后状态的变化情况。

具体的实时集成任务执行逻辑及流程如下所示:

实时集成有以下特点:

故相较于离线集成,在数据同步链路上,实时集成会增加数据校验和数据合并两个动作。

大数据集成产品介绍范文第四篇数据同步致力于保证数据在不同数据源之间被高效准确地迁移。根据数据时效性要求和应用场景,数据同步可分为离线同步和实时同步:

1)离线同步

主要用于大批量数据的周期性迁移,对时效性要求不高,一般采用分布式批量数据同步方式,通过连接读取数据,读取数据过程中可以有全量、增量方式,经过统一处理后写入目标存储。

成熟的产品有:Sqoop、DataX、kettle等。

2)实时同步

针对数据时效性要求高的场景,其将源端数据的变化实时同步到目标端数据源中,保证源端数据与目标端数据实时保持一致,就可满足业务实时查询分析使用数据或实时计算等需求。

成熟的产品有:Canal、otter等。

在实际业务场景中,离线同步和实时同步搭配使用,为保证已有的数据表在目标端数据源中可用,会使用离线同步将该表的历史数据全量迁移到目标端数据源中,对于增量数据则通过实时集成来增量迁移。

大数据集成产品介绍范文第五篇在构建数据仓库的场景中,数据加载到数仓后,随后进行数据加工和数据应用,其中涉及的3类大数据产品如下:

1)数据集成:面向数据汇聚与交换

产品流程:配置数据源—创建同步任务—配置调度任务。

核心任务:ETL、校验、补数、合并。

2)数据加工:面向数据分析

产品流程:创建表—编写加工逻辑(insert)—配置调度任务。

数据加工方式:离线计算、实时计算、机器学习等。

3)任务调度:工作流编排

产品流程:创建任务节点—配置节点依赖关系—提交并执行。

任务调度:任务执行、任务调度与运维。

联系:

以用户画像分析为例,oss_数据同步和rds_数据同步两个节点是数据集成任务节点,ods_log_info_d、dws_user_info_all_d、rpy_user_info_d三个节点是数据加工任务节点,绘制各节点间的连线即工作流编排。

提交并执行画布中的流程节点,数据就会按照箭头方向执行各节点,产出最终结果。

区别:数据集成和数据加工都基于任务执行和调度实现,两者虽然都是ETL,但是各自关注的重点并不相同。

①核心动作

数据集成核心动作是抽数(读、写、转换),也就是数据交换,转换动作也只是简单的数据清洗。

数据加工的核心动作是计算逻辑/清洗等加工规则的编写,加工规则复杂。

②核心目标

数据集成的核心目标,是保证数据被高效准确地迁移到目标端数据源。

数据加工的核心目标,是加工规则编写准确“翻译”业务需求。

大数据集成产品介绍范文第六篇实时集成一般采用先全量在增量的方式来进行数据的迁移,即先将历史数据全量迁移到目标数据源,完成初始化动作,在进行增量数据的实时同步,这样保证目标端数据的可用性。当然也有不care历史数据的场景,此时就无需进行全量迁移的动作。

我们主要采用基于日志的CDC方式来实现增量数据的实时同步。CDC即changedatacapture,捕获数据的变化。实时集成通过读取源端数据库日志bin_log来捕获数据的变化情况(insert、update、delete),将其传输到kafkatopic中,然后通过sparkstreaming对数据进行转换/清洗,写入到stg增量表中,最后将增量数据与全量数据合并到数仓ods表中。

具体的实时集成任务执行逻辑及流程如下所示:

实时集成有以下特点:

源端数据库产生一条记录,数据集成实时同步一条记录,

流数据在数据传输过程中可能会被丢失或延迟

故相较于离线集成

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论