数据采集和预处理方式高效培训教案_第1页
数据采集和预处理方式高效培训教案_第2页
数据采集和预处理方式高效培训教案_第3页
数据采集和预处理方式高效培训教案_第4页
数据采集和预处理方式高效培训教案_第5页
已阅读5页,还剩35页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、数据采集和预处理方式高效培训教案 教授,清华大学博士。现任南京大数据研究院院长、中国信息协会大数据分会副会长、中国大数据技术与应用联盟副理事长。 主持完成科研项目25项,发表论文80余篇,出版专业书籍15本。获部级科技进步二等奖4项、三等奖4项。主编的被全国高校普遍采用,被引用量排名中国计算机图书第一名。创办了知名的中国云计算()和中国大数据()网站。 曾率队夺得2002 PennySort国际计算机排序比赛冠军,两次夺得全国高校科技比赛最高奖,并三次夺得清华大学科技比赛最高奖。 荣获“全军十大学习成才标兵”(排名第一)、南京“十大杰出青年”、江苏省中青年科学技术带头人、清华大学“学术新秀”等

2、称号。第二章数据采集与预处理2.12.2数据预处理原理2.3数据仓库与ETL工具习题全国高校标准教材?云计算?姊妹篇,剖析大数据核心技术和实战应用大数据采集架构of4232.1大数据采集架构第二章 数据采集与预处理如今,社会中各个机构、部门、公司、团体等正在实时不断地产生大量的信息,这些信息需要以简单的方式进行处理,同时又要十分准确且能迅速满足各种类型的数据信息需求者。这给我们带来了许多挑战,第一个挑战就是在大量的数据中收集需要的数据,下面介绍常用的大数据采集工具。of424概述2.1大数据采集架构第二章 数据采集与预处理FlumeChukwaScribleKafka大数据采集工具of4252

3、.1.2 常用大数据采集工具数据采集最传统的方式是企业自己的生产系统产生的数据,除上述生产系统中的数据外,企业的信息系统还充满着大量的用户行为数据、日志式的活动数据、事件信息等,越来越多的企业通过架设日志采集系统来保存这些数据,希望通过这些数据获取其商业或社会价值。2.1大数据采集架构第二章 数据采集与预处理of426在Flume中,外部输入称为Source源,系统输出称为Sink接收端。Channel通道把Source和Sink链接在一起。Apache Chukwa工程与Flume有些相类似,Chukwa继承了Hadoop的伸缩性和鲁棒性。也内置一个功能强大的工具箱,用于显示系统监控和分析结

4、果。互联网时代,网络爬虫也是许多企业获取数据的一种方式。Nutch就是网络爬虫中的娇娇者,Nutch是Apache旗下的开源工程,存在已经超过10年,拥有大量的忠实用户。Flume体系架构2.1大数据采集架构第二章 数据采集与预处理of4272.1.3 Apache Kafka数据采集Apache Kafka被设计成能够高效地处理大量实时数据,其特点是快速的、可扩展的、分布式的,分区的和可复制的。Kafka是用Scala语言编写的,虽然置身于Java阵营,但其并不遵循JMS标准。Topics话题:消息的分类名。Producers消息发布者:能够发布消息到Topics的进程。Consumers消

5、息接收者:可以从Topics接收消息的进程。Broker代理:组成Kafka集群的单个节点。根本Kafka集群的工作流程2.1大数据采集架构第二章 数据采集与预处理of428 1、TopicsTopics是消息的分类名或Feed的名称。Kafka集群或Broker为每一个Topic都会维护一个分区日志。每一个分区日志是有序的消息序列,消息是连续追加到分区日志上,并且这些消息是不可更改的。 2、日志区分一个Topic可以有多个分区,这些分区可以作为并行处理的单元,从而使Kafka有能力高效地处理大量数据。Topics与日志分析2.1大数据采集架构第二章 数据采集与预处理of429 3、Produ

6、cersProducers是向它们选择的主题发布数据。生产者可以选择分配某个主题到哪个分区上。这可以通过使用循环的方式或通过任何其他的语义分函数来实现。 4、ConsumersKafka提供一种单独的消费者抽象,此抽象具有两种模式的特征消费组:Queuing 和Publish-Subscribe。 5、Apache Kafka的安装及使用因为Kafka是处理网络上请求,所以,应该为其创立一个专用的用户,这将便于对Kafka相关效劳的管理,减少对效劳器上其他效劳的影响。2.1大数据采集架构第二章 数据采集与预处理of4210使用useradd命令来创立一个Kafka用户:$sudo userad

7、d kafka m使用passwd 命令来设置其密码:$sudo passwd kafaka接下来把kafaka用户添加到sudo管理组,以便kafaka用户具有安装Apache Kafka依赖库的权限。这里使用adduser命令来进行添加:$sudo adduser kafka sudo这时就可以使用kafka账户了。 切换用户可以使用su命令:$su - kafka在Apache Kafka安装所依赖的软件包前,最好更新一下apt管理程序的软件列表:$sudo apt-get updateApache Kafka需要Java运行环境,这里使用apt-get命令安装default-jre包,

8、然后安装Java运行环境:$sudo apt-get install default-jre通过下面的命令测试一下Java运行环境是否安装成功,并查看Java的版本信息:$java -version2.1大数据采集架构第二章 数据采集与预处理of4211机器有如下显示:2.1大数据采集架构第二章 数据采集与预处理of42122.1大数据采集架构第二章 数据采集与预处理of42132.1大数据采集架构第二章 数据采集与预处理of42142.1大数据采集架构第二章 数据采集与预处理of42156、使用Java来编写Kafka的实例首先,编写KafkaPperties文件:zk

9、.connect = localhost:2181broker.list = localhost:9092request.required.acks = 1下面的代码是使用Java编写了一个Kafka消息发布者:import ducer.Producer;import ducer.KeyedMessage;import ducer.ProducerConfig;public class MyKafkaProducer private Producer producer;private final String topic;p

10、ublic MyKafkaProducer(String topic) throws Exception InputStream in = Properties.class.getResourceAsStream(KafkaPperties);Properties props = new Properties();props.load(in);ProducerConfig config = new ProducerConfig(props);producer = new Producer(config);public void sendMessage(String msg

11、)KeyedMessage data = new KeyedMessage( topic, msg);producer.send(data);producer.close();public static void main(String args) throws ExceptionMyKafkaProducer producer = new MyKafkaProducer(HelloTopic);String msg = Hello Kafka!;producer. sendMessage(msg);2.1大数据采集架构第二章 数据采集与预处理of4216下面创立Comsumer,首先编写Ka

12、fkaProperties文件:zk.connect = localhost:2181group.id = testgroupzookeeper.session.timeout.ms = 500zookeeper.sync.time.ms = 250auto erval.ms = 1000上述参数配置,十分容易理解,具体的详细说明,可以参考Kafka的官方文档。下面的代码是使用Java编写了一个Kafka的Comsumer。import java.io.InputStream;import java.util.HashMap;import java.util.List;impor

13、t java.util.Map;import java.util.Properties;import kafka.consumer.ConsumerConfig;import kafka.consumer.ConsumerIterator;import kafka.consumer.KafkaStream;import kafka.javaapi.consumer.ConsumerConnector;import kafka.consumer.Consumer;public class MyKafkaConsumer private final ConsumerConnector consum

14、er;private final String topic;public MyKafkaConsumer(String topic) throws ExceptionInputStream in = Properties.class.getResourceAsStream(KafkaPperties);Properties props = new Properties();props.load(in);ConsumerConfig config = new ConsumerConfig(props);consumer = Consumer.createJavaConsum

15、erConnector(config);this.topic = topic;public void consumeMessage() Map topicMap = new HashMap();topicMap.put(topic, new Integer(1);MapString, ListKafkaStream consumerStreamsMap =consumer.createMessageStreams(topicMap);ListKafkaStream streamList = consumerStreamsMap.get(topic);for (final KafkaStream

16、 stream : streamList) ConsumerIterator consumerIte = stream.iterator();while (consumerIte.hasNext()System.out.println(message : + new String(consumerIte.next().message();if (consumer != null)consumer.shutdown();public static void main(String args) throws ExceptionString groupId = testgroup;String to

17、pic = HelloTopic;MyKafkaConsumer consumer = new MyKafkaConsumer(topic);consumer.consumeMessage();第二章数据采集与预处理2.12.2数据预处理原理2.3数据仓库与ETL工具习题全国高校标准教材?云计算?姊妹篇,剖析大数据核心技术和实战应用大数据采集架构of42172.2数据预处理原理第二章 数据采集与预处理通过数据预处理工作,可以使残缺的数据完整,并将错误的数据纠正、多余的数据去除,进而将所需的数据挑选出来,并且进行数据集成。数据预处理的常见方法有数据清洗、数据集成与数据变换。of42182.2数据

18、预处理原理第二章 数据采集与预处理填 充缺 失值数据属性分为数值属性和非数值属性进行处理,通过利用已存数据的多数信息来推测缺失值数据属性分为数值属性和非数值属性进行处理,通过利用已存数据的多数信息来推测缺失值大量采用同一属性值,可能会误导挖掘程序得出有偏差甚至错误的结论数据偏离的问题小,但该方法十分费时,不具备实际的可操作性通常当在缺少类标号时,通过这样的方法来填补缺失值利用均值替换缺失值忽略元组人工填写缺失值使用一个全局常量填充缺失值用属性的均值填充缺失值用同类样本的属性均值填充缺失值使用最可能的值填充缺失值of42192.2.1 数据清洗2.2数据预处理原理第二章 数据采集与预处理of42

19、20分箱方法通过考察某一数据周围数据的值,即“近邻”来光滑有序数据的值。分箱01回归02光滑数据可以通过一个函数拟合数据来实现。线性回归的目标就是查找拟合两个属性的“最佳”线,使得其中一个属性可以用于预测出另一个属性。聚类03离群点可通过聚类进行检测,将类似的值组织成群或簇,离群点即为落在簇集合之外的值。许多数据光滑的方法也是涉及离散化的数据归约方法。噪声是被测量的变量的随机误差或方差。给定一个数值属性,如何才能使数据“光滑,去掉噪声?下面给出数据光滑技术的具体内容。2.2数据预处理原理第二章 数据采集与预处理of4221数据清洗可以视为一个过程,包括检测偏差与纠正偏差两个步骤:2纠正偏差1检

20、查偏差可以使用已有的关于数据性质的知识发现噪声、离群点和需要考察的不寻常的值。这种知识或“关于数据的数据称为元数据。即一旦发现偏差,通常需要定义并使用一系列的变换来纠正它们。但这些工具只支持有限的变换,因此,常常可能需要为数据清洗过程的这一步编写定制的程序。2.2数据预处理原理第二章 数据采集与预处理1模式集成和对象匹配问题2冗余问题3元组重复4数据值冲突的检测与处理问题数据挖掘经常需要数据集成合并来自多个数据存储的数据。数据还可能需要变换成适于挖掘的形式。数据分析任务多半涉及数据集成。问题of42222.2.2 数据集成2.2数据预处理原理第二章 数据采集与预处理 1、光滑。去除数据中的噪声

21、 2、聚集。对数据进行汇总或聚集。3、 数据泛化。使用概念分层,用高层概念替换低层或“原始数据 4、标准化。将属性数据按比例缩放,使之落入一个小的特定区间5、属性构造。可以构造新的属性并添加到属性集中,以帮助挖掘过程of42232.2.3 数据变换数据变换的目的是将数据变换或统一成适合挖掘的形式。数据变换主要涉及以下内容:第二章数据采集与预处理2.12.2数据预处理原理2.3数据仓库与ETL工具习题全国高校标准教材?云计算?姊妹篇,剖析大数据核心技术和实战应用大数据采集架构of42242.3 数据仓库与ETL工具第二章 数据采集与预处理数据仓库中的数据来自于多种业务数据源,这些数据源可能处于不

22、同硬件平台上,使用不同的操作系统,数据模型也相差很远。如何获取并向数据仓库加载这些数据量大、种类多的数据,已成为建立数据仓库所面临的一个关键问题。of42252.3.1 数据仓库与ETL工具数据仓库,是在企业管理和决策中面向主题的、集成的、随时间变化的、非易失性数据的集合。2.3 数据仓库与ETL工具第二章 数据采集与预处理如何获取并向数据仓库加载数据量大、种类多的数据,一般要使用专业的数据抽取、转换和装载工具,这些工具合并起来被称为ETLExtract-Transform-Load。Informatica PowerCenter常用ETL工具IBM DatastageWarehouse Bu

23、ilder(OWB)Oracle Data Integrator(ODI)Microsoft SQLServer Integration Services开源Kettleof42262.3.2 常用ETL工具2.3 数据仓库与ETL工具第二章 数据采集与预处理of4227PowerCenterIBM DatastageKettleInformatica的PowerCenter是一个可扩展、高性能企业数据集成平台,应用于各种数据集成流程,通过该平台可实现自动化、重复使用及灵活性IBM InfoSphere DataStage是一款功能强大的ETL工具,是IBM数据集成平台IBM Informat

24、ion Server的一局部,是专门的数据提取、数据转换、数据发布的工具。Kettle是Pentaho中的ETL工具,Pentaho是一套开源BI解决方案。Kettle是一款国外优秀的开源ETL工具,由纯Java编写,可以在Windows、Linux、UNIX上运行,无须安装,数据抽取高效稳定。2.3 数据仓库与ETL工具第二章 数据采集与预处理of422801(1)Chef可使用户创建任务(Job)。它是提供图形用户界面的工作设计工具。02(2)Kitchen可使用户批量使用由Chef设计的任务,一般在自动调度时借助此命令调用调试成功的任务。它是一个后台运行的程序,以命令行方式,没有图形用户界面。03(3)Spoon可使用户通过图形界面来设计ETL转换过程,一般在编写和调试ETL时用到。04(4)Span可使用户批量运行由Spoon设计的ETL转换,Span是一个后台执行的程序,以命令行方式,没有图形界面,一般在自动调度时借助此命令调用调试成功的转换。Kettle目前包括如下4个产品:2.3 数据仓库与ETL工具第二章 数据采集与预处理案例:Kettle数据迁移可以在Kettle的官网下载进入主界面在“输入文件夹下选择“表输入,并把它拖动到右侧编辑区of42292.3.3 案例:Kettle数据迁移2.

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论