




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
Apache
KafkaKafka是由LinkedIn开发分布式消息系统,使用scala编写,因可水平扩展和高吞吐量而广泛使用。
Cloudera、Storm、spark都可以与之集成。生产者通过网络发送消息给kafka集群,由消费者消费。Kafka简介Topic消息被发送时依据的都 了分区的log。。每个在集群中Kafka简介Topic每个分区都是有序、不可变的消息序列,持续追加在提交log末端。分区中的消息都指定了序列号称为offset,唯一标识分区中的消息。kafka集群保留所有已发布消息,不论是否消费,可以通过配置时间周期进行控制。consumer中唯一保留的元数据就是位置,称为offset。offset由consumer控制,通常consumer在消息时早于offset,但实际上可以任何顺序处理消息。Kafka简介Topicconsumer来去,对别人没有任何影响。分区机制使得log超过单个server的容量,单纯一个分区必须符合所在server的容量,但往往一个可以有多个分区。分区用于并行单元的处理。Kafka简介分布式log的分区被分发到集群的server上,每个server都处理数据并请求分区的共享。每个分区在集群上配置副本用于容错。每个分区都有一个server作为leader,其他作为follower。leade处理分区的所有读写请求,follower leader。Kafka简介Producer发布消息到,负责消息指派给 中的哪个分区。可以使用轮询方式或key方式。可以同步也可以异步,producer还有buffer,可以缓冲数据,批量发送。Consumer队列模式下,消息被一个consumer消费,发布订阅模式消息被多个consumer消费。kafka做了抽象,定义了consumergroup,每个group中只有一个consumer能够消费topic上的消息。将队列模式和 模式 起来了。Kafka简介Consumer相较于传统消息系统,kafka有着强顺序性。Kafka简介kafkakafka_2.11-.tgz解压Kafka$>tar
-xzvf
kafka_2.11-.tgz安装所需项$>jdk1.6+安装KafkaSingle
Node-Single
Broker在一台主机上安装kafka集群。安装Kafka集群Single
Node-Single
Broker启动zk服务器$>bin/zookeeper-server-start.sh
config/perties[perties]dataDir=/tmp/zookeeperclientPort=2181启动broker$>bin/kafka-server-start.sh
config/perites[perties]Broker.id=0log.dir=zookeeper.connect=安装Kafka集群Single
Node-Single
Broker启动zk服务器$>bin/zookeeper-server-start.sh
config/perties[perties]dataDir=/tmp/zookeeperclientPort=2181启动broker$>bin/kafka-server-start.sh
config/perites[perties]Broker.id=0
|
log.dir=
|
zookeeper.connect=安装Kafka集群Single
Node-Single
Broker创建Kafka$>bin/kafka-create-topic.sh
--zookeeper
locahost:2181--replica
1--partition1--topic
kakfatopic启动生产者发送消息$>bin/kakfa-console-producer.sh--broker-list
localhost:9092--topic
kafkatopic安装Kafka集群Single
Node-Single
Broker启动Consumer消费消息$>bin/kakfa-console-consumer.sh--zookeeper
localhost:2181--topic
kafkatopic--from-beginningConsumer默认配置文件是perties。groupid=test-consumer-grouperzookeeper.connect=localhost:2181安装Kafka集群Single
Node-Multiple
Broker在单个节点上安装多个broker。安装Kafka集群Single
Node-Multiple
Broker启动zookeeper同上启动多个broker,每个对应一个配置文件
[perties
for
broker1]broker.id=1port=9092log.dir=/xx/x/x[perties
for
broker1]broker.id=2port=9093log.dir=/xx/x/x安装Kafka集群Single
Node-Multiple
Broker启动多个broker,每个对应一个配置文件$>bin/kafka-server-start.sh
perties$>bin/kafka-server-start.sh
perties创建kafka$>bin/kafka-create-topic.sh
--zookeeper
localhost:2181--replica
2--partition2--topic
othertopic安装Kafka集群Single
Node-Multiple
Broker创建Producer发送消息$>kafka-console-producer.sh--broker-list
localhost:9092,localhost:9093--topic
othertopic启动consumer消费消息$>kafka-console-consumer.sh--zookeeper
localhost:2181--topic
othertopic--from-beginning安装Kafka集群Multiple
Node-Multiple
Broke在多个节点上配置多个Broker组件。安装Kafka集群Kafka设计基础Kafka中的消息压缩kafka的集群镜像Kafka的Kafka的设计Kafka设计基础生产者发布消息给
,器的角色。消费者订阅由broker创建,扮演服务获得消息。Kafka的设计Kafka设计基础消费者分成组,每个组中只有一个消费者可以消费消息。消息的状态 在消费者中,broker没有任何消费记录。因此如果自定义consumer的话,过于简单会导致多次消息处理。kafka的
是消息缓存和
。在kafka中,消息被即可写入到OS的内核page。数据的缓存和清理操作是可配置的。即使消息被处理后也可以驻留更长时间以备重复消费。Kafka对分组消息使用消息集合来允许更少的网络消耗。Kafka中消费者
在zk中,也可以是其他的OLTP中。kafka中的生产消费以推拉模型工作。Kafka的设计Kafka消息压缩生产者使用GZIP或snappy压缩消息,消费者解压消息。这会降低网络负载。为了在压缩与解压缩消息间进行区分,在消息头信息中引入了压缩属性字节。该字节最低的两个位代表压缩编,如果是0表示未压缩的消息。消息压缩技术在跨数据中心的镜像数据非常有用,届时大量的消息会使用压缩格式进行传输。Kafka的设计Kafka集群镜像Kafka镜像特性用来创建现有集群的副本。Kafka提供了镜像maker工具。镜像工具的作用是从源集群中消费消息并在目标集群中重新发布消息。Kafka的设计Kafka副本Kafka中的消息分区是在Broker中进行的。消息生产者决定消息如何进行分区,broker以相同顺序 这些消息。分区数量可以在broker中对每个topic尽心配置。副本确保了在broker故障的时候,仍能够发布和消费消息。生产者和消费这都是副本化的。Kafka的设计Kafka副本。Kafka的设计Kafka副本。在副本模式下,每个消息分区都有n个副本,可以承受n-1故障来继续消息的分发。有一个副本扮演着lead角色。zk中存放着lead的信息。每个部分使用本地log和offset存放对应的消息部分并周
期性的同步到disk。该过程确保了消息写入到所有副本。选择新lead的过程就是所有follow
副本的过程,第一个
的follow就成为lead。Kafka的设计Kafka副本。Kafka支持两种副本模式同步生产者从zk中找到lead然后发布消息,消息发布后,就写入lead的log中然后所有follow使用一个channel都开始pull消息,确保其顺序的正确性。一旦消息写入到相应的log,follow就向lead发送确认信息。当lead收到所有follow的确认信息后,lead再发送确认信息给生产者。异步lead将消息写入到log后,立即发送确认信息给客户端,不需要等待follow的确认过程。该模式无法保证在broker故障时消息的分发。Kafka的设计生产者是产生消息并发送到broker,供consumer消费。Kafka
API基于java的简单Kafka
producer使用消息分区的基于java的Kafkaproducer编写生产者java
Kafka
API编写生产者java
Kafka
APIProducer是泛型化类,k是分区的类型,v是分区的值。//
、key、valueclass
KeyedMessage[K,V](val
top:String,val
key:K,val
m:V)//封装诸如BrokerList、分区类、串行化类等信//息class
ProducerConfig编写生产者java
Kafka
API构建消息并进行发送props.put("broker.list",
"localhost:9092");props.put("serializer.class",
"kafka.serializer.StringEncoder");props.put("request.required.acks",
"1");producer
=
new
Producer<Integer,
String>(new
ProducerConfig(props));String
messageStr
=
new
String(" o
from
Java
Producer");KeyedMessage<Integer,
String>
data=
new
KeyedMessage<Integer,String>(topic,
messageStr);producer.send(data);完整代码见备注。编写生产者消息分区的Producerprops.put("partitioner.class",
"test.kafka.SimplePartitioner");props.put("request.required.acks",
"1");Producer
p
=
new
Producer<Integer,String>(config);package
test.kafka;import
ducer.Partitioner;public
class
SimplePartitioner
implements
Partitioner<Integer>
{public
int
partition(Integer
key,
int
numPartitions)
{return
key
%
numPartitions;}}完整代码见备注。编写生产者1.Topic数量问题在0.8.0版本以后,kafkaflush就已经是异步的了。所以文件数量要到非常大的时候才会成为瓶颈。举个例子,在LinkedIn的时候的一个集群一般是128到256台机器,每个集群上可能有几百甚至个topic,每一个topic从8个到2000多个partition不等,平均到一台机器上会有几千个partition(机器的open
file
handler都是调到30000个),依然没有看到IO造成的性能损失。2.
极限情况下丢消息如果在replication情况下,并且发送客户端(producer)的ACK设置成
>
1或者-1(即等待多个或者所有replica都
消息才回复)的情况下,宕机并硬盘损坏也不会发生丢信息的情况。断电情况下,就是说你集群的一部分机器都挂了的时候,一般比较高端的集群都
只会挂掉一整个rack但是不会是整个数据中心,如果replication的数据在不同rack上面的话依然不会丢包。在
的0.10版本里面用户可以更轻松的配置
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 住宅老旧电梯更新改造的具体实施步骤
- 大学通识教育教学内容的更新与整合策略
- 家庭装修工程合同模板
- 陶瓷行业加盟合同8篇
- 废旧纺织品运输回收协议
- 体验店装修分包合同模板
- 2025年度土石方挖运与生态修复同步实施合同
- 游泳池内外墙翻新协议
- 小学二年级数学两位数加两位数计算过关作业题大全附答案
- 三位数加减三位数计算能力作业例题带答案
- 产品设计与开发的系统工程方法
- 脊柱骨折与脊髓损伤护理课件
- 预防留置针脱落
- 痛风护理疑难病例讨论
- 《大学生职业能力训练》
- 人民警察忠诚品质
- 冠状动脉搭桥手术后的健康生活促进
- 小学二年级语文上册阅读理解专项训练20篇(含答案)
- 2024年中考语文名著阅读知识(考点)专题10《水浒传》真题精练(单一题)(解析版)
- 新能源电力市场与电力交易
- 《英国饮食文化》课件
评论
0/150
提交评论