Kafka如何保证数据可靠性

Kafka的数据可靠性保证

  • 副本数据同步策略
  • ISR机制
  • ack应答机制
  • 故障处理:HW、LEO

1. 副本数据同步策略

两种副本数据同步策略(Kafka选择第二种)

方案 优点 缺点
半数以上完成同步,就发送ack 延迟低 选举新的leader时,容忍n台节点的故障,需要2n+1个副本
全部完成同步,才发送ack 选举新的leader时,容忍n台节点的故障,需要n+1个副本 延迟高

Kafka选择了第二种方案,原因如下:

  • 为了容忍n台节点的故障,第一种方案需要2n+1个副本,而第二种方案只需要n+1个副本,而Kafka的每个分区都有大量的数据,第一种方案会造成大量数据的冗余。
  • 虽然第二种方案的网络延迟会比较高,但网络延迟对Kafka的影响较小。

2. ISR

为了防止Kafka在选择第二种数据同步策略时,因为某一个follower故障导致leader一直等下去,Leader维护了一个动态的in-sync replica set (ISR)。
ISR:同步副本,和leader保持同步的follower集合。当ISR中的follower完成数据的同步之后,leader就会给生产者发送ack。
特殊情况

  • 如果follower长时间未向leader同步数据,则该follower将被踢出ISR,该时间阈值由replica.lag.time.max.ms参数设定(默认:10s)。
  • 如果Leader发生故障,就会从ISR中选举新的leader。

3. ack应答机制

为保证producer发送的数据,能可靠的发送到指定的topic,topic的每个partition收到producer发送的数据后,都需要向producer发送ack(acknowledgement确认收到),如果producer收到ack,就会进行下一轮的发送,否则重新发送数据。
Kafka如何保证数据可靠性
Kafka为用户提供了三种可靠性级别(acks参数):

  • acks=0
    producer不等待broker的ack,broker一接收到还没有写入磁盘就已经返回。
    broker故障时,有可能丢失数据
  • acks=1
    producer等待broker的ack,partition的leader落盘成功后返回ack。
    如果在follower同步成功之前leader故障,那么将会丢失数据
  • acks=-1(all)
    producer等待broker的ack,partition的leader和follower(ISR中的所有follower)全部落盘成功后才返回ack。
    如果在follower同步完成后,broker发送ack之前leader发生故障,此时kafka从ISR中重新选举一个leader,生产者没有收到ack重新发送一份到新leader上,则造成数据重复
    如果ISR中只剩一个leader时,此时leader发生故障,可能会造成数据丢失
    如果一个follower故障,该节点被踢出ISR,只要ISR中所有节点都同步即可返回ack,不影响

4. 故障处理

Kafka如何保证数据可靠性

  • LEO:每个副本的最后一个Offset
  • HW:所有副本中最小的LEO
    (1)follower故障

follower发生故障后会被临时踢出ISR,待该follower恢复后,follower会读取本地磁盘记录的上次的HW,并将log文件高于HW的部分截取掉,从HW开始向leader进行同步。等该follower的LEO大于等于该Partition的HW,即follower追上leader之后,就可以重新加入ISR了。

(2)leader故障

leader发生故障之后,会从ISR中选出一个新的leader,之后,为保证多个副本之间的数据一致性,其余的follower会先将各自的log文件高于HW的部分截掉,然后从新的leader同步数据

注意:这只能保证副本之间的数据一致性,并不能保证数据不丢失或者不重复。(是否丢数据是acks保证)