关于apache:直播回顾|-Apache-Pulsar-2100-新特性概览

3次阅读

共计 7322 个字符,预计需要花费 19 分钟才能阅读完成。

对于 StreamNative

StreamNative 是一家开源根底软件公司,由 Apache 软件基金会顶级我的项目 Apache Pulsar 开创团队组建而成,围绕 Pulsar 打造下一代云原生批流交融数据平台。StreamNative 作为 Apache Pulsar 商业化公司,专一于开源生态和社区构建,致力于前沿技术畛域的翻新,开创团队成员曾就任于 Yahoo、Twitter、Splunk、EMC 等出名大公司。

导语:本文是 Apache Pulsar PMC 成员,StreamNative 首席架构师李鹏辉在 TGIP-CN 037 直播流动的文字整顿版本。Pulsar 2.10.0 版本行将公布,本场直播为大家带来 Apache Pulsar 2.10.0 的次要新个性及版本解读,解答大家对新版本对于技术细节的疑难。

点击 查看回顾视频

Pulsar 2.10.0 蕴含来自于 99 位贡献者的 1000+ commits,其中诸多奉献来自于国内的贡献者,感激大家对 Pulsar 的反对与奉献。 本次版本公布是一次新的里程碑,如此多的 commit 数量也为文档带来了降级;Apache Pulsar 网站降级中,新网站 Beta 版本对文档进行了从新归档与欠缺,欢送大家试用并提出宝贵意见。

Apache Pulsar 2.10.0 版本新个性内容包含:

  • 去除对 ZooKeeper 的强依赖;
  • 新的生产类型 TableView;
  • 多集群主动故障转移;
  • Producer Lazy Loading + Partial RoundRobin;
  • Redeliver Backoff;
  • Init Subscription for DLQ;
  • 引入多集群全局 Topic Policy 设置反对以及 Topic 级别的跨地区复制配置;
  • ChunkMessageId;
  • 减少批量操作 Metadata 服务的反对:能够在大量 Topic 的场景下晋升 Pulsar 稳定性;

去除对 ZooKeeper API 强依赖

ZooKeeper 是 Pulsar 中应用十分宽泛的一个 API,旧版对该 API 的依赖无处不在,但这种依赖不利于用户抉择其余类型的元数据服务。为了解决这一问题,Pulsar 通过多个版本的迭代,做了大量筹备和测试工作后终于在 2.10.0 版本去除了对 ZooKeeper 的强依赖。

目前新版反对 三种 元数据服务:

  • ZooKeeper
  • Etcd
  • RocksDB(standalone)

其中须要留神的是 Etcd 目前没有很好的 Java 客户端,综合考量应用要谨慎。此外从 benchmark 测试问题来看 ZooKeeper 与 Etcd 的性能是相近的,用户能够依据本身状况来抉择。

该个性的提案是 PIP 45 : Pluggable metadata interface(Metadata Store + Coordination Service)。顾名思义,这里的 Metadata Store 是一个元数据存储,而 Coordination Service 则提供了一个中心化服务来取得全局锁。

2.10 版本还减少了 Metadata 批量操作反对,升高客户端与服务端交互需要,大幅加重了 metadata 的操作压力。

# The metadata store URL
# Examples:
# * zk:my-zk-1:2181,my-zk-2:2181,my-zk-3:2181
# * my-zk-1:2181,my-zk-2:2181,my-zk-3:2181 (will default to ZooKeeper when the schema is not specified)


# * zk:my-zk-1:2181,my-zk-2:2181,my-zk-3:2181/my-chroot-path (to add a ZK chroot path) 

metadataStoreUrl=

# The metadata store URL for the configuration data. If empty, we fall back to use metadataStoreUrl configurationMetadataStoreUrl=

以上就是新个性的 API 实现,能够看到上述配置参数曾经不再须要 ZooKeeper。但去除对 ZooKeeper 的依赖并不代表会将其移除。思考到 ZooKeeper 还有大量用户,应用较为宽泛,所以短期内官网并不会思考删除实现,而只是将其插件化来方便使用。

更多加重 ZooKeeper 依赖细节,能够浏览博客 Apache Pulsar 轻装上阵:迈向轻 ZooKeeper 时代。

新的生产类型 TableView

Pulsar 的生产模式比拟多样化,现在 2.10 版本再引入了 TableView,这是一个相似于 KV 的表格服务。它是一个不反对写入的纯视图,能够间接在客户端内存构建表格视图,适宜数据量不大的场景生成视图。但 TableView 不太适合数据量较大、单台机器的内存都难以承受的场景。

TableView 可用于配合 Topic Compaction,后者能够在服务端做 Key 的压缩。这一个性的原理是只在一个 snapshot 中保留 key 的最新状态,consumer 须要时只需查看这个 snapshot,而无需去耗费更多老本读取原始 backlog。TableView 能够与该个性无缝连接,复原 TableView 时就能够间接利用 broker 生成的 snapshot,从而减小复原开销。原视频 22 分处具体介绍了这种压缩的机制和应用场景。

try (TableView<byte[]> tv = client. newTableViewBuilder (Schema.BYTES)
        .topic ("public/default/tableview-test")
        .autoUpdatePartitionsInterval(60, TimeUnit.SECONDS)
        .create()) {System.out.println("start tv size:" + tv.size());
    tv. forEachAndListen((k, v) -> System.out.println(k + "->"+ Arrays. toString(v)));

    while (true) f
        Thread. sleep (20000) ;
        System.out.println(tv.size)):
        tv. forEach((k, v) -> System, out.println("checkpoint:"+ k+ "->" + Arrays.toString(v)));
    }

} catch (Exception ex) {System.out.println("Table view failed:" + ex. getCause());
}

Cluster 主动故障转移

ServiceUrlProvider provider = AutoClusterFailover.builder()
        .primary(primary)
        .secondary(Collections.singletonList(secondary))
        .failoverDelay(failoverDelay, TimeUnit.SECONDS)
        .switchBackDelay(switchBackDelay, TimeUnit.SECONDS)
        .checkInterval(checkInterval, TimeUnit.MILLISECONDS)
        .build();

Pulsar 反对多集群,集群间可同步数据,因而用户常常会有集群间的故障转移需要,所以引入主动故障转移个性。过来做故障转移时须要通过域名切换,或者应用自制的辅助节点,但这些办法往往都须要人工染指,SLA 难以保障。新个性的劣势在于 自动化与可配置,可设置 primary 与 secondary 集群,配置提早等参数,通过探活实现集群主动按预期切换。但目前该个性在探活时只探测 Pulsar 端口是否接通,将来版本将持续改良探活形式。

Producer Lazy loading + Partial RoundRobin

以后在一个规模较大的集群中,如果 partition 比拟多,则发送音讯时 producer 须要轮询所有 partition,且 partition 可能散布在不同 broker 上可能产生微小的连贯压力,如上图上半局部。为此,该新个性实现了 producer 懒加载,这样一来如果不必某个 partition 就不会创立它,加重了零碎累赘。而局部轮询会先 List 所有 partition 再将它们 shuffle,实现不同客户端写入不同的 partition,缩小 producer 实例与 broker 的连贯数量,同样能够升高零碎压力。须要留神的是 Shared consumer 临时不反对这种机制,将来须要社区独特摸索这一方面是否实现相似的机制。


PartitionedProducerImpl<byte[]> producerImpl = (PartitionedProducerImpl<byte[]>) pulsarClient.newProducer()
        .topic(topic)
        .enableLazyStartPartitionedProducers(true)
        .enableBatching(false)
        .messageRoutingMode(MessageRoutingMode.CustomPartition)
        .messageRouter(new PartialRoundRobinMessageRouterImpl(3))
        .create();  

Redeliver Backoff

client.newConsumer().negativeAckRedeliveryBackoff(MultiplierRedeliveryBackoff.builder()
        .minDelayMs(1000)
        .maxDelayMs(60 * 1000)
        .build()).subscribe();

client.newConsumer().ackTimeout(10, TimeUnit.SECOND)
        .ackTimeoutRedeliveryBackoff(MultiplierRedeliveryBackoff.builder()
        .minDelayMs(1000)
        .maxDelayMs(60 * 1000)
        .build()).subscribe();

Pulsar 现有 ackTimeout 机制,如果应用 shared 订阅,生产数据时可能在一段时间内无奈签收,则 ackTimeout 能够保障超过肯定工夫仍未签收时客户端主动从新投递音讯,将音讯从新散发到其余 consumer 上。

音讯从新投递的工夫很难确定,长短不一,且随着音讯解决失败次数越来越多,提早须要越来越长。为此引入了该 API,能够逐步缩短提早。相比现有办法,这个个性的劣势在于 开销更小 ,不须要通过另一个 topic,且 更加灵便 。不足之处是一旦客户端宕机会导致音讯立刻重试。另外该个性 应用老本很低API 简洁,很容易把握。须要留神的是目前只有 Java 客户端反对该个性,另外它能够配合死信队列应用。

初始化死信队列订阅

Consumer<byte[]> consumer = pulsarClient.newConsumer(Schema.BYTES)
    .topic(topic)
    .subscriptionName(subscriptionName)
    .subscriptionType(SubscriptionType.Shared)
    .ackTimeout(1, TimeUnit.SECONDS)
    .deadLetterPolicy(DeadLetterPolicy.builder()
        .maxRedeliverCount(maxRedeliveryCount)
        .initialSubscriptionName(my-sub)
        .build())
    .receiverQueueSize(100)
    .subscriptionInitialPosition(SubscriptionInitialPosition.Earliest)
    .subscribe();

死信队列的创立是懒创立策略,这就呈现了一个问题:死信音讯尚未产生、topic 尚未创立时,就无奈给 topic 指定数据保留策略。为此只能给 namespace 创立策略,粒度会很大。新版引入 InitialSubscriptionName,在设置死信队列时能够在 create 时同时创立一个订阅,这样数据就能够保留下来。且对于死信队列,大部分场景仅需一个订阅解决即可,于是 订阅就会和 InitialSubscriptionName 对应,这样无需设置 retention,就能够保留发到死信队列的音讯。

跨集群 topic 策略

bin/pulsar-admin topics set-retention -s 1G -t 1d --global my-topic

Message message = MessageBuilder.create()
    ...
    .setReplicationClusters(restrictDatacenters)
    .build();
producer.send(message);

该个性能够跨集群利用 topic policy,通过 -global 参数对所有集群失效。外表上来看一个全局参数很容易实现,其实背地做了很多工作。次要是底层须要将 schema 同步到所有集群,能力做到跨集群利用。须要留神的是 broker 没有重试策略,以下两种形式任选其一:

  • 被动告知 broker 重试;
  • 断开客户端。

新的音讯 ID 类型 ChunkMessageId

public class ChunkMessageIdImpl extends MessageIdImpl implements Messaged {
    private final MessageIdImpl firstChunkMsgId;

    public ChunkMessageIdImpl(MessageIdImplfirstChunkMsgId,MessageIdImpllastChunkMsgId){super(lastChunkMsgId.getLedgerId(), lastChunkMsgId.getEntryId(), lastChunkMsgId.getPartitionIndex());
        this. firstChunkMsgId = firstChunkMsgId;
    }
    public MessageIdImplgetFirstChunkMessageId(){return firstChunkMsgId;}
    public MessageIdImplgetLastChunkMessageId(){return this;}

}

之前版本引入的 ChunkMessage 能够无效加重零碎压力,但存在的问题是 Chunk 中只有最初的 MessageId 返回给客户端,这样客户端就无奈通晓后面的 Id。这个个性解决了 ChunkMessage 开始到完结对应的 Id 缺失问题,不便用户 seek MessageId 并生产。目前该个性只有 Java 客户端反对。

其余个性

  • Topic properties:给 Topic 附加 name 之外的更多信息,与 metadata 一并存储;
  • Metadata batch operation:晋升性能;
  • CPP client:提供 chunk message 反对;
  • Broker graceful shutdown:反对 REST API 优雅地敞开 Broker,先将 Broker 从集群拿掉后再敞开 Topic,防止持续发动对 Broker 的连贯;
  • Support creat a consumer in the paused state:在 create consumer 时能够指定暂停状态,不向服务端获取音讯;

精选 Q&A

新个性介绍结束后,李老师还对观众弹幕问题一一作了解答,以下为 QA 精选内容概要,详情见视频 54 分钟后。

Q:Pulsar 是否反对 failover?

  • Pulsar 反对 failover 模式,且一个 partition 能够有多个 consumer,开销次要存在于音讯签收上。Pulsar 反对保护单条音讯签收状态,因而会有肯定开销;

Q:Pulsar 对 ack 的操作是 exactly once 吗?

  • Pulsar 对不开启 transaction 的状况默认是 at least once 实现,而不是 exactly once;

Q:ChunkMessage 反对事务吗?

  • 目前暂不反对事务;

Q:Pulsar 的音讯发送是否会有两头失败前面胜利的状况?

  • Pulsar 中所有音讯的发送不会呈现两头失败前面胜利的状况,其中一个失败前面都会失败;

Q:元数据导致的集群规模限度问题如何解决?

  • 2.10 版本暂未解决元数据导致的集群规模限度问题,将来思考解决;

Q:KoP 反对 Kafka format 吗?

  • 当初 KoP 能够反对 Pulsar format 与 Kafka format,防止服务端的序列化 / 反序列化,把工作交给客户端。客户端加载一个 formatter 就能够解析 Kafka format 数据,加重对 broker 的压力。

对于 PPT

请复制链接到浏览器下载 PPT:https://pan.baidu.com/s/1sqt9…
明码: 6wtk

相干浏览

  • 直播回顾|TGIP-CN 036:Apache Pulsar 最新技术停顿与动静
  • 直播回顾| TGIP-CN 035: Apache Pulsar 入手实战第二期:容器部署实战
  • [博文举荐|Apache Pulsar 轻装上阵:迈向轻 ZooKeeper 时代](https://mp.weixin.qq.com/s?__biz=MzUyMjkzMjA1Ng==&mid=2247490737&idx=1&sn=1551d4a31ae062909ce05ee04a6b0541&scene=21#wechat_redirect)

关注 公众号「Apache Pulsar」,获取更多技术干货

退出 Apache Pulsar 中文交换群👇🏻

点击立刻观看 TGIP-CN 37:Apache Pulsar 2.10.0 新特色解析 回顾视频!

正文完
 0