流处理框架Apache Flink 1.11.2 发布

Apache Flink 1.11.2 发布了。Apache Flink 是一个框架和分布式处理引擎,用于在无边界和有边界数据流上进行有状态的计算。Flink 能在所有常见集群环境中运行,并能以内存速度和任意规模进行计算。

此版本是 Apache Flink 1.11 系列的第二个 Bugfix 版本,总共包含 96 个针对 Flink 1.11.0 的修复程序以及改进。

流处理框架Apache Flink 1.11.2 发布
部分更新内容:

Bug
1、使用 RebalancePartitioner 发出数据时,抛出 java.lang.ArrayIndexOutOfBoundsException

2、在取消任务期间应等待源线程的结束

3、修复 “Kerberos 身份验证设置和配置”文档中断开的链接

4、在查询表上使用udf时,初始化查询联接失败

5、Elasticsearch(v6.3.1)接收器端到端测试不稳定

6、TaskExecutorITCase.testJobReExecutionAfterTaskExecutorTermination 失败,出现DuplicateJobSubmissionException

7、更新 master 中的迁移测试,以涵盖从版本 1.11 开始的迁移

8、CustomizedConvertRule#convertCast 删除可空性

9、设置相对输出路径时 WordCount 示例失败

10、当接收器代码生成且物理类型信息为 pojo 类型时,未从输入行数据分配 RowData 的行类型

11、来自 BashJavaUtils 的错误消息被吃掉了