Apache Flink 1.11.2 发布了。Apache Flink 是一个框架和分布式处理引擎,用于在无边界和有边界数据流上进行有状态的计算。Flink 能在所有常见集群环境中运行,并能以内存速度和任意规模进行计算。
此版本是 Apache Flink 1.11 系列的第二个 Bugfix 版本,总共包含 96 个针对 Flink 1.11.0 的修复程序以及改进。
部分更新内容:
Bug
- 使用 RebalancePartitioner 发出数据时,抛出 java.lang.ArrayIndexOutOfBoundsException
- 在取消任务期间应等待源线程的结束
- 修复 “Kerberos 身份验证设置和配置”文档中断开的链接
- 在查询表上使用udf时,初始化查询联接失败
- Elasticsearch(v6.3.1)接收器端到端测试不稳定
- TaskExecutorITCase.testJobReExecutionAfterTaskExecutorTermination 失败,出现DuplicateJobSubmissionException
- 更新 master 中的迁移测试,以涵盖从版本 1.11 开始的迁移
- CustomizedConvertRule#convertCast 删除可空性
- 设置相对输出路径时 WordCount 示例失败
- 当接收器代码生成且物理类型信息为 pojo 类型时,未从输入行数据分配 RowData 的行类型
- 来自 BashJavaUtils 的错误消息被吃掉了
详情见更新说明。