开发者学堂课程【Apache Flink 入门到实战 - Flink 开源社区出品 :Flink state best practice】学习笔记,与课程紧密联系,让用户快速学习知识。
课程地址:https://developer.aliyun.com/learning/course/632/detail/10039
Flink state best practice
内容介绍:
一、State overview (State 概念回顾)
二、Which state backend to use?(StateBackend 的选择)
三、State usage best practice(一些使用 state 的心得)
四、Some tips of checkpoint(一些使用 checkpoint 的使用建议)
一、State 概念回顾
我们先回顾一下到底什么是 state,流式计算的数据往往是转瞬即逝, 当然,真实业务场景不时所有的数据都进来后就离开,没有任何东西留下来,那么留下来的东西其实就是称之为 state,中文可以翻译成状态。
在下图中,所有的原始数据进入用户代码之后再输出到下游,如果中间涉及到 state 的读写,这些状态会存储在本地的 state backend(可以对标成嵌入式本地 kv 存储)当中。
接下来我们会在四个维度来区分两种不同的 state:operator state 以及 keyed state。
1. 是否存在当前处理的 key(current key):operator state 是没有当前 key 的概念,而 keyed state 的数值总是与一个 current key 对应。
2. 存储对象是否 on heap: 目前 operator state backend 仅有一种 on-heap 的实现;而 keyed state backend 有 on-heap 和 off-heap(RocksDB)的多种实现。
3. 是否需要手动声明快照(snapshot)和恢复 (restore) 方法:operator state 需要手动实现 snapshot 和 restore 方法;而 keyed state 则由 backend 自行实现,对用户透明。
4. 数据大小:一般而言,我们认为 operator state 的数据规模是比较小的;认为 keyed state 规模是相对比较大的。需要注意的是,这是一个经验判断,不是一个绝对的判断区分标准。
二、StateBackend 的选择
1. state backend 的分类
下面这张图对目前广泛使用的三类 state backend 做了区分,其中绿色表示所创建的operator/keyed state backend 是 on-heap 的,黄色则表示是 off-heap 的。
·OperatorState 没有 current key 的概念
·KeyedState 的数值总是与一个 current key 对应的
·OperatorState 只有堆内存一种实现
·KeyedState 有堆内存和 RocksDB 两种实现
·OperatorState 需要手动实现 snapshot 和 restore 方法
·KeyedState 由 backend 实现,对用户透明
·OperatorState 一般被认为是规模比较小的
·KeyedState 一般是相对规模较大的
2. StateBackend 的选择
一般而言,在生产中,我们会在 FsStateBackend 和 RocksDBStateBackend 间选择:
· FsStateBackend:性能更好;日常存储是在堆内存中,面临着 OOM 的风险,不支持增量 checkpoint。
· RocksDBStateBackend:无需担心 OOM 风险,是大部分时候的选择。
3.RocksDB 的 state 存储
State1 |
State2 |
||
KeyGroup+Key+Namespace
|
value |
KeyGroup+Key+Namespace |
value |
(1,K1,Window(10,20)) |
v1 |
(1,K2,Window(10,20)) |
v2 |
(1,K3,Window(10,20)) |
v3 |
(1,K4,Window(10,25)) |
v4 |
(1,K1+MK1,VoidNameSpace) |
v5 |
(1,K2+MK2,VoidNameSpace) |
v6 |
... |
... |
... |
... |
在 RocksDB 中,每个 state 独享一个 Column Family,而每个 Column family 使用各自独享的 write buffer 和 block cache,上图中的 window state 和 value state 实际上分属不同的 column family。
4.RocksDB 的相关参数
·Flink-1.8 开始支持 ConfigurableOptionsFactory
state.backend.rocksdb.files.open |
最大打开文件数目,‘-1’意味着没有限制,默认值‘5000’ |
state.backend.rocksdb.thread.num |
态建议后台 flush 和 compaction 的线程数. 默认值 ‘1‘, 建议调大 |
state.backend.rocksdb.writebuffer.count |
每个 column family 的 write buffer 数目,默认值 ‘2‘,建议当调大 |
state.backend.rocksdb.writebuffer.number-to-merge |
写之前的write buffer merge数目,默认值 ‘1‘,建议当调大 |
state.backend.rocksdb.writebuffer.size |
每个 write buffer 的 size,默认值‘4MB‘,建议调大 |
5. 如何配置 RocksDB 的 options
代码示例:
Public class MyOptionsFactory implenents
ConfigurableOptionsFactory {
private static final long DEFAULT SIZE = 256 * 1024* 1024:
// 256 MB
private long blockCacheSize = DEFAULT_SIZE;
@Override
public DBOptions createDBOptionsDBOptions
currentOptions){
return currentOptions.setIncreaseParallelism(4)
.setUseFsync(false);
}
@Override
Public ColumnFamilyOptions createColunnoptions
(ColunnFamilyoptions currentoptions){
return currentOptions.setTableFormatConfig(
new BlockBasedTableConfig()
.setBlockCacheSize(blockCacheSize)
.setBlockSize(128 * 1024)); // 128 KB
}
@Override
public OptionsFactory configure(Configuration configuration){
this.blockCacheSize =
configuration.getLong("my.custom.rocksdb.block.cache.size", DEFAULT_SIZE);
return this;
}
三、State best practice:一些使用 state 的心得
1.Operator state 使用建议
(1)慎重使用长 list
下图展示的是目前 task 端 operator state 在执行完 checkpoint 返回给 job master 端的 StateMetaInfo 的代码片段。
代码示例:
class StateMetaInfo implements Serializable {
private static final long serialVersionUID =.3593817615858941166L;
private final long[] offsets;
private final Mode distributionMode;
public StateMetaInfo( long[] offsets,Mode distributionMode){
this.offsets = Preconditions.checkNotNull(offsets);
this.distributionMode = Preconditions.
checkNotNull(distributionMode)
由于 operator state 没有 key group 的概念,所以为了实现改并发恢复的功能,需要对 operator state 中的每一个序列化后的元素存储一个位置偏移 offset,也就是构成了上图红框中的 offset 数组。
如果 operator state 中的 list 长度达到一定规模时,这个 offset 数组就可能会有几十 MB 的规模,这个数组会返回给 job master,当 operator 的并发数目很大时,很容易触发 job master 的内存超用问题。
我们遇到过用户把 operator state 当做黑名单存储,黑名单规模很大,导致一旦开始执行 checkpoint,job master 就会因为收到 task 发来的“巨大”的 offset 数组,而内存不断增长直到超用无法正常响应。
(2)正确使用 UnionListState
union list state 目前被广泛使用在 kafka connector 中,不过可能用户日常开发中较少遇到,他的语义是从检查点恢复之后每个并发 task 内拿到的是原先所有operator 上的 state,如下图所示:
l restore 后,每个 subTask 均恢复了与之前所有并发的 state。
l 目前 Flink 内部的使用都是为了获取之前的全局信息,在下一次 snapshot 时,仅使用其中一部分做 snapshot。
l 切勿在下一次 snapshot 时进行全局 snapshot
2.Keyed state 使用建议
(1)如何正确清空当前的 state
state.clear() 实际上只能清理当前 key 对应的 value 值,如果想要清空整个 state,需要借助于 applyToAllKeys 方法,具体代码片段如下:
(2) RocksDB 中考虑 value 值很大的极限场景
l 受限于 JNI bridge API 的限制,单个 value 只支持 2^31 bytes 大小
l 考虑使用 MapState 来替代 ListState 或者 ValueState
因为RocksDB 的 map state 并不是将整个 map 作为 value 进行存储,而是将 map 中的一个条目作为键值对进行存储。
(3) 如何知道当前 RocksDB 的运行情况
l RocksDB 的日志可以观察到一些 compaction 信息,默认存储位置在 flink-io 目录下,需要登录到 taskmanager 里面才能找到。
l 考虑打开 RocksDB 的 native metrics
https://ci.apache.org/projects/flink/flink-docs-master/ops/config.html#rocksdb-native-metrics
4)配置了 state TTL,可能你的存储空间并没有减少
l 默认情况下,只有在下次读访问时才会触发清理那条过期数据如果那条数据之后不再访问,则也不会被清理
①StateTtlconfig ttlConfig = StateTtlconfig
newBuilder(Time.days(7))
.cleanupFullSnapshot( )
// Full snapshot 时候会清理 snapshot 的内容
.build(o);
②StateTtlConfig ttlConfig = StateTtlConfig
.newBuilder (Time.days(7))
// check 10 keys for every state acces
.cleanupIncrementally(10,false)
.build();
//Heap state backend 的持续清理
③StateTtlConfig ttlConfig = stateTtlConfig
.newBuilder(Time.days(7))
.cleanupInRocksdbCompactFilter().build();
//RocksDB state backend 的持续清理
3. RawState(timer) 使用建议
(1)Timer state 太大怎么办
l 考虑存储到 RocksDB 中
state.backend.rocksdb.timer-service.factory:ROCKSDB
l Trade off
n 存储到 Heap 中,面临 OOM 风险,Checkpoin
的同步阶段耗时大
存储到 RocksDB 中,影响 timer 的读写性能
4.RocksDBState 使用建议
(1)不要创建过多的 state
l 每个 state 一个 column family ,独占 write buffer,过多的 state 会导致占据过多的 write buffer
l 根本上还是 RocksDB StateBackend 的 native 内存无法直接管理
四、一些使用 checkpoint 的使用建议
1. Checkpoint 间隔不要太短
虽然理论上 Flink 支持很短的 checkpoint 间隔,但是在实际生产中,过短的间隔对于底层分布式文件系统而言,会带来很大的压力。另一方面,由于检查点的语义,所以实际上 Flink 作业处理 record 与执行 checkpoint 存在互斥锁,过于频繁的 checkpoint,可能会影响整体的性能。当然,这个建议的出发点是底层分布式文件系统的压力考虑。
2.合理设置超时时间
默认的超时时间是 10min,如果 state 规模大,则需要合理配置。最坏情况是分布式地创建速度大于单点(job master 端)的删除速度,导致整体存储集群可用空间压力较大。建议当检查点频繁因为超时而失败时,增大超时时间。
3.FsStateBackend 可以考虑文件压缩
对于刷出去的文件可以考虑使用压缩来减少 Checkpoint 体积
ExecutionConfig executionConfig = new ExecutionConfig();
executionconfig.setUsesnapshotcompression(true) ;
目前只支持这一种压缩方式,当然压缩会面临一定的 CPU 开销,但这个 CPU 开销发生在异步阶段,对于整个作业的处理性能影响不大。