我按照官网所介绍的flink metrics reporter设置,选用了influxdb,进行了如下设置: metrics.reporter.influxdb.class:org.apache.flink.metrics.influxdb.InfluxdbReportermetrics.reporter.influxdb.host:localhostmetrics.reporter.influxdb.port:8086metrics.reporter.influxdb.db:flinkmetrics.reporter.influxdb.username:flink-metrics metrics.reporter.influxdb.password:qwerty metrics.reporter.influxdb.retentionPolicy:one_hour 但是,启动flink作业(on yarn per job模式)和flinxdb后,发现一直报错: error [500] - "retention policy not found: one_hour" {"log_id": "OK6nejJI000", "service": "httpd"} [httpd] 10.90.. - flinkuser [03/Jan/2020:19:35:58 +0800] "POST /write? db=flink&rp=one_hour&precision=n&consistency=one HTTP/1.1" 500 49 "-" "okhttp/3.11.0" 3637af63-2e1d-11ea-802a-000c2947e206 165
我使用的是 flink 1.9.1,influxdb版本是1.79.
而且,当我不设置retentionPolicy时,还是会报错,提示: org.apache.flink.metrics.influxdb.shaded.org.influxdb.InfluxDBException$UnableToParseException: partial write: unable to parse "taskmanager_job_task_operator_sync-time-avg,host=master,job_id=03136f4c1a78e9930262b455ef0657e2,job_name=Flink-app,operator_id=cbc357ccb763df2852fee8c4fc7d55f2,operator_name=XXX,task_attempt_num=0,task_id= cbc357ccb763df2852fee8c4fc7d55f2,task_name=XX,tm_id=container_1577507646998_0054_01_000002 value=? 1578051247605000000": invalid boolean*来自志愿者整理的flink邮件归档
Retention policy 需要现在InfluxDB端创建,InfluxDBReporter不会自行创建不存在的 retention policy.
kafka的一些metrics在使用influxDB reporter的时候,会出现一些cast exception,可以参考 [1],在Flink-1.9 版本下可以忽略这些异常。
[1] https://issues.apache.org/jira/browse/FLINK-12147*来自志愿者整理的FLINK邮件归档
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。