Re:Re: 回复:使用influxdb作为flink metrics reporter

2020-01-06 文章 张江
好的,多谢
在 2020-01-06 01:38:22,"Yun Tang"  写道:
>Hi 张江
>
>这个invalid boolean 
>一般是tag和field中间穿插空格有关,导致influxDB识别匹配的时候出了问题,你的原始报错信息是什么,不要隐去你的operator 
>name和task name,另外task_id= 后面的那个空格是你粘贴时候的错误还是原先就是这样。
>
>最后,这些只会是warning,不会导致你的其他metrics数据无法插入,不影响整体使用。
>
>祝好
>唐云
>
>
>From: 张江 
>Sent: Saturday, January 4, 2020 19:14
>To: user-zh ; myas...@live.com 
>Subject: 回复:使用influxdb作为flink metrics reporter
>
>
>你好,
>
>
>我看我这里报错的问题是invalid boolean,并不是NaN/infinity value造成的,不知道是什么原因?
>
>
>而且我用的flink是1.9.1版本,influxdb是1.7.9版本。
>
>
>祝好,
>
><https://maas.mail.163.com/dashi-web-extend/html/proSignature.html?ftlId=1&name=%E5%BC%A0%E6%B1%9F&uid=zjkingdom2010%40163.com&iconUrl=https%3A%2F%2Fmail-online.nosdn.127.net%2Fqiyelogo%2FdefaultAvatar.png&items=%5B%22%E9%82%AE%E7%AE%B1%EF%BC%9Azjkingdom2010%40163.com%22%5D>
>[https://mail-online.nosdn.127.net/qiyelogo/defaultAvatar.png]
>张江
>邮箱:zjkingdom2...@163.com
>
>签名由 网易邮箱大师<https://mail.163.com/dashi/dlpro.html?from=mail88> 定制
>
>在2020年01月04日 00:56,Yun Tang<mailto:myas...@live.com> 写道:
>Hi 张江
>
>
> *   Retention policy 需要现在InfluxDB端创建,InfluxDBReporter不会自行创建不存在的 retention 
> policy.
> *   kafka的一些metrics在使用influxDB reporter的时候,会出现一些cast exception,可以参考 
> [1],在Flink-1.9 版本下可以忽略这些异常。
>
>[1] https://issues.apache.org/jira/browse/FLINK-12147
>
>祝好
>唐云
>
>From: 张江 
>Sent: Friday, January 3, 2020 21:22
>To: user-zh@flink.apache.org 
>Subject: 使用influxdb作为flink metrics reporter
>
>大家好,
>
>
>我按照官网所介绍的flink metrics reporter设置,选用了influxdb,进行了如下设置:
>metrics.reporter.influxdb.class:org.apache.flink.metrics.influxdb.InfluxdbReportermetrics.reporter.influxdb.host:localhostmetrics.reporter.influxdb.port:8086metrics.reporter.influxdb.db:flinkmetrics.reporter.influxdb.username:flink-metrics
>metrics.reporter.influxdb.password:qwerty
>metrics.reporter.influxdb.retentionPolicy:one_hour
>但是,启动flink作业(on yarn per job模式)和flinxdb后,发现一直报错:
>error  [500] - "retention policy not found: one_hour" {"log_id": 
>"OK6nejJI000", "service": "httpd"} [httpd] 10.90.*.* - flinkuser 
>[03/Jan/2020:19:35:58 +0800] "POST /write? 
>db=flink&rp=one_hour&precision=n&consistency=one HTTP/1.1" 500 49 "-" 
>"okhttp/3.11.0" 3637af63-2e1d-11ea-802a-000c2947e206 165
>
>
>我使用的是 flink 1.9.1,influxdb版本是1.79.
>
>
>而且,当我不设置retentionPolicy时,还是会报错,提示:
>org.apache.flink.metrics.influxdb.shaded.org.influxdb.InfluxDBException$UnableToParseException:
> partial write: unable to parse 
>"taskmanager_job_task_operator_sync-time-avg,host=master,job_id=03136f4c1a78e9930262b455ef0657e2,job_name=Flink-app,operator_id=cbc357ccb763df2852fee8c4fc7d55f2,operator_name=XXX,task_attempt_num=0,task_id=
> 
>cbc357ccb763df2852fee8c4fc7d55f2,task_name=XX,tm_id=container_1577507646998_0054_01_02
> value=? 157805124760500": invalid boolean
>
>
>求问各位大佬,这些问题怎么解决?
>谢谢
>
>
>祝好,
>
>
>


Re: 回复:使用influxdb作为flink metrics reporter

2020-01-05 文章 Yun Tang
Hi 张江

这个invalid boolean 
一般是tag和field中间穿插空格有关,导致influxDB识别匹配的时候出了问题,你的原始报错信息是什么,不要隐去你的operator name和task 
name,另外task_id= 后面的那个空格是你粘贴时候的错误还是原先就是这样。

最后,这些只会是warning,不会导致你的其他metrics数据无法插入,不影响整体使用。

祝好
唐云


From: 张江 
Sent: Saturday, January 4, 2020 19:14
To: user-zh ; myas...@live.com 
Subject: 回复:使用influxdb作为flink metrics reporter


你好,


我看我这里报错的问题是invalid boolean,并不是NaN/infinity value造成的,不知道是什么原因?


而且我用的flink是1.9.1版本,influxdb是1.7.9版本。


祝好,

<https://maas.mail.163.com/dashi-web-extend/html/proSignature.html?ftlId=1&name=%E5%BC%A0%E6%B1%9F&uid=zjkingdom2010%40163.com&iconUrl=https%3A%2F%2Fmail-online.nosdn.127.net%2Fqiyelogo%2FdefaultAvatar.png&items=%5B%22%E9%82%AE%E7%AE%B1%EF%BC%9Azjkingdom2010%40163.com%22%5D>
[https://mail-online.nosdn.127.net/qiyelogo/defaultAvatar.png]
张江
邮箱:zjkingdom2...@163.com

签名由 网易邮箱大师<https://mail.163.com/dashi/dlpro.html?from=mail88> 定制

在2020年01月04日 00:56,Yun Tang<mailto:myas...@live.com> 写道:
Hi 张江


 *   Retention policy 需要现在InfluxDB端创建,InfluxDBReporter不会自行创建不存在的 retention 
policy.
 *   kafka的一些metrics在使用influxDB reporter的时候,会出现一些cast exception,可以参考 
[1],在Flink-1.9 版本下可以忽略这些异常。

[1] https://issues.apache.org/jira/browse/FLINK-12147

祝好
唐云

From: 张江 
Sent: Friday, January 3, 2020 21:22
To: user-zh@flink.apache.org 
Subject: 使用influxdb作为flink metrics reporter

大家好,


我按照官网所介绍的flink metrics reporter设置,选用了influxdb,进行了如下设置:
metrics.reporter.influxdb.class:org.apache.flink.metrics.influxdb.InfluxdbReportermetrics.reporter.influxdb.host:localhostmetrics.reporter.influxdb.port:8086metrics.reporter.influxdb.db:flinkmetrics.reporter.influxdb.username:flink-metrics
metrics.reporter.influxdb.password:qwerty
metrics.reporter.influxdb.retentionPolicy:one_hour
但是,启动flink作业(on yarn per job模式)和flinxdb后,发现一直报错:
error  [500] - "retention policy not found: one_hour" {"log_id": "OK6nejJI000", 
"service": "httpd"} [httpd] 10.90.*.* - flinkuser [03/Jan/2020:19:35:58 +0800] 
"POST /write? db=flink&rp=one_hour&precision=n&consistency=one HTTP/1.1" 500 49 
"-" "okhttp/3.11.0" 3637af63-2e1d-11ea-802a-000c2947e206 165


我使用的是 flink 1.9.1,influxdb版本是1.79.


而且,当我不设置retentionPolicy时,还是会报错,提示:
org.apache.flink.metrics.influxdb.shaded.org.influxdb.InfluxDBException$UnableToParseException:
 partial write: unable to parse 
"taskmanager_job_task_operator_sync-time-avg,host=master,job_id=03136f4c1a78e9930262b455ef0657e2,job_name=Flink-app,operator_id=cbc357ccb763df2852fee8c4fc7d55f2,operator_name=XXX,task_attempt_num=0,task_id=
 
cbc357ccb763df2852fee8c4fc7d55f2,task_name=XX,tm_id=container_1577507646998_0054_01_02
 value=? 157805124760500": invalid boolean


求问各位大佬,这些问题怎么解决?
谢谢


祝好,





回复:使用influxdb作为flink metrics reporter

2020-01-04 文章 张江
你好,




我看我这里报错的问题是invalid boolean,并不是NaN/infinity value造成的,不知道是什么原因?




而且我用的flink是1.9.1版本,influxdb是1.7.9版本。




祝好,



| |
张江
|
|
邮箱:zjkingdom2...@163.com
|

签名由 网易邮箱大师 定制

在2020年01月04日 00:56,Yun Tang 写道:
Hi 张江


 *   Retention policy 需要现在InfluxDB端创建,InfluxDBReporter不会自行创建不存在的 retention 
policy.
 *   kafka的一些metrics在使用influxDB reporter的时候,会出现一些cast exception,可以参考 
[1],在Flink-1.9 版本下可以忽略这些异常。

[1] https://issues.apache.org/jira/browse/FLINK-12147

祝好
唐云

From: 张江 
Sent: Friday, January 3, 2020 21:22
To: user-zh@flink.apache.org 
Subject: 使用influxdb作为flink metrics reporter

大家好,


我按照官网所介绍的flink metrics reporter设置,选用了influxdb,进行了如下设置:
metrics.reporter.influxdb.class:org.apache.flink.metrics.influxdb.InfluxdbReportermetrics.reporter.influxdb.host:localhostmetrics.reporter.influxdb.port:8086metrics.reporter.influxdb.db:flinkmetrics.reporter.influxdb.username:flink-metrics
metrics.reporter.influxdb.password:qwerty
metrics.reporter.influxdb.retentionPolicy:one_hour
但是,启动flink作业(on yarn per job模式)和flinxdb后,发现一直报错:
error  [500] - "retention policy not found: one_hour" {"log_id": "OK6nejJI000", 
"service": "httpd"} [httpd] 10.90.*.* - flinkuser [03/Jan/2020:19:35:58 +0800] 
"POST /write? db=flink&rp=one_hour&precision=n&consistency=one HTTP/1.1" 500 49 
"-" "okhttp/3.11.0" 3637af63-2e1d-11ea-802a-000c2947e206 165


我使用的是 flink 1.9.1,influxdb版本是1.79.


而且,当我不设置retentionPolicy时,还是会报错,提示:
org.apache.flink.metrics.influxdb.shaded.org.influxdb.InfluxDBException$UnableToParseException:
 partial write: unable to parse 
"taskmanager_job_task_operator_sync-time-avg,host=master,job_id=03136f4c1a78e9930262b455ef0657e2,job_name=Flink-app,operator_id=cbc357ccb763df2852fee8c4fc7d55f2,operator_name=XXX,task_attempt_num=0,task_id=
 
cbc357ccb763df2852fee8c4fc7d55f2,task_name=XX,tm_id=container_1577507646998_0054_01_02
 value=? 157805124760500": invalid boolean


求问各位大佬,这些问题怎么解决?
谢谢


祝好,