Flink的standalone application模式[1]是可以每个app都单独记录日志的
[1].
https://ci.apache.org/projects/flink/flink-docs-master/docs/deployment/resource-providers/standalone/kubernetes/#deploy-application-cluster
Best,
Yang
xingoo <23603...@qq.com> 于2021年2月22日周一 下午12:01写道:
> Hi,
>
> 这样体验上还是不太友好,如果能做成spark那种每个Job
Hi,
这样体验上还是不太友好,如果能做成spark那种每个Job独立记录日志就好了
--
Sent from: http://apache-flink.147419.n8.nabble.com/
我理解你说的应该是standalone session,这种模式下一个TM上面是会跑不同job的task的
TM里面的框架日志都是混在一起的,如果你的job class是在不同的package下面
可以用log4j2针对不同的package设置不同的logger以及appender来输出到不同路径
Best,
Yang
xingoo <23603...@qq.com> 于2021年2月20日周六 下午5:31写道:
> Dear All:
> 目前Flink部署主要采用standalone,想了解下如何在同一个taskmanager区分各个job的日志。
>
>
>
> --
>
Dear All:
目前Flink部署主要采用standalone,想了解下如何在同一个taskmanager区分各个job的日志。
--
Sent from: http://apache-flink.147419.n8.nabble.com/