Dear:
Wechat group "Apache Linkis community Development group "chat records are as
follows: 微信群"Apache Linkis 社区开发群"的聊天记录如下:
————— 2022-10-13 —————
reactor 15:59
Who has developed or used JDBC engine multiple data source switching ah
Mr Lightning at 16:00
1.2.0 support
This is not a reactor
Data source switchover parameter, not effective
寻找大海的鱼.reactor 15:59
哪位大佬开发或使用过JDBC引擎多数据源切换呀
闪电先生 16:00
1.2.0支持
寻找大海的鱼.reactor 16:00
数据源切换参数,没有生效
寻找大海的鱼.reactor 16:00
453: 2022-10-13 15:13:36.723 [INFO ] [ConcurrentEngineConnThreadPool5
] o.a.l.m.e.j.e.JDBCEngineConnExecutor (83) [executeLine] - The jdbc properties
is: {wds.linkis.jdbc.password=xxxxx, resultsetIndex=0, nodeName=jdbc_4428,
wds.linkis.jdbc.driver=com.mysql.jdbc.Driver,
wds.linkis.engine.runtime.datasource=jdbc, wds.linkis.jdbc.connect.max=10,
wds.linkis.resultSet.store.path=hdfs:///tmp/linkis/hadoop/linkis/2022-10-13/151336/nodeexecution/63,
resources=[],
contextID={"type":"HAWorkFlowContextID","value":"{\"instance\":null,\"backupInstance\":null,\"user\":\"hadoop\",\"workspace\":\"hadoop001\",\"project\":\"jdbc_test\",\"flow\":\"t1\",\"contextId\":\"8-8--cs_1_devcs_1_dev9\",\"version\":\"v000001\",\"env\":\"BDAP_DEV\"}"},
wds.linkis.jdbc.proxy.user=hadoop, wds.linkis.jdbc.username=bdmp,
source={scriptPath=2ae7917b-a4b3-4501-a52f-3c5449186353.jdbc,
requestIP=172.16.2.5}, execUser=hadoop, jobId=63,
wds.linkis.jdbc.connect.url=jdbc:mysql://xxxxx:50001/modeling?characterEncoding=UTF-8,
wds.linkis.jdbc.version=jdbc4,
#rt_rs_store_path=hdfs:///tmp/linkis/hadoop/linkis/2022-10-13/151336/nodeexecution/63,
lock=lock, job={resultsetIndex=0,
#rt_rs_store_path=hdfs:///tmp/linkis/hadoop/linkis/2022-10-13/151336/nodeexecution/63},
dataSources={wds.linkis.engine.runtime.datasource=mysql_dlink}}
454 2022-10-13 15:13:36.723 [INFO ] [ConcurrentEngineConnThreadPool5
] o.a.l.m.e.j.e.JDBCEngineConnExecutor (86) [executeLine] - The data source
name is [jdbc], and the jdbc client begins to run jdbc code:
reactor 16:01
The log looks like this, or the default configuration for reading
Mr. Lightning 16:02
This is workflow, isn't it?
reactor 16:03
Well, the JDBC node in the workflow
Mr. Lightning 16:03
I remember I asked Longping brother, only support script switch execution.
@CCweixiao_iqiyi_leojie Check whether workflow cannot be switched
Zosimer 16:34
No, and it also doesn't work in the workflow workflow
reactor 16:37 (Reactor 16:37
I looked at the code logic here
linkis-engineconn-plugins/jdbc/src/main/scala/org/apache/linkis/manager/engineplugin/jdbc/executer/JDBCEngineConnExecuto
r.scala
reactor 16:38
Do you need to enable a standalone data source service?
reactor 16:39
Looking at the code principle, the submission parameter becomes like this, as
if it has gone into the above code
reactor 16:40
The mistake looks like this
Zosimer 16:42
Do you execute on the workflow canvas or inside the script
reactor 16:43 (Reactor 16:43
There are no integrated data source switch parameters in the interface, I use
HTTP to simulate the execution of script requests in the workflow
reactor 16:44
postman to simulate the request and then customize the data source parameters
reactor 16:46
This logic seems to get data source information from a service
Zosimer 16:50
I can do it here
Zosimer 16:50
I can execute this one
reactor 17:03
Okay, thank you. Let me check again
reactor 17:21
In this way, the data source switch takes effect, which is a little different
from the official document
Sargent Ti 17:49
Give PR a hand [strong]
寻找大海的鱼.reactor 16:01
日志是这样的,还是读取的默认配置
闪电先生 16:02
你这个是workflow是不是?
寻找大海的鱼.reactor 16:03
嗯,工作流中的JDBC节点
闪电先生 16:03
我记得我问过龙平兄,仅支持script切换执行。
@CCweixiao_iqiyi_leojie 确认一下,是否workflow不能切换
Zosimer 16:34
不行,而且workflow 工作流里面执行也不行
寻找大海的鱼.reactor 16:37
我看了这里代码逻辑
linkis-engineconn-plugins/jdbc/src/main/scala/org/apache/linkis/manager/engineplugin/jdbc/executer/JDBCEngineConnExecutor.scala
寻找大海的鱼.reactor 16:38
需要开启独立的数据源服务吗?
寻找大海的鱼.reactor 16:39
看了代码原理,提交参数变成了这样的,好像已经走到上面的代码里面去了
寻找大海的鱼.reactor 16:40
错误是这样子的
Zosimer 16:42
你在工作流画布上执行,还是里面执行脚本
寻找大海的鱼.reactor 16:43
现在界面还没有集成数据源切换的参数,我通过HTTP来模拟工作流里面执行脚本请求
寻找大海的鱼.reactor 16:44
postman来模拟这个请求,然后自定义添加数据源参数
寻找大海的鱼.reactor 16:46
这段逻辑好像是从某个服务获取数据源信息
Zosimer 16:50
我这里是可以的
Zosimer 16:50
我这个可以执行
寻找大海的鱼.reactor 17:03
好,谢谢,我再看看哈
寻找大海的鱼.reactor 17:21
这样的参数提交方式,数据源切换才生效了,和官网文档上有点差异
Sargent Ti 17:49
帮PR一下[强]寻找大海的鱼.reactor 16:01
日志是这样的,还是读取的默认配置
闪电先生 16:02
你这个是workflow是不是?
寻找大海的鱼.reactor 16:03
嗯,工作流中的JDBC节点
闪电先生 16:03
我记得我问过龙平兄,仅支持script切换执行。
@CCweixiao_iqiyi_leojie 确认一下,是否workflow不能切换
Zosimer 16:34
不行,而且workflow 工作流里面执行也不行
寻找大海的鱼.reactor 16:37
我看了这里代码逻辑
linkis-engineconn-plugins/jdbc/src/main/scala/org/apache/linkis/manager/engineplugin/jdbc/executer/JDBCEngineConnExecutor.scala
寻找大海的鱼.reactor 16:38
需要开启独立的数据源服务吗?
寻找大海的鱼.reactor 16:39
看了代码原理,提交参数变成了这样的,好像已经走到上面的代码里面去了
寻找大海的鱼.reactor 16:40
错误是这样子的
Zosimer 16:42
你在工作流画布上执行,还是里面执行脚本
寻找大海的鱼.reactor 16:43
现在界面还没有集成数据源切换的参数,我通过HTTP来模拟工作流里面执行脚本请求
寻找大海的鱼.reactor 16:44
postman来模拟这个请求,然后自定义添加数据源参数
寻找大海的鱼.reactor 16:46
这段逻辑好像是从某个服务获取数据源信息
Zosimer 16:50
我这里是可以的
Zosimer 16:50
我这个可以执行
寻找大海的鱼.reactor 17:03
好,谢谢,我再看看哈
寻找大海的鱼.reactor 17:21
这样的参数提交方式,数据源切换才生效了,和官网文档上有点差异
Sargent Ti 17:49
帮PR一下[强]寻找大海的鱼.reactor 16:01
日志是这样的,还是读取的默认配置
闪电先生 16:02
你这个是workflow是不是?
寻找大海的鱼.reactor 16:03
嗯,工作流中的JDBC节点
闪电先生 16:03
我记得我问过龙平兄,仅支持script切换执行。
@CCweixiao_iqiyi_leojie 确认一下,是否workflow不能切换
Zosimer 16:34
不行,而且workflow 工作流里面执行也不行
寻找大海的鱼.reactor 16:37
我看了这里代码逻辑
linkis-engineconn-plugins/jdbc/src/main/scala/org/apache/linkis/manager/engineplugin/jdbc/executer/JDBCEngineConnExecutor.scala
寻找大海的鱼.reactor 16:38
需要开启独立的数据源服务吗?
寻找大海的鱼.reactor 16:39
看了代码原理,提交参数变成了这样的,好像已经走到上面的代码里面去了
寻找大海的鱼.reactor 16:40
错误是这样子的
Zosimer 16:42
你在工作流画布上执行,还是里面执行脚本
寻找大海的鱼.reactor 16:43
现在界面还没有集成数据源切换的参数,我通过HTTP来模拟工作流里面执行脚本请求
寻找大海的鱼.reactor 16:44
postman来模拟这个请求,然后自定义添加数据源参数
寻找大海的鱼.reactor 16:46
这段逻辑好像是从某个服务获取数据源信息
Zosimer 16:50
我这里是可以的
Zosimer 16:50
我这个可以执行
寻找大海的鱼.reactor 17:03
好,谢谢,我再看看哈
寻找大海的鱼.reactor 17:21
这样的参数提交方式,数据源切换才生效了,和官网文档上有点差异
Sargent Ti 17:49
帮PR一下[强]
--
Best Regards
------
康悦 ritakang
GitHub:Ritakang0451
E-mail:[email protected]