This is an automated email from the ASF dual-hosted git repository.

casion pushed a commit to branch dev
in repository https://gitbox.apache.org/repos/asf/incubator-linkis-website.git


The following commit(s) were added to refs/heads/dev by this push:
     new b83bcf9f3b update faq (#538)
b83bcf9f3b is described below

commit b83bcf9f3b87e57c9a149020370b63ede630cf19
Author: ZHANG HUA JIN <[email protected]>
AuthorDate: Fri Nov 4 18:08:41 2022 +0800

    update faq (#538)
---
 .../current/main.md                                | 317 ++++++++++-----------
 src/components/contributors.json                   |   2 +-
 src/components/contributorsWebsite.json            |   1 +
 3 files changed, 160 insertions(+), 160 deletions(-)

diff --git a/i18n/zh-CN/docusaurus-plugin-content-docs-faq/current/main.md 
b/i18n/zh-CN/docusaurus-plugin-content-docs-faq/current/main.md
index 3fbbf1e143..ca27cc50a1 100644
--- a/i18n/zh-CN/docusaurus-plugin-content-docs-faq/current/main.md
+++ b/i18n/zh-CN/docusaurus-plugin-content-docs-faq/current/main.md
@@ -1,6 +1,7 @@
 # Q&A 
 > Linkis1.0常见问题和解决办法:[https://docs.qq.com/doc/DWlN4emlJeEJxWlR0](https://docs.qq.com/doc/DWlN4emlJeEJxWlR0)
 
+### 一、使用问题
 
 #### Q1: linkis的ps-cs服务日志报这个错: figServletWebServerApplicationContext (559) 
 
@@ -28,7 +29,43 @@ A: 这个是因为eureka的启动Java进程时没有使用nohup当会话退出
 #### Q4: Linkis Entrance LogWriter 缺依赖包
 A: Hadoop 3需修改linkis-hadoop-common 
pom文件,详见:https://linkis.apache.org/zh-CN/docs/next/development/linkis-compile-and-package/
 
-#### Q5: Linkis1.0 执行任务报: select list is not in  group by clause
+#### Q5: Linkis1.0执行任务时,ECP服务抛出如下错误:Caused by: 
java.util.NoSuchElementException: None.get?
+
+错误详细日志:
+
+解决办法:
+这个时因为对应引擎版本物料没有在数据库表中存在对应的记录,可能时ecp服务启动的时候有误导致,您可以重启下ecp服务,看是否在上传BML的时候存在错误,对应的表为:linkis_cg_engine_conn_plugin_bml_resources
+
+#### Q6: Linkis1.X提示资源不足的通用排查方法
+
+资源不足分为两种情况:
+
+1.     服务器本身的资源不足 
+2.     用户自身的资源不足(linkis会对用户资源进行管控)。
+   
这两种资源在linkis1.X中都记录在linkis_cg_manager_label_resource和linkis_cg_manager_linkis_resource中,前者为label和resource的关联表,后者为resource表
+   
通常情况下,linkis1.0对资源的高并发管控是安全的,不建议通过修改表记录的方式去强行重置用户资源记录。但是由于安装调试过程中,linkis的执行环境有所不同,所以会出现引擎启动失败,或在引擎启动过程中对微服务的反复重启导致资源没有安全释放,或者监控器没来得及自动清理(有小时级的延迟),就可能会出现资源不足的问题,严重时会导致用户的大部分资源处于上锁状态。因此对于排查资源不足可以参考以下步骤:
+   
a.在管理台确认ECM的剩余资源是否大于引擎的请求资源,如果ECM剩余的资源非常少,那么就会导致请求新的引擎失败,需要手动在ECM中关掉部分闲置的引擎,linkis对引擎也有闲时自动释放的机制,但这个时间默认设置的相对较长。
+   
b.如果ECM资源充足,则必定是用户剩余资源不足以请求新的引擎,首先确定用户的执行任务时产生的label标签,例如用户hadoop在Scriptis上执行spark2.4.3脚本,则在linkis_cg_manager_label表中对应下条记录
+   
我们拿到这条label的id值,在关联表linkis_cg_manager_label_resource中找到对应的resourceId,通过resourceId在linkis_cg_manager_linkis_resource中就能找到对应的label的resource记录,可以检查下这条记录中的剩余资源
+
+如果这条资源排查判定是异常情况,即不符合实际引擎启动产生的资源。可以进行以下操作恢复:
+在确认该label下所有引擎已经关停的情况下,可以将这条资源和关联表linkis_cg_manager_label_resource对应的关联记录直接删除,再次请求时则会自动重置这条资源。
+注意:该label所有引擎已经关停在上个例子中是指的hadoop用户在Scriptis上启动的spark2.4.3的引擎已经全部关停,可以在管理台的资源管理中看到该用户启动的所有引擎实例。否则可能还会出现该label的资源记录异常。
+
+#### Q7: 
linkis启动报错:NoSuchMethodErrorgetSessionManager()Lorg/eclipse/jetty/server/SessionManager
+
+具体堆栈:
+
+```
+startup of context 
o.s.b.w.e.j.JettyEmbeddedWebAppContext@6c6919ff{application,/,[file:///tmp/jetty-docbase.9102.6375358926927953589/],UNAVAILABLE}
 java.lang.NoSuchMethodError: 
org.eclipse.jetty.server.session.SessionHandler.getSessionManager()Lorg/eclipse/jetty/server/SessionManager;
+at 
org.eclipse.jetty.servlet.ServletContextHandler\$Context.getSessionCookieConfig(ServletContextHandler.java:1415)
 ~[jetty-servlet-9.3.20.v20170531.jar:9.3.20.v20170531]
+```
+
+解法:jetty-servlet  和 jetty-security版本需要从9.3.20升级为9.4.20;
+
+### 二、环境问题
+
+#### Q1: Linkis1.0 执行任务报: select list is not in  group by clause
 
 ![1639466558031](/faq/q5_1.jpg)
 
@@ -42,10 +79,85 @@ SET GLOBAL sql_mode=(SELECT 
REPLACE(@@sql_mode,'ONLY_FULL_GROUP_BY',''));
 
   
 
-#### Q6: 部署后执行脚,执行命令,收集结果时,遇到这样的报错,IOException: File header type must be 
dolphin:
+#### Q2: 部署后执行脚,执行命令,收集结果时,遇到这样的报错,IOException: File header type must be 
dolphin:
 
 A:这个应该是重复安装导致的,导致结果集写到同一个文件里面了,之前的Linkis 0.X 
版本采用的结果集写是append,1.0已经修改为新增了,可以清理下结果集的目录:配置参数为wds.linkis.resultSet.store.path,可以清理下这个目录
-####  Q7: Script 左侧数据库刷不出来
+
+#### Q3: Spark版本不一致导致的json4s包冲突问题,报错如下:错误信息:caused by: 
java.lang.NoSuchMethodError: org.json4s.jackson.jsonMethod$
+
+解决方案:
+这个是因为Spark jars的json4s和lib/linkis-engineplugins/spark/dist/version/lib
+包里面的json4s版本不一致,官方发布release时会在后面注明Spark的支持版本,如果不一致会存在该问题。
+解决办法将Spark jars里面的json4s的包替换掉lib/linkis-engineplugins/spark/dist/version/lib
+ 包里面的json4s版本。另外netty包也可能存在冲突,可按Json4s的方法进行处理.然后重启ecp服务即可:sh 
sbin/linkis-damon.sh restart cg-engineplugin
+
+#### Q4: Linkis1.X在CDH5.16.1版本提交spark sql任务时,404的问题排查方法
+
+主要报错信息如下:
+
+```
+21304, Task is Failed,errorMsg: errCode: 12003 ,desc: ip:port_x Failed to 
async get EngineNode FeignException.NotFound: status 404 reading 
RPCReceiveRemote#receiveAndReply(Message) ,ip: xxxxx ,port: 9104 ,serviceKind: 
linkis-cg-entrance
+org.apache.jasper.servlet.JspServlet 89 warn - PWC6117: File 
"/home/hadoop/dss1.0/tmp/hadoop/workDir/7c3b796f-aadd-46a5-b515-0779e523561a/tmp/jetty-docbase.1802511762054502345.46019/api/rest_j/v1/rpc/receiveAndReply"
 not found
+```
+
+以上报错信息主要是由于cdh环境变量中的jar冲突导致的,需要查找org.apache.jasper.servlet.JspServlet这个类所在的jar包,本地cdh的环境变量路径为:/opt/cloudera/parcels/CDH-5.16.1-1.cdh5.16.1.p0.3/jars,删除了该目录下面的对应的jasper-compile-${version}.jar和jsp-${version}.jar这两类jar包,服务不需要重启,即可重新运行spark
 sql任务,问题解决。
+
+#### Q5: 运行报错缺包matplotlib
+
+标准的python环境,需要安装好anaconda2和anaconda3,并且默认anaconda为anaconda2。这里面包含了常见大多数python库。
+
+#### Q6: 启动微服务linkis-ps-cs时,报DebuggClassWriter overrides final method visit
+
+具体异常栈:
+
+解法:jar包冲突,删除asm-5.0.4. jar;
+
+#### Q7: shell引擎调度执行时,引擎执行目录报如下错误/bin/java:No such file or directory:
+
+![](/faq/q24_1.png)
+
+解法:本地java的环境变量有问题,需要对java命令做下符号链接。
+
+#### Q8: hive引擎调度时,engineConnManager的错误日志如下method did not  
exist:SessionHandler:
+
+![](/faq/q27_1.png)
+
+解法:hive引擎lib下,jetty jar包冲突,jetty-security、 jetty-server替换为9.4.20;
+
+#### Q9: hive引擎执行时,报如下错误Lcom/google/common/collect/UnmodifiableIterator:
+
+```
+2021-03-16 13:32:23.304 ERROR 
[pool-2-thread-1]com.webank.wedatasphere.linkis.engineplugin.hive.executor.HiveEngineConnExecutor
 140 run - query failed, reason : java.lang.AccessError: tried to access method 
com.google.common.collect.Iterators.emptyIterator() 
Lcom/google/common/collect/UnmodifiableIterator; from class 
org.apache.hadoop.hive.ql.exec.FetchOperator 
+at org.apache.hadoop.hive.ql.exec.FetchOperator.<init>(FetchOperator.java:108) 
~[hive-exec-2.1.1-cdh6.1.0.jar:2.1.1-cdh6.1.0]
+at org.apache.hadoop.hive.ql.exec.FetchTask.initialize(FetchTask.java:86) 
~[hive-exec-2.1.1-cdh6.1.0.jar:2.1.1-cdh6.1.0]
+at org.apache.hadoop.hive.ql..compile(Driver.java:629) 
~[hive-exec-2.1.1-cdh6.1.0.jar:2.1.1-cdh6.1.0]
+at org.apache.hadoop.hive.ql.Driver.compileInternal(Driver.java:1414) 
~[hive-exec-2.1.1-cdh6.1.0.jar:2.1.1-cdh6.1.0]
+at org.apache.hadoop.hive.ql.Driver.runInternal(Driver.java:1543) 
~[hive-exec-2.1.1-cdh6.1.0.jar:2.1.1-cdh6.1.0]
+at org.apache.hadoop.hive.ql.Driver.run(Driver.java:1332) 
~[hive-exec-2.1.1-cdh6.1.0.jar:2.1.1-cdh6.1.0]
+at org.apache.hadoop.hive.ql.Driver.run(Driver.java:1321) 
~[hive-exec-2.1.1-cdh6.1.0.jar:2.1.1-cdh6.1.0]
+atcom.webank.wedatasphere.linkis.engineplugin.hive.executor.HiveEngineConnExecutor$$anon$1.run(HiveEngineConnExecutor.scala:152)
 [linkis-engineplugin-hive-dev-1.0.0.jar:?]
+atcom.webank.wedatasphere.linkis.engineplugin.hive.executor.HiveEngineConnExecutor$$anon$1.run(HiveEngineConnExecutor.scala:126)
 [linkis-engineplugin-hive-dev-1.0.0.jar:?]
+```
+
+解法:guava包冲突,删除hive/dist/v1.2.1/lib下的guava-25.1-jre.jar;
+
+#### Q10: 引擎调度时,报如下错误Python proces is not alive:
+
+![](/faq/q29_1.png)
+
+解法:服务器安装anaconda3 
包管理器,经过对python调试,发现两个问题:(1)缺乏pandas、matplotlib模块,需要手动安装;(2)新版python引擎执行时,依赖python高版本,首先安装python3,其次做下符号链接(如下图),重启engineplugin服务。
+
+#### Q11: spark引擎执行时,报如下错误NoClassDefFoundError: 
org/apache/hadoop/hive/ql/io/orc/OrcFile:
+
+```
+2021-03-19 15:12:49.227 INFO  [dag-scheduler-event-loop] 
org.apache.spark.scheduler.DAGScheduler 57 logInfo -ShuffleMapStage 5 (show at 
<console>:69) failed in 21.269 s due to Job aborted due to stage failure: Task 
1 in stage 5.0 failed 4 times, most recent failure: Lost task 1.3 in stage 5.0 
(TID 139, cdh03, executor 6):java.lang.NoClassDefFoundError: 
org/apache/hadoop/hive/ql/io/orc/OrcFile 
+```
+
+解法:cdh6.3.2集群spark引擎classpath只有/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/lib/spark/jars,需要新增hive-exec-2.1.1-cdh6.1.0.jar,然后重启spark。
+
+### 三、配置问题
+
+####  Q1: Script 左侧数据库刷不出来
 解决方案:
 a.     
原因可能是linkis-metatdata服务没有读取到HIVE_CONF_DIR的错误,可以通过配置linkis-metadata的参数:对应为元数据库的JDBC连接串
 
@@ -55,7 +167,7 @@ hive.meta.user=
 hive.meta.password=
 ```
 
-#### 
Q8.Scriptis的右侧刷不出来数据库,一直在刷新中(需要注意的是linkis的metadata暂时不支持对接sentry和Ranger只支持hive原生的权限控制),错误信息:
 前端数据库tab一直处于刷新状态
+#### Q2: 
Scriptis的右侧刷不出来数据库,一直在刷新中(需要注意的是linkis的metadata暂时不支持对接sentry和Ranger只支持hive原生的权限控制),错误信息:
 前端数据库tab一直处于刷新状态
 解决方案:
 这是因为右侧的数据库我们是限制了权限的,而这个依赖hive开启授权访问:
 
@@ -81,7 +193,7 @@ grant all on database default to user hadoop;
 
 
如果不想开启权限控制,即每个用户都可以看到库表,可以修改:com/webank/wedatasphere/linkis/metadata/hive/dao/impl/HiveMetaDao.xml的sql去掉权限控制部分
 
-#### Q9. \[Scriptis][工作空间] 登录Scriptis时报根目录不存在,存在工作空间和HDFS两个跟目录:错误信息: 
在登录进入后,前端弹出如下信息(用户本地目录不存在,请联系管理员添加)
+#### Q3:  \[Scriptis][工作空间] 登录Scriptis时报根目录不存在,存在工作空间和HDFS两个跟目录:错误信息: 
在登录进入后,前端弹出如下信息(用户本地目录不存在,请联系管理员添加)
 
 解决方案:
 
@@ -89,11 +201,11 @@ grant all on database default to user hadoop;
 - 
b.确认wds.linkis.workspace.filesystem.hdfsuserrootpath.prefix=hdfs:///tmp/linkis/ 
是不是hdfs://开头
 - 
c.确认/tmp/linkis目录下是不是有用户目录,这里的用户是指前端登录用户,比如hadoop用户登录,那么要建立:/tmp/linkis/hadoop目录,如果目录存在确认目录权限登录用户可以操作,如果还是不行可以参考publicservice的报错,错误会说明权限还是路径问题
 
-#### Q10.\[管理台][设置]怎么调整任务使用的yarn队列?错误信息: 执行sql任务时报1.获取Yarn队列信息异常 或者 用户XX不能提交到队列
+#### Q4: \[管理台][设置]怎么调整任务使用的yarn队列?错误信息: 执行sql任务时报1.获取Yarn队列信息异常 或者 用户XX不能提交到队列
 解决方案:
 在前端—管理台—设置—通用设置—Yarn队列 配置登录用户有权限的队列
 
-####  Q11.Hive查询的时候报:找不到zk相关的类比如:org.apache.curator.*,错误信息: 
执行hive任务时,日志报找不到org.apache.curator.*开头的类,classNotFound
+####  Q5: Hive查询的时候报:找不到zk相关的类比如:org.apache.curator.*,错误信息: 
执行hive任务时,日志报找不到org.apache.curator.*开头的类,classNotFound
 
 解决方案:
 
这是因为开启了hive事务,可以在linkis的机器上面修改hive-site.xml关掉事务配置,参考hive事务:https://www.jianshu.com/p/aa0f0fdd234c
@@ -101,7 +213,7 @@ grant all on database default to user hadoop;
 
 
 
-#### Q12.Linkis如何支持kerberos
+#### Q6: Linkis如何支持kerberos
 解决方案:
 
在linkis中获取Hadoop的FileSystem都是通过HDFSUtils类进行实现的,所以我们将kerberos放在该类,用户可以看下该类的逻辑,现在支持的登录模式如下:
 
@@ -128,7 +240,7 @@ wds.linkis.keytab.host=127.0.0.1 #principle认证需要带上的客户端IP
 
 
 
-#### Q13.关于Linkis除了支持部署用户登录可以配置其他用户登录吗?
+#### Q7: 关于Linkis除了支持部署用户登录可以配置其他用户登录吗?
 解决方案:
 
当然可以。部署用户只是为了方便使用的用户。linkis-mg-gateway支持通过配置LDAP服务和SSO服务进行访问,本身没有用户校验体系,比如要开启LDAP服务访问,你只要在配置linkis-mg-gateway.properties您的LDAP服务端的配置如下:
 
@@ -138,14 +250,10 @@ wds.linkis.ldap.proxy.baseDN=dc=webank,dc=com#您的LDAP服务的配置
 ```
 
 
用户如果需要执行任务,还需在linux服务器上面建立相应用户名的用户,如果是标准版本该用户需要能执行Spark和hive任务,并需要在本地工作空间和HDFS目录/tmp/linkis建立对应的用户名目录。
-#### Q14. Spark版本不一致导致的json4s包冲突问题,报错如下:错误信息:caused by: 
java.lang.NoSuchMethodError: org.json4s.jackson.jsonMethod$
-解决方案:
-这个是因为Spark jars的json4s和lib/linkis-engineplugins/spark/dist/version/lib
-包里面的json4s版本不一致,官方发布release时会在后面注明Spark的支持版本,如果不一致会存在该问题。
-解决办法将Spark jars里面的json4s的包替换掉lib/linkis-engineplugins/spark/dist/version/lib
- 包里面的json4s版本。另外netty包也可能存在冲突,可按Json4s的方法进行处理.然后重启ecp服务即可:sh 
sbin/linkis-damon.sh restart cg-engineplugin
 
-#### Q15.Linkis管理台,管理员页面ECM和微服务管理怎么 开启?
+
+
+#### Q8: Linkis管理台,管理员页面ECM和微服务管理怎么 开启?
 
 ![](/faq/q15_1.png)
 
@@ -157,67 +265,19 @@ wds.linkis.governance.station.admin=hadoop,peacewong
 
 设置完成后,重启下publicservice服务即可
 
-#### Q.16Linkis1.0执行任务时,ECP服务抛出如下错误:Caused by: 
java.util.NoSuchElementException: None.get?
-错误详细日志:
-
-解决办法:
-这个时因为对应引擎版本物料没有在数据库表中存在对应的记录,可能时ecp服务启动的时候有误导致,您可以重启下ecp服务,看是否在上传BML的时候存在错误,对应的表为:linkis_cg_engine_conn_plugin_bml_resources
-
-#### Q17.Linkis1.X提示资源不足的通用排查方法
-资源不足分为两种情况:
-
-1.     服务器本身的资源不足 
-2.     用户自身的资源不足(linkis会对用户资源进行管控)。
-   
这两种资源在linkis1.X中都记录在linkis_cg_manager_label_resource和linkis_cg_manager_linkis_resource中,前者为label和resource的关联表,后者为resource表
-   
通常情况下,linkis1.0对资源的高并发管控是安全的,不建议通过修改表记录的方式去强行重置用户资源记录。但是由于安装调试过程中,linkis的执行环境有所不同,所以会出现引擎启动失败,或在引擎启动过程中对微服务的反复重启导致资源没有安全释放,或者监控器没来得及自动清理(有小时级的延迟),就可能会出现资源不足的问题,严重时会导致用户的大部分资源处于上锁状态。因此对于排查资源不足可以参考以下步骤:
-   
a.在管理台确认ECM的剩余资源是否大于引擎的请求资源,如果ECM剩余的资源非常少,那么就会导致请求新的引擎失败,需要手动在ECM中关掉部分闲置的引擎,linkis对引擎也有闲时自动释放的机制,但这个时间默认设置的相对较长。
-   
b.如果ECM资源充足,则必定是用户剩余资源不足以请求新的引擎,首先确定用户的执行任务时产生的label标签,例如用户hadoop在Scriptis上执行spark2.4.3脚本,则在linkis_cg_manager_label表中对应下条记录
-   
我们拿到这条label的id值,在关联表linkis_cg_manager_label_resource中找到对应的resourceId,通过resourceId在linkis_cg_manager_linkis_resource中就能找到对应的label的resource记录,可以检查下这条记录中的剩余资源
-
-如果这条资源排查判定是异常情况,即不符合实际引擎启动产生的资源。可以进行以下操作恢复:
-在确认该label下所有引擎已经关停的情况下,可以将这条资源和关联表linkis_cg_manager_label_resource对应的关联记录直接删除,再次请求时则会自动重置这条资源。
-注意:该label所有引擎已经关停在上个例子中是指的hadoop用户在Scriptis上启动的spark2.4.3的引擎已经全部关停,可以在管理台的资源管理中看到该用户启动的所有引擎实例。否则可能还会出现该label的资源记录异常。
-
-#### Q18.Linkis1.X在CDH5.16.1版本提交spark sql任务时,404的问题排查方法
-主要报错信息如下:
-
-```
-21304, Task is Failed,errorMsg: errCode: 12003 ,desc: ip:port_x Failed to 
async get EngineNode FeignException.NotFound: status 404 reading 
RPCReceiveRemote#receiveAndReply(Message) ,ip: xxxxx ,port: 9104 ,serviceKind: 
linkis-cg-entrance
-org.apache.jasper.servlet.JspServlet 89 warn - PWC6117: File 
"/home/hadoop/dss1.0/tmp/hadoop/workDir/7c3b796f-aadd-46a5-b515-0779e523561a/tmp/jetty-docbase.1802511762054502345.46019/api/rest_j/v1/rpc/receiveAndReply"
 not found
-```
-
-以上报错信息主要是由于cdh环境变量中的jar冲突导致的,需要查找org.apache.jasper.servlet.JspServlet这个类所在的jar包,本地cdh的环境变量路径为:/opt/cloudera/parcels/CDH-5.16.1-1.cdh5.16.1.p0.3/jars,删除了该目录下面的对应的jasper-compile-${version}.jar和jsp-${version}.jar这两类jar包,服务不需要重启,即可重新运行spark
 sql任务,问题解决。
-
-#### Q20 运行报错缺包matplotlib
-标准的python环境,需要安装好anaconda2和anaconda3,并且默认anaconda为anaconda2。这里面包含了常见大多数python库。
-
-#### 
Q21、linkis启动报错:NoSuchMethodErrorgetSessionManager()Lorg/eclipse/jetty/server/SessionManager
-具体堆栈:
 
-```
-startup of context 
o.s.b.w.e.j.JettyEmbeddedWebAppContext@6c6919ff{application,/,[file:///tmp/jetty-docbase.9102.6375358926927953589/],UNAVAILABLE}
 java.lang.NoSuchMethodError: 
org.eclipse.jetty.server.session.SessionHandler.getSessionManager()Lorg/eclipse/jetty/server/SessionManager;
-at 
org.eclipse.jetty.servlet.ServletContextHandler\$Context.getSessionCookieConfig(ServletContextHandler.java:1415)
 ~[jetty-servlet-9.3.20.v20170531.jar:9.3.20.v20170531]
-```
 
-解法:jetty-servlet  和 jetty-security版本需要从9.3.20升级为9.4.20;
-#### Q22、启动微服务linkis-ps-cs时,报DebuggClassWriter overrides final method visit
-具体异常栈:
+#### Q9: 启动微服务linkis-ps-publicservice时,kJdbcUtils.getDriverClassName NPE
 
-解法:jar包冲突,删除asm-5.0.4. jar;
-#### Q23、启动微服务linkis-ps-publicservice时,kJdbcUtils.getDriverClassName NPE
 具体异常栈:ExternalResourceProvider
 
 ![](/faq/q23_1.png)
 
 解法:linkis-ps-publicservice配置问题导致的,修改linkis.properties hive.meta开头的三个参数:
 
-#### Q24、shell引擎调度执行时,引擎执行目录报如下错误/bin/java:No such file or directory:
 
-![](/faq/q24_1.png)
-
-解法:本地java的环境变量有问题,需要对java命令做下符号链接。
 
-#### Q25、hive引擎调度时,报如下错误EngineConnPluginNotFoundException:errorCode:70063
+#### Q10: hive引擎调度时,报如下错误EngineConnPluginNotFoundException:errorCode:70063
 
 ![](/faq/q25_1.png)
 
@@ -233,51 +293,15 @@ cd 
/appcom/Install/dss-linkis/linkis/lib/linkis-engineconn-plugins/,
 最后重启engineplugin服务。
 ```
 
-
-
-#### Q26、hive引擎调度执行时,报错如下opertion failed NullPointerException:
+#### Q11: hive引擎调度执行时,报错如下opertion failed NullPointerException:
 
 ![](/faq/q26_1.png)
 
 解法:服务器缺少环境变量,/etc/profile增加`export HIVE_CONF_DIR=/etc/hive/conf;`
 
-#### Q27、hive引擎调度时,engineConnManager的错误日志如下method did not  
exist:SessionHandler:
-
-![](/faq/q27_1.png)
-
-解法:hive引擎lib下,jetty jar包冲突,jetty-security、 jetty-server替换为9.4.20;
-
-#### Q28、hive引擎执行时,报如下错误Lcom/google/common/collect/UnmodifiableIterator:
-
-```
-2021-03-16 13:32:23.304 ERROR 
[pool-2-thread-1]com.webank.wedatasphere.linkis.engineplugin.hive.executor.HiveEngineConnExecutor
 140 run - query failed, reason : java.lang.AccessError: tried to access method 
com.google.common.collect.Iterators.emptyIterator() 
Lcom/google/common/collect/UnmodifiableIterator; from class 
org.apache.hadoop.hive.ql.exec.FetchOperator 
-at org.apache.hadoop.hive.ql.exec.FetchOperator.<init>(FetchOperator.java:108) 
~[hive-exec-2.1.1-cdh6.1.0.jar:2.1.1-cdh6.1.0]
-at org.apache.hadoop.hive.ql.exec.FetchTask.initialize(FetchTask.java:86) 
~[hive-exec-2.1.1-cdh6.1.0.jar:2.1.1-cdh6.1.0]
-at org.apache.hadoop.hive.ql..compile(Driver.java:629) 
~[hive-exec-2.1.1-cdh6.1.0.jar:2.1.1-cdh6.1.0]
-at org.apache.hadoop.hive.ql.Driver.compileInternal(Driver.java:1414) 
~[hive-exec-2.1.1-cdh6.1.0.jar:2.1.1-cdh6.1.0]
-at org.apache.hadoop.hive.ql.Driver.runInternal(Driver.java:1543) 
~[hive-exec-2.1.1-cdh6.1.0.jar:2.1.1-cdh6.1.0]
-at org.apache.hadoop.hive.ql.Driver.run(Driver.java:1332) 
~[hive-exec-2.1.1-cdh6.1.0.jar:2.1.1-cdh6.1.0]
-at org.apache.hadoop.hive.ql.Driver.run(Driver.java:1321) 
~[hive-exec-2.1.1-cdh6.1.0.jar:2.1.1-cdh6.1.0]
-atcom.webank.wedatasphere.linkis.engineplugin.hive.executor.HiveEngineConnExecutor$$anon$1.run(HiveEngineConnExecutor.scala:152)
 [linkis-engineplugin-hive-dev-1.0.0.jar:?]
-atcom.webank.wedatasphere.linkis.engineplugin.hive.executor.HiveEngineConnExecutor$$anon$1.run(HiveEngineConnExecutor.scala:126)
 [linkis-engineplugin-hive-dev-1.0.0.jar:?]
-```
-
-解法:guava包冲突,干掉hive/dist/v1.2.1/lib下的guava-25.1-jre.jar;
-
-#### Q29、引擎调度时,报如下错误Python proces is not alive:
-
-![](/faq/q29_1.png)
-
-解法:服务器安装anaconda3 
包管理器,经过对python调试,发现两个问题:(1)缺乏pandas、matplotlib模块,需要手动安装;(2)新版python引擎执行时,依赖python高版本,首先安装python3,其次做下符号链接(如下图),重启engineplugin服务。
-
-#### Q30. spark引擎执行时,报如下错误NoClassDefFoundError: 
org/apache/hadoop/hive/ql/io/orc/OrcFile:
 
-```
-2021-03-19 15:12:49.227 INFO  [dag-scheduler-event-loop] 
org.apache.spark.scheduler.DAGScheduler 57 logInfo -ShuffleMapStage 5 (show at 
<console>:69) failed in 21.269 s due to Job aborted due to stage failure: Task 
1 in stage 5.0 failed 4 times, most recent failure: Lost task 1.3 in stage 5.0 
(TID 139, cdh03, executor 6):java.lang.NoClassDefFoundError: 
org/apache/hadoop/hive/ql/io/orc/OrcFile 
-```
 
-解法:cdh6.3.2集群spark引擎classpath只有/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/lib/spark/jars,需要新增hive-exec-2.1.1-cdh6.1.0.jar,然后重启spark。
-#### Q31、spark引擎启动时,报错 get the queue information 
excepiton.(获取Yarn队列信息异常)以及http链接异常
+#### Q12: spark引擎启动时,报错 get the queue information 
excepiton.(获取Yarn队列信息异常)以及http链接异常
 
 解法:yarn的地址配置迁移DB配置,需要增加如下配置:
 
@@ -296,7 +320,7 @@ config 字段示例
 
 ![](/faq/q31_1.png)
 
-#### Q32. pythonspark调度执行,报错:initialize python executor failed 
ClassNotFoundException org.slf4j.impl.StaticLoggerBinder
+#### Q13: pythonspark调度执行,报错:initialize python executor failed 
ClassNotFoundException org.slf4j.impl.StaticLoggerBinder
 
 具体 如下: 
 
@@ -304,22 +328,24 @@ config 字段示例
 
 解法:原因是spark服务端缺少 
slf4j-log4j12-1.7.25.jar,copy上述jar报到/opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/lib/spark/jars。
 
- #### Q33.常见包冲突问题:
+ #### Q14: 常见包冲突问题:
   1. java.lang.NoSuchMethodError: 
javax.ws.rs.core.Application.getProperties()Ljava/util/Map;
      冲突包为:jsr311-api-1.1.1.jar也有可能jessery冲突
   2. java.lang.BootstrapMethodError: java.lang.NoSuchMethodError: 
javax.servlet.ServletContext.setInitParameter(Ljava/lang/String;Ljava/lang/String;)Z
-  冲突包为:servlet-api.jar
+
+    冲突包为:servlet-api.jar
  3. org/eclipse/jetty/util/processorUtils
     冲突包为:jetty-util-9.4.11.v20180605.jar 这个是正确版本
   4. java.lang.NoClassDefFoundError: Could not initialize class dispatch.Http$
-  冲突包为需要拷入:netty-3.6.2.Final.jar
+
+    冲突包为需要拷入:netty-3.6.2.Final.jar
  5. 
hive-exec带入的其他jar导致的冲突calcite-avatica-1.6.0.jar也有可能带入jackson包的冲突,导致com.fasterxml.jackson.databind相关的错误
-  Cannot inherit from final class 是因为calcite-avatica-1.6.0.jar导致
+    Cannot inherit from final class 是因为calcite-avatica-1.6.0.jar导致
  6. LZO压缩问题hadoop-lzo的jar
-  
7.org.eclipse.jetty.server.session.SessionHandler.getSessionManager()Lorg/eclipse/jetty/server/SessionManager;
-  需要将冲突包:jetty-servlet 和 jetty-security  替换为9.4.20
+    
7.org.eclipse.jetty.server.session.SessionHandler.getSessionManager()Lorg/eclipse/jetty/server/SessionManager;
+    需要将冲突包:jetty-servlet 和 jetty-security  替换为9.4.20
 
-#### Q34.运行Scripts的Mysql脚本报错\sql引擎报错
+#### Q15: 运行Scripts的Mysql脚本报错\sql引擎报错
 MYSQL脚本:运行sql报错:
 
 ```
@@ -329,14 +355,14 @@ 
com.webank.wedatasphere.linkis.orchestrator.ecm.exception.ECMPluginErrorExceptio
 
 解决办法:linkis_cg_rm_external_resource_provider表修改正确的yarn地址
 
-#### Q35.scriptis执行脚本等待时间长
+#### Q16: scriptis执行脚本等待时间长
 
 ![](/faq/q35_1.png)
 
 scriptis执行脚本等待时间长,报错Failed  to async get EngineNode TimeoutException:
 解决办法:可以检查linkismanager的日志,一般是因为引擎启动超时
 
-#### Q36.scriptis执行jdbc脚本,报错
+#### Q17: scriptis执行jdbc脚本,报错
 scriptis执行jdbc脚本,报错
 
 ```
@@ -346,46 +372,23 @@ Failed  to async get EngineNode ErrorException: errCode: 
0 ,desc: operation fail
 解决办法
 需要安装下对应的引擎插件,可以参考:[引擎安装指引](/docs/latest/deployment/install-engineconn)
 
-#### Q37.关闭资源检查
+#### Q18: 关闭资源检查
 报错现象:资源不足
 linkismanager服务修改下这个配置:wds.linkis.manager.rm.request.enable=false
 可以清理下资源记录,或者设置小点的资源
 或者关闭检测
 linkismanager服务修改下这个配置:wds.linkis.manager.rm.request.enable=false
 
-#### Q38. dss-framework-project-serve 启动失败
-问题现象:
-dss-framework-project-serve 启动失败
-
-日志:
-
-2021-10-12 11:52:49.122 ERROR [main] 
org.springframework.boot.SpringApplication 837 reportFailure - Application run 
failed org.springframework.beans.factory.BeanCreationException: Error creating 
bean with name 'appConnManagerRestfulApi': Invocation of init method failed; 
nested exception is LinkisException{errCode=100000, desc='errCode: 90003 ,desc: 
/opt/dss/Install/dss-dev/dss-appconns/orchestrator-framework to zip file failed 
,ip:  ,port: 9002,serviceKind: dss-framework-project-server' [...]
-
-
-
-#### Q39 执行脚本报错
-执行脚本报错
-
+#### Q19: 执行脚本报错
 ```
 GatewayErrorException: errCode: 11012 ,desc: Cannot find an instance in the 
routing chain of serviceId [linkis-cg-entrance], please retry ,ip: localhost 
,port: 9001 ,serviceKind: linkis-mg-gateway
 ```
 
 ![](/faq/q39_1.png)
 
-#### Q40 DSS开头的接口全部报错
-```
-报错内容TooManyServiceException: errCode: 11010 ,desc: Cannot find a correct 
serviceId for parsedServiceId dss, service list is: 
List(dss-framework-project-server, dss-framework-orchestrator-server-dev, 
dss-apiservice-server, dss-datapipe-server, dss-workflow-server-dev, 
dss-flow-entrance)
-```
-
-![](/faq/q40_1.png)
+A:请检查linkis-cg-entrance服务是否正常启动。
 
-![](/faq/q40_2.png)
-
-![](/faq/q40_3.png)
-
-
-
-#### Q41 ScriptIs执行脚本 TimeoutException
+#### Q20:  ScriptIs执行脚本 TimeoutException
 
 ![](/faq/q41_1.png)
 
@@ -394,24 +397,20 @@ linkis-cg-linkismanager.log中, 重复打印Need a 
ServiceInstance(linkis-cg-e
 
 
 
-#### Q42 配置默认jdbc
-
-![](/faq/q42_1.png)
-
-#### Q43 引擎超时时间设置
+#### Q21: 引擎超时时间设置
 
 ![](/faq/q43_1.png)
 
 ①管理台参数配置,可以对应引擎参数,可以修改超时时间。保存后kill现有引擎即可。
 ②如未显示超时配置,需要手动修改 linkis-engineplugins目录下,对应引擎插件目录 如 
spark/dist/v2.4.3/conf/linkis-engineconn.properties ,默认配置 
wds.linkis.engineconn.max.free.time=1h ,表示1h超时,可带单位m 
、h。0表示不超时,不会自动kill。改完需要重启ecp,并且kill现有引擎,跑新任务起引擎即可生效。
 
-#### Q44 新建工作流的时候,提示“504 Gateway Time-out”
+#### Q22:  新建工作流的时候,提示“504 Gateway Time-out”
 
 ![](/faq/q44_1.png)
 
 错误信息:The instance 05f211cb021e:9108 of application linkis-ps-cs is not exists. 
,ip: 5d30e4bb2f42 ,port: 9001 ,serviceKind: linkis-mg-gateway,如下图:
 
-#### Q45 
Scripts执行python脚本(脚本内容是很简单的print)正常执行成功,通过任务调度系统也可以执行成功,通过作业流的编辑作业脚本页面也可执行成功,但是通过作业流执行时报错
+#### Q23:  
Scripts执行python脚本(脚本内容是很简单的print)正常执行成功,通过任务调度系统也可以执行成功,通过作业流的编辑作业脚本页面也可执行成功,但是通过作业流执行时报错
 错误信息:
 
 ```
@@ -439,18 +438,18 @@ Exception in thread "main" java.lang.NullPointerException
 
 
解决方案:/opt/kepler/work/engine/hadoop/workDir/9c28976e-63ba-4d9d-b85e-b37d84144596目录下conf为空导致的。lib和conf是在微服务启动时,由系统检查到(linkis/lib/linkis-engineconn-plugins/python)python引擎物料包zip变化,自动上传至engine/engineConnPublickDir/目录下。临时解决问题是将linkis/lib/linkis-engineconn-plugins/python下的lib和conf内容复制到engine/engineConnPublickDir/对应的目录(即workDir/9c28976e-63ba-4d9d-b85e-b37d84144596里的外链接引用的目录)下。正式方案需解决物料包变化未能成功上传到engineConnPublickDir的问题。
 
-#### Q46 安装Exchangis0.5.0后通过dss菜单点击进入新页面提示“Sorry, Page Not Found”。F12查看有404异常
+#### Q24:  安装Exchangis0.5.0后通过dss菜单点击进入新页面提示“Sorry, Page Not Found”。F12查看有404异常
 错误信息:F12查看到vue.runtime.esm.js:6785 GET 
http://10.0.xx.xx:29008/udes/auth?redirect=http%3A%2F%2F10.0.xx.xx%3A29008&dssurl=http%3A%2F%2F10.0.xx.xx%3A8088&cookies=bdp-user-ticket-id%3DM7UZXQP9Ld1xeftV5DUGYeHdOc9oAFgW2HLiVea4FcQ%3D%3B%20workspaceId%3D225
 404 (Not Found)
-#### Q47 HIVE 里面配置atlas出现死循环导致堆栈溢出
+#### Q25:  HIVE 里面配置atlas出现死循环导致堆栈溢出
 需要将${ATLAS_HOME}/atlas/hook/hive/ 下所有内容jar包及子目录加入到hive engine 的 
lib目录下,不然AtlasPluginClassLoader找不到正确的实现类而找到的是hive-bridge-shim下的类,导致死循环
 但是Linkis(1.0.2)现在的执行方式不支持lib下有子目录,需要修改代码,参考:
 https://github.com/apache/incubator-linkis/pull/1058
 
-#### Q48 Linkis1.0.X基于 spark3 hadoop3 hive3 或 hdp3.1.4 编译需要修改的地方请参考:
+#### Q26:  Linkis1.0.X基于 spark3 hadoop3 hive3 或 hdp3.1.4 编译需要修改的地方请参考:
 https://github.com/lordk911/Linkis/commits/master
 编译好之后DSS请依据编译好的包重新编译,scala保持版本一致,web模块用全家桶的就行
 
-#### Q49 linkis 执行jdbc任务无法获取到用户名
+#### Q27 linkis 执行jdbc任务无法获取到用户名
 2021-10-31 05:16:54.016 ERROR Task is Failed,errorMsg: NullPointerException: 
jdbc.username cannot be null.
 
源代码:com.webank.wedatasphere.linkis.manager.engineplugin.jdbc.executer.JDBCEngineConnExecutor
 接收到的val properties = 
engineExecutorContext.getProperties.asInstanceOf[util.Map[String, String]] 
没有jdbc.username 参数
 
@@ -460,7 +459,7 @@ https://github.com/lordk911/Linkis/commits/master
 解决方法2:对比修改此文件
 
https://github.com/apache/incubator-linkis/blob/319213793881b0329022cf4137ee8d4c502395c7/linkis-engineconn-plugins/engineconn-plugins/jdbc/src/main/scala/com/webank/wedatasphere/linkis/manager/engineplugin/jdbc/executer/JDBCEngineConnExecutor.scala
 
-#### Q50. 安装前更改配置中的hive版本后,管理台的配置中仍然显示版本为2.3.3
+#### Q28:  安装前更改配置中的hive版本后,管理台的配置中仍然显示版本为2.3.3
 
 ![](/faq/q50_1.png)
 
@@ -468,7 +467,7 @@ 
https://github.com/apache/incubator-linkis/blob/319213793881b0329022cf4137ee8d4c
 
方案二:如果不想重新安装,则需要在linkis_cg_manager_label表中label_value包含hive-2.3.3的所有值改成希望的hive版本即可
 Note:欢迎将此问题在github Linkis项目提交PR进行修复,然后告知我们,我们会尽快review并合并到代码中(目前未修复,Deadline 
2021年11月30日)
 
-#### Q51. linkis-cli 提交任务,提示GROUP BY clause; sql_mode=only_full_group_by错误
+#### Q29: linkis-cli 提交任务,提示GROUP BY clause; sql_mode=only_full_group_by错误
 ```
 _8_codeExec_8 
com.webank.wedatasphere.linkis.orchestrator.ecm.exception.ECMPluginErrorException:
 errCode: 12003 ,desc: uathadoop01:9101_8 Failed  to async get EngineNode 
MySQLSyntaxErrorException: Expression #6 of SELECT list is not in GROUP BY 
clause and contains nonaggregated column 'dss_linkis.si.name' which is not 
functionally dependent on columns in GROUP BY clause; this is incompatible with 
sql_mode=only_full_group_by ,ip: uathadoop01 ,port: 9104 ,serviceKind: 
linkis-cg-entrance
 ```
@@ -477,20 +476,20 @@ _8_codeExec_8 
com.webank.wedatasphere.linkis.orchestrator.ecm.exception.ECMPlugi
 原因:这个错误发生在mysql 5.7 
版本及以上版本会出现的问题:因为配置严格执行了"SQL92标准",解决方法:进入/etc/mysql目录下修改my.cnf文件 在 [mysqld] 
下面添加代码:
 sql_mode = 
STRICT_TRANS_TABLES,NO_ZERO_IN_DATE,NO_ZERO_DATE,ERROR_FOR_DIVISION_BY_ZERO,NO_AUTO_CREATE_USER,NO_ENGINE_SUBSTITUTION
 
-  #### Q52、flink引擎启动时报错找到TokenCache
+  #### Q30: flink引擎启动时报错找到TokenCache
 ERROR [main] 
com.webank.wedatasphere.linkis.engineconn.computation.executor.hook.ComputationEngineConnHook
 57 error - EngineConnSever start failed! now exit. 
java.lang.NoClassDefFoundError: org/apache/hadoop/mapreduce/security/TokenCache
 原因:flink-enginecon 
lib下缺少hadoop-mapreduce-client-core.jar这个jar包,从hadoop的lib下拷贝一份即可。
 
-#### Q53、运行flink任务时报错:Failed to create engineConnPlugin: 
com.webank.wedatasphere.linkis.engineplugin.hive.HiveEngineConnPluginjava.lang.ClassNotFoundException:
 com.webank.wedatasphere.linkis.engineplugin.hive.HiveEngineConnPlugin
+#### Q34: 运行flink任务时报错:Failed to create engineConnPlugin: 
com.webank.wedatasphere.linkis.engineplugin.hive.HiveEngineConnPluginjava.lang.ClassNotFoundException:
 com.webank.wedatasphere.linkis.engineplugin.hive.HiveEngineConnPlugin
 ![](/faq/q53_1.png)
 
 原因:flink引擎目录下的conf里的配置文件为空,读取了默认的配置(默认读取hived引擎的配置),删除配置表中关于flink的conf 然后重启ecp
 
-#### Q54、启动flink引擎/spark引擎时,engine-entrance报错org.json4s.JsonAST$JNothing$ 
cannot be cast to org.json4s.JsonAST$JString
+#### Q31: 启动flink引擎/spark引擎时,engine-entrance报错org.json4s.JsonAST$JNothing$ 
cannot be cast to org.json4s.JsonAST$JString
 原因是linkis-manager里面报错yarn队列获取异常
 解决办法:修改linkis_cg_rm_external_resource_provider表中修改对应config的yarn队列信息
 
-#### Q55、函数脚本执行时报ClassNotFoundException
+#### Q32:函数脚本执行时报ClassNotFoundException
 
 ![](/faq/q55_1.png)
 
@@ -504,7 +503,7 @@ ERROR [main] 
com.webank.wedatasphere.linkis.engineconn.computation.executor.hook
   }
 ```
 
-### Q56 CDH环境Linkis执行Spark任务报:Failed to start bean 'webServerStartStop
+### Q33: CDH环境Linkis执行Spark任务报:Failed to start bean 'webServerStartStop
 
 详细日志:
 ```shell
diff --git a/src/components/contributors.json b/src/components/contributors.json
index 7a155f42da..a1ee0770a3 100644
--- a/src/components/contributors.json
+++ b/src/components/contributors.json
@@ -2393,4 +2393,4 @@
     "site_admin": false,
     "contributions": 1
   }
-]
\ No newline at end of file
+]
diff --git a/src/components/contributorsWebsite.json 
b/src/components/contributorsWebsite.json
new file mode 100644
index 0000000000..45898ad6b6
--- /dev/null
+++ b/src/components/contributorsWebsite.json
@@ -0,0 +1 @@
+[{"login":"casionone","id":7869972,"node_id":"MDQ6VXNlcjc4Njk5NzI=","avatar_url":"https://avatars.githubusercontent.com/u/7869972?v=4","gravatar_id":"","url":"https://api.github.com/users/casionone","html_url":"https://github.com/casionone","followers_url":"https://api.github.com/users/casionone/followers","following_url":"https://api.github.com/users/casionone/following{/other_user}","gists_url":"https://api.github.com/users/casionone/gists{/gist_id}","starred_url":"https://api.github.c
 [...]
\ No newline at end of file


---------------------------------------------------------------------
To unsubscribe, e-mail: [email protected]
For additional commands, e-mail: [email protected]


Reply via email to