Browse Source

Merge pull request #575 from qiaozhanwei/dev-1.1.0

sql kerberos task update doc
乔占卫 5 years ago
parent
commit
07a8f84525
1 changed files with 10 additions and 1 deletions
  1. 10 1
      docs/zh_CN/系统使用手册.md

+ 10 - 1
docs/zh_CN/系统使用手册.md

@@ -215,11 +215,12 @@
 
 注意:如果开启了**kerberos**,则需要填写 **Principal**
 <p align="center">
-    <img src="https://analysys.github.io/easyscheduler_docs_cn/images/hive_edit2.png" width="60%" />
+    <img src="https://analysys.github.io/easyscheduler_docs_cn/images/hive_kerberos.png" width="60%" />
   </p>
 
 
 
+
 #### 创建、编辑Spark数据源
 
 <p align="center">
@@ -236,6 +237,14 @@
 - 数据库名:输入连接Spark的数据库名称
 - Jdbc连接参数:用于Spark连接的参数设置,以JSON形式填写
 
+
+
+注意:如果开启了**kerberos**,则需要填写 **Principal**
+
+<p align="center">
+    <img src="https://analysys.github.io/easyscheduler_docs_cn/images/sparksql_kerberos.png" width="60%" />
+  </p>
+
 ### 上传资源
   - 上传资源文件和udf函数,所有上传的文件和资源都会被存储到hdfs上,所以需要以下配置项: