|
@@ -215,11 +215,12 @@
|
|
|
|
|
|
注意:如果开启了**kerberos**,则需要填写 **Principal**
|
|
|
<p align="center">
|
|
|
- <img src="https://analysys.github.io/easyscheduler_docs_cn/images/hive_edit2.png" width="60%" />
|
|
|
+ <img src="https://analysys.github.io/easyscheduler_docs_cn/images/hive_kerberos.png" width="60%" />
|
|
|
</p>
|
|
|
|
|
|
|
|
|
|
|
|
+
|
|
|
#### 创建、编辑Spark数据源
|
|
|
|
|
|
<p align="center">
|
|
@@ -236,6 +237,14 @@
|
|
|
- 数据库名:输入连接Spark的数据库名称
|
|
|
- Jdbc连接参数:用于Spark连接的参数设置,以JSON形式填写
|
|
|
|
|
|
+
|
|
|
+
|
|
|
+注意:如果开启了**kerberos**,则需要填写 **Principal**
|
|
|
+
|
|
|
+<p align="center">
|
|
|
+ <img src="https://analysys.github.io/easyscheduler_docs_cn/images/sparksql_kerberos.png" width="60%" />
|
|
|
+ </p>
|
|
|
+
|
|
|
### 上传资源
|
|
|
- 上传资源文件和udf函数,所有上传的文件和资源都会被存储到hdfs上,所以需要以下配置项:
|
|
|
|