Merge pull request #575 from qiaozhanwei/dev-1.1.0

sql kerberos task update doc
diff --git "a/docs/zh_CN/\347\263\273\347\273\237\344\275\277\347\224\250\346\211\213\345\206\214.md" "b/docs/zh_CN/\347\263\273\347\273\237\344\275\277\347\224\250\346\211\213\345\206\214.md"
index 595850b..b4d6d6b 100644
--- "a/docs/zh_CN/\347\263\273\347\273\237\344\275\277\347\224\250\346\211\213\345\206\214.md"
+++ "b/docs/zh_CN/\347\263\273\347\273\237\344\275\277\347\224\250\346\211\213\345\206\214.md"
@@ -215,11 +215,12 @@
 
 注意:如果开启了**kerberos**,则需要填写 **Principal**
 <p align="center">
-    <img src="https://analysys.github.io/easyscheduler_docs_cn/images/hive_edit2.png" width="60%" />
+    <img src="https://analysys.github.io/easyscheduler_docs_cn/images/hive_kerberos.png" width="60%" />
   </p>
 
 
 
+
 #### 创建、编辑Spark数据源
 
 <p align="center">
@@ -236,6 +237,14 @@
 - 数据库名:输入连接Spark的数据库名称
 - Jdbc连接参数:用于Spark连接的参数设置,以JSON形式填写
 
+
+
+注意:如果开启了**kerberos**,则需要填写 **Principal**
+
+<p align="center">
+    <img src="https://analysys.github.io/easyscheduler_docs_cn/images/sparksql_kerberos.png" width="60%" />
+  </p>
+
 ### 上传资源
   - 上传资源文件和udf函数,所有上传的文件和资源都会被存储到hdfs上,所以需要以下配置项: