Window10 pyhive连接hive报错:Could not start SASL: b‘Error in sasl_client_start (-4) SASL(-4)

简介: Window10 pyhive连接hive报错:Could not start SASL: b‘Error in sasl_client_start (-4) SASL(-4)

项目场景:


在Windows上使用python调用pyhive库连接hive。hive ip地址都能正确ping通,本地也能连上。


问题描述


问题1 :pyhive No module named sasl

处理完之后又遇到:

问题2:Could not start SASL: b'Error in sasl_client_start (-4) SASL(-4)


原因分析:


问题1 :pyhive No module named sasl


缺少依赖,如果是anaconda下面进行连接的话直接在anacoda的图形化界面的:

f68e6f50580343a29a16525ac2193178.png

下面搜索sasl,安装即可,也一定要安装其他的例如thrift包。

e269db508a6d40498616c14b700074a6.png

如果没用anaconda的话直接:


1. pip install thrift
2. pip install sasl
3. pip install thrift-sasl
4. pip install thriftpy2


发生这个错误最主要的原因是之所以pyhive无法链接hive库是因为,所引用的sasl无法初始化,在windows下,需要指定初始化时的dll库位置。

我的解决方法是:


第一步:


找到你python环境下的Library,找到bin目录下的sasls,找到

93c8e05ba8214d0a835a1631f229d644.png

复制一下。


第二步:


在C盘下创建C:\CMU\bin\sasl2,在此目录下面拷贝saslPLAIN.dll文件,再尝试连接:


3665e3d51e144cd6968642858ee4e09a.png


成功!

目录
相关文章
|
SQL DataWorks 关系型数据库
DataWorks操作报错合集之如何处理数据同步时(mysql->hive)报:Render instance failed
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
410 0
|
SQL 分布式计算 数据库
【YashanDB 知识库】Hive 命令工具 insert 崖山数据库报错
【YashanDB 知识库】Hive 命令工具 insert 崖山数据库报错
|
SQL 分布式计算 关系型数据库
【YashanDB知识库】hive初始化崖山报错YAS-04209
【YashanDB知识库】hive初始化崖山报错YAS-04209
|
SQL 分布式计算 数据库
【YashanDB知识库】Hive 命令工具insert崖山数据库报错
【YashanDB知识库】Hive 命令工具insert崖山数据库报错
|
SQL 分布式计算 关系型数据库
【YashanDB知识库】hive初始化崖山报错YAS-04209
【YashanDB知识库】hive初始化崖山报错YAS-04209
|
SQL 分布式计算 JavaScript
Hive的JOIN连接
Hive的JOIN连接
332 5
|
SQL Java 关系型数据库
Hive常见的报错信息
文章列举了Hive常见的几种报错信息,并提供了错误复现、原因分析以及相应的解决方案。
2045 1
|
SQL 数据采集 数据挖掘
大数据行业应用之Hive数据分析航班线路相关的各项指标
大数据行业应用之Hive数据分析航班线路相关的各项指标
521 1
|
11月前
|
SQL 分布式计算 大数据
大数据新视界 --大数据大厂之Hive与大数据融合:构建强大数据仓库实战指南
本文深入介绍 Hive 与大数据融合构建强大数据仓库的实战指南。涵盖 Hive 简介、优势、安装配置、数据处理、性能优化及安全管理等内容,并通过互联网广告和物流行业案例分析,展示其实际应用。具有专业性、可操作性和参考价值。
大数据新视界 --大数据大厂之Hive与大数据融合:构建强大数据仓库实战指南
|
SQL 分布式计算 Java
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
377 0