大数据组件-Hive部署基于MySQL作为元数据存储

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
云数据库 RDS MySQL,高可用系列 2核4GB
简介: 大数据组件-Hive部署基于MySQL作为元数据存储

在这里插入图片描述

👨🏻‍🎓博主介绍:大家好,我是芝士味的椒盐,一名在校大学生,热爱分享知识,很高兴在这里认识大家🌟
🌈擅长领域:Java、大数据、运维、电子
🙏🏻如果本文章各位小伙伴们有帮助的话,🍭关注+👍🏻点赞+🗣评论+📦收藏,相应的有空了我也会回访,互助!!!
🤝另本人水平有限,旨在创作简单易懂的文章,在文章描述时如有错,恳请各位大佬指正,在此感谢!!!

@[TOC]

MySQL安装

  • 准备如下安装包

    1. MySQL-client-5.6.24-1.el6.x86_64.rpm
    2. mysql-connector-java-5.1.27.tar.gz
    3. MySQL-server-5.6.24-1.el6.x86_64.rpm

操作步骤:

  1. 使用rpm指令查询是否安装有mariadbpostfix,有就卸载

    rpm -qa |grep mariadb
    rpm -qa |grep postfix
    #卸载发现的,否则mysql将安装不上
    sudo rpm -e --nodeps mariadb-libs-5.5.64-1.el7.x86_64
  2. 安装MySQL-server-5.6.24-1.el6.x86_64.rpm

    rpm -ivh MySQL-server-5.6.24-1.el6.x86_64.rpm
    rpm -ivh MySQL-client-5.6.24-1.el6.x86_64.rpm
  3. 启动mysql服务

    seriver mysql start
  4. /root/.mysql_secret 中查看随机密码,并记录随机密码

    sudo cat /root/.mysql_secret
  5. 登录mysql

    mysql -uroot -p[随机密码]
  6. 设置新的密码以及远程登录,并且刷新

    mysql>set password=password('root');
    #配置任何主机可以远程登录
    mysql>use mysql
    mysql>update user set host='%' where user='root;
    #刷新sql配置
    mysql>flush privileges;

安装Hive配置元数据到MySQL

  1. mysql-connector-java-5.1.27.tar.gz 进行解压

    tar -zxvf mysql-connector-java-5.1.27.tar.gz
  2. 将解压出来中的mysql-connector-java-5.1.27-bin.jar复制到/usr/local/src/hive/lib下

    cp mysql-connector-java-5.1.27-bin.jar /usr/local/src/hive/lib/
  3. 配置Metastore到MySQL

    1. 在/hive/conf下创建一个hive-site.xml

      touch hive-site.xml
    2. 并配置hive-site.xml中的参数

      image.png

      • 若启动hive异常需要重新启动机器
    3. 多窗口启动hive测试

      1. 先启动mysql,并查看有几个数据库

        ------mysql -uroot -proot
        mysql>show databases;
      2. 再次打开多个窗口,分别启动hive

        hive
      3. 启动hive之后,返回mysql窗口查看数据库数量,会显示增加了metastore数据库

HiveJDBC访问

  1. 因为hadoop不允许直接用户操纵hadoo层,会有一个伪装机制,而是使用将控制权交由超级代理,需要在hadoop的core-site.xml中配置

    image.png

  2. 先开启 Metastore,再开启hiveserver2

    nohup hive --service metastore  >>  log.out 2>&1 &
    
    nohup hive --service hiveserver2  >> log.out 2>&1 &
  3. 连接hiveserver2

    beeline> !connect jdbc:hive2://本机的hive的ip或域名:10000(回车)
    Connecting to jdbc:hive2://本机的hive的ip或域名:10000
    Enter username for jdbc:hive2://本机的hive的ip或域名:10000: hadoop(回车)
    Enter password for jdbc:hive2://本机的hive的ip或域名:10000: (直接回车)
    Connected to: Apache Hive (version 1.2.1)
    Driver: Hive JDBC (version 1.2.1)
    Transaction isolation: TRANSACTION_REPEATABLE_READ
    0: jdbc:hive2://本机的hive的ip或域名:10000> show databases;
    +----------------+--+
    | database_name  |
    +----------------+--+
    | default        |
    | hive_db2       |
    +----------------+--+
相关文章
|
1月前
|
SQL DataWorks 关系型数据库
DataWorks操作报错合集之如何处理数据同步时(mysql->hive)报:Render instance failed
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
1月前
|
分布式计算 资源调度 大数据
【决战大数据之巅】:Spark Standalone VS YARN —— 揭秘两大部署模式的恩怨情仇与终极对决!
【8月更文挑战第7天】随着大数据需求的增长,Apache Spark 成为关键框架。本文对比了常见的 Spark Standalone 与 YARN 部署模式。Standalone 作为自带的轻量级集群管理服务,易于设置,适用于小规模或独立部署;而 YARN 作为 Hadoop 的资源管理系统,支持资源的统一管理和调度,更适合大规模生产环境及多框架集成。我们将通过示例代码展示如何在这两种模式下运行 Spark 应用程序。
139 3
|
21天前
|
存储 SQL 分布式计算
Hive存储表数据的默认位置详解
【8月更文挑战第31天】
69 1
|
1月前
|
SQL 存储 关系型数据库
从Hive建表语句到MySQL的转换
【8月更文挑战第11天】
|
1月前
|
SQL 存储 关系型数据库
Hive 元数据更新
【8月更文挑战第12天】
|
2月前
|
SQL 关系型数据库 MySQL
实时计算 Flink版操作报错合集之从mysql读数据写到hive报错,是什么原因
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
|
2月前
|
SQL 分布式计算 大数据
大数据处理平台Hive详解
【7月更文挑战第15天】Hive作为基于Hadoop的数据仓库工具,在大数据处理和分析领域发挥着重要作用。通过提供类SQL的查询语言,Hive降低了数据处理的门槛,使得具有SQL背景的开发者可以轻松地处理大规模数据。然而,Hive也存在查询延迟高、表达能力有限等缺点,需要在实际应用中根据具体场景和需求进行选择和优化。
|
3月前
|
分布式计算 运维 DataWorks
MaxCompute产品使用问题之数据如何导出到本地部署的CK
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
3月前
|
SQL 数据采集 数据可视化
基于Hive的招聘网站的大数据分析系统
基于Hive的招聘网站的大数据分析系统
|
3月前
|
SQL 关系型数据库 MySQL
基于Hive的天气情况大数据分析系统(通过hive进行大数据分析将分析的数据通过sqoop导入到mysql,通过Django基于mysql的数据做可视化)
基于Hive的天气情况大数据分析系统(通过hive进行大数据分析将分析的数据通过sqoop导入到mysql,通过Django基于mysql的数据做可视化)

热门文章

最新文章