ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

Sqoop 简易实践理论

2021-04-13 20:56:37  阅读:127  来源: 互联网

标签:sqoop -- 数据库 Sqoop 路径 实践 hive 简易 export


安装Sqoop

       1.解压
         tar -zvxf /sqoop 版本所在位置 -C /解压后位置
       
       2.更改名字
          mv /带版本号的Sqoop sqoop
       
       3.配置环境
         复制Sqoop-env-template.sh 并重名为 sqoop-env.sh
         /dxc/sqoop的路径/conf 下
         cp sqoop-env-template.sh sqoop-env.sh
       
       4.修改 sqoop-env.sh 文件
          vi sqoop-env.sh
          export HADOOP_COMMON_HOME=/hadoop的路径
          export HADOOP_MAPRED_HOME=/hadoop的路径
          export HBAE_HOME=/hbase的路径
          export HIVE_HOME=/hive的路径
        
       5.配置LInux环境
          vi /etc/profile
          末尾添加
          # set sqoop environment
          export SQOOP_HOME=/sqoop的路径
          export PATH=$PATH:$SQOOP_HOME/bin
          export CLASSPATH=$CLASSPATH:$SQOOP_HOME/lib
       
       6.连接数据库
        (为了使 Sqoop 能够连接到数据库,
     	   我们需要将 /mysql-connector-java-5.1.46.jar
      	   这个jar包文件放入sqoop 的 lib 文件中,
      	   版本不同,所需 jar包不同)
           cp /mysql-connector-java-5.1.46.jar的位置 /sqoop的路径/lib
       
        7.启动 Sqoop
          dxc
          su - hadoop
          source /etc/profile
          start-all.sh
       
       8.检查Hadoop集群
          jps
       
       9.测试是否可以正常连接数据库
         (在出现的信息末尾
          information_schema 、 hive 、 mysql ,performance_schema、sys 等数据库的名字,
          就证明可以正常连接了)
         sqoop list-databases 
         --connect jdbc:mysql://127.0.0.1:3306/ -username root -P               
      
      10.连接hive
         (这里需要将 /hive路径下的 lib 目录下的hive-common-2.0.0.jar 
              也放入安装路径的 lib 目录)
         cp /hive-common-2.0.0.jar 所在路径 /sqoop的路径/ 
      
      11.命令块
          登录数据库
           mysql -uroot -p
          创建 库
           create database dxck1;
          使用库
           use dxck1;
          创建表
           create table student(number char(9) primary key,name varchar(10));
          插入数据
           insert into student values('01','lisi');
          查询数据
           select * from student;
          退出
          exit
       
       12.在hive中创建 dxck1 数据库 和 student 数据表
            启动hive
             hive
            创建库
             create database dxck1;
            查看数据库
             show databases;
            使用数据库
             use dxck1
            创建表 
            create table  student(number STRING,name STRING)
            退出
            exit
       
       13.常用命令
          1)--connect:MySQL 数据库连接 URL。
          2)--username 和--	password:MySQL 数据库的用户名和密码。
      	  3)--table:导出的数据表名。
      	  4)--fields-terminated-by:Hive 中字段分隔符。
          5)--delete-target-dir:删除导出目的目录。
          6)--num-mappers:Hadoop 执行 Sqoop 导入导出启动的 map 任务数。
          7)--hive-import --hive-database:导出到 Hive 的数据库名。
     	  8)--hive-table:导出到 Hive 的表名
    
       14.从 Hive 导出数据,导入到 MySQL
          1)--connect:MySQL 数据库连接 URL。
          2)--username 和--password:MySQL 数据库的用户名和密码。
          3)--table:导出的数据表名。
          4)--fields-terminated-by:Hive 中字段分隔符。
          6)--export-dir:Hive 数据表在 HDFS 中的存储路径。
       
       15.sqoop 组件应用
          列出数据库中的所有数据库
     	  sqoop list-databases -connect 
	      jdbc:mysql://localhost:3306/ -username 
		  root -password Password
		  列出数据库dxc1的所有表
		  sqoop list-tables -connect 
		  jdbc:mysql://localhost:3306/dxc1 -username root 
		  -password Password

标签:sqoop,--,数据库,Sqoop,路径,实践,hive,简易,export
来源: https://blog.51cto.com/u_15165233/2704012

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有