最具影响力的数字化技术在线社区

168大数据

 找回密码
 立即注册

QQ登录

只需一步,快速开始

1 2 3 4 5
打印 上一主题 下一主题
开启左侧

[基础] 用sqoop将mysql的数据导入到hive表中的方法

[复制链接]
跳转到指定楼层
楼主
发表于 2018-8-24 15:33:57 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

马上注册,结交更多数据大咖,获取更多知识干货,轻松玩转大数据

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
本帖最后由 168主编 于 2018-8-24 15:40 编辑

1、mysql的表结构如下:

[AppleScript] 纯文本查看 复制代码
CREATE TABLE `student` (
  `id` int(11) NOT NULL AUTO_INCREMENT,
  `stu_no` varchar(16) DEFAULT NULL,
  `name` varchar(64) DEFAULT NULL,
  `age` int(11) DEFAULT '0',
  `birthday` date DEFAULT NULL,
  `create_time` date DEFAULT NULL,
  PRIMARY KEY (`id`),
  KEY `index_stu_no` (`stu_no`),
  KEY `index_name` (`name`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;


2、需求1:把student表100条记录的id,stu_no,name,create_time字段导入hive(备注,如果是导入表的几个字段,不能使用需求2的方式直接导入导表中,使用第三种方式有可能会成功,但是仅限于表字段排序对应上了,如果没有对应上,会出现null或错误的列)

(1)在HDFS创建导出数据的目录

[AppleScript] 纯文本查看 复制代码
su hdfs
hadoop fs -mkdir /mysql
hadoop fs -chmod -R 777 /mysql


(2)使用query导出数据到HDFS目录下

[AppleScript] 纯文本查看 复制代码
sqoop import \
--connect jdbc:mysql://master60:3306/test \
--username root \
--password 123456 \
--query 'select id,stu_no,name,create_time from student where $CONDITIONS LIMIT 100' \
--target-dir /mysql/test/student \
--delete-target-dir \
--num-mappers 1 \
--compress \
--compression-codec org.apache.hadoop.io.compress.SnappyCodec \
--fields-terminated-by '\t'

(3)在Hive中创建表结构

[AppleScript] 纯文本查看 复制代码
drop table if exists default.student ;
create table default.student (
id int,
stu_no int,
name string,
create_time date
)
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' ;


(4)把导出的数据导入Hive中

load data inpath '/mysql/test/student' into table default.student;

3、需求2,把student表所有字段导入hive

(1)创建表结构,按mysql的表字段排序

[AppleScript] 纯文本查看 复制代码
drop table if exists default.student ;
create table default.student (
id int,
stu_no int,
name string,
age int,
birthday date,
create_time date
)
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' ;


(2)导入表数据到Hive

[AppleScript] 纯文本查看 复制代码
sqoop import \
--connect jdbc:mysql://master60:3306/test \
--username root \
--password 123456 \
--table student \
--fields-terminated-by '\t' \
--delete-target-dir \
--num-mappers 1 \
--hive-import \
--hive-database default \
--hive-table student


楼主热帖
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 转播转播 分享分享 分享淘帖 赞 踩

168大数据 - 论坛版权1.本主题所有言论和图片纯属网友个人见解,与本站立场无关
2.本站所有主题由网友自行投稿发布。若为首发或独家,该帖子作者与168大数据享有帖子相关版权。
3.其他单位或个人使用、转载或引用本文时必须同时征得该帖子作者和168大数据的同意,并添加本文出处。
4.本站所收集的部分公开资料来源于网络,转载目的在于传递价值及用于交流学习,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。
5.任何通过此网页连接而得到的资讯、产品及服务,本站概不负责,亦不负任何法律责任。
6.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源,若标注有误或遗漏而侵犯到任何版权问题,请尽快告知,本站将及时删除。
7.168大数据管理员和版主有权不事先通知发贴者而删除本文。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

关于我们|小黑屋|Archiver|168大数据 ( 京ICP备14035423号|申请友情链接

GMT+8, 2024-5-17 05:06

Powered by BI168大数据社区

© 2012-2014 168大数据

快速回复 返回顶部 返回列表