2016 - 2024

感恩一路有你

hive数据导入到mysql数据库 大数据怎么入门学习好?

浏览量:3037 时间:2023-05-30 07:40:37 作者:采采

大数据怎么入门学习好?

大数据刚入门简单要自学javase,能够掌握了javase之后,最好就是再学点javaee,假如不学的话,影响也又不是不光大。接下来要学的东西就都很多了,通常是三块,一种是离线模式计算出,以hadoop重点,一种是实时计算,以spark重点,其实大数据并非一两个技术的组合,而是一整套求完整的生态系统,因此要学的东西应该很多的,大数据通常解决的办法的是海量数据的存储和计算问题,个人建议那就把java才能学好,只不过很多大数据的软件全是基于条件javac语言设计的,因为刚入门大数据的话,个人建议先从java刚入门学比较比较好!

如何用sqoop将hive分区表信息导入到mysql命令?

问题分析:

hive中分区表其底层那是HDFS中的多个目录下的单个文件,hive文件导入数据本质是将HDFS中的文件文件导出

hive中的分区表,毕竟分区字段(静态硬盘分区)还在文件中,因此在sqoop导出来的时候,难以将分区字段通过就导出

思路:在hive中创建战队一个充当表,将分区表不能复制进来后分区字段转换成为普通字段,然后再再用sqoop将tmp表导出即实现程序需求

步凑万分感谢:

文章目录

1.创建目标表(分区表)

1.1打开系统表结构

2.导入数据

3.查询表dept_partition

4.创建战队预备表tmp_dept_partition

5.网上查询预备表

6.查看表结构(此时此刻磁盘分区表已经转换的为非主分区表了)

中建表dept_partition

8.可以使用sqoop文件导入到MySQL

网站查询验正是否是成功导出来

1.修改目标表(磁盘分区表)

hivegtCREATETABLE`dept_partition`(

`deptno`int,

`dname`string,

`loc`string)

PARTITIONEDby(`month`string)rowformatdelimitedfieldsterminatedhet.1查找表结构

hivegtshowcreatetabledept_partition

1

1

------------------------------------------------------

|createtab_stmt|

------------------------------------------------------

|CREATETABLE`dept_partition`(|

|`deptno`int,|

|`dname`string,|

|`loc`string)|

|PARTITIONEDBY(|

|`month`string)

1

2

3

4

5

6

7

8

9

1

2

3

4

5

6

7

8

9

2.导入数据

hivegtload datainpath/user/hive/hive_db/data/dept.txtintotabledept_partition

1

1

10tACCOUNTINGt1700

20tRESEARCHt1800

30tSALESt1900

40tOPERATIONSt1700

1

2

3

4

1

2

3

4

3.查询表dept_partition

hivegtselect*fromdept_partition

1

1

---------------------------------------------------------------------------------------------

|dept_|dept_partition.dname|dept_partition.loc|dept_|

---------------------------------------------------------------------------------------------

|10|ACCOUNTING|1700|2019-10-19|

|20|RESEARCH|1800|2019-10-19|

|30|SALES|1900|2019-10-19|

|40|OPERATIONS|1700|2019-10-19|

|10|ACCOUNTING|1700|2019-10-20|

|20|RESEARCH|1800|2019-10-20|

|30|SALES|1900|2019-10-20|

|40|OPERATIONS|1700|2019-10-20|

---------------------------------------------------------------------------------------------

1

2

3

4

5

6

7

8

9

10

11

12

1

2

3

4

5

6

7

8

9

10

11

12

4.创建临时表tmp_dept_partition

hivegtsettmp_dept_partitionasselect*fromdept_partition

1

1

5.查询临时表

hivegtselect*fromtmp_dept_partition

1

1

-------------------------------------------------------------------------------------------------------------

|tmp_dept_|tmp_dept_partition.dname|tmp_dept_partition.loc|tmp_dept_|

-------------------------------------------------------------------------------------------------------------

|10|ACCOUNTING|1700|2019-10-19|

|20|RESEARCH|1800|2019-10-19|

|30|SALES|1900|2019-10-19|

|40|OPERATIONS|1700|2019-10-19|

|10|ACCOUNTING|1700|2019-10-20|

|20|RESEARCH|1800|2019-10-20|

|30|SALES|1900|2019-10-20|

|40|OPERATIONS|1700|2019-10-20|

-------------------------------------------------------------------------------------------------------------

1

2

3

4

5

6

7

8

9

10

11

12

1

2

3

4

5

6

7

8

9

10

11

12

6.栏里点表结构(此时此刻分区表早就装换为非系统分区表了)

hivegtshowcreatetabletmp_dept_partition

1

1

------------------------------------------------------

|createtab_stmt|

------------------------------------------------------

|CREATETABLE`tmp_dept_partition`(|

|`deptno`int,|

|`dname`string,|

|`loc`string,|

|`month`string)

1

2

3

4

5

6

7

8

1

2

3

4

5

6

7

8

中建表dept_partition

mysqlgttracetableifexistsdept_partition

createtabledept_partition(

`deptno`int,

`dname`varchar(20),

`loc`varchar(20),

`month`varchar(50))

1

2

3

4

5

6

1

2

3

4

5

6

8.在用sqoop导入到MySQL

bin/sqoopexport

--connectjdbc:mysql://hadoop01:3306/partitionTb

--usernameroot

--password123456

--tabledept_partition

--num-mappers1

--export-dir/user/hive/warehouse/hive_db.db/tmp_dept_partition

--input-fields-terminated-he

partition dept 分区表 hive

版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。