博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
sqoop 从sqlserver2008 导入数据到hadoop
阅读量:7107 次
发布时间:2019-06-28

本文共 4474 字,大约阅读时间需要 14 分钟。

  今天终于开始上手导入数据到hadoop了,哈哈,过程蛮崎岖的,和官方文档的还不太一样。

  OK,let's go!试验对象是我第一个名为ST_Statistics的一张表,我要把我表里的数据导入到hdfs、hive以及hbase当中,然后试验才算完成。

  1.导入数据到hdfs

  

  sqoop import  --connect 'jdbc:sqlserver://192.168.1.105:1433;username=sa;password=cenyuhai;database=SAMS' \          --query "SELECT * FROM ST_Statistics WHERE BigReason='OfficeSoftwareFault' AND \$CONDITIONS " \              --split-by ResponseTime --target-dir /user/cenyuhai/sams

  这里面有几个需要注意的点:

  (1)--connect 后面的字符带上了'',为毛?其实我也不知道,官方文档上可不是这么说的,加上才可以跑。

  (2)--split-by 后面跟的字段必须是整形的,因为sqoop是靠这个字段是给map线程分工的,不是整理它强转的时候就会报错的。

  

13/09/06 06:50:31 ERROR security.UserGroupInformation: PriviledgedActionException as:root cause:java.io.IOException: com.microsoft.sqlserver.jdbc.SQLServerException: 操作数数据类型 uniqueidentifier 对于 min 运算符无效。13/09/06 06:50:31 ERROR tool.ImportTool: Encountered IOException running import job: java.io.IOException: com.microsoft.sqlserver.jdbc.SQLServerException: 操作数数据类型 uniqueidentifier 对于 min 运算符无效。    at org.apache.sqoop.mapreduce.db.DataDrivenDBInputFormat.getSplits(DataDrivenDBInputFormat.java:167)    at org.apache.hadoop.mapred.JobClient.writeNewSplits(JobClient.java:1054)    at org.apache.hadoop.mapred.JobClient.writeSplits(JobClient.java:1071)    at org.apache.hadoop.mapred.JobClient.access$700(JobClient.java:179)    at org.apache.hadoop.mapred.JobClient$2.run(JobClient.java:983)    at org.apache.hadoop.mapred.JobClient$2.run(JobClient.java:936)    at java.security.AccessController.doPrivileged(Native Method)    at javax.security.auth.Subject.doAs(Subject.java:396)    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1232)    at org.apache.hadoop.mapred.JobClient.submitJobInternal(JobClient.java:936)    at org.apache.hadoop.mapreduce.Job.submit(Job.java:550)    at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:580)    at org.apache.sqoop.mapreduce.ImportJobBase.doSubmitJob(ImportJobBase.java:187)    at org.apache.sqoop.mapreduce.ImportJobBase.runJob(ImportJobBase.java:16
View Code

    (3)只要是语法不对的,它都会报下面这个错,希望大家注意!

At minimum, you must specify --connect and --tableArguments to mysqldump and other subprograms may be suppliedafter a '--' on the command line.

  

  2.增量导入

  sqoop支持两种增量导入到hive的模式, 一种是 append,即通过指定一个递增的列,比如:

     --incremental append  --check-column id --last-value 0
     另种是可以根据时间戳,比如:
  --incremental lastmodified --check-column time --last-value '2013-01-01 11:0:00'
  就是只导入time比'2013-01-01 11:0:00'更大的数据。

  好,我试验的是第一种,我在插入了前面插入了差距的基础上,再插入WorkNo是201309071后面的数据(我新加的)

  

sqoop import  --connect 'jdbc:sqlserver://192.168.1.105:1433;username=sa;password=cenyuhai;database=SAMS'  --table ST_Statistics \  --where "BigReason='OfficeSoftwareFault'"   --split-by ResponseTime --target-dir /user/cenyuhai/sams \  --incremental append  --check-column WorkNo  --last-value 201309071

  执行成功,命令的提示当中会出现以下的提示,最后的值已经到201308081了。

  

13/09/06 22:26:15 INFO mapreduce.ImportJobBase: Retrieved 5 records.13/09/06 22:26:15 INFO util.AppendUtils: Appending to directory sams13/09/06 22:26:15 INFO util.AppendUtils: Using found partition 813/09/06 22:26:15 INFO tool.ImportTool: Incremental import complete! To run another incremental import of all data following this import, supply the following arguments:13/09/06 22:26:15 INFO tool.ImportTool:  --incremental append13/09/06 22:26:15 INFO tool.ImportTool:   --check-column WorkNo13/09/06 22:26:15 INFO tool.ImportTool:   --last-value 201309081

  3.导入到hive

  

  sqoop import  --connect 'jdbc:sqlserver://192.168.1.105:1433;username=sa;password=cenyuhai;database=SAMS' \             --table ST_Statistics --where "BigReason='OfficeSoftwareFault'" --split-by ResponseTime --hive-import  --create-hive-table

  不知道为什么,执行hive的导入语句时,就不能用--query了,老报上面的那个提到的那个错误,可能是RP不好,就只能改成这种表加上过滤条件的方式了。

  然后用上面对hdfs的增量插入的方式对hive来操作也不成功,老是报前面提到的那个语法错误,真是让人无语了,报错都报得如此含蓄!

 

  4.导入到hbase

  

sqoop import  --connect 'jdbc:sqlserver://192.168.1.105:1433;username=sa;password=cenyuhai;database=SAMS' --table ST_Statistics --where "BigReason='OfficeSoftwareFault'" --split-by ResponseTime  --hbase-table ST_Statistics --hbase-create-table   --hbase-row-key WorkNo  --column-family cf

  这条语句非常长,为毛?我也不知道,这种写法我试了很多次了,用\来分行的写了很多次,一次都没成功,最后误打误撞,弄成一行它就成功运行了!

 

  5.把数据从hdfs导回到sqlserver,从hive导出也和这个一样,因为都是文本文件,hbase的话,也是不支持直接的,需要通过和hive结合,才能导出。  

sqoop export  --connect 'jdbc:sqlserver://192.168.1.105:1433;username=sa;password=cenyuhai;database=SAMS' \              --table ST_Statistics2 --export-dir /user/cenyuhai/sams

 

  

转载地址:http://ssvhl.baihongyu.com/

你可能感兴趣的文章
关于Oracle LogMiner工具的具体使用方法
查看>>
win2003域控迁移2008
查看>>
知道了“管理符号”和do命令
查看>>
LNMP的安装配置
查看>>
不错的自适应屏幕
查看>>
fiddler初探
查看>>
ACS小实验
查看>>
xshell 密钥登陆
查看>>
文档相似度算法
查看>>
Docker在生产环境中的应用--开篇
查看>>
zabbix监控window2008 R2的IIS一些性能监控
查看>>
java基础
查看>>
关于如何调节佳能复试打印机IR3245如何调节打印清晰度方法
查看>>
Linux新手必须学会的12个命令
查看>>
我的友情链接
查看>>
关于NSMutableDictionary setValue:value forKey:key 以及 setobject:value forkey:key 的理解
查看>>
iptables7层过滤,屏蔽(QQ,MSN,迅雷,PPTV等)
查看>>
并行吧!程序员
查看>>
我的友情链接
查看>>
cacti忘记admin密码
查看>>