sqoop不将数据类型varchar2导入hadoop
我在oracle数据库中有一个表,我想将数据导入到hdfs.
我正在尝试使用sqoop,但不会导入varchar2列.
我的意思是这些数据没有到达hdfs文件.
我的sqoop命令
sqoop import -D mapred.job.name='default oraoop' --driver oracle.jdbc.driver.OracleDriver --connect "jdbc:oracle:thin:MyIp:MyServiceName" --username "XXXX" --password "XX" --target-dir "My_dir" --query 'select * from MyTable where $CONDITIONS' --split-by "coulmn" --boundary-query "SELECT min(splitColumn),max(SplitCoulmn) FROM DUAL" --num-mappers 30
最佳答案 你可以尝试降级ojdbc而不是使用更高的ojdbc“ojdbc6或ojdbc7”使用“ojdbc14”这解决了我的问题,但为了不面对异常,一些编码类没有找到删除或重命名“ori18n.jar “从orale9i导入数据时.
你可以在“$HADOOP_CLASSPATH”和“$SQOOP_HOME”中找到这些jar文件的路径