3、加载Hadoop数据到ORACLE

Oracle提供了专用的数据加载器,可以直接从HADOOP中加载数据到指定对象,该软件包下载地址:Oracle Loader for Hadoop Release 2.1.0

直接解压缩:

    [root@ora11g ~]# unzip oraloader-2.1.0.zip

这个压缩包也是包中还有包的老路数,注意解压缩后会有两个压缩包,分别对应不同的版本,具体情况可以参考README中的说明,这里我们使用第一个压缩包,继续解压:

    [root@ora11g ~]# unzip oraloader-2.1.0-1.x86_64.zip -d /usr/local/

    [root@ora11g ~]# chown -R oracle:oinstall /usr/local/oraloader-2.1.0-1

    [root@ora11g ~]# chmod -R 777 /usr/local/oraloader-2.1.0-1

    [root@ora11g ~]$ cp /usr/local/oraloader-2.1.0-1/jlib/*.jar /usr/local/hadoop-0.20.2/lib/

编辑grid用户的环境变量:

    [root@ora11g ~]$ vi /home/grid/.bash_profile

增加下列两项:

    export OLH_HOME=/usr/local/oraloader-2.1.0-1

    export OLH_JAR=${OLH_HOME}/jlib/oraloader.jar

提示,大家要理解,HADOOP相关的那三个环境变量也是要有的,我这里因为延续前面的环境,因此就没必要写了。

切换到sqlplus命令行,创建一个表对象:

    SQL> conn scott/tiger

    Connected.

    SQL> create table t1(RN NUMBER,OBJECT_NAME VARCHAR2(20));

    Table created.

创建一个数据文件:

    [grid@ora11g ~]$ more t1.dat

    1,a

    2,b

    3,c

    4,d

上传至hdfs:

    [grid@ora11g ~]$ hadoop dfs -put t1.dat olh/

创建两个配置文件:

    [grid@localhost ~]$ more OLH/MyConf.xml

    <?xml version="1.0" encoding="UTF-8" ?>

    <configuration>

    <!--                          Input settings                             -->

    <property>

       <name>mapreduce.inputformat.class</name>

       <value>oracle.hadoop.loader.lib.input.DelimitedTextInputFormat</value>

    </property>

    <property>

       <name>mapred.input.dir</name>

       <value>olh</value>

    </property>

    <!--                          Output settings                             -->

    <property>

        <name>mapreduce.outputformat.class</name>

        <value>oracle.hadoop.loader.lib.output.JDBCOutputFormat</value>

    </property>

    <property>

        <name>mapred.output.dir</name>

        <value>olh_out</value>

    </property>   

    <!--                          Table information                           -->

    <property>

       <name>oracle.hadoop.loader.loaderMapFile</name>

       <value>file:///home/grid/OLH/olh_t1.xml</value>

    </property>   

    <!--                          Connection information                      -->

    <property>

        <name>oracle.hadoop.loader.connection.url</name>

        <value>jdbc:oracle:thin:@//192.168.30.244:1521/jssdb</value>

    </property>

    <property>

        <name>oracle.hadoop.loader.connection.user</name>

        <value>scott</value>

        <description>AvroSchemaAwareDBInputFormat wants this case sensitive!

                 (cause mapred.jdbc.username points here)</description>

    </property>

    <property>

        <name>oracle.hadoop.loader.connection.password</name>

        <value>tiger</value>       

    </property>

    </configuration>

MyConf.xml的主要参数

mapreduce.inputformat.class

指定输入文件的格式。除了文本文件,还支持hive格式文件。也可以是自定义的文件格式。

mapred.input.dir

Hadoop里输入的数据文件(含路径)

mapreduce.outputformat.class

指定装载的输出方式

在线装载:

OCIOutputFormat(*),JDBCOutputFormat

离线装载:

DataPumptOutputFormat , DelimitedTextOutputFormat

mapred.output.dir

输出目录(同时也是LOG所在目录)

oracle.hadoop.loader.loaderMapFile

文件与表的对应关系,包括表名,栏位对应等

oracle.hadoop.loader.connection.url/user/pass

目标数据库的连接信息,包括url,用户名,密码

HDFS中的文件与表之间的映射关系:

    [grid@localhost ~]$ more OLH/olh_t1.xml 

    <?xml version="1.0" encoding="UTF-8" ?>

    <LOADER_MAP>

    <SCHEMA>SCOTT</SCHEMA>

    <TABLE>T1</TABLE>

    <COLUMN field="F0">RN</COLUMN>

    <COLUMN field="F1">OBJECT_NAME</COLUMN>

    </LOADER_MAP>

配置好之后,执行hadoop命令如下:

    [grid@localhost ~]$ hadoop jar ${OLH_JAR} oracle.hadoop.loader.OraLoader -conf OLH/MyConf.xml 

    Oracle Loader for Hadoop Release 2.1.0 - Production

    Copyright (c) 2011, 2013, Oracle and/or its affiliates. All rights reserved.

    13/05/16 16:19:49 INFO loader.OraLoader: Oracle Loader for Hadoop Release 2.1.0 - Production

    Copyright (c) 2011, 2013, Oracle and/or its affiliates. All rights reserved.

    13/05/16 16:19:49 INFO loader.OraLoader: Built-Against: hadoop-1.1.1 hive-0.10.0 avro-1.6.3 jackson-1.8.8

    13/05/16 16:19:51 INFO loader.OraLoader: oracle.hadoop.loader.loadByPartition is disabled because table: J1 is not partitioned

    13/05/16 16:19:51 INFO loader.OraLoader: oracle.hadoop.loader.enableSorting disabled, no sorting key provided

    13/05/16 16:19:51 INFO output.DBOutputFormat: Setting reduce tasks speculative execution to false for : oracle.hadoop.loader.lib.output.JDBCOutputFormat

    13/05/16 16:19:51 WARN loader.OraLoader: Sampler error: the number of reduce tasks must be greater than one; the configured value is 1 . Job will continue without sampled information.

    13/05/16 16:19:51 INFO loader.OraLoader: Sampling time=0D:0h:0m:0s:20ms (20 ms)

    13/05/16 16:19:51 INFO loader.OraLoader: Submitting OraLoader job OraLoader

    13/05/16 16:19:53 INFO input.FileInputFormat: Total input paths to process : 1

    13/05/16 16:19:56 INFO loader.OraLoader: map 0% reduce 0%

    13/05/16 16:20:31 INFO loader.OraLoader: map 100% reduce 0%

    13/05/16 16:20:40 INFO loader.OraLoader: map 100% reduce 33%

    13/05/16 16:20:46 INFO loader.OraLoader: map 100% reduce 100%

    13/05/16 16:20:48 INFO loader.OraLoader: Job complete: OraLoader (null)

    13/05/16 16:20:48 INFO loader.OraLoader: Counters: 17

            FileSystemCounters

                    FILE_BYTES_READ=98

                    FILE_BYTES_WRITTEN=228

                    HDFS_BYTES_READ=16

                    HDFS_BYTES_WRITTEN=1850

            Job Counters 

                    Data-local map tasks=1

                    Launched map tasks=1

                    Launched reduce tasks=1

            Map-Reduce Framework

                    Combine input records=0

                    Combine output records=0

                    Map input records=4

                    Map output bytes=84

                    Map output records=4

                    Reduce input groups=1

                    Reduce input records=4

                    Reduce output records=4

                    Reduce shuffle bytes=98

                    Spilled Records=8

提示插入了4条记录,下面就切换到sqlplus中验证一下吧:

    SQL> select * from t1;

            RN OBJECT_NAME

    ---------- --------------------

             1 a

             2 b

             3 c

             4 d

成功喽。

另外,如果不想配置MyConf.xml,也可以将参数放到hadoop命令中执行,例如:

    $ hadoop jar \

        ${ORAHDFS_JAR} oracle.hadoop.loader.OraLoader  \

        -D mapreduce.inputformat.class=oracle.hadoop.loader.lib.input.DelimitedTextInputFormat \

        -D mapred.input.dir=olh \

        -D mapreduce.outputformat.class=oracle.hadoop.loader.lib.output.JDBCOutputFormat \

        -D mapred.output.dir=olh_out \

        -D oracle.hadoop.loader.loaderMapFile=file:///home/grid/OLH/loaderMap.xml \

        -D oracle.hadoop.loader.connection.url="jdbc:oracle:thin:@//192.168.30.244:1521/jssdb" \

        -D oracle.hadoop.loader.connection.user=SCOTT \

        -D oracle.hadoop.loader.connection.password=tiger \

        -publish

功能是相同的,有兴趣的朋友可以自己试一下。