7e6b7a01736b08d44431e93c082dc3b3b541a94d
[sqoop.git] / src / docs / user / hive-args.txt
1
2 ////
3    Licensed to Cloudera, Inc. under one or more
4    contributor license agreements.  See the NOTICE file distributed with
5    this work for additional information regarding copyright ownership.
6    Cloudera, Inc. licenses this file to You under the Apache License, Version 2.0
7    (the "License"); you may not use this file except in compliance with
8    the License.  You may obtain a copy of the License at
9
10        http://www.apache.org/licenses/LICENSE-2.0
11
12    Unless required by applicable law or agreed to in writing, software
13    distributed under the License is distributed on an "AS IS" BASIS,
14    WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
15    See the License for the specific language governing permissions and
16    limitations under the License.
17 ////
18
19
20 .Hive arguments:
21 [grid="all"]
22 `-----------------------------`-------------------------------------------
23 Argument                      Description
24 --------------------------------------------------------------------------
25 +\--hive-home <dir>+          Override +$HIVE_HOME+
26 +\--hive-import+              Import tables into Hive (Uses Hive's \
27                               default delimiters if none are set.)
28 +\--hive-overwrite+           Overwrite existing data in the Hive table.
29 +\--create-hive-table+        If set, then the job will fail if the target hive
30                               table exits. By default this property is false.
31 +\--hive-table <table-name>+  Sets the table name to use when importing\
32                               to Hive.
33 +\--hive-drop-import-delims+  Drops '\n', '\r', and '\01' from string\
34                               fields when importing to Hive.
35 +\--hive-partition-key+       Name of a hive field to partition are \
36                               sharded on
37 +\--hive-partition-value <v>+ String-value that serves as partition key\
38                               for this imported into hive in this job.
39 --------------------------------------------------------------------------
40