本文共 1669 字,大约阅读时间需要 5 分钟。
1、由于hive依赖于Hadoop框架,所以首先启动Hadoop相关守护进程
-> namenode
$ sbin/hadoop-daemon.sh start namenode -> datanode
$ sbin/hadoop-daemon.sh start datanode -> Resourcemanager
$ sbin/yarn-daemon.sh start resourcemanager -> nodemanager
$ sbin/yarn-daemon.sh start nodemanager -> historyserver
$ sbin/mr-jobhistory-daemon.sh start historyserver $ tar -zxf apache-hive-0.13.1-bin.tar.gz -C /opt/modules/ $ cd /opt/modules/hive-0.13.1-bin // 此处的 Hive 文件已被重命名 $ cd /opt/modules/hadoop-2.5.0 $ bin/hdfs dfs -mkdir /tmp $ bin/hdfs dfs -mkdir -p /user/hive/warehouse $ bin/hdfs dfs -chmod g+w /tmp $ bin/hdfs dfs -chmod g+w /user/hive/warehouse 注: hadoop fs 在 Hadoop1.x 系列版本中使用的命令 一般公司都存储在关系型数据库中: mysql oracle
/user/hive/warehouse -> 数据仓库目录 -> 保存 hive所有的数据
$ cd /opt/modules/hive-0.13.1-bin 5、hive-default.xml 包含了 hive所有的配置项,hive.metastore.warehouse.dir代表hive在HDFS上的默认目录路径
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
<description>location of default database for the warehouse</description>
6、修改 hive-env.sh.template,将template去掉
HADOOP_HOME=/opt/modules/hadoop-2.5.0
export HIVE_CONF_DIR=/opt/modules/hive-0.13.1-bin/conf
$ cd /opt/modules/hive-0.13.1-bin ) row format delimited fields terminated by'\t';
load data local inpath '/opt/datas/student.txt' into table student;