hive


如何将mysql表转移到hive?

我有一个很大的mysql表,我想转移到Hadoop Hive表。 是否有标准命令或技术将简单 但很大 的表从Mysql传输到Hive 该表主要存储分析数据。

mysql hadoop hive
在Hive中为INSERT OVERWRITE SELECT指定压缩编解码器

我有一个蜂巢表 为了填充,我做的事情如下: 这会构建一个新的分区,通过deflate压缩各个产品,但这里的理想选择是通过LZO压缩编解码器。 不幸的是,我不确定如何实现这一点,但我认为它是众多运行时设置中的一个,或者可能只是CREATE TABLE DDL中的另一行。

configuration compression hadoop hive
Hive在哪里存储HDFS中的文件?

我想知道如何找到Hive表与它们所代表的实际HDFS文件 或更确切地说,目录 之间的映射。 我需要直接访问表文件。 Hive将文件存储在HDFS中的哪个位置

hadoop hive hdfs
如何将.txt文件转换为Hadoop的序列文件格式

为了在Hadoop中有效地利用map reduce作业,我需要以hadoop的序列文件格式存储数据。 但是,目前数据只是平面.txt格式。任何人都建议我可以将.txt文件转换为序列文件

java file hadoop type-conversion hive
Hive:将列标题写入本地文件?

Hive文档再次缺乏: 我想将查询结果写入本地文件以及列的名称。 Hive支持这个吗 另外,另外一个问题:StackOverflow是获得Hive帮助的最佳位置吗 Nija,非常乐于助人,但我不打扰他们......

syntax hive
Hadoop Hive-拆分字符串

我是新蜂巢。 我的查询:在日志文件中,我们有一个请求字段,例如 GET img home search user ico.jpg HTTP . 。有 , 多个记录可用。 范例: 获取 img home search user ico.jpg HTTP . GET JavaScript jquery

hive
将数据从HDFS导入Hive表

我的数据在data 文件中有HDFS,每个文件都包含分隔符中的数据,比如name,ip,url。 我想在Hive中创建一个表并从hdfs导入数据,表应该包含time,name,ip和url。 如何使用Hive导入这些 r数据应该采用其他格式,以便我也可以导入时间

hadoop hdfs hive
当我尝试进行查询时,Hive没有响应

我在使用Whirr旋转新的hadoop实例的EC 实例上进行了设置。 我一直在尝试让Hive使用此设置。 Hive应该配置为使用mysql作为本地metastore。 我遇到的问题是,每次尝试通过hive接口运行类似 CREATE TABLE testers foo INT,bark STRING

amazon-ec2 hadoop hive
Python客户端支持在Amazon EMR上运行Hive

我注意到mrjob和boto都不支持在Amazon Elastic MapReduce EMR 上提交和运行Hive作业的Python接口。 是否有其他支持在EMR上运行Hive的Python客户端库

python hive boto elastic-map-reduce
更新,Hive中的SET选项

我知道Hadoop中没有文件更新,但是在Hive中,可以使用语法糖将新值与表中的旧数据合并,然后使用合并输出重写表,但是如果我在另一个中有新值表然后我可以通过使用左外连接来实现相同的效果。 我的问题是我必须通过将一个值设置为具有某些where条件的列来更新表。 众所周知,不支持SET 。 例如,请

hive