Hive的几种文件格式

 时间:2024-11-13 02:33:33

1、textfile:默认格式,建表时不指定默认为这个格式,导入数据时会直接把数据文件拷贝到hdfs上不进行处理。源文件可以直接通过hadoop fs -cat 查看;

Hive的几种文件格式

2、sequencefile:一种Hadoop API提供的二进制文件,使用方便、可分割、可压缩等特点。 SEQUENCEFILE将数据以<key,value>的形式序列化到文件中。序列化和反序列化使用Hadoop 的标准的Writable 接口实现。key为空,用value 存放实际的值, 这样可以避免map 阶段的排序过程。 三种压缩选择:NONE, RECORD, BLOCK。 Record压缩率低,一般建议使用BLOCK压缩。使用时设置参数, SET hive.exec.compress.output=true; SET io.seqfile.compression.type=BLOCK; -- NONE/RECORD/BLOCK create table test2(str STRING) STORED AS SEQUENCEFILE;

Hive的几种文件格式

3、rc酆璁冻嘌file:一种行列存储相结合的存储方式。首先,其将数据按行分块,保证同一个record在一个块上,避免缥熹嵛郦读一个记录需要读取多个block。其次,块数据列式存储,有利于数据压缩和快速的列存取。 理论上具有高查询效率(但hive官方说效果不明显,只有存储上能省10%的空间,所以不好用,可以不用)。 RCFile结合行存储查询的快速和列存储节省空间的特点 1)同一行的数据位于同一节点,因此元组重构的开销很低; 2) 块内列存储,可以进行列维度的数据压缩,跳过不必要的列读取。 查询过程中,在IO上跳过不关心的列。实际过程是,在map阶段从远端拷贝仍然拷贝整个数据块到本地目录,也并不是真正直接跳过列,而是通过扫描每一个row group的头部定义来实现的。 但是在整个HDFS Block 级别的头部并没有定义每个列从哪个row group起始到哪个row group结束。所以在读取所有列的情况下,RCFile的性能反而没有SequenceFile高。

Hive的几种文件格式

4、orc:hive给出的新格式,属于RCFILE的升级版

Hive的几种文件格式

5、自定义格式用户可以通过实现inputformat和 outputformat来自定义输入输出格式。

6、总结:

Hive的几种文件格式

7、注意:只有TEXTFILE表能直接加载数据,必须,本地load数据,和external外部表直接加载蠕蒜唏怜运路径数据,都只能用TEXTFILE表。 更深一步,hive默认支持的压缩文件(hadoop默认支持的压缩格式),也只能用TEXTFILE表直接读取。其他格式不行。可以通过TEXTFILE表加载后insert到其他表中。 换句话说,SequenceFile、RCFile表不能直接加载数据,数据要先导入到textfile表,再从textfile表通过insert select from 导入到SequenceFile,RCFile表。 SequenceFile、RCFile表的源文件不能直接查看,在hive中用select看。RCFile源文件可以用 hive --service rcfilecat /xxxxxxxxxxxxxxxxxxxxxxxxxxx/000000_0查看,但是格式不同,很乱。

  • Excel如何添加绘图边框
  • Mathematica数据可视化:[26]Excel数据实战
  • excel怎么清除规则格式
  • 【Excel教程】如何设置表格边框及复杂边框设置
  • 如何用wps计算小于60分的人数
  • 热门搜索
    关于植树节的手抄报 保护地球手抄报 党在我心中手抄报 阅读手抄报 传统文化手抄报 爱国手抄报 节水手抄报简单又漂亮 环保手抄报 六一儿童节手抄报画 春节手抄报