最具影响力的数字化技术在线社区

168大数据

 找回密码
 立即注册

QQ登录

只需一步,快速开始

1 2 3 4 5
打印 上一主题 下一主题
开启左侧

[Hive] Hive系列之SerDe

[复制链接]
跳转到指定楼层
楼主
发表于 2019-3-30 14:36:22 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

马上注册,结交更多数据大咖,获取更多知识干货,轻松玩转大数据

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
SerDe是Serialize/Deserilize的简称,目的是用于序列化和反序列化。
序列化作用序列化是对象转换为字节序列的过程。
序列化是字节序列恢复为对象的过程。
对象的序列化主要有两种用途:对象的持久化,即把对象转换成字节序列后保存到文件中;对象数据的网络传送。
除了上面两点, hive的序列化的作用还包括:Hive的反序列化是对key/value反序列化成hive table的每个列的值。Hive可以方便的将数据加载到表中而不需要对数据进行转换,这样在处理海量数据时可以节省大量的时间。
SerDe说明hive如何去处理一条记录,包括Serialize/Deserilize两个功能, Serialize把hive使用的java object转换成能写入hdfs的字节序列,或者其他系统能识别的流文件。Deserilize把字符串或者二进制流转换成hive能识别的java object对象。比如:select语句会用到Serialize对象, 把hdfs数据解析出来;insert语句会使用Deserilize,数据写入hdfs系统,需要把数据序列化。
SerDe使用hive创建表时, 通过自定义的SerDe或使用Hive内置的SerDe类型指定数据的序列化和反序列化方式。
CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name
[(col_name data_type [COMMENT col_comment], ...)]
[COMMENT table_comment]
[PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)]
[CLUSTERED BY (col_name, col_name, ...)
[SORTED BY (col_name [ASC|DESC], ...)]
INTO num_buckets BUCKETS]
[ROW FORMAT row_format]
[STORED AS file_format]
[LOCATION hdfs_path]
如上创建表语句, 使用row format 参数说明SerDe的类型。
SerDe包括内置类型Avro
ORC
RegEx
Thrift
Parquet
CSV
JsonSerDe
自定义类型自定义类型使用的步骤:
  • 定义一个类, 继承抽象类AbstractSerDe, 实现initialize, deserialize和

   
[AppleScript] 纯文本查看 复制代码
   package com.coder4.hive;
    import java.util.ArrayList;
    import java.util.Arrays;
    import java.util.HashMap;
    import java.util.List;
    import java.util.Map;
    import java.util.Properties;
    
    import org.apache.commons.lang.StringUtils;
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.hive.serde.Constants;
    import org.apache.hadoop.hive.serde2.AbstractSerDe;
    import org.apache.hadoop.hive.serde2.SerDeException;
    import org.apache.hadoop.hive.serde2.SerDeStats;
    import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;
    import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspectorFactory;
    import org.apache.hadoop.hive.serde2.typeinfo.PrimitiveTypeInfo;
    import org.apache.hadoop.hive.serde2.typeinfo.TypeInfo;
    import org.apache.hadoop.hive.serde2.typeinfo.TypeInfoUtils;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.io.Writable;
    
    public class MySerDe extends AbstractSerDe {
        // params
        private List<String> columnNames = null;
        private List<TypeInfo> columnTypes = null;
        private ObjectInspector objectInspector = null;
        // seperator
        private String nullString = null;
        private String lineSep = null;
        private String kvSep = null;
    
        @Override
        public void initialize(Configuration conf, Properties tbl)
                throws SerDeException {
            // Read sep
            lineSep = "\n";
            kvSep = "=";
            nullString = tbl.getProperty(Constants.SERIALIZATION_NULL_FORMAT, "");
    
            // Read Column Names
            String columnNameProp = tbl.getProperty(Constants.LIST_COLUMNS);
            if (columnNameProp != null && columnNameProp.length() > 0) {
                columnNames = Arrays.asList(columnNameProp.split(","));
            } else {
                columnNames = new ArrayList<String>();
            }
    
            // Read Column Types
            String columnTypeProp = tbl.getProperty(Constants.LIST_COLUMN_TYPES);
            // default all string
            if (columnTypeProp == null) {
                String[] types = new String[columnNames.size()];
                Arrays.fill(types, 0, types.length, Constants.STRING_TYPE_NAME);
                columnTypeProp = StringUtils.join(types, ":");
            }
            columnTypes = TypeInfoUtils.getTypeInfosFromTypeString(columnTypeProp);
    
            // Check column and types equals
            if (columnTypes.size() != columnNames.size()) {
                throw new SerDeException("len(columnNames) != len(columntTypes)");
            }
    
            // Create ObjectInspectors from the type information for each column
            List<ObjectInspector> columnOIs = new ArrayList<ObjectInspector>();
            ObjectInspector oi;
            for (int c = 0; c < columnNames.size(); c++) {
                oi = TypeInfoUtils
                        .getStandardJavaObjectInspectorFromTypeInfo(columnTypes
                                .get(c));
                columnOIs.add(oi);
            }
            objectInspector = ObjectInspectorFactory
                    .getStandardStructObjectInspector(columnNames, columnOIs);
    
        }
    
        @Override
        public Object deserialize(Writable wr) throws SerDeException {
            // Split to kv pair
            if (wr == null)
                return null;
            Map<String, String> kvMap = new HashMap<String, String>();
            Text text = (Text) wr;
            for (String kv : text.toString().split(lineSep)) {
                String[] pair = kv.split(kvSep);
                if (pair.length == 2) {
                    kvMap.put(pair[0], pair[1]);
                }
            }
    
            // Set according to col_names and col_types
            ArrayList<Object> row = new ArrayList<Object>();
            String colName = null;
            TypeInfo type_info = null;
            Object obj = null;
            for (int i = 0; i < columnNames.size(); i++) {
                colName = columnNames.get(i);
                type_info = columnTypes.get(i);
                obj = null;
                if (type_info.getCategory() == ObjectInspector.Category.PRIMITIVE) {
                    PrimitiveTypeInfo p_type_info = (PrimitiveTypeInfo) type_info;
                    switch (p_type_info.getPrimitiveCategory()) {
                    case STRING:
                        obj = StringUtils.defaultString(kvMap.get(colName), "");
                        break;
                    case LONG:
                    case INT:
                        try {
                            obj = Long.parseLong(kvMap.get(colName));
                        } catch (Exception e) {
                        }
                    }
                }
                row.add(obj);
            }    
            return row;
        }    
        @Override
        public ObjectInspector getObjectInspector() throws SerDeException {
            return objectInspector;
        }    
        @Override
        public SerDeStats getSerDeStats() {
            return null;
        }    
        @Override
        public Class<? extends Writable> getSerializedClass() {
            return Text.class;
        }    
        @Override
        public Writable serialize(Object arg0, ObjectInspector arg1)
                throws SerDeException {
            return null;
        }    
    }
  • 添加自定义的SerDe类的jar包

hive > add jar MySerDe.jar
  • 创建表格时属性row fromat指定自定义的SerDe类

   
[AppleScript] 纯文本查看 复制代码
  CREATE EXTERNAL TABLE IF NOT EXISTS teacher ( 
          id BIGINT, 
          name STRING,
          age INT)
    ROW FORMAT SERDE 'com.coder4.hive.MySerDe'
    STORED AS TEXTFILE
    LOCATION '/usr/hive/text/'



作者:wujustin
链接:https://www.jianshu.com/p/9c43f03b97e7
来源:简书

楼主热帖
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 转播转播 分享分享 分享淘帖 赞 踩

168大数据 - 论坛版权1.本主题所有言论和图片纯属网友个人见解,与本站立场无关
2.本站所有主题由网友自行投稿发布。若为首发或独家,该帖子作者与168大数据享有帖子相关版权。
3.其他单位或个人使用、转载或引用本文时必须同时征得该帖子作者和168大数据的同意,并添加本文出处。
4.本站所收集的部分公开资料来源于网络,转载目的在于传递价值及用于交流学习,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。
5.任何通过此网页连接而得到的资讯、产品及服务,本站概不负责,亦不负任何法律责任。
6.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源,若标注有误或遗漏而侵犯到任何版权问题,请尽快告知,本站将及时删除。
7.168大数据管理员和版主有权不事先通知发贴者而删除本文。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

关于我们|小黑屋|Archiver|168大数据 ( 京ICP备14035423号|申请友情链接

GMT+8, 2024-5-29 18:08

Powered by BI168大数据社区

© 2012-2014 168大数据

快速回复 返回顶部 返回列表