Code-Cookbook

博客

  • Blogs
    • 1. [Springboot x spark]java.util.concurrent.ExecutionException: Boxed Error
    • 2. [Apollo]Apollo Config Center
    • 3. [Confluent]Confluent快速上手
    • 4. [Flink]CommdLine+Springboot+flink无法指定配置文件启动
    • 5. [Flink]Flink-connector-http
    • 6. [Flink]FlinkKafkaProducer启用压缩
    • 7. [Flink]FlinkSQL时间处理函数
    • 8. [Flink]Flink Sources
    • 9. [Flink]Flink中自定义watermark生成器
    • 10. [Flink]Flink的并行度与TaskSlot
    • 11. [Flink]ProcessFunction无法使用,抛出InvalidProgramException
    • 12. [Flink]使用状态算子将stream聚合输出
    • 13. [Flink]关于Flink的Checkpoint的一次问题排查
    • 14. [Flink]如何更通用地将Kafka(或其他)数据落地Hive?
    • 15. [Flink]监控Flink Metrics
    • 16. [Flink]自定义序列化消费Kafka数据
    • 17. [Flink源码]Flink任务是如何启动的
    • 18. [Flink源码]YarnApplication模式的任务启动
    • 19. [Flink源码]流式工厂模式与配置的延迟绑定
    • 20. [Git]Git问题
    • 21. [Git]误在Master分支开发并commit无法push
    • 22. [Hadoop]Hadoop distcp
    • 23. [Hadoop]一些Hadoop问题
    • 24. [Hive]Hive分区表批量删除分区
    • 25. [Hive]Hive的Analyze函数,Statistics in Hive
    • 26. [Hive]修改存储格式为Parquet的Hive表的字段类型
    • 27. [Hive]在指定位置添加字段
    • 28. [Hive]外部表修改为内部表
    • 29. [Hive]更新Metastore中的LastAccessTime
    • 30. [Hive]本地连接需要Kerberos认证的Hive
    • 31. [Java]如何根据需要动态生成Java的class
    • 32. [Java]元注解
    • 33. 注解解析
    • 34. [Java]集合
    • 35. 简单(常用)数据结构
    • 36. [Java]Java8 Stream API
    • 37. [Java]SPI和责任链模式
    • 38. [Java]Socket
    • 39. [Java]使用Java在服务端和客户端之间传送文件
    • 40. [Java]三种策略模式应用于服务的启动
    • 41. [Java]多线程
    • 42. [Java]生产者消费者模型问题
    • 43. [Java]让项目顺利读取resources目录下的文件
    • 44. [Java]设计模式
    • 45. Continuing…
    • 46. [Java]设计模式六大原则
    • 47. [Java]面向对象知识点梳理
    • 48. [Java]OOP防脱发指南
    • 49. [Kerberos]Message stream modified (41)错误
    • 50. [Kudu]关于Kudu Upsert列的问题
    • 51. [Kudu]关于Kudu列的顺序的修改
    • 52. [MongoDB]MongoDB基本查询
    • 53. [Pyspark]PySpark
    • 54. [PySpark]PySpark On Yarn
    • 55. [Spark]CDP上安装其他版本SPARK(SPARK3)
    • 56. [SQL]Druid SQL解析器
    • 57. [SQL]IN/NOT IN/EXISTS/NOT EXISTS的替代写法
    • 58. [SQL]IN OR NOT IN , IS A PROBLEM
    • 59. [SQL]SQLLineage解析SQL血缘
    • 60. [SQL]业务数据库中的create_time和update_time分析时的问题
    • 61. [SQL]为什么LEFT JOIN后总数却与右表的总数一样了?
    • 62. [SQL]求用户任意天连续登录(每天为第多少天连续登录)
    • 63. [SQL]计算指定日期的年-周(为某年的第多少周)
    • 64. [Scala]函数中闭包(Closure)和柯里化(Currying)
    • 65. [Shell]EOF
    • 66. [Shell] Zip命令
    • 67. [Shell]Shell脚本日期递增(起止日期内递增)
    • 68. [Shell]将字符串转换为数字进行大小比较
    • 69. [Shell]打印本机IP
    • 70. [SparkStreaming]消费kafka写入Hive失败的问题Lease timeout of 0 seconds expired
    • 71. [Spark]SparkSQL 列转行的一种方法
    • 72. [Spark]SparkSQL JDBC并发连接读取
    • 73. [Spark]Spark提交任务RSA premaster secret error
    • 74. [Spark]Springboot整合Spark, 本地、集群部署
    • 75. [Spark]如何使用Java创建一个Row
    • 76. [Spark]将Spark DataFrame中的数值取出
    • 77. [Springboot]okHttp错误:Exception in thread “OkHttp Dispatcher” java.lang.IllegalStateException: closed
    • 78. [Vim]Vim查找和替换命令
    • 79. [debezium]在启动任务时传入SQL语句生成Snapshot
    • 80. [debezium]热修改Debezium MySQL Connector配置

Random ramblings

  • Random ramblings

大数据

  • Bigdata
  • Bigdata Tools

大数据辅助工具

  • Auxiliary tools

SQL相关

  • SQL
Code-Cookbook
  • Blogs
  • 16. [Flink]自定义序列化消费Kafka数据
  • 查看页面源码

16. [Flink]自定义序列化消费Kafka数据

Flink提供了开箱即用的API去消费Kafka数据,比如:

FlinkKafkaConsumer<String> flinkKafkaConsumer = new FlinkKafkaConsumer<>(topicName,
        new SimpleStringSchema(),
        properties
);
env.addSource(flinkKafkaConsumer)
        .setParallelism(1)
        .print();

这里使用了SimpleStringSchema去解析kafka中的数据。有时候我们的上游数据存储在Kafka中,如果数据类型不为String,已经有的方法已经不适合解析我们的数据,这个时候我们就需要自定义schema去解析,下面讨论一个简单的自定义schema方法去解析数据的demo。

如果我们需要去自定义反序列化kafka中数据的方法,那么我们可以实现KafkaDeserializationSchema接口,在deserialize中定义了我们如何去处理解析每一条数据,TypeInformation表示了输出的数据的类型,下面给出一个案例:

我们假设kafka的生产者将一个为User的POJO通过序列化成消息打入Kafka,我们现在需要读取消息并反序列化

存储在kafka中的数据为二进制类型(采用MessagePack序列化与反序列化,这其实与本案例无关),自定义读取之后将其转换为json字符串

public class UserKafkaDeserializeSchema implements KafkaDeserializationSchema<String> {

    @Override
    public boolean isEndOfStream(String s) {
        return false;
    }

    @Override
    public String deserialize(ConsumerRecord<byte[], byte[]> record) throws Exception {
        ObjectMapper objectMapper = new ObjectMapper();
        //将Kafka消息反序列化对POJO
        User user = (User) new ObjectInputStream(new ByteArrayInputStream(record.value())).readObject();

        //将对象以json字符串格式输出
        return objectMapper.writeValueAsString(user);
    }

    //以下定义输出数据的类型
    @Override
    public TypeInformation<String> getProducedType() {
        return TypeInformation.of(String.class);
    }
}
上一页 下一页

© 版权所有 2020-2025, roohom。

利用 Sphinx 构建,使用的 主题 由 Read the Docs 开发.