• 碧雪天虹
    2020-12-11
    张老师, 课程里有专门讲 DateSet 的章节吗 ? 能用 Flink 搞定批计算就不上 Spark 了, 小公司人手少, 技术栈越精炼越好.

    作者回复: 没有,dataset后面的版本就不维护了,全部使用datastream批流一体了,建议关注下后续版本

    共 2 条评论
    3
  • hujihu33
    2021-12-23
    视频主要内容: 1,将dataStream 和 dataset 转换为 表, fromDatastream(stream), 对于schema会用默认的 f0, f1...的方式默认定义datastream的字段,字段类型按照stream的定义 2,将dataStream 和 dataset 转换为 视图 tableenv.createTemporaryView("", stream) 3, 将表转换为datastream 和 dataset , 有2种模式 append mode 、 retract mode append mode:仅当动态table仅当insert更改进行修改时 retract mode:任何情形都可以使用此模式,使用booleam值对insert 和 delete 操作进行标记 4,将表转换为datastream -》 datastream<row> dsrow = tableEnv.toAppendStream(table, row.class) datastream<Tuple2<Boolean, row>> dsrow = tableEnv.toRetractStream(table, row.class) ---true insert , false delete 5, 数据类型和table schema的映射 --- 2种方式 基于位置的映射,基于字段名称映射 6,基于位置进行映射---基于位置 $("myLong"), $("myInt") 7,基于名称的映射--- 默认的字段 f0, f1...
    展开
    
    
  • 泊浮目
    2020-11-01
    想请教下张老师,为什么update一般会变成delete+insert?我的理解是避免依赖update之前的数据,以及避免单个消息体过大。不知道我理解的对嘛?
    
    