96SEO 2026-02-19 18:15 0
master:9092,node1:9092,node2:9092,

在内存中实体化结果并将结果用规则的分页表格可视化展示出来。
执行如下命令启用
sql-client.execution.result-mode
不会实体化和可视化结果而是由插入和撤销-组成的持续查询产生结果流。
开启命令
sql-client.execution.result-mode
我在kafka生产端添加了一条理科六班的数据他表的变化是先加后减然后再加他就是属于update有之前的数据更新
我又在kafka生产端添加了一条理科六班1的数据这张动态表之前没有这个数据所以他是insert
1.更接近传统的数据库会将执行的结果以制表的形式直接打在屏幕之上。
具体显示的内容会取决于作业
sql-client.execution.result-mode
类似于日志一样不会新开一个窗口数据的添加还是跟变更日志模式一样
但是添加已有数据的方法是不一样的他是先减后加他是Retract流添加之前没有数据还是insert
dependencygroupIdorg.apache.flink/groupIdartifactIdflink-connector-kafka/artifactIdversion1.15.4/version
master:9092,node1:9092,node2:9092,
id,name,event_time,partition,offset
master:9092,node1:9092,node2:9092,
master:9092,node1:9092,node2:9092
{data:[{clazz:理科六班,num:377}],type:INSERT}
master:9092,node1:9092,node2:9092,
master:9092,node1:9092,node2:9092
flink-connector-jdbc-1.15.2.jar
mysql-connector-java-5.1.47.jar
jdbc:mysql://master:3306/bigdata29,
1.将flink-sql中的一张表或者查询语句的结果存放在mysql中
jdbc:mysql://master:3306/bigdata29?useUnicodetruecharacterEncodingUTF-8,
hdfs://master:9000/bigdata29/data/students.csv,
hdfs://master:9000/data/students,
hdfs://master:9000/data/students_sink,
hdfs://master:9000/data/clazz_num,
flink-sql-connector-hbase-2.2-1.15.2.jar
master:2181,node1:2181,node2:2181
master:9092,node1:9092,node2:9092,
1.flink表中的字段和类型需要和json中保持一致同名映射
master:9092,node1:9092,node2:9092,
master:9092,node1:9092,node2:9092,
master:9092,node1:9092,node2:9092,
master:9092,node1:9092,node2:9092,
OPTIONS(csv.ignore-parse-errors
master:9092,node1:9092,node2:9092,
1.当有一段sql逻辑重复时可以定义在with语句中减少代码量
2、如果表的数据量很大随着时间的推移状态会越来越大状态的数据时先保存在TM的内存中的时间长了可能会出问题
master:9092,node1:9092,node2:9092,
master:9092,node1:9092,node2:9092
item,price,bidtime,window_start,window_end,window_time
其中TUMBLE:滚动窗口函数在原表的基础上增加窗口开始时间窗口结束时间窗口时间重新组成一张表
DESCRIPTOR(bidtime)里面传入的是事件时间INTERVAL
master:9092,node1:9092,node2:9092,
master:9092,node1:9092,node2:9092
item,price,proctime,window_start,window_end,window_time
HOP滑动窗口函数在原表的基础上增加窗口开始时间窗口结束时间窗口时间重新组成一张表
SESSION_START(proctime,INTERVAL
如果状态无限增长会导致checkpoint时间拉长如果checkpoint超时失败了也会导致任务失败
master:9092,node1:9092,node2:9092,
master:9092,node1:9092,node2:9092
2、实时统计每个商品的累计总金额将总金额放在每一条数据的后面只统计最近10分钟的数据
2、实时统计每个商品的累计总金额将总金额放在每一条数据的后面计算最近5条数据
2、实时统计每个商品的最大金额将总金额放在每一条数据的后面计算最近5条数据
2.本来开窗的字段只能是时间字段如果外面接一个子查询那么就没有限制了
1.考虑计算代价只能按照时间字段来进行升序(第一个字段必须是时间字段后面可以是非时间字段)
不考虑计算代价加上子查询或者limit限制那么可以是非时间字段
master:9092,node1:9092,node2:9092,
master:9092,node1:9092,node2:9092
master:9092,node1:9092,node2:9092,
master:9092,node1:9092,node2:9092
常规的关联方式会将两个表的数据一直保存在状态中时间长了状态会越来越大导致任务执行失败
状态有效期状态在flink中保存的事件状态保留多久需要根据实际业务分析
1.在一段时间内关联字段必须要有时间戳的时间字段两张表都是流式的。
a表的时间需要在b表时间10秒内或者b表的时间需要在a表时间10秒内
master:9092,node1:9092,node2:9092,
master:9092,node1:9092,node2:9092
master:9092,node1:9092,node2:9092,
master:9092,node1:9092,node2:9092
a.price,a.order_time,b.conversion_rate,b.update_time
a.price,a.order_time,b.conversion_rate,b.update_time
维度表不怎么变化的变维度表的数据一般可以放在hdfs或者mysql
master:9092,node1:9092,node2:9092,
master:9092,node1:9092,node2:9092
jdbc:mysql://master:3306/bigdata29,
如果mysql表里面的数据增加的话刚刚好增加的部分数据能与流表数据关联但是查询不到
flink-sql-connector-hive-3.1.2_2.12-1.15.2.jar
1.catalog---database---table----字段----数据
catalog是数据库上面的一个概念一个cataloglog中可以有多个database,
2.default_catalog是flink默认的元数据将元数据保存在jobmanager的内存中
/usr/local/soft/hive-3.1.2/conf
hive_catalog.bigdata29.students;
flink可以查询hive的表hive不能查询flink创建的动态表
master:9092,node1:9092,node2:9092,
master:9092,node1:9092,node2:9092,
master:9092,node1:9092,node2:9092
master:9092,node1:9092,node2:9092,
hdfs://master:9000/flink/checkpoint/d915e6278f156a9278156e67105f914e/chk-36;
master:9092,node1:9092,node2:9092,
执行一组sql,如果多个sql中使用了同一张表flink只会读取一次
OPTIONS(fields.word.length5,rows-per-second400000)
table.exec.mini-batch.allow-latency
table.optimizer.agg-phase-strategy
作为专业的SEO优化服务提供商,我们致力于通过科学、系统的搜索引擎优化策略,帮助企业在百度、Google等搜索引擎中获得更高的排名和流量。我们的服务涵盖网站结构优化、内容优化、技术SEO和链接建设等多个维度。
| 服务项目 | 基础套餐 | 标准套餐 | 高级定制 |
|---|---|---|---|
| 关键词优化数量 | 10-20个核心词 | 30-50个核心词+长尾词 | 80-150个全方位覆盖 |
| 内容优化 | 基础页面优化 | 全站内容优化+每月5篇原创 | 个性化内容策略+每月15篇原创 |
| 技术SEO | 基本技术检查 | 全面技术优化+移动适配 | 深度技术重构+性能优化 |
| 外链建设 | 每月5-10条 | 每月20-30条高质量外链 | 每月50+条多渠道外链 |
| 数据报告 | 月度基础报告 | 双周详细报告+分析 | 每周深度报告+策略调整 |
| 效果保障 | 3-6个月见效 | 2-4个月见效 | 1-3个月快速见效 |
我们的SEO优化服务遵循科学严谨的流程,确保每一步都基于数据分析和行业最佳实践:
全面检测网站技术问题、内容质量、竞争对手情况,制定个性化优化方案。
基于用户搜索意图和商业目标,制定全面的关键词矩阵和布局策略。
解决网站技术问题,优化网站结构,提升页面速度和移动端体验。
创作高质量原创内容,优化现有页面,建立内容更新机制。
获取高质量外部链接,建立品牌在线影响力,提升网站权威度。
持续监控排名、流量和转化数据,根据效果调整优化策略。
基于我们服务的客户数据统计,平均优化效果如下:
我们坚信,真正的SEO优化不仅仅是追求排名,而是通过提供优质内容、优化用户体验、建立网站权威,最终实现可持续的业务增长。我们的目标是与客户建立长期合作关系,共同成长。
Demand feedback