96SEO 2026-02-19 11:48 2
做为一款流式计算框架#xff0c;它可用来做批处理#xff0c;也可以用来做流处理#xff0c;这个

flink在批/流处理中常见的source主要有两大类…Data
基于本地集合的sourceCollection-based-source
使用env.fromElements()这种方式也支持Tuple自定义对象等复合形式。
注意类型要一致不一致可以用Object接收但是使用会报错比如env.fromElements(haha,
|使用env.fromCollection(),这种方式支持多种Collection的具体类型如ListSetQueue
使用env.generateSequence()方法创建基于Sequence的DataStream
使用env.fromSequence()方法创建基于开始和结束的DataStream
org.apache.flink.api.java.tuple.Tuple2;
org.apache.flink.streaming.api.datastream.DataStreamSource;
org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;import
StreamExecutionEnvironment.getExecutionEnvironment();//
各种获取数据的SourceDataStreamSourceString
kongniqiwa);dataStreamSource.print();//
演示一个错误的//DataStreamSourceObject
1,3.0f);//dataStreamSource2.print();DataStreamSourceTuple2String,
{hello,world};System.out.println(arr.length);System.out.println(Arrays.toString(arr));ListString
Arrays.asList(arr);System.out.println(list);env.fromElements(Arrays.asList(arr),Arrays.asList(arr),Arrays.asList(arr)).print();//
ArrayList();list1.add(python);list1.add(scala);list1.add(java);DataStreamSourceString
env.fromCollection(list1);DataStreamSourceString
env.fromCollection(Arrays.asList(arr));//
下面的代码不运行所以这句话要放在最后。
env.execute(获取预定义的Source);}
org.apache.flink.api.java.tuple.Tuple2;
org.apache.flink.streaming.api.datastream.DataStreamSource;
org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;import
StreamExecutionEnvironment.getExecutionEnvironment();//
获取并行度System.out.println(env.getParallelism());//
File(./);System.out.println(file.getAbsoluteFile());System.out.println(file2.getAbsoluteFile());DataStreamSourceString
env.readTextFile(datas/wc.txt);ds1.print();//
还可以获取hdfs路径上的数据DataStreamSourceString
env.readTextFile(hdfs://bigdata01:9820/home/a.txt);ds2.print();//
下面的代码不运行所以这句话要放在最后。
env.execute(获取预定义的Source);}
方法是一个非并行的Source该方法需要传入两个参数第一个是指定的IP地址或主机名第二个是端口号即从指定的Socket读取数据创建DataStream。
该方法还有多个重载的方法其中一个是socketTextStream(String
maxRetry)这个重载的方法可以指定行分隔符和最大重新连接次数。
这两个参数默认行分隔符是”\n”最大重新连接次数为0。
如果使用socketTextStream读取数据在启动Flink程序之前必须先启动一个Socket服务为了方便Mac或Linux用户可以在命令行终端输入nc
8888启动一个Socket服务并在命令行中向该Socket服务发送数据。
Windows用户可以在百度中搜索windows安装netcat命令。
--向8888端口发送消息这个命令先运行如果先运行java程序会报错
//socketTextStream创建的DataStream不论怎样并行度永远是1
{//local模式默认的并行度是当前机器的逻辑核的数量StreamExecutionEnvironment
StreamExecutionEnvironment.getExecutionEnvironment();int
env.getParallelism();System.out.println(执行环境默认的并行度
parallelism0);DataStreamSourceString
env.socketTextStream(localhost,
lines.getParallelism();System.out.println(SocketSource的并行度
parallelism);SingleOutputStreamOperatorString
{collector.collect(word);}}});int
words.getParallelism();System.out.println(调用完FlatMap后DataStream的并行度
parallelism2);words.print();env.execute();}
org.apache.flink.api.common.RuntimeExecutionMode;
org.apache.flink.api.common.functions.FlatMapFunction;
org.apache.flink.api.common.functions.MapFunction;
org.apache.flink.api.java.functions.KeySelector;
org.apache.flink.api.java.tuple.Tuple2;
org.apache.flink.streaming.api.datastream.DataStream;
org.apache.flink.streaming.api.datastream.KeyedStream;
org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
org.apache.flink.util.Collector;public
1.env-准备环境StreamExecutionEnvironment
StreamExecutionEnvironment.getExecutionEnvironment();env.setRuntimeMode(RuntimeExecutionMode.AUTOMATIC);//TODO
env.socketTextStream(bigdata01,
3.transformation-数据转换处理//3.1对每一行数据进行分割并压扁DataStreamString
{out.collect(word);}}});//3.2每个单词记为单词,1DataStreamTuple2String,
1);}});//3.3分组KeyedStreamTuple2String,
value.f0;}});//3.4聚合SingleOutputStreamOperatorTuple2String,
4.sink-数据输出result.print();//TODO
RichSourceFunction:多功能非并行数据源(并行度只能1)
ParallelSourceFunction:并行数据源(并行度能够1)
RichParallelSourceFunction:多功能并行数据源(并行度能够1)
org.apache.flink.streaming.api.datastream.DataStreamSource;
org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
org.apache.flink.streaming.api.functions.source.ParallelSourceFunction;
org.apache.flink.streaming.api.functions.source.RichParallelSourceFunction;
org.apache.flink.streaming.api.functions.source.RichSourceFunction;
org.apache.flink.streaming.api.functions.source.SourceFunction;import
每隔1秒随机生成一条订单信息(订单ID、用户ID、订单金额、时间戳)*
RichParallelSourceFunctionOrderInfo
OrderInfo();orderInfo.setOrderId(UUID.randomUUID().toString());orderInfo.setUid(random.nextInt(3));orderInfo.setMoney(random.nextInt(101));orderInfo.setTimeStamp(System.currentTimeMillis());ctx.collect(orderInfo);Thread.sleep(1000);//
StreamExecutionEnvironment.getExecutionEnvironment();env.setParallelism(2);//
将自定义的数据源放入到env中DataStreamSource
MySource())/*.setParallelism(1)*/;System.out.println(dataStreamSource.getParallelism());dataStreamSource.print();env.execute();}}
通过ParallelSourceFunction创建可并行Source
StreamExecutionEnvironment.getExecutionEnvironment();DataStreamSourceString
MySource()).setParallelism(6);mySource.print();env.execute();}public
{ctx.collect(UUID.randomUUID().toString());/*如果不设置无限循环可以看出设置了多少并行度就打印出多少条数据*/}Overridepublic
如果代码换成ParallelSourceFunction每次生成12个数据假如是12核数的话。
open方法实例化的时候会执行一次多个并行度会执行多次的哦因为是多个实例了
close方法销毁实例的时候会执行一次多个并行度会执行多次的哦
https://nightlies.apache.org/flink/flink-docs-release-1.13/zh/docs/connectors/datastream/kafka/
dependencygroupIdorg.apache.flink/groupIdartifactIdflink-connector-kafka_2.11/artifactIdversion${flink.version}/version
/opt/installs/kafka3/bin/kafka-topics.sh
org.apache.flink.api.common.functions.FilterFunction;
org.apache.flink.api.common.serialization.SimpleStringSchema;
org.apache.flink.streaming.api.datastream.DataStreamSource;
org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer;import
StreamExecutionEnvironment.getExecutionEnvironment();Properties
Properties();properties.setProperty(bootstrap.servers,
bigdata01:9092);properties.setProperty(group.id,
FlinkKafkaConsumerString(topic1,new
SimpleStringSchema(),properties);DataStreamSourceString
以下代码跟flink消费kakfa数据没关系仅仅是将需求搞的复杂一点而已//
直接丢弃dataStreamSource.filter(new
word.contains(success);}}).print();env.execute();}
作为专业的SEO优化服务提供商,我们致力于通过科学、系统的搜索引擎优化策略,帮助企业在百度、Google等搜索引擎中获得更高的排名和流量。我们的服务涵盖网站结构优化、内容优化、技术SEO和链接建设等多个维度。
| 服务项目 | 基础套餐 | 标准套餐 | 高级定制 |
|---|---|---|---|
| 关键词优化数量 | 10-20个核心词 | 30-50个核心词+长尾词 | 80-150个全方位覆盖 |
| 内容优化 | 基础页面优化 | 全站内容优化+每月5篇原创 | 个性化内容策略+每月15篇原创 |
| 技术SEO | 基本技术检查 | 全面技术优化+移动适配 | 深度技术重构+性能优化 |
| 外链建设 | 每月5-10条 | 每月20-30条高质量外链 | 每月50+条多渠道外链 |
| 数据报告 | 月度基础报告 | 双周详细报告+分析 | 每周深度报告+策略调整 |
| 效果保障 | 3-6个月见效 | 2-4个月见效 | 1-3个月快速见效 |
我们的SEO优化服务遵循科学严谨的流程,确保每一步都基于数据分析和行业最佳实践:
全面检测网站技术问题、内容质量、竞争对手情况,制定个性化优化方案。
基于用户搜索意图和商业目标,制定全面的关键词矩阵和布局策略。
解决网站技术问题,优化网站结构,提升页面速度和移动端体验。
创作高质量原创内容,优化现有页面,建立内容更新机制。
获取高质量外部链接,建立品牌在线影响力,提升网站权威度。
持续监控排名、流量和转化数据,根据效果调整优化策略。
基于我们服务的客户数据统计,平均优化效果如下:
我们坚信,真正的SEO优化不仅仅是追求排名,而是通过提供优质内容、优化用户体验、建立网站权威,最终实现可持续的业务增长。我们的目标是与客户建立长期合作关系,共同成长。
Demand feedback