96SEO 2026-02-19 09:52 0
本地模式hadoop默认安装后启动就是本地模式就是将来的数据存在Linux本地并且运行MR程序的时候也是在本地机器上运行

伪分布式模式伪分布式其实就只在一台机器上启动HDFS集群启动YARN集群并且数据存在HDFS集群上以及运行MR程序也是在YARN上运行计算后的结果也是输出到HDFS上。
本质上就是利用一台服务器中多个java进程去模拟多个服务
完全分布式完全分布式其实就是多台机器上分别启动HDFS集群启动YARN集群并且数据存在HDFS集群上的以及运行MR程序也是在YARN上运行计算后的结果也是输出到HDFS上。
在真实的企业环境中服务器集群会使用到多台机器共同配合来构建一个完整的分布式文件系统。
而在这样的分布式文件系统HDFS相关的守护进程也会分布在不同的机器上例如
NameNode守护进程尽可能的单独部署在一台硬件性能较好的机器中。
其他的每台机器上都会部署一个Datanode守护进程一般的硬件环境即可。
SecondaryNameNode守护进程最好不要和NameNode在同一台机器上
平台备注宿主系统windows10虚拟机软件、系统vmware17centos7.5虚拟机主机名node1
ip192.168.149.113hadoop版本hadoop-3.3.0-Centos7-64-with-snappy.tar.gzSSH远程连接工具xshell7软件安装包上传路径/export/software软件安装路径/export/software/jdk
/export/software/hadoopjdk环境jdk-8u241-linux-x64
NameNodeDataNodeSecondaryNameNodehadoop1√√hadoop2√hadoop3√√
三台机器的防火墙必须是关闭的.确保三台机器的网络配置畅通(NAT模式静态IP主机名的配置)确保/etc/hosts文件配置了ip和hostname的映射关系确保配置了三台机器的免密登陆认证克隆会更加方便确保所有机器时间同步jdk和hadoop的环境变量配置
vim/etc/sysconfig/network-scripts/ifcfg-ens32
localhost6.localdomain6192.168.149.111
ssh免密登录只需要配置node1至node1、node2、node3即可#
JAVA_HOME/export/software/jdk/jdk1.8.0_241
CLASSPATH.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar#
将hadoop安装包上传到/export/software/hadoop
hadoop-3.3.0-Centos7-64-with-snappy.tar.gz
HADOOP_HOME/export/software/hadoop/hadoop-3.3.0
PATH$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbinsource
Hadoop支持file、HDFS、GFS、ali|Amazon云等文件系统
propertynamefs.defaultFS/namevaluehdfs://node1:9820/value
propertynamehadoop.tmp.dir/namevalue/export/software/hadoop/hadoop-3.3.0/tmp/value
propertynamehadoop.http.staticuser.user/namevalueroot/value
propertynamehadoop.proxyuser.root.hosts/namevalue*/value
/propertypropertynamehadoop.proxyuser.root.groups/namevalue*/value
propertynamefs.trash.interval/namevalue1440/value
secondarynamenode守护进程的http地址主机名和端口号。
参考守护进程布局
propertynamedfs.namenode.secondary.http-address/namevaluenode2:9868/value
namenode守护进程的http地址主机名和端口号。
参考守护进程布局
namedfs.namenode.http-address/namevaluenode1:9870/value
JAVA_HOME/export/software/jdk/jdk1.8.0_241#
HDFS_SECONDARYNAMENODE_USERroot
propertynamemapreduce.framework.name/namevalueyarn/value
propertynamemapreduce.jobhistory.address/namevaluenode1:10020/value
propertynamemapreduce.jobhistory.webapp.address/namevaluenode1:19888/value
/propertypropertynameyarn.app.mapreduce.am.env/namevalueHADOOP_MAPRED_HOME${HADOOP_HOME}/value
/propertypropertynamemapreduce.map.env/namevalueHADOOP_MAPRED_HOME${HADOOP_HOME}/value
/propertypropertynamemapreduce.reduce.env/namevalueHADOOP_MAPRED_HOME${HADOOP_HOME}/value
propertynameyarn.resourcemanager.hostname/namevaluenode1/value
/propertypropertynameyarn.nodemanager.aux-services/namevaluemapreduce_shuffle/value
propertynameyarn.nodemanager.pmem-check-enabled/namevaluefalse/value
propertynameyarn.nodemanager.vmem-check-enabled/namevaluefalse/value
propertynameyarn.log-aggregation-enable/namevaluetrue/value
propertynameyarn.log.server.url/namevaluehttp://node1:19888/jobhistory/logs/value
propertynameyarn.log-aggregation.retain-seconds/namevalue604800/value
启动HDFS所有进程(NameNode、SecondaryNameNode、DataNode)
停止HDFS所有进程(NameNode、SecondaryNameNode、DataNode)hadoop-daemon.sh
HDFS集群http://192.168.149.111:9870/YARN集群http://192.168.149.111:8088/
作为专业的SEO优化服务提供商,我们致力于通过科学、系统的搜索引擎优化策略,帮助企业在百度、Google等搜索引擎中获得更高的排名和流量。我们的服务涵盖网站结构优化、内容优化、技术SEO和链接建设等多个维度。
| 服务项目 | 基础套餐 | 标准套餐 | 高级定制 |
|---|---|---|---|
| 关键词优化数量 | 10-20个核心词 | 30-50个核心词+长尾词 | 80-150个全方位覆盖 |
| 内容优化 | 基础页面优化 | 全站内容优化+每月5篇原创 | 个性化内容策略+每月15篇原创 |
| 技术SEO | 基本技术检查 | 全面技术优化+移动适配 | 深度技术重构+性能优化 |
| 外链建设 | 每月5-10条 | 每月20-30条高质量外链 | 每月50+条多渠道外链 |
| 数据报告 | 月度基础报告 | 双周详细报告+分析 | 每周深度报告+策略调整 |
| 效果保障 | 3-6个月见效 | 2-4个月见效 | 1-3个月快速见效 |
我们的SEO优化服务遵循科学严谨的流程,确保每一步都基于数据分析和行业最佳实践:
全面检测网站技术问题、内容质量、竞争对手情况,制定个性化优化方案。
基于用户搜索意图和商业目标,制定全面的关键词矩阵和布局策略。
解决网站技术问题,优化网站结构,提升页面速度和移动端体验。
创作高质量原创内容,优化现有页面,建立内容更新机制。
获取高质量外部链接,建立品牌在线影响力,提升网站权威度。
持续监控排名、流量和转化数据,根据效果调整优化策略。
基于我们服务的客户数据统计,平均优化效果如下:
我们坚信,真正的SEO优化不仅仅是追求排名,而是通过提供优质内容、优化用户体验、建立网站权威,最终实现可持续的业务增长。我们的目标是与客户建立长期合作关系,共同成长。
Demand feedback