96SEO 2025-09-01 22:51 8
前往Hadoop官网下载适合Linux版本的安装包,比方说hadoop-3.3.4.tar.gz。

解压安装包到指定目录,如/usr/local/hadoop。
设置环境变量:
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
$HADOOP_HOME/etc/hadoop目录, 修改以下关键配置文件:
core-site.xml配置Hadoop的运行环境,如HDFS的NameNode地址。hdfs-site.xml配置HDFS的运行参数, 如存储路径、副本数等。mapred-site.xml配置MapReduce的运行参数,如MapReduce的JobTracker地址等。yarn-site.xml配置YARN资源管理器的运行参数,如ResourceManager地址等。start-dfs.sh
使用以下命令验证HDFS状态:
jps
如果看到NameNode和DataNode进程,则表示HDFS服务已启动。
hadoop fs和hdfs dfs操作HDFS,常见操作如下:
hdfs dfs -put /local/path /hdfs/path将本地文件上传到HDFS。hdfs dfs -get /hdfs/path /local/path从HDFS下载文件到本地。hdfs dfs -ls /列出HDFS中的文件和目录。fuse-dfs工具:
sudo fuse-dfs dfs://localhost:9000 /mnt/hdfs -o nonempty
挂载后可通过/mnt/hdfs路径直接访问HDFS文件。
stop-dfs.sh
hadoop jar hadoop-mapreduce-examples.jar wordcount /input /output使用MapReduce统计单词出现次数。yarn jar hadoop-mapreduce-examples.jar wordcount /input /output使用YARN运行MapReduce作业。Demand feedback