源码网商城,靠谱的源码在线交易网站 我的订单 购物车 帮助

源码网商城

Hadoop 2.x伪分布式环境搭建详细步骤

  • 时间:2020-07-26 13:33 编辑: 来源: 阅读:
  • 扫一扫,手机访问
摘要:Hadoop 2.x伪分布式环境搭建详细步骤
本文以图文结合的方式详细介绍了Hadoop 2.x伪分布式环境搭建的全过程,供大家参考,具体内容如下 [b]1、修改hadoop-env.sh、yarn-env.sh、mapred-env.sh[/b] [b]方法:[/b]使用notepad++(beifeng用户)打开这三个文件 [b]添加代码:[/b]export JAVA_HOME=/opt/modules/jdk1.7.0_67 [b]2、修改[/b]core-site.xml、hdfs-site.xml、yarn-site.xml、mapred-site.xml[b]配置文件[/b] 1)修改core-site.xml
<configuration>
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://Hadoop-senior02.beifeng.com:8020</value>
  </property>
  <property>
    <name>hadoop.tmp.dir</name>
    <value>/opt/modules/hadoop-2.5.0/data</value>
  </property>
</configuration>

2)修改hdfs-site.xml
<configuration>
  <property>
    <name>dfs.replication</name>
    <value>1</value>
  </property>
  <property>
    <name>dfs.namenode.http-address</name>
    <value>Hadoop-senior02.beifeng.com:50070</value>
  </property>
</configuration>

3)修改yarn-site.xml
<configuration>
  <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>
  <property>
    <name>yarn.resourcemanager.hostname</name>
    <value>Hadoop-senior02.beifeng.com</value>
  </property>
  <property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
  </property>
  <property>
    <name>yarn.log-aggregation.retain-seconds</name>
    <value>86400</value>
  </property>
</configuration>

4)修改mapred-site.xml
<configuration>
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
  <property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>0.0.0.0:19888</value>
  </property>
</configuration>

[b]3、启动hdfs[/b] 1)格式化namenode:$ bin/hdfs namenode -format 2)启动namenode:$sbin/hadoop-daemon.sh start namenode 3)启动datanode:$sbin/hadoop-daemon.sh start datanode 4)hdfs监控web页面:http://hadoop-senior02.beifeng.com:50070 [b]4、启动yarn[/b] 1)启动resourcemanager:$sbin/yarn-daemon.sh start resourcemanager 2)启动nodemanager:sbin/yarn-daemon.sh start nodemanager 3)yarn监控web页面:http://hadoop-senior02.beifeng.com:8088 [b]5、测试wordcount jar包[/b] 1)定位路径:/opt/modules/hadoop-2.5.0 2)代码测试:bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount /input/sort.txt /output6/ 运行过程: 16/05/08 06:39:13 INFO client.RMProxy: Connecting to ResourceManager at Hadoop-senior02.beifeng.com/192.168.241.130:8032 16/05/08 06:39:15 INFO input.FileInputFormat: Total input paths to process : 1 16/05/08 06:39:15 INFO mapreduce.JobSubmitter: number of splits:1 16/05/08 06:39:15 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1462660542807_0001 16/05/08 06:39:16 INFO impl.YarnClientImpl: Submitted application application_1462660542807_0001 16/05/08 06:39:16 INFO mapreduce.Job: The url to track the job: http://Hadoop-senior02.beifeng.com:8088/proxy/application_1462660542807_0001/ 16/05/08 06:39:16 INFO mapreduce.Job: Running job: job_1462660542807_0001 16/05/08 06:39:36 INFO mapreduce.Job: Job job_1462660542807_0001 running in uber mode : false 16/05/08 06:39:36 INFO mapreduce.Job: map 0% reduce 0% 16/05/08 06:39:48 INFO mapreduce.Job: map 100% reduce 0% 16/05/08 06:40:04 INFO mapreduce.Job: map 100% reduce 100% 16/05/08 06:40:04 INFO mapreduce.Job: Job job_1462660542807_0001 completed successfully 16/05/08 06:40:04 INFO mapreduce.Job: Counters: 49 3)结果查看:bin/hdfs dfs -text /output6/par* 运行结果: hadoop 2 jps 1 mapreduce 2 yarn 1 [b]6、MapReduce历史服务器[/b] 1)启动:sbin/mr-jobhistory-daemon.sh start historyserver 2)web ui界面:http://hadoop-senior02.beifeng.com:19888 [b]7、hdfs、yarn、mapreduce功能[/b] [b]1)hdfs:[/b]分布式文件系统,高容错性的文件系统,适合部署在廉价的机器上。 [b]hdfs[/b]是一个主从结构,分为namenode和datanode,其中namenode是命名空间,datanode是存储空间,datanode以数据块的形式进行存储,每个数据块128M [b]2)yarn:[/b]通用资源管理系统,为上层应用提供统一的资源管理和调度。 [b]yarn[/b]分为resourcemanager和nodemanager,resourcemanager负责资源调度和分配,nodemanager负责数据处理和资源 [b]3)mapreduce:[/b]MapReduce是一种计算模型,分为Map(映射)和Reduce(归约)。 [b]map[/b]将每一行数据处理后,以键值对的形式出现,并传给reduce;reduce将map传过来的数据进行汇总和统计。 以上就是本文的全部内容,希望对大家的学习有所帮助。
  • 全部评论(0)
联系客服
客服电话:
400-000-3129
微信版

扫一扫进微信版
返回顶部