电子文档交易市场
安卓APP | ios版本
电子文档交易市场
安卓APP | ios版本
换一换
首页 金锄头文库 > 资源分类 > DOCX文档下载
分享到微信 分享到微博 分享到QQ空间

Hadoop2.7.3完全分布式集群搭建_光环大数据培训

  • 资源ID:49596446       资源大小:54.82KB        全文页数:6页
  • 资源格式: DOCX        下载积分:0金贝
快捷下载 游客一键下载
账号登录下载
微信登录下载
三方登录下载: 微信开放平台登录   支付宝登录   QQ登录  
二维码
微信扫一扫登录
下载资源需要0金贝
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
如填写123,账号就是123,密码也是123。
验证码:   换一换

 
账号:
密码:
验证码:   换一换
  忘记密码?
    
1、金锄头文库是“C2C”交易模式,即卖家上传的文档直接由买家下载,本站只是中间服务平台,本站所有文档下载所得的收益全部归上传人(卖家)所有,作为网络服务商,若您的权利被侵害请及时联系右侧客服;
2、如你看到网页展示的文档有jinchutou.com水印,是因预览和防盗链等技术需要对部份页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有jinchutou.com水印标识,下载后原文更清晰;
3、所有的PPT和DOC文档都被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;下载前须认真查看,确认无误后再购买;
4、文档大部份都是可以预览的,金锄头文库作为内容存储提供商,无法对各卖家所售文档的真实性、完整性、准确性以及专业性等问题提供审核和保证,请慎重购买;
5、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据;
6、如果您还有什么不清楚的或需要我们协助,可以点击右侧栏的客服。
下载须知 | 常见问题汇总

Hadoop2.7.3完全分布式集群搭建_光环大数据培训

光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌http:/hadoop.aura.cn 光环大数据光环大数据 http:/hadoop.aura.cnHadoop2.7.3Hadoop2.7.3 完全分布式集群搭建完全分布式集群搭建_ _光环大数据培训光环大数据培训光环大数据培训光环大数据培训认为,集群如下:192.168.188.111 master192.168.188.112 slave1192.168.188.113 slave2一、环境配置一、环境配置1.修改修改 hosts 和和 hostname以 master 为例:修改 hostsemail protected # vim /etc/hosts192.168.188.111 master192.168.188.112 slave1192.168.188.113 slave2修改 hostnameemail protected # vim /etc/hostname同样地,在 slave1 和 slave2 做相同的 hostname 操作,分别命名为 slave1和 slave2.然后分别把 slave1 和 slave2 的 hosts 文件更改为和 master 一样。2.配免密登录配免密登录次文章重点不在配免密登录,所有略,可以看其他博客。3.配置环境变量配置环境变量email protected # vim /etc/profile光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌http:/hadoop.aura.cn 光环大数据光环大数据 http:/hadoop.aura.cn#javaexport JAVA_HOME=/root/package/jdk1.8.0_121export PATH=$PATH:$JAVA_HOME/bin#sparkexport SPARK_HOME=/root/package/spark-2.1.0-bin-hadoop2.7export PATH=$PATH:$SPARK_HOME/bin#ANACONDAexport ANACONDA=/root/anaconda2export PATH=$PATH:$ANACONDA/bin#HADOOPexport HADOOP_HOME=/root/package/hadoop-2.7.3export HADOOP_MAPRED_HOME=$HADOOP_HOMEexport HADOOP_COMMON_HOME=$HADOOP_HOMEexport HADOOP_HDFS_HOME=$HADOOP_HOMEexport YARN_HOME=$HADOOP_HOMEexport HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/nativeexport PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/binexport HADOOP_INSTALL=$HADOOP_HOME输入 source /etc/profile 使配置文件生效。email protected # source /etc/profile查看配置是否成功:输入 java -version出现以上信息则 Java 配置成功。二、二、hadoop 配置配置1.master 配置配置首先,安装 hadoop-2.7.3,我是直接在要安装的目录下解压,所有在 tar -zxvf 后边 没有输入其他的路径。email protected package# tar -zxvf hadoop-2.7.32.hadoop-env.sh 配置配置hadoop-2.7.3 的配置文件都在 /root/package/hadoop-2.7.3/etc/hadoop 下/root/package/hadoop-2.7.3/etc/hadoopemail protected hadoop# vim hadoop-env.sh修改 JAVA_HOME 值光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌http:/hadoop.aura.cn 光环大数据光环大数据 http:/hadoop.aura.cn# The java implementation to use.export JAVA_HOME=/root/package/jdk1.8.0_1213.yarn-env.sh 配置配置email protected hadoop# vim yarn-env.sh# some Java parametersexport JAVA_HOME=/root/package/jdk1.8.0_1214.修改修改 slavesemail protected hadoop# vim slaves将内容修改为slave1slave25.core-site.xml 配置配置fs.defaultFS hdfs:/10.10.11.181:9000 io.file.buffer.size 131072 hadoop.tmp.dir /hadoop/tmp 6.hdfs-site.xml 配置配置dfs.namenode.secondary.http-address10.10.11.181:50090 dfs.replication 3 dfs.namenode.name.dir file:/root/hadoop/hdfs/namenode/dfs/name dfs.datanode.data.dir file:/root/hadoop/hdfs/datanode/d光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌http:/hadoop.aura.cn 光环大数据光环大数据 http:/hadoop.aura.cnfs/data dfs.webhdfs.enabled true 7.配置配置 mapred-site.xml先复制再修改email protected hadoop# cp mapred-site.xml.template mapred-site.xmlmapreduce.framework.name yarn mapreduce.jobhistory.address 192.168.188.111:10020 mapreduce.jobhistory.webapp.address 192.168.188.111:19888 8.yarn-site.xml 配置配置yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.aux-services.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler yarn.resourcemanager.addressmaster:8032 yarn.resourcemanager.scheduler.address master:8030 yarn.resourcemanager.resource-tracker.address master:8031 yarn.resourcemanager.admin.address master:8033 yarn.resourcemanager.webapp.address master:8088 光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌http:/hadoop.aura.cn 光环大数据光环大数据 http:/hadoop.aura.cn9.然后把在然后把在 master 的配置拷贝到的配置拷贝到 slave1 和和 slave2 节点节点上上scp -r hadoop-2.7.3 email protected168.188.112:/root/package三、启动三、启动 hadoop1.格式化命令。因为已经配置了 hadoop 的环境变量,所以不一定非要在hadoop 的安装目录输入格式化命令。email protected sbin# hdfs namenode -format2.启动email protected sbin# start-all.sh四、用四、用 jps 查看结果查看结果启动后分别在 master 和 slave1 和 slave2 下查看进程。master 如下:slave1 如下:slave2 如下:则表示成功。五、界面查看验证五、界面查看验证输入 http:/192.168.188.111:8088/输入 http:/192.168.188.111:50070/光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌http:/hadoop.aura.cn 光环大数据光环大数据 http:/hadoop.aura.cn到此,hadoop-2.7.3 完全分布式集群搭建成功。为什么大家选择为什么大家选择光环大数据光环大数据!大数据培训、人工智能培训、Python 培训、大数据培训机构、大数据培训班、数据分析培训、大数据可视化培训,就选光环大数据!光环大数据,聘请专业的大数据领域知名讲师,确保教学的整体质量与教学水准。讲师团及时掌握时代潮流技术,将前沿技能融入教学中,确保学生所学知识顺应时代所需。通过深入浅出、通俗易懂的教学方式,指导学生更快的掌握技能知识,成就上万个高薪就业学子。【报名方式、详情咨询报名方式、详情咨询】光环大数据官方网站报名:光环大数据官方网站报名:http:/hadoop.aura.cn/http:/hadoop.aura.cn/手机报名链接:手机报名链接:http:/http:/ hadoop.aura.cnhadoop.aura.cn /mobile/mobile/

注意事项

本文(Hadoop2.7.3完全分布式集群搭建_光环大数据培训)为本站会员(gua****an)主动上传,金锄头文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即阅读金锄头文库的“版权提示”【网址:https://www.jinchutou.com/h-59.html】,按提示上传提交保证函及证明材料,经审查核实后我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。

分享当前资源【Hadoop2.7.3完全分布式集群搭建_光环大数据培训】到朋友圈,您即可以免费下载此资源!
微信扫一扫分享到朋友圈
二维码
操作提示:任选上面一个二维码,打开微信,点击“发现”使用“扫一扫”,即可将选择的网页分享到朋友圈
您可能感兴趣的------------------------------------------------------------------------------------------------------



关于金锄头网 - 版权申诉 - 免责声明 - 诚邀英才 - 联系我们
手机版 | 川公网安备 51140202000112号 | 经营许可证(蜀ICP备13022795号)
©2008-2016 by Sichuan Goldhoe Inc. All Rights Reserved.