电子文档交易市场
安卓APP | ios版本
电子文档交易市场
安卓APP | ios版本
换一换
首页 金锄头文库 > 资源分类 > DOCX文档下载
分享到微信 分享到微博 分享到QQ空间

分布式计算开源框架Hadoop入门实践汇总_光环大数据培训

  • 资源ID:50740383       资源大小:51.96KB        全文页数:6页
  • 资源格式: DOCX        下载积分:0金贝
快捷下载 游客一键下载
账号登录下载
微信登录下载
三方登录下载: 微信开放平台登录   支付宝登录   QQ登录  
二维码
微信扫一扫登录
下载资源需要0金贝
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
如填写123,账号就是123,密码也是123。
验证码:   换一换

 
账号:
密码:
验证码:   换一换
  忘记密码?
    
1、金锄头文库是“C2C”交易模式,即卖家上传的文档直接由买家下载,本站只是中间服务平台,本站所有文档下载所得的收益全部归上传人(卖家)所有,作为网络服务商,若您的权利被侵害请及时联系右侧客服;
2、如你看到网页展示的文档有jinchutou.com水印,是因预览和防盗链等技术需要对部份页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有jinchutou.com水印标识,下载后原文更清晰;
3、所有的PPT和DOC文档都被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;下载前须认真查看,确认无误后再购买;
4、文档大部份都是可以预览的,金锄头文库作为内容存储提供商,无法对各卖家所售文档的真实性、完整性、准确性以及专业性等问题提供审核和保证,请慎重购买;
5、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据;
6、如果您还有什么不清楚的或需要我们协助,可以点击右侧栏的客服。
下载须知 | 常见问题汇总

分布式计算开源框架Hadoop入门实践汇总_光环大数据培训

光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌http:/hadoop.aura.cn 光环大数据光环大数据 http:/hadoop.aura.cn分布式计算开源框架分布式计算开源框架 HadoopHadoop 入门实践汇总入门实践汇总_ _光环大数据培训光环大数据培训光环大数据培训光环大数据培训认为,其实参看 hadoop 官方文档已经能够很容易配置分布式框架运行环境了,不过这里既然写了就再多写一点,同时有一些细节需要注意的也说明一下,其实也就是这些细节会让人摸索半天。Hadoop 可以单机跑,也可以配置集群跑,单机跑就不需要多说了,只需要按照 Demo 的运行说明直接执行命令即可。这里主要重点说一下集群配置运行的过程。环境环境7 台普通的机器,操作系统都是 Linux。内存和 CPU 就不说了,反正Hadoop 一大特点就是机器在多不在精。JDK 必须是 1.5 以上的,这个切记。7台机器的机器名务必不同,后续会谈到机器名对于 MapReduce 有很大的影响。部署考虑部署考虑正如上面我描述的,对于 Hadoop 的集群来说,可以分成两大类角色:Master 和 Slave,前者主要配置 NameNode 和 JobTracker 的角色,负责总管分布式数据和分解任务的执行,后者配置 DataNode 和 TaskTracker 的角色,负责分布式数据存储以及任务的执行。本来我打算看看一台机器是否可以配置成 Master,同时也作为 Slave 使用,不过发现在 NameNode 初始化的过程中以及 TaskTracker 执行过程中机器名配置好像有冲突(NameNode 和TaskTracker 对于 Hosts 的配置有些冲突,究竟是把机器名对应 IP 放在配置前面还是把 Localhost 对应 IP 放在前面有点问题,不过可能也是我自己的问题吧,这个大家可以根据实施情况给我反馈)。最后反正决定一台 Master,六台Slave,后续复杂的应用开发和测试结果的比对会增加机器配置。实施步骤实施步骤光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌http:/hadoop.aura.cn 光环大数据光环大数据 http:/hadoop.aura.cn1. 在所有的机器上都建立相同的目录,也可以就建立相同的用户,以该用户的home 路径来做 hadoop 的安装路径。例如我在所有的机器上都建立了/home/wenchu。2. 下载 Hadoop,先解压到 Master 上。这里我是下载的 0.17.1 的版本。此时Hadoop 的安装路径就是/home/wenchu/hadoop-0.17.1。3. 解压后进入 conf 目录,主要需要修改以下文件:hadoop-env.sh,hadoop-site.xml、masters、slaves。Hadoop 的基础配置文件是 hadoop-default.xml,看 Hadoop 的代码可以知道,默认建立一个 Job 的时候会建立Job 的 Config,Config 首先读入 hadoop-default.xml 的配置,然后再读入hadoop-site.xml 的配置(这个文件初始的时候配置为空),hadoop-site.xml 中主要配置你需要覆盖的 hadoop-default.xml 的系统级配置,以及你需要在你的 MapReduce 过程中使用的自定义配置(具体的一些使用例如final 等参考文档)。以下是一个简单的 hadoop-site.xml 的配置:fs.default.name/你的 namenode 的配置,机器名加端口 hdfs:/10.2.224.46:54310/ mapred.job.tracker/你的 JobTracker 的配置,机器名加端口 hdfs:/10.2.224.46:54311/ dfs.replication/数据需要备份的数量,默认是三 1hadoop.tmp.dir/Hadoop 的默认临时路径,这个最好配置,如果在新增节点或者其他情况下莫名其妙的 DataNode 启动不了,就删除此文件中的 tmp 目录即可。不过如果删除了 NameNode 机器的此目录,那么就需要重新执行 NameNode 格式化的命令。 /home/wenchu/hadoop/tmp/ mapred.child.java.opts/java 虚拟机的一些参数可以参照配置 -Xmx512m dfs.block.size/block 的大小,单位字节,后面会提到用处,必须是 512 的倍数,因为采用 crc 作文件完整性校验,默认配置 512 是 checksum 的最小单元。 5120000 The default block size for new files.hadoop-env.sh 文件只需要修改一个参数:光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌http:/hadoop.aura.cn 光环大数据光环大数据 http:/hadoop.aura.cn# The java implementation to use. Required. export JAVA_HOME=/usr/ali/jdk1.5.0_10配置你的 Java 路径,记住一定要 1.5 版本以上,免得莫名其妙出现问题。Masters 中配置 Masters 的 IP 或者机器名,如果是机器名那么需要在/etc/hosts 中有所设置。Slaves 中配置的是 Slaves 的 IP 或者机器名,同样如果是机器名需要在/etc/hosts 中有所设置。范例如下,我这里配置的都是 IP:Masters: 10.2.224.46Slaves: 10.2.226.40 10.2.226.39 10.2.226.38 10.2.226.37 10.2.226.41 10.2.224.36建立 Master 到每一台 Slave 的 SSH 受信证书。由于 Master 将会通过 SSH启动所有 Slave 的 Hadoop,所以需要建立单向或者双向证书保证命令执行时不需要再输入密码。在 Master 和所有的 Slave 机器上执行:ssh-keygen -t rsa。执行此命令的时候,看到提示只需要回车。然后就会在/root/.ssh/下面产生 id_rsa.pub 的证书文件,通过 scp 将 Master 机器上的这个文件拷贝到 Slave上(记得修改名称),例如:scp email protected:/root/.ssh/id_rsa.pub /root/.ssh/46_rsa.pub,然后执行 cat /root/.ssh/46_rsa.pub >>/root/.ssh/authorized_keys,建立 authorized_keys 文件即可,可以打开这个文件看看,也就是 rsa 的公钥作为 key,email protected作为 value。此时可以试验一下,从 master ssh 到 slave 已经不需要密码了。由 slave 反向建立也是同样。为什么要反向呢?其实如果一直都是 Master 启动和关闭的话那么没有必要建立反向,只是如果想在 Slave 也可以关闭 Hadoop 就需要建立反向。 将 Master 上的 Hadoop 通过 scp 拷贝到每一个 Slave 相同的目录下,根据每一个 Slave 的 Java_HOME 的不同修改其 hadoop-env.sh。 修改 Master 上/etc/profile: 新增以下内容:(具体的内容根据你的安装路径修改,这步只是为了方便使用) export HADOOP_HOME=/home/wenchu/hadoop-0.17.1 export PATH=$PATH:$HADOOP_HOME/bin 修改完毕后,执行 source /etc/profile 来使其生效。 在 Master 上执行 Hadoop namenode format,这是第一需要做的初始化,可以看作格式化吧,以后除了在上面我提到过删除了Master 上的 hadoop.tmp.dir 目录,否则是不需要再次执行的。 然后执行Master 上的 start-all.sh,这个命令可以直接执行,因为在 6 中已经添加到了光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌http:/hadoop.aura.cn 光环大数据光环大数据 http:/hadoop.aura.cnpath 路径,这个命令是启动 hdfs 和 mapreduce 两部分,当然你也可以分开单独启动 hdfs 和 mapreduce,分别是 bin 目录下的 start-dfs.sh 和 start-mapred.sh。 检查 Master 的 logs 目录,看看 Namenode 日志以及JobTracker 日志是否正常启动。 检查 Slave 的 logs 目录看看 Datanode 日志以及 TaskTracker 日志是否正常。 如果需要关闭,那么就直接执行 stop-all.sh即可。 以上步骤就可以启动 Hadoop 的分布式环境,然后在 Master 的机器进入 Master 的安装目录,执行 hadoop jar hadoop-0.17.1-examples.jar wordcount 输入路径和输出路径,就可以看到字数统计的效果了。此处的输入路径和输出路径都指的是 HDFS 中的路径,因此你可以首先通过拷贝本地文件系统中的目录到 HDFS 中的方式来建立 HDFS 中的输入路径:hadoop dfs -copyFromLocal /home/wenchu/test-in test-in。其中/home/wenchu/test-in 是本地路径,test-in 是将会建立在 HDFS 中的路径,执行完毕以后可以通过 hadoop dfs ls 看到 test-in 目录已经存在,同时可以通过hadoop dfs ls test-in 查看里面的内容。输出路径要求是在 HDFS 中不存在的,当执行完那个 demo 以后,就可以通过 hadoop dfs ls 输出路径看到其中的内容,具体文件的内容可以通过 hadoop dfs cat 文件名称来查看。经验总结和注意事项(这部分是我在使用过程中花了一些时间走的弯路):1. Master 和 Slave 上的几个 conf 配置文件不需要全部同步,如果确定都是通过 Master 去启动和关闭,那么 Slave 机器上的配置不需要去维护。但如果希望在任意一台机器都可以启动和关闭 Hadoop,那么就需要全部保持一致了。2. Master 和 Slave 机器上的/etc/hosts 中必须把集群中机器都配置上去,就算在各个配置文件中使用的是 IP。这个吃过不少苦头,原来以为如果配成 IP就不需要去配置 Host,结果发现在执行 Reduce 的时候总是卡住,在拷贝的时候就无法继续下去,不断重试。另外如果集群中如果有两台机器的机器名如果重复也会出现问题。3. 如果在新增了节点或者删除节点的时候出现了问题,首先就去删除 Slave的 hadoop.tmp.dir,然后重新启动试试看,如果还是不行那就干脆把Master 的 hadoop.tmp.dir 删除(意味着

注意事项

本文(分布式计算开源框架Hadoop入门实践汇总_光环大数据培训)为本站会员(gua****an)主动上传,金锄头文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即阅读金锄头文库的“版权提示”【网址:https://www.jinchutou.com/h-59.html】,按提示上传提交保证函及证明材料,经审查核实后我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。

分享当前资源【分布式计算开源框架Hadoop入门实践汇总_光环大数据培训】到朋友圈,您即可以免费下载此资源!
微信扫一扫分享到朋友圈
二维码
操作提示:任选上面一个二维码,打开微信,点击“发现”使用“扫一扫”,即可将选择的网页分享到朋友圈
您可能感兴趣的------------------------------------------------------------------------------------------------------



关于金锄头网 - 版权申诉 - 免责声明 - 诚邀英才 - 联系我们
手机版 | 川公网安备 51140202000112号 | 经营许可证(蜀ICP备13022795号)
©2008-2016 by Sichuan Goldhoe Inc. All Rights Reserved.