电子文档交易市场
安卓APP | ios版本
电子文档交易市场
安卓APP | ios版本
换一换
首页 金锄头文库 > 资源分类 > DOCX文档下载
分享到微信 分享到微博 分享到QQ空间

Hadoop 集群搭建_光环大数据培训

  • 资源ID:49596464       资源大小:42.20KB        全文页数:7页
  • 资源格式: DOCX        下载积分:0金贝
快捷下载 游客一键下载
账号登录下载
微信登录下载
三方登录下载: 微信开放平台登录   支付宝登录   QQ登录  
二维码
微信扫一扫登录
下载资源需要0金贝
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
如填写123,账号就是123,密码也是123。
验证码:   换一换

 
账号:
密码:
验证码:   换一换
  忘记密码?
    
1、金锄头文库是“C2C”交易模式,即卖家上传的文档直接由买家下载,本站只是中间服务平台,本站所有文档下载所得的收益全部归上传人(卖家)所有,作为网络服务商,若您的权利被侵害请及时联系右侧客服;
2、如你看到网页展示的文档有jinchutou.com水印,是因预览和防盗链等技术需要对部份页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有jinchutou.com水印标识,下载后原文更清晰;
3、所有的PPT和DOC文档都被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;下载前须认真查看,确认无误后再购买;
4、文档大部份都是可以预览的,金锄头文库作为内容存储提供商,无法对各卖家所售文档的真实性、完整性、准确性以及专业性等问题提供审核和保证,请慎重购买;
5、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据;
6、如果您还有什么不清楚的或需要我们协助,可以点击右侧栏的客服。
下载须知 | 常见问题汇总

Hadoop 集群搭建_光环大数据培训

光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌http:/hadoop.aura.cn 光环大数据光环大数据 http:/hadoop.aura.cnHadoopHadoop 集群搭建集群搭建_ _光环大数据培训光环大数据培训在图书馆看到关于 hadoop 的书,刚好有空,就借回来了看看。然后在寝室尝试搭建环境,用了一天才弄好。Hadoop 的运行模式有 单机模式、伪分布式模式、完全分布式模式。我选择的时完全分布式模式安装。因此需要多台机器。但哪来的多台机器呢,当然是虚拟机啦。因为 Hadoop 只能运行在 *nix 环境中,因此我在 Ubuntu 中又用 VirtualBox 安装了两台虚拟机。一台作为 master, 一台作为 slave1.因为怕搞坏宿主机器,因此没在物理机上折腾。集群,通常是有好多台机器的,但我内存才 6G 还是就开两台吧。首先安装虚拟机都很容易,就不说了。需要注意的就是用户名、机器名和网络配置。据说 Hadoop 需要集群中机器的 用户名一致 ,因此安装时用统一的用户名密码即满足有求又好记。主机名,master 就设置为 master, slave 就设置为 slave1. 如果有更多 slave,数字递增即可。主机名只是助记用的,不用太在意这些细节。然后就是网络配置。我们需要实现的目标有:1. 各虚拟机间可互相访问光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌http:/hadoop.aura.cn 光环大数据光环大数据 http:/hadoop.aura.cn2. 虚拟机和主机可互相访问3. 虚拟机可上外网为了实现第三点,最方便的方法就是使用“ 网络地址转换(NAT) ”这种方式。为了实现第一点和第二点,还需要增加 “ 仅主机(HostOnly) ”方式。VirtualBox 的虚拟机有多种网络配置模式,包括:桥接、网络地址转换(NAT)、NAT、仅主机等。桥接方式是虚拟出一块网卡,虚拟机内使用这个虚拟网卡,相当于一台物理机配置网络。但我们学校一人一个 IP 地址,网络也需要认证登录,因此并不适用。网络地址转换(NAT)是默认的网络配置,这样可以使虚拟机上网,也不要配置 IP,动态分配 DHCP 的 IP 地址,相当于虚拟机是宿主的一个程序。NAT 方式,据说是上一个模式的升级版,没试过(需要在 VB 全局设置里配置网卡)。仅主机模式,虚拟出一个网卡,宿主和虚拟机都可以连接,这样宿主和虚拟机就在同一个网络中可互相访问了。我使用的方式是,在虚拟机的管理-全局设置-网络中,选择仅主机网络 ,没有配置就添加一个,有就双击查看详情,记下 IP 地址。默认是 192.168.56.1 你也可以改为 192.168.1.1 这种。DHCP 选项卡不勾选。光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌http:/hadoop.aura.cn 光环大数据光环大数据 http:/hadoop.aura.cn然后这样宿主就自动连接上这个虚拟网卡了,Ubuntu 菜单栏会有一项显示设备未托管的网络就是这个。因为你的 IP 就是刚刚记下的,不需要再在编辑连接里配置了。在虚拟机关闭状态或刚新建还没启动时,配置他的网络。选择要配置的虚拟机, 设置-网络:网卡一:启用网络连接,选择网络地址转换(NAT) 。网卡二:启用网络连接,选择仅主机(HostOnly)适配器 ,界面选择刚刚全局添加的那个名称。启动虚拟机后,在其中可以看到两个网络连接,在右上角的菜单栏中点击选择编辑连接以太网选项卡选择网络接口,新版本的 Ubuntu 不是 eth0/eth1 这种名称了,是 enp0s3/enp0s8 类似的名称,数字小的一个是网卡一,另一个是网卡二。在网卡一中,我们选择的是 NAT 模式,那么,在 IPv4 选项卡,就只需要选择 DHCP 就行了,不用配置 IP 地址(自动分配 10.0.2.x) 。这个是虚拟机上外网的网络。在网卡二中,我们选择的时仅主机模式,在 IPv4 选项卡中,需要配置静态 IP(网关可以不用配置) ,用于各个机器间互相访问。这个是宿主和虚拟机之间的局域网。还需要在 IPv4 选项卡中的路由按钮中 勾选仅将连接用于相应的网络上的资源 这样当两个网络同时启用时,访问外网就不会用网卡二的网关了。否则可能访问外网使用网卡二的网关 192.168.56.1,那么将不能访问外网。虚拟机配置网络光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌http:/hadoop.aura.cn 光环大数据光环大数据 http:/hadoop.aura.cn现在,你可以在虚拟机(192.168.56.2)中 ping 通外网(如 youthlin.com)、其他配置好的虚拟机(192.168.56.3)、宿主机(192.168.56.1)。然后就是准备安装 Hadoop 了。Open-SSHJDK7+Hadoop2.7.3ssh 就是配置免密码登录。ssh-keygen -t rsa生成公钥私钥密钥对,把公钥 id_rsa.pub 导入目标主机的 authorized_keys 文件中,那么本机就可以免密码登录目标主机。Hadoop 2.7 需要 JDK7+ 版本,我是在 Oracle 网站上下载 JDK 然后解压的。只需在 /etc/profile 要配置 JAVA_HOME 就可以了。Hadoop 我下载的是当前 2.7.3 版本,解压在 /opt/ 文件夹下。chown -R xxx /optxxx 为你需要的用户名,意思是把 /opt 文件夹授权给 xxx 用户。配置文件全在 $HADOOP_HOME/etc/hadoop 下光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌http:/hadoop.aura.cn 光环大数据光环大数据 http:/hadoop.aura.cnexportJAVA_HOME=xxxexportHADOOP_HOME=xxxexportHADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop这三个环境变量在 profile 里也要配置一下,把 $JAVA_HOME/bin、$HADOOP_HOME/bin 加入 PATH,注销再登录生效。core-site.xmlhdfs-site.xmlmapred-site.xml.templateslaves这几个文件具体配置自行搜索吧,我也不太确定咋配。可看下方参考链接。先在 HADOOP_HOME 下新建了 tmp、name、data 文件夹, hadoop.tmp.dir 设为 tmp, dfs.namenode.name.dir 设为 name 的路径, dfs.datanode.data.dir 设为 data 的路径。暂时没有用到 yarn.xml 等以后搞明白了在研究所有机器都这样配置。然后就算配置好了环境准备启动之前需要先格式化 HDFS. 这是 Hadoop 用的分布式文件系统,理解为 NTFS、ext4 之类的就行了,只不过 HDFS 里的文件时存在多台机器上的。hdfsnamenode -formatExiting with status 0 就表示执行成功了。光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌http:/hadoop.aura.cn 光环大数据光环大数据 http:/hadoop.aura.cn启动使用的命令在 $HADOOP_HOME/sbin 下,用 start-dfs.sh 和 start-yarn.sh 启动 Hadoophdfs dfs -lshdfs dfs -puthdfs dfs -cat用于列出 HDFS 里文件、上传本地文件到 HDFS、输出 HDFS 里文件内容。HadoopHadoop 自带的网络界面测试安装是否成功用 WordCount 检测。 (此时可以访问 http:/master:50070/ 为了方便可以把 master/slave1 的 IP 放在/etc/hosts 里)首先在 master 里随便准备一个文本文件,比如叫做 words,内容就是几个单词。然后再hdfs -dfs -put /path/to/words /test/words这样就把 words 文件放入 HDFS 文件系统了。在 HADOOP_HOME 执行:hadoopjarshare/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar wordcount 光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌http:/hadoop.aura.cn 光环大数据光环大数据 http:/hadoop.aura.cn/test/words /test/out记执行单词计数统计程序,/test/words 为输入文件,/test/out 为输出目录,其中输出目录的父目录必须存在,否则报异常,slave 里 hadoop-env.sh 没配置 JAVA_HOME 也会报异常。退出码为 0 表示执行成功。运行结果这样就算安装成功启动成功了,jps 命令可以看到运行中的 Java 进程。下一步有空的话再看书学习为什么大家选择为什么大家选择光环大数据光环大数据!大数据培训、人工智能培训、Python 培训、大数据培训机构、大数据培训班、数据分析培训、大数据可视化培训,就选光环大数据!光环大数据,聘请专业的大数据领域知名讲师,确保教学的整体质量与教学水准。讲师团及时掌握时代潮流技术,将前沿技能融入教学中,确保学生所学知识顺应时代所需。通过深入浅出、通俗易懂的教学方式,指导学生更快的掌握技能知识,成就上万个高薪就业学子。【报名方式、详情咨询报名方式、详情咨询】光环大数据官方网站报名:光环大数据官方网站报名:http:/hadoop.aura.cn/http:/hadoop.aura.cn/手机报名链接:手机报名链接:http:/http:/ hadoop.aura.cnhadoop.aura.cn /mobile/mobile/

注意事项

本文(Hadoop 集群搭建_光环大数据培训)为本站会员(gua****an)主动上传,金锄头文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即阅读金锄头文库的“版权提示”【网址:https://www.jinchutou.com/h-59.html】,按提示上传提交保证函及证明材料,经审查核实后我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。

分享当前资源【Hadoop 集群搭建_光环大数据培训】到朋友圈,您即可以免费下载此资源!
微信扫一扫分享到朋友圈
二维码
操作提示:任选上面一个二维码,打开微信,点击“发现”使用“扫一扫”,即可将选择的网页分享到朋友圈
您可能感兴趣的------------------------------------------------------------------------------------------------------



关于金锄头网 - 版权申诉 - 免责声明 - 诚邀英才 - 联系我们
手机版 | 川公网安备 51140202000112号 | 经营许可证(蜀ICP备13022795号)
©2008-2016 by Sichuan Goldhoe Inc. All Rights Reserved.