电子文档交易市场
安卓APP | ios版本
电子文档交易市场
安卓APP | ios版本
换一换
首页 金锄头文库 > 资源分类 > DOCX文档下载
分享到微信 分享到微博 分享到QQ空间

Hadoop入门-WordCount示例_光环大数据培训

  • 资源ID:49596481       资源大小:44.48KB        全文页数:10页
  • 资源格式: DOCX        下载积分:0金贝
快捷下载 游客一键下载
账号登录下载
微信登录下载
三方登录下载: 微信开放平台登录   支付宝登录   QQ登录  
二维码
微信扫一扫登录
下载资源需要0金贝
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
如填写123,账号就是123,密码也是123。
验证码:   换一换

 
账号:
密码:
验证码:   换一换
  忘记密码?
    
1、金锄头文库是“C2C”交易模式,即卖家上传的文档直接由买家下载,本站只是中间服务平台,本站所有文档下载所得的收益全部归上传人(卖家)所有,作为网络服务商,若您的权利被侵害请及时联系右侧客服;
2、如你看到网页展示的文档有jinchutou.com水印,是因预览和防盗链等技术需要对部份页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有jinchutou.com水印标识,下载后原文更清晰;
3、所有的PPT和DOC文档都被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;下载前须认真查看,确认无误后再购买;
4、文档大部份都是可以预览的,金锄头文库作为内容存储提供商,无法对各卖家所售文档的真实性、完整性、准确性以及专业性等问题提供审核和保证,请慎重购买;
5、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据;
6、如果您还有什么不清楚的或需要我们协助,可以点击右侧栏的客服。
下载须知 | 常见问题汇总

Hadoop入门-WordCount示例_光环大数据培训

光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌http:/hadoop.aura.cn 光环大数据光环大数据 http:/hadoop.aura.cnHadoopHadoop 入门入门-WordCount-WordCount 示例示例_ _光环大数据培训光环大数据培训光环大数据培训光环大数据培训,WordCount 的过程如图,这里记录下入门的过程,虽然有很多地方理解的只是皮毛。hadoop 的安装安装比较简单,安装完成后进行单机环境的配置。hadoop-env.sh:指定 JAVA_HOME。# The only required environment variable is JAVA_HOME. All others are# optional. When running a distributed configuration it is best to# set JAVA_HOME in this file, so that it is correctly defined on# remote nodes.# The java implementation to use.export JAVA_HOME=“$(/usr/libexec/java_home)“core-site.xml:设置 Hadoop 使用的临时目录,NameNode 的地址。hadoop.tmp.dir /usr/local/Cellar/hadoop/hdfs/tmp fs.default.name hdfs:/localhost:9000 hdfs-site.xml:一个节点,副本个数设为 1。dfs.replication 1 光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌http:/hadoop.aura.cn 光环大数据光环大数据 http:/hadoop.aura.cnmapred-site.xml:指定 JobTracker 的地址。mapred.job.tracker localhost:9010 启动 Hadoop 相关的所有进程。 sbin git:(master) ./start-all.shThis script is Deprecated. Instead use start-dfs.sh and start-yarn.sh16/12/03 19:32:18 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform. using builtin-java classes where applicableStarting namenodes on localhostPassword:localhost: starting namenode, logging to /usr/local/Cellar/hadoop/2.7.1/libexec/logs/hadoop-vonzhou-namenode-vonzhoudeMacBook-Pro.local.outPassword:localhost: starting datanode, logging to /usr/local/Cellar/hadoop/2.7.1/libexec/logs/hadoop-vonzhou-datanode-vonzhoudeMacBook-Pro.local.outStarting secondary namenodes 0.0.0.0Password:0.0.0.0: starting secondarynamenode, logging to /usr/local/Cellar/hadoop/2.7.1/libexec/logs/hadoop-vonzhou-secondarynamenode-vonzhoudeMacBook-Pro.local.out16/12/03 19:33:27 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform. using builtin-java classes where applicablestarting yarn daemonsstarting resourcemanager, logging to /usr/local/Cellar/hadoop/2.7.1/libexec/logs/yarn-vonzhou-resourcemanager-vonzhoudeMacBook-Pro.local.outPassword:localhost: starting nodemanager, logging to /usr/local/Cellar/hadoop/2.7.1/libexec/logs/yarn-vonzhou-nodemanager-vonzhoudeMacBook-Pro.local.out(可以配置 ssh 无密码登录方式,否则启动 hadoop 的时候总是要密码。 )看看启动了哪些组件。光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌http:/hadoop.aura.cn 光环大数据光环大数据 http:/hadoop.aura.cn sbin git:(master) jps -l5713 org.apache.hadoop.hdfs.server.namenode.NameNode6145 org.apache.hadoop.yarn.server.nodemanager.NodeManager6044 org.apache.hadoop.yarn.server.resourcemanager.ResourceManager5806 org.apache.hadoop.hdfs.server.datanode.DataNode5918 org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode访问 http:/ localhost:50070/ 可以看到 DFS 的一些状态。WordCount 单词计数WordCount 就是 Hadoop 学习的 hello world,代码如下:public class WordCount public static class Map extends Mapper private final static IntWritable one = new IntWritable(1); private Text word = new Text(); public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException String line = value.toString(); StringTokenizer tokenizer = new StringTokenizer(line); while (tokenizer.hasMoreTokens() word.set(tokenizer.nextToken(); context.write(word, one); public static class Reduce extends Reducer public void reduce(Text key, Iterable values, Context context) throws IOException, InterruptedException int sum = 0; for (IntWritable val : values) sum += val.get(); context.write(key, new IntWritable(sum); public static void main(String args) throws Exception Configuration conf = new Configuration(); Job job = new Job(conf, “wordcount“); job.setJarByClass(WordCount.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(IntWritable.class); job.setMapperClass(Map.class); job.setReducerClass(Reduce.class); /* 光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌http:/hadoop.aura.cn 光环大数据光环大数据 http:/hadoop.aura.cn* 设置一个本地 combine,可以极大的消除本节点重复单词的计数,减小网络传输的开销 */ job.setCombinerClass(Reduce.class); job.setInputFormatClass(TextInputFormat.class); job.setOutputFormatClass(TextOutputFormat.class); FileInputFormat.addInputPath(job, new Path(args0); FileOutputFormat.setOutputPath(job, new Path(args1); job.waitForCompletion(true); 构造两个文本文件, 把本地的两个文件拷贝到 HDFS 中: hadoop-examples git:(master) ln /usr/local/Cellar/hadoop/2.7.1/bin/hadoop hadoop hadoop-examples git:(master) ./hadoop dfs -put wordcount-input/file* inputDEPRECATED: Use of this script to execute hdfs command is deprecated.Inst

注意事项

本文(Hadoop入门-WordCount示例_光环大数据培训)为本站会员(gua****an)主动上传,金锄头文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即阅读金锄头文库的“版权提示”【网址:https://www.jinchutou.com/h-59.html】,按提示上传提交保证函及证明材料,经审查核实后我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。

分享当前资源【Hadoop入门-WordCount示例_光环大数据培训】到朋友圈,您即可以免费下载此资源!
微信扫一扫分享到朋友圈
二维码
操作提示:任选上面一个二维码,打开微信,点击“发现”使用“扫一扫”,即可将选择的网页分享到朋友圈
您可能感兴趣的------------------------------------------------------------------------------------------------------



关于金锄头网 - 版权申诉 - 免责声明 - 诚邀英才 - 联系我们
手机版 | 川公网安备 51140202000112号 | 经营许可证(蜀ICP备13022795号)
©2008-2016 by Sichuan Goldhoe Inc. All Rights Reserved.