电子文档交易市场
安卓APP | ios版本
电子文档交易市场
安卓APP | ios版本
换一换
首页 金锄头文库 > 资源分类 > DOCX文档下载
分享到微信 分享到微博 分享到QQ空间

如何使用Hadoop分析数据_光环大数据培训

  • 资源ID:51980635       资源大小:89.50KB        全文页数:8页
  • 资源格式: DOCX        下载积分:0金贝
快捷下载 游客一键下载
账号登录下载
微信登录下载
三方登录下载: 微信开放平台登录   支付宝登录   QQ登录  
二维码
微信扫一扫登录
下载资源需要0金贝
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
如填写123,账号就是123,密码也是123。
验证码:   换一换

 
账号:
密码:
验证码:   换一换
  忘记密码?
    
1、金锄头文库是“C2C”交易模式,即卖家上传的文档直接由买家下载,本站只是中间服务平台,本站所有文档下载所得的收益全部归上传人(卖家)所有,作为网络服务商,若您的权利被侵害请及时联系右侧客服;
2、如你看到网页展示的文档有jinchutou.com水印,是因预览和防盗链等技术需要对部份页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有jinchutou.com水印标识,下载后原文更清晰;
3、所有的PPT和DOC文档都被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;下载前须认真查看,确认无误后再购买;
4、文档大部份都是可以预览的,金锄头文库作为内容存储提供商,无法对各卖家所售文档的真实性、完整性、准确性以及专业性等问题提供审核和保证,请慎重购买;
5、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据;
6、如果您还有什么不清楚的或需要我们协助,可以点击右侧栏的客服。
下载须知 | 常见问题汇总

如何使用Hadoop分析数据_光环大数据培训

光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌光环大数据光环大数据 http:/hadoop.aura.cnbulkload 流程与实践流程与实践_光环大数据培训光环大数据培训bulkload 流程与实践流程与实践, bulkload 方式需要两个 Job 配合完成: (1)第一个 Job 还是运行原来业务处理逻辑,处理的结果不直接调用HTableOutputFormat 写入到 HBase,而是先写入到 HDFS 上的一个中间目录下(如middata) (2)第二个 Job 以第一个 Job 的输出(middata)做为输入,然后将其格式化 HBase的底层存储文件 HFile (3)调用 BulkLoad 将第二个 Job 生成的 HFile 导入到对应的 HBase 表中 下面给出相应的范例代码:001 import java.io.IOException;002 003 import org.apache.hadoop.conf.Configuration;004 import org.apache.hadoop.fs.Path;005 import org.apache.hadoop.hbase.HBaseConfiguration;006 import org.apache.hadoop.hbase.KeyValue;007 import org.apache.hadoop.hbase.client.HTable;008 import org.apache.hadoop.hbase.client.Put;009 import org.apache.hadoop.hbase.io.ImmutableBytesWritable;010 import org.apache.hadoop.hbase.mapreduce.HFileOutputFormat;011 import org.apache.hadoop.hbase.mapreduce.KeyValueSortReducer;012 import org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles;013 import org.apache.hadoop.hbase.util.Bytes;014 import org.apache.hadoop.io.IntWritable;015 import org.apache.hadoop.io.LongWritable;016 import org.apache.hadoop.io.Text;017 import org.apache.hadoop.mapreduce.Job;018 import org.apache.hadoop.mapreduce.Mapper;光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌光环大数据光环大数据 http:/hadoop.aura.cn019 import org.apache.hadoop.mapreduce.Reducer;020 import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;021 import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;022 import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;023 import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;024 import org.apache.hadoop.util.GenericOptionsParser;025 026 public class GeneratePutHFileAndBulkLoadToHBase 027 028 public static class WordCountMapper extends Mapper029 030 031 private Text wordText=new Text();032 private IntWritable one=new IntWritable(1);033 Override034 protected void map(LongWritable key, Text value, Context context)035 throws IOException, InterruptedException 036 / TODO Auto-generated method stub037 String line=value.toString();038 String wordArray=line.split(“ “);039 for(String word:wordArray)040 041 wordText.set(word);042 context.write(wordText, one);043 044 045 046 光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌光环大数据光环大数据 http:/hadoop.aura.cn047 048 public static class WordCountReducer extends Reducer049 050 051 private IntWritable result=new IntWritable();052 protected void reduce(Text key, Iterable valueList,053 Context context)054 throws IOException, InterruptedException 055 / TODO Auto-generated method stub056 int sum=0;057 for(IntWritable value:valueList)058 059 sum+=value.get();060 061 result.set(sum);062 context.write(key, result);063 064 065 066 067 public static class ConvertWordCountOutToHFileMapper extends Mapper068 069 070 Override071 protected void map(LongWritable key, Text value, Context context)072 throws IOException, InterruptedException 073 / TODO Auto-generated method stub光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌光环大数据光环大数据 http:/hadoop.aura.cn074 String wordCountStr=value.toString();075 String wordCountArray=wordCountStr.split(“t“);076 String word=wordCountArray0;077 int count=Integer.valueOf(wordCountArray1);078 079 /创建 HBase 中的 RowKey080 byte rowKey=Bytes.toBytes(word);081 ImmutableBytesWritable rowKeyWritable=new ImmutableBytesWritable(rowKey);082 byte family=Bytes.toBytes(“cf“);083 byte qualifier=Bytes.toBytes(“count“);084 byte hbaseValue=Bytes.toBytes(count);085 / Put 用于列簇下的多列提交,若只有一个列,则可以使用 KeyValue 格式086 / KeyValue keyValue = new KeyValue(rowKey, family, qualifier, hbaseValue);087 Put put=new Put(rowKey);088 put.add(family, qualifier, hbaseValue);089 context.write(rowKeyWritable, put);090 091 092 093 094 095 public static void main(String args) throws Exception 096 / TODO Auto-generated method stub097 Configuration hadoopConfiguration=new Configuration();098 String dfsArgs = new GenericOptionsParser(hadoopConfiguration, args).getRemainingArgs();光环大数据光环大数据-大数据培训知名品牌大数据培训知名品牌光环大数据光环大数据 http:/hadoop.aura.cn099 100 /第一个 Job 就是普通 MR,输出到指定的目录101 Job job=new Job(hadoopConfiguration, “wordCountJob“);102 job.setJarByClass(GeneratePutHFileAndBulkLoadToHBase.class);103 job.setMapperClass(WordCountMapper.class);104 job.setReducerClass(WordCountRed

注意事项

本文(如何使用Hadoop分析数据_光环大数据培训)为本站会员(gua****an)主动上传,金锄头文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即阅读金锄头文库的“版权提示”【网址:https://www.jinchutou.com/h-59.html】,按提示上传提交保证函及证明材料,经审查核实后我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。

分享当前资源【如何使用Hadoop分析数据_光环大数据培训】到朋友圈,您即可以免费下载此资源!
微信扫一扫分享到朋友圈
二维码
操作提示:任选上面一个二维码,打开微信,点击“发现”使用“扫一扫”,即可将选择的网页分享到朋友圈
您可能感兴趣的------------------------------------------------------------------------------------------------------



关于金锄头网 - 版权申诉 - 免责声明 - 诚邀英才 - 联系我们
手机版 | 川公网安备 51140202000112号 | 经营许可证(蜀ICP备13022795号)
©2008-2016 by Sichuan Goldhoe Inc. All Rights Reserved.