首页新闻动态正文

HBase 中加盐(Salting)之后的表如何读取:MapR...【黑马大数据培训】

更新时间:2022年12月21日 18时25分28秒 来源:黑马程序员论坛

黑马中级程序员课程

HBase 中加盐(Salting)之后的表如何读取:MapReduce 篇
      前两篇文章,《HBase 中加盐(Salting)之后的表如何读取:协处理器篇》 和 《HBase 中加盐(Salting)之后的表如何读取:Spark 篇》 分别介绍了两种方法读取加盐之后的 HBase 表。本文将介绍如何在 MapReduce 读取加盐之后的表。
      在 MapReduce 中也可以使用 《HBase 中加盐(Salting)之后的表如何读取:Spark 篇》 文章里面的 SaltRangeTableInputFormat 。剩余的就要求我们编写一个 Mapper,来解析查询出来的数据,代码如下:
[Java] 纯文本查看 复制代码
package com.iteblog.data.hadoop; import org.apache.hadoop.hbase.Cell; import org.apache.hadoop.hbase.client.Result; import org.apache.hadoop.hbase.io.ImmutableBytesWritable; import org.apache.hadoop.hbase.mapreduce.TableMapper; import org.apache.hadoop.hbase.util.Bytes; import org.apache.hadoop.io.Text; import java.io.IOException; import java.util.List; import java.util.StringJoiner; public class HBaseMapper extends TableMapper<Text, Text> { @Override protected void map(ImmutableBytesWritable key, Result value, Context context) throws IOException, InterruptedException { String rowKey = Bytes.toString(value.getRow()); List<Cell> cells = value.listCells(); StringJoiner stringJoiner = new StringJoiner("\n"); for (Cell cell : cells) { String family = Bytes.toString(cell.getFamilyArray(), cell.getFamilyOffset(), cell.getFamilyLength()); String qualifier = Bytes.toString(cell.getQualifierArray(), cell.getQualifierOffset(), cell.getQualifierLength()); String v = Bytes.toString(cell.getValueArray(), cell.getValueOffset(), cell.getValueLength()); stringJoiner.add("column=" + family + ":" + qualifier + ", timestamp=" + cell.getTimestamp() + ", value=" + v) ; } context.write(new Text(rowKey), new Text(stringJoiner.toString())); } }
      这个 Mapper 程序将查询出来的数据进行解析,其代码和 《HBase 中加盐(Salting)之后的表如何读取:协处理器篇》 里面的协处理器服务端的数据解析很类似。因为表有多个列,为了显示方便,我这里使用 \n 分隔符来分割每列的数据。
      在这个场景下,HbaseMapper 类已经将数据解析好了,所以我们不需要编写 Reducer,我们直接把数据存储到 HDFS 上,所以我们的驱动程序实现就很简单了,如下:
[Java] 纯文本查看 复制代码
package com.iteblog.data.hadoop; import com.iteblog.data.spark.SaltRangeTableInputFormat; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.hbase.HBaseConfiguration; import org.apache.hadoop.hbase.client.Scan; import org.apache.hadoop.hbase.mapreduce.TableInputFormat; import org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; import org.apache.hadoop.mapreduce.lib.output.LazyOutputFormat; import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat; import java.io.IOException; public class Hadoop { public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException { Configuration conf = HBaseConfiguration.create(); conf.set("hbase.zookeeper.quorum", "https://www.iteblog.com:2181"); conf.set(TableInputFormat.SCAN_ROW_START, "1000"); conf.set(TableInputFormat.SCAN_ROW_STOP, "1001"); Job job = Job.getInstance(conf); job.setJobName("iteblog_HBase"); job.setJarByClass(Hadoop.class); job.setNumReduceTasks(1); TableMapReduceUtil.initTableMapperJob("iteblog", new Scan(), HBaseMapper.class, Text.class, Text.class, job, true, SaltRangeTableInputFormat.class); FileOutputFormat.setOutputPath(job, new Path("hdfs://www.iteblog.com:8020/result/")); LazyOutputFormat.setOutputFormatClass(job, TextOutputFormat.class); int result = job.waitForCompletion(true) ? 0 : 1; } }
      最后我们编译打包上面的类,然后使用下面命令运行这个 MapReduce 程序
[Shell] 纯文本查看 复制代码
hadoop jar ~/hbase-1.0-SNAPSHOT.jar com.iteblog.data.hadoop.Hadoop
我们可以看到
程序运行完之后,会在 hdfs://www.iteblog.com:8020/result/ 目录下生产最终的结果,如下:
[Shell] 纯文本查看 复制代码
[root@master hadoop-2.7.7]# hadoop fs -ls /result Found 2 items -rw-r--r-- 1 iteblog supergroup 0 2019-02-02 22:54 /result/_SUCCESS -rw-r--r-- 1 iteblog supergroup 14442 2019-02-02 22:54 /result/part-r-00000 A-1000-1550572395399 column=f:age, timestamp=1549091990253, value=54 column=f:uuid, timestamp=1549091990253, value=e9b10a9f-1218-43fd-bd01 A-1000-1550572413799 column=f:age, timestamp=1549092008575, value=4 column=f:uuid, timestamp=1549092008575, value=181aa91e-5f1d-454c-959c A-1000-1550572414761 column=f:age, timestamp=1549092009531, value=33 column=f:uuid, timestamp=1549092009531, value=19aad8d3-621a-473c-8f9f B-1000-1550572388491 column=f:age, timestamp=1549091983276, value=1 column=f:uuid, timestamp=1549091983276, value=cf720efe-2ad2-48d6-81b8 B-1000-1550572392922 column=f:age, timestamp=1549091987701, value=7 column=f:uuid, timestamp=1549091987701, value=8a047118-e130-48cb-adfe B-1000-1550572424681 column=f:age, timestamp=1549092019451, value=57 column=f:uuid, timestamp=1549092019451, value=4217ab00-7cb9-4a81-bf29 C-1000-1550572390493 column=f:age, timestamp=1549091985284, value=89 column=f:uuid, timestamp=1549091985284, value=414d7df1-1925-4aaa-8298
转载自过往记忆(https://www.iteblog.com/)

推荐了解热门学科

java培训 Python人工智能 Web前端培训 PHP培训
区块链培训 影视制作培训 C++培训 产品经理培训
UI设计培训 新媒体培训 软件测试培训 Linux运维
大数据培训 智能机器人软件开发




传智播客是一家致力于培养高素质软件开发人才的科技公司“黑马程序员”是传智播客旗下高端IT教育品牌。自“黑马程序员”成立以来,教学研发团队一直致力于打造精品课程资源,不断在产、学、研3个层面创新自己的执教理念与教学方针,并集中“黑马程序员”的优势力量,针对性地出版了计算机系列教材50多册,制作教学视频数+套,发表各类技术文章数百篇。

传智播客从未停止思考

传智播客副总裁毕向东在2019IT培训行业变革大会提到,“传智播客意识到企业的用人需求已经从初级程序员升级到中高级程序员,具备多领域、多行业项目经验的人才成为企业用人的首选。”

中级程序员和初级程序员的差别在哪里?
项目经验。毕向东表示,“中级程序员和初级程序员最大的差别在于中级程序员比初级程序员多了三四年的工作经验,从而多出了更多的项目经验。“为此,传智播客研究院引进曾在知名IT企业如阿里、IBM就职的高级技术专家,集中研发面向中高级程序员的课程,用以满足企业用人需求,尽快补全IT行业所需的人才缺口。

何为中高级程序员课程?

传智播客进行了定义。中高级程序员课程,是在当前主流的初级程序员课程的基础上,增加多领域多行业的含金量项目,从技术的广度和深度上进行拓展“我们希望用5年的时间,打造上百个高含金量的项目,覆盖主流的32个行业。”传智播客课程研发总监于洋表示。




黑马程序员热门视频教程

Python入门教程完整版(懂中文就能学会) 零起点打开Java世界的大门
C++| 匠心之作 从0到1入门学编程 PHP|零基础入门开发者编程核心技术
Web前端入门教程_Web前端html+css+JavaScript 软件测试入门到精通


分享到:
在线咨询 我要报名
和我们在线交谈!