发表评论取消回复
相关阅读
相关 疯狂Hadoop之MapReduce入门(五)
MapReduce计算模型框架 MapReduce计算模型介绍 Hadoop MapReduce设计构思 MapReduce是一个分布式运算程序的编程框架,核
相关 hadoop源码分析(MapReduce)
原文地址:http://wwangcg.iteye.com/category/171858【good 也有其他方面的内容】 [hadoop 源码分析(一) jobCli
相关 Hadoop WordCount源码解读
MapReduce编程模型 MapReduce采用“分而治之”的思想。将HDFS上海量数据切分成为若干块,将每块的数据分给集群上的节点进行计算。然后通过整合各节点的中间结果,
相关 hadoop中典型Writable类详解
Hadoop将很多Writable类归入org.apache.hadoop.io包中,在这些类中,比较重要的有Java基本类、Text、Writable集合、ObjectWri
相关 Object类源码解读
一、源码解读 package java.lang; //所有类的父类或者祖宗类 public class Object { pri
相关 [Hadoop源码解读](二)MapReduce篇之Mapper类
前面在讲InputFormat的时候,讲到了Mapper类是如何利用RecordReader来读取InputSplit中的K-V对的。 这一篇里,开始对Mapper.cl
相关 [Hadoop源码解读](三)MapReduce篇之Job类
下面,我们只涉及MapReduce 1,而不涉及YARN。 ![Center][] 当我们在写MapReduce程序的时候,通常,在main函数里,我们会像下面这样做
相关 [Hadoop源码解读](四)MapReduce篇之Counter相关类
![Center][] 当我们定义一个Counter时,我们首先要定义一枚举类型: public static enum MY_COUNTER{
相关 [Hadoop源码解读](五)MapReduce篇之Writable相关类
前面讲了InputFormat,就顺便讲一下Writable的东西吧,本来应当是放在HDFS中的。 当要在进程间传递对象或持久化对象的时候,就需要序列化对象成字节流,反之
相关 [Hadoop源码解读](一)MapReduce篇之InputFormat
平时我们写MapReduce程序的时候,在设置输入格式的时候,总会调用形如job.setInputFormatClass(KeyValueTextInputFormat.cla
还没有评论,来说两句吧...