发表评论取消回复
相关阅读
相关 编译Hadoop源码过程
编译Hadoop源码 原因是从Apache官方下载的Hadoop源码都是32位的,而目前大多数电脑都是64位的。 环境准备(最好是干净的环境,且要可以联通外网): !
相关 hadoop源码分析(MapReduce)
原文地址:http://wwangcg.iteye.com/category/171858【good 也有其他方面的内容】 [hadoop 源码分析(一) jobCli
相关 Hadoop WordCount源码解读
MapReduce编程模型 MapReduce采用“分而治之”的思想。将HDFS上海量数据切分成为若干块,将每块的数据分给集群上的节点进行计算。然后通过整合各节点的中间结果,
相关 [Hadoop] Hadoop2.8.1源码编译
系统环境: 操作系统:CentOS-7.2 Java版本: jdk-8u45 Maven版本: Maven-3.3.9 Hadoop版本: Hadoop-2.
相关 hadoop源码TaskAttemptID TaskTrackerAction JobTracker,FileOutputCommitter相关
1,TaskAttemptID代表task attempt,一个task attempt就是一个map/reduce task 的一个实例taskid,而每个TaskAttem
相关 hadoop源码之JobQueueTaskScheduler
class JobQueueTaskScheduler extends TaskScheduler ---------FIFO 1,start()方法 public syn
相关 [hadoop] hadoop二次开发 阅读源码
学习目标 1. hadoopRPC实现原理 2. namenode工作原理 3. datanade工作原理 RPC: 1.客户端调用服务端的方法, 2.服
相关 七、Hadoop源码编译
在上篇博客([《六、HDFS中的NameNode和SecondaryNameNode》][HDFS_NameNode_SecondaryNameNode])的Ch
相关 [Hadoop源码解读](四)MapReduce篇之Counter相关类
![Center][] 当我们定义一个Counter时,我们首先要定义一枚举类型: public static enum MY_COUNTER{
相关 [Hadoop源码解读](五)MapReduce篇之Writable相关类
前面讲了InputFormat,就顺便讲一下Writable的东西吧,本来应当是放在HDFS中的。 当要在进程间传递对象或持久化对象的时候,就需要序列化对象成字节流,反之
还没有评论,来说两句吧...