如题回复内容:
hadoop map阶段所做的事 类比于 python maphadoop reduce阶段所做的事 类比于 python groupby但只是类比,hadoop map阶段和reduce阶段有更具体细节的不同步骤,两者牛头无法对上马嘴。
mapreduce是一种google第一次提出的,在并行集群里对大数据进行计算的的一种编程模型。它包括map与reduce。map与reduce来源于函数式编程的两个方法。hadoop的mapreduce是对google mapreduce的一个开源实现。它提供map与reduce两个接口。以下是python官方文档对map与reduce的定义。map(function, iterable): apply function to every item of iterable and return a list of the results. 这个方法会把可迭代函数里的每一个元素应用一次方程,并将结果以一个数组返回。实例:
def add_one(x):
return x+1
a = [1,2,3,4]
map(add_one,a) // 此处将返回 [2,3,4,5]
http://blog.damotou.info/2015/06/29/%e5%9b%be%e8%a7%a3spark%e7%9a%84rdd%e7%bc%96%e7%a8%8b%e6%a8%a1%e5%9e%8b/看我这篇博客吧
我去,这差得十万八千里。。
您好 我一名学生,现在的研究方向也是关于数据挖掘的,今天有幸看到您的文章里有关于 用python来实现mapreduce 程序,想请教一下您仅用python来写实现mapreduce程序够吗 因为我学得是python ,但是了解到大部分的hadoop程序及框架都是用java来写的,所以在这里想问一下您是不是还需要继续学习java来开发mapreduce 程序?希望得到您的指导