
从08年的云计算到现在的大数据,还只会搭建hadoop环境的小朋友,我就不说什么了。没有接触过hadoop的同学,也不必迷茫。
现在各大公司的要求,普遍需要2-3年的经验,不过只要你技术过硬,这也都是浮云。如果你只会搭建环境,我想机会也不大吧?
大数据是一个概念,hadoop是来实现这个概念的工具、技术,它们之间并没有绝对的联系。Hadoop作为一代分布式系统的基础,特别是第二代Hadoop YARN推出以后,这个位置更加牢固。目前在市面上并没有可以与之相匹敌的系统存在。
怎么才能学好Hadoop,进入大数据的世界,这里给几点建议:
1.首先,不管你之前有没有接触过hadoop,或者你在某个方向特别牛逼,你都要有空杯心态,这才是学习的根据。
2. 你要有编程基础,比如Java,C,python,linux,不一定要在某个方向多么牛逼,有这些基础学起来就会很快上手。
3. 详细研究,现在大型网站包括Sina,腾讯网(门户),Weibo(微博),天猫,京东(电商)的架构与实现,先从自己的角度去理解,然后去跟实际情况做比对,提升自己对数据和技术的敏感程度。
4.熟悉,理解,并运用Hadoop对于你以后在大型计算机公司任职非常重要(阿里,腾讯,百度内部的系统或多或少都是借鉴于Hadoop的)。
5. 科班的同学,在学校的以基础为根基,在公司的以业务为导向,这样的技术才不盲目,这样的技术才脚踏实地。
6.不过,Hadoop说到底只是一项分布式系统的工具,学习的本质是:理解分布式系统设计中的原则以及方法,例如负载均衡,故障恢复,并发程序设计,并发数据结构,等等。理解这些设计原理,并走入底层读懂每一行Hadoop的源码更加的重要
对很多人来说,技术都不是一生的职业导向,那么,提升自己的眼界,站在更高的角度思考问题就显得尤为重要,从自己,到团队,公司,再到整个业界,眼界宽广了,技术也就是你的左膀右臂。
hadoop只是云计算的一隅,任何东西学的深入了都会发生质变。
免费送大家一套hadoop课程
授课老师是百度 hadoop 核心架构师,内容包括hadoop入门、hadoop生态架构以及大型hadoop商业实战案例。 讲的很细致, MapReduce 就讲了 15 个小时。 学完后可以胜任 hadoop 的开发工作,很多人学的这个课程找到的工作。 (包括指导书、练习代码、和用到的软件都打包了) 加微信ganshiyu1026,备注OSchina。即可免费领取
如果你对hadoop感兴趣可以访问我的博客: https://my.oschina.net/ijj/blog