通过在千锋郑州大数据培训班一个多月的学习,我对于大数据的开发、Java编程基础有了更多的认识,感觉非常不错。目前已经进入第二阶段的学习,个人感觉还可以跟的上,主要学习了分别在Linux和Windows系统上安装Java、MySQL、Hadoop等软件,学习了利用命令行来操作Linux系统,以及Java和Hadoop在Linux上的环境变量配置。通过老师的讲解,我了解了Hadoop的生态圈,并且利用Hadoop搭建分布式文件系统HDFS、学习yarn的资源调度平台,还学习了MapReduce的底层执行原理。接下来我就给大家分享以下我的大数据学习方法:
1、刚接触到Linux系统时,你会发现很不习惯,没有图形界面,这与Windows系统有很大的差别。要真正学好Linux就需要忘记Windows的思维方式,思想性的转变比暂时性的技术提高更有用。在进行操作时,肯定会遇到很多问题,这时就要学会运用文档,能在很大程度上解决我们所遇到的困难。
2、对Linux有一定的了解后,我们就进入了后面的Hadoop的学习。我们学习了如何搭建HDFS和MapReduce应用程序,在这个过程中,需要配置很多文件,需要仔细的完成,一不小心就会出现错误,发现错误后可以通过日志文件查看错误提示信息。所以,如何利用好日志文件也是我们的一门必修课。
3、你一定要对大数据的概念所了解。比如大数据主要侧重于数据的处理,流数据、批量数据、图计算等。在数据处理过程中,批量的数据处理的代表工具是Hadoop,流数据的数据处理代表的是Storm技术;无论是Hadoop还是Spark的架构原理都侧重于分为三部分:资源的管理、服务计算状态的监控、服务的运行。把数据处理、数据处理监控和资源管理分开,可以更容易地进行分布式系统的扩展。
这一路走来,我从一个编程小白成长为编程菜鸟,虽然比不上其他的大神,但是真的感觉受益匪浅。感谢千锋郑州大数据培训给我第二次学习的机会,感谢班主任老师和授课老师的教导和帮助,在接下来的学习中,我会更加努力地去学习,去钻研每一个知识点。
相关文章
了解千锋动态
关注千锋教育服务号
扫一扫快速进入
千锋移动端页面
扫码匿名提建议
直达CEO信箱