数据采集
数据采集的意义在于真正了解数据的原始相貌,包含数据发生的时间、条件、格局、内容、长度、约束条件等。这会帮助大数据分析师更有针对性的控制数据生产和采集过程,避免因为违反数据采集规矩导致的数据问题;一起,对数据采集逻辑的知道增加了数据分析师对数据的了解程度,尤其是数据中的反常变化。
数据存取
数据存取分为存储和提取两个部分。数据存储,大数据分析师需求了解数据存储内部的作业机制和流程,最核心在于,知道原始数据基础上需求经过哪些加工处理,最终得到了怎样的数据。
数据提取
大数据分析师首先需求具有数据提取才能。第一层是从单张数据库中按条件提取数据的才能;第二层是把握跨库表提取数据的才能;第三层是优化SQL句子,经过优化嵌套、挑选的逻辑层次和遍历次数等,减少个人时间糟蹋和系统资源消耗。
数据发掘
在这个阶段,大数据分析师要把握,一是数据发掘、统计学、数学基本原理和知识;二是熟练运用一门数据发掘东西,Python或R都是可选项;三是需求了解常用的数据发掘算法以及每种算法的使用场景和优劣差异点。
数据分析
数据分析相关于数据发掘而言,更多的是偏向业务使用和解读,当数据发掘算法得出结论后,怎么解说算法在结果、可信度、明显程度等方面关于业务的实践意义。
数据可视化
这部分,大数据分析师除遵循各公司统一标准原则外,具体形式还要根据实践需求和场景而定。数据可视化永久辅助于数据内容,有价值的数据报告才是关键。
关于大数据分析师主要工作做什么,青藤小编就和您分享到这里了。如果您对大数据工程有浓厚的兴趣,希望这篇文章可以为您提供帮助。如果您还想了解更多关于数据分析师、大数据工程师的技巧及素材等内容,可以点击本站的其他文章进行学习。
平均起薪三十万的数据分析师究竟在做什么?北美的工作经验分享
数据分析师需要学习统计学、编程能力、数据库、数据分析方法、数据分析工具等内容,还要熟练使用Excel,至少熟悉并精通一种数据挖掘工具和语言,具备撰写报告的能力,还要具备扎实的SQL基础。
1、数学知识
数学知识是数据分析师的基础知识。对于初级数据分析师,了解一些描述统计相关的基础内容,有一定的公式计算能力即可,了解常用统计模型算法则是加分。
1 写 SQL (很多入职一两年的大数据工程师主要的工作就是写 SQL )
2 为集群搭大数据环境(一般公司招大数据工程师环境都已经搭好了,公司内部会有现成的大数据平台,但我这边会私下搞一套测试环境,毕竟公司内部的大数据系统权限限制很多,严重影响开发效率)
3 维护大数据平台(这个应该是每个大数据工程师都做过的工作,或多或少会承担“运维”的工作)
4 数据迁移(有部分公司需要把数据从传统的数据库 Oracle、MySQL 等数据迁移到大数据集群中,这个是比较繁琐的工作,吃力不讨好)
5 应用迁移(有部分公司需要把应用从传统的数据库 Oracle、MySQL 等数据库的存储过程程序或者SQL脚本迁移到大数据平台上,这个过程也是非常繁琐的工作,无聊,高度重复且麻烦,吃力不讨好)
6 数据采集(采集日志数据、文件数据、接口数据,这个涉及到各种格式的转换,一般用得比较多的是 Flume 和 Logstash)
7 数据处理
7.1 离线数据处理(这个一般就是写写 SQL 然后扔到 Hive 中跑,其实和第一点有点重复了)
7.2 实时数据处理(这个涉及到消息队列,Kafka,Spark,Flink 这些,组件,一般就是 Flume 采集到数据发给 Kafka 然后 Spark 消费 Kafka 的数据进行处理)
8 数据可视化(这个我司是用 Spring Boot 连接后台数据与前端,前端用自己魔改的 echarts)
9 大数据平台开发(偏Java方向的,大概就是把开源的组件整合起来整成一个可用的大数据平台这样,常见的是各种难用的 PaaS 平台)
10 数据中台开发(中台需要支持接入各种数据源,把各种数据源清洗转换为可用的数据,然后再基于原始数据搭建起宽表层,一般为了节省开发成本和服务器资源,都是基于宽表层查询出业务数据)
11 搭建数据仓库(这里的数据仓库的搭建不是指 Hive ,Hive 是搭建数仓的工具,数仓搭建一般会分为三层 ODS、DW、DM 层,其中DW是最重要的,它又可以分为DWD,DWM,DWS,这个层级只是逻辑上的概念,类似于把表名按照层级区分开来的操作,分层的目的是防止开发数据应用的时候直接访问底层数据,可以减少资源,注意,减少资源开销是减少 内存 和 CPU 的开销,分层后磁盘占用会大大增加,磁盘不值钱所以没什么关系,分层可以使数据表的逻辑更加清晰,方便进一步的开发操作,如果分层没有做好会导致逻辑混乱,新来的员工难以接手业务,提高公司的运营成本,还有这个建数仓也分为建离线和实时的)
总之就是离不开写 SQL ...