中企动力 > 头条 > 大数据分析方案

网站性能检测评分

注:本网站页面html检测工具扫描网站中存在的基本问题,仅供参考。

大数据分析方案

最常用的4种大数据分析方法,你知道吗? 流量视频课程

img

牵绊

关注

大数据分析之描述型分析:发生了什么——这是最常见的分析方法。在业务中,这种方法向大数据分析师提供了重要指标和业务的衡量方法。例如每月的营收和损失账单。大数据分析师可以通过这些账单,获取大量的客户大数据。了解客户的地理信息,就是“描述型分析”方法之一。利用可视化工具,能够有效的增强描述型分析所提供的信息。

大数据分析之诊断型分析:为什么会发生——描述性大数据分析的下一步就是诊断型大数据分析。通过评估描述型大数据,诊断分析工具能够让大数据分析师深入地分析大数据,钻取到大数据的核心。良好设计的数据分析能够整合:按照时间序列进行大数据读入、特征过滤和钻取大数据等功能,以便更好的分析大数据。

大数据分析之预测型分析:可能发生什么——预测型分析主要用于进行预测。事件未来发生的可能性、预测一个可量化的值,或者是预估事情发生的时间点,这些都可以通过预测模型来完成。预测模型通常会使用各种可变大数据来实现预测。大数据成员的多样化与预测结果密切相关。在充满不确定性的环境下,预测能够帮助做出更好的决定。预测模型也是很多领域正在使用的重要方法。

大数据分析之指令型分析:需要做什么——大数据价值和复杂度分析的下一步就是指令型分析。指令模型基于对“发生了什么”、“为什么会发生”和“可能发生什么”的分析,来帮助用户决定应该采取什么措施。通常情况下,指令型分析不是单独使用的方法,而是前面的所有方法都完成之后,最后需要完成的分析方法。例如交通规划分析考量了每条路线的距离、每条线路的行驶速度、以及目前的交通管制等方面因素,来帮助选择最好的回家路线。

大数据挖掘方案 公司视频课程

img

Cui

关注

概述

spark是实时大数据分析、挖掘的流行方案,hadoop是大数据存储和运行的流行方案,本demo主要表述用spark + hadoop如何做大数据挖掘的通用方案,包含了,包括了环境资源整合、spark和hadoop的整合,各部分模块的关系,并给出了可用的java 代码框架,和可运行的demo代码。

详细

代码下载:http://demodashi/demo/10153.html

一、设计背景

为了满足大数据实时挖掘的需要

二、设计要求:

1、数据存储

A、大数据存储标准

系统需要满足以T基本的数据存储量设计标准。

B、规模可伸缩

平台的规模可以平衡伸缩扩展

C、数据可以快速运算

数据必须是支持快速运算得出结果的

三、架构方案

1、架构图

大数据挖掘、分析的的通用流程如下:

1、先是数据采集,这里我们叫做原始数据

2、采集完之后,数据经过数据清洗模块,进行清洗

3、清洗完之后,会被数据挖掘模块进行运算

4、数据挖掘模块运行的结果,会生成相关的可用模型

5、这些模型对象往往被保存到模型服务器里面

6、然后业务服务器就从模型服务器里面获取相关的模型进行运算。

2、数据清洗模块

2.1 用途

原始数据,都是写杂乱的数据,没法进行数据分析,和数据挖掘,都需要经过清洗才能变成可用的数据,数据清洗,一般包含两部分,第一部分,数据纯提取,就是把一些没用的信息属性,去掉,只留些和我们要分析和挖掘属性相关的属性,第二部分是建一般的属性信息转换为可供运算的数学模型信息,转行为数学模型才能进行挖掘等运算。

2.2 结构图

2.3实现方式

数据采集,一般采用kafka才做数据采集,采集完的数据会保存到数据中心里面,这个数据中心,在我这这里也叫原始数据源,因为数量可能几大,所以可以采用Hadoop dfs来存放。

有了原始数据后,数据清洗模块被业务服务器触发运行,它去原始数据源那边获取原始数据,然后进行去杂过滤,和转数字化处理,然后在把这些处理结果存放到数据服务器里面。

技术落地如下:

数据采集,使用kafka、Flume

原始数据源,使用hadoop dfs,或者hadoop hive等都可以

数据服务器,使用 hadoop dfs(parquet) 或者hadoop hive

数据清洗模块,使用spark

2.4扩展

容量扩展:

采用hadoop 系统来做大数据存储,方便横向扩展

计算能力扩展:

使用spark来做计算能力的横向扩展

3、数据挖掘模块

3.1 用途

数据挖掘模块,是对清洗后的数据,运用数学算法,对其进行数据运行,并把运算后的结果模型保存起来,供业务程序的调用。

3.2 结构图

3.3实现方式

数据挖掘模块是一个数据挖掘的程序集合,这些挖掘程序需要放到算法运行服务器里面运行。

技术落地如下:

数据服务器,使用 hadoop dfs(parquet) 或者hadoop hive

数据挖掘模块,使用spark

3.4扩展

容量扩展:

采用hadoop 系统来做大数据存储,方便横向扩展

计算能力扩展:

使用spark来做计算能力的横向扩展

4、算法运行服务器

采集层 主要可以使用Flume, Kafka两种技术

4.1 用途:

在spark中要运算某些算,一般的做法是,把算法上传到spark服务器中,然后通过脚本来触发运行,这样的方式在我们的项目应用中,是可行的,但这样的方式是封闭式的,不能让第三方系统触发运行,基本上都能够通过手动触发运行,或者给算法加上一个定时器外壳,定时去执行XX算法,基于这的特性不方便和我们的业务系统集成。

所以提出了算法运行服务器的需求,这个主要解决了,算法可随时被业务系统触发,也可以向业务系统返回执行结果等。

4.2 结构图:

4.3实现方式

数据挖掘模块是一个数据挖掘的程序集合,这些挖掘程序需要放到算法运行服务器里面运行。

技术落地如下:

4.4 运行说明:

算法运行服务器启动时,会启动一个socket监听器,业务服务器要调用某个算法时,会往这个监听器发送一个调用请求,然后监听器接收到调用请求后,调用具体的算法(可能是数据清洗的算法,也可以是数据挖掘等的算法)运算,然后算法运行完毕后,会将运行的结果,返回给业务调用端。

5、数据服务器

5.1 用途:

存放原始数据,和清洗后的数据。

5.2 结构图:

5.3 技术方式:

6、模型服务器

6.1 用途:

用于存放挖掘运行后的模型,这个模型其实就是一个可用的java对象,这个java对象,会被业务端读取,然后加载后,用于业务运行。

6.2 结构图:

6.2 实现方式:

四、架构使用

1、环境搭建

1.1 Hadoop安装、配置

A、下载、copy到Linux下、解压等,以及将hadoop下的bin和sbin目录都添加到系统path 等这些略过。

添加过程如下:

vi /etc/profile

然后文件末端这样:

配置这样的好处就是,以后执行一些hadoop的命令,不用直接到XXbin目录下。

注意编辑后,需要执行 source /etc/profile 后才生效

B、主要配置三个文件

core-site.xml 文件,配置如下:

注意:这里要配置一个临时目录,一定要注意名称是hadoop.tmp.dir 以及值路径是这样写:file:/hadoop-data/dfs/tmp (因为每个hadoop的属性和值得表示方法不一样)

hdfs-site.xml文件,配置如下:

C、配置完上面的路径后,先用命令格式化一下文件系统:

hdfs namenode -format

这个作用就是建立一个临时temp目录,以及相关的临时库。

注意:每次在修改了和路径有关的配置后,都必须执行一次

D、设置免密码登录

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

cat ~/.ssh/id_dsa.pub >>~/.ssh/authorized_keys

E、到shin目录下,执行启动命令, start-dfs.sh 即可(关闭则是 stop-dfs.sh)

F、有问题记得查看log文件。

G、请后,可以用命令查看相关端口:

H、可以打开网页看看

XXX:50070 即可

1.2 spark安装、配置

2、程序开发与实现

2.1 项目搭建

以test-salesRunInspark-project项目为基础,或者重命名该项目即可,大数据挖掘的项目搭建。

2.2 项目开发

程序开发主要涉及到:清洗算法的开发,和挖掘算法的开发,其他部分不需要。

然后清洗算法、挖掘算法的开发,需要遵从2.1算法编写 规则。

需要开发的部分为红色标识的部分:

2.3 算法编写规则

算法(包含数据清洗算法、挖掘算法等)都是只需要遵从以下规则即可:

必须规则:

定义一个普通class,然后为这个类加入精通的job方法即可

可选规则:

也可以定义一个main方法,这个主要作为单独运行的入口(即不是通过运算服务器调用)

2.4 api使用

Api的使用主要涉及到以下两个方面:

1、在spark中如何hadoop集成通讯,如何读取hadoop中的数据和将结果保存到hadoop中

2、清洗的算法如何实现、挖掘的算法如何编写

具体参考项目代码中的:

数据清洗和转换算法参考:UserJsonLog2Parquet.java

数据挖掘算法参考:UserClassModel.java

3、程序发布

数据挖掘项目以java项目方式存在,程序发布只需要将程序导出为jar包,当然换个jar包,也把所依赖的jar包也打包进去,然后把这个jar包,一起拷贝到 spark环境下面即可。

步骤如下:

代码下载:http://demodashi/demo/10153.html

注:本文著作权归作者,由demo大师发表,拒绝转载,转载需要作者授权

最常用的4种大数据分析方法,你知道吗? 推广视频课程

img

昌醉蓝

关注

大数据分析之描述型分析:发生了什么——这是最常见的分析方法。在业务中,这种方法向大数据分析师提供了重要指标和业务的衡量方法。例如每月的营收和损失账单。大数据分析师可以通过这些账单,获取大量的客户大数据。了解客户的地理信息,就是“描述型分析”方法之一。利用可视化工具,能够有效的增强描述型分析所提供的信息。

大数据分析之诊断型分析:为什么会发生——描述性大数据分析的下一步就是诊断型大数据分析。通过评估描述型大数据,诊断分析工具能够让大数据分析师深入地分析大数据,钻取到大数据的核心。良好设计的数据分析能够整合:按照时间序列进行大数据读入、特征过滤和钻取大数据等功能,以便更好的分析大数据。

大数据分析之预测型分析:可能发生什么——预测型分析主要用于进行预测。事件未来发生的可能性、预测一个可量化的值,或者是预估事情发生的时间点,这些都可以通过预测模型来完成。预测模型通常会使用各种可变大数据来实现预测。大数据成员的多样化与预测结果密切相关。在充满不确定性的环境下,预测能够帮助做出更好的决定。预测模型也是很多领域正在使用的重要方法。

大数据分析之指令型分析:需要做什么——大数据价值和复杂度分析的下一步就是指令型分析。指令模型基于对“发生了什么”、“为什么会发生”和“可能发生什么”的分析,来帮助用户决定应该采取什么措施。通常情况下,指令型分析不是单独使用的方法,而是前面的所有方法都完成之后,最后需要完成的分析方法。例如交通规划分析考量了每条路线的距离、每条线路的行驶速度、以及目前的交通管制等方面因素,来帮助选择最好的回家路线。

img

在线咨询

建站在线咨询

img

微信咨询

扫一扫添加
动力姐姐微信

img
img

TOP