中企动力 > 头条 > 大数据分析系统

网站性能检测评分

注:本网站页面html检测工具扫描网站中存在的基本问题,仅供参考。

大数据分析系统

大数据分析系统Hadoop的13个开源工具 营销视频课程

img

阿鹏

关注

Hadoop是由Apache基金会开发的一个大数据分布式系统基础架构,最早版本是2003年原Yahoo!DougCutting根据Google发布的学术论文研究而来。

用户可以在不了解分布式底层细节的情况下,轻松地在Hadoop上开发和运行处理海量数据的应用程序。低成本、高可靠、高扩展、高有效、高容错等特性让Hadoop成为最流行的大数据分析系统,然而其赖以生存的HDFS和MapReduce组件却让其一度陷入困境——批处理的工作方式让其只适用于离线数据处理,在要求实时性的场景下毫无用武之地。

因此,各种基于Hadoop的工具应运而生,本次为大家分享Hadoop生态系统中最常用的13个开源工具,其中包括资源调度、流计算及各种业务针对应用场景。首先,我们看资源管理相关。

资源统一管理/调度系统

在公司和机构中,服务器往往会因为业务逻辑被拆分为多个集群,基于数据密集型的处理框架也是不断涌现,比如支持离线处理的MapReduce、支持在线处理的Storm及Impala、支持迭代计算的Spark及流处理框架S4,它们诞生于不同的实验室,并各有所长。

为了减少管理成本,提升资源的利用率,一个共同的想法产生——让这些框架运行在同一个集群上;因此,就有了当下众多的资源统一管理/调度系统,本次为大家重点介绍ApacheMesos及YARN:

1、ApacheMesos

代码托管地址:ApacheSVN

Mesos提供了高效、跨分布式应用程序和框架的资源隔离和共享,支持Hadoop、MPI、Hypertable、Spark等。

Mesos是Apache孵化器中的一个开源项目,使用ZooKeeper实现容错复制,使用LinuxContainers来隔离任务,支持多种资源计划分配(内存和CPU)。提供Java、Python和C++APIs来开发新的并行应用程序,提供基于Web的用户界面来提查看集群状态。

2、HadoopYARN

代码托管地址:ApacheSVN

YARN又被称为MapReduce2.0,借鉴Mesos,YARN提出了资源隔离解决方案Container,但是目前尚未成熟,仅仅提供Java虚拟机内存的隔离。

对比MapReduce1.x,YARN架构在客户端上并未做太大的改变,在调用API及接口上还保持大部分的兼容,然而在YARN中,开发人员使用ResourceManager、ApplicationMaster与NodeManager代替了原框架中核心的JobTracker和TaskTracker。其中ResourceManager是一个中心的服务,负责调度、启动每一个Job所属的ApplicationMaster,另外还监控ApplicationMaster的存在情况;NodeManager负责Container状态的维护,并向RM保持心跳。ApplicationMaster负责一个Job生命周期内的所有工作,类似老的框架中JobTracker。

Hadoop上的实时解决方案

前面我们有说过,在互联网公司中基于业务逻辑需求,企业往往会采用多种计算框架,比如从事搜索业务的公司:网页索引建立用MapReduce,自然语言处理用Spark等。

3、ClouderaImpala

代码托管地址:GitHub

Impala是由Cloudera开发,一个开源的MassivelyParallelProcessing(MPP)查询引擎。与Hive相同的元数据、SQL语法、ODBC驱动程序和用户接口(HueBeeswax),可以直接在HDFS或HBase上提供快速、交互式SQL查询。Impala是在Dremel的启发下开发的,第一个版本发布于2012年末。

Impala不再使用缓慢的Hive+MapReduce批处理,而是通过与商用并行关系数据库中类似的分布式查询引擎(由QueryPlanner、QueryCoordinator和QueryExecEngine三部分组成),可以直接从HDFS或者HBase中用SELECT、JOIN和统计函数查询数据,从而大大降低了延迟。

4、Spark

代码托管地址:Apache

Spark是个开源的数据分析集群计算框架,最初由加州大学伯克利分校AMPLab开发,建立于HDFS之上。Spark与Hadoop一样,用于构建大规模、低延时的数据分析应用。Spark采用Scala语言实现,使用Scala作为应用框架。

Spark采用基于内存的分布式数据集,优化了迭代式的工作负载以及交互式查询。与Hadoop不同的是,Spark和Scala紧密集成,Scala像管理本地collective对象那样管理分布式数据集。Spark支持分布式数据集上的迭代式任务,实际上可以在Hadoop文件系统上与Hadoop一起运行(通过YARN、Mesos等实现)。

5、Storm

代码托管地址:GitHub

Storm是一个分布式的、容错的实时计算系统,由BackType开发,后被Twitter捕获。Storm属于流处理平台,多用于实时计算并更新数据库。Storm也可被用于“连续计算”(continuouscomputation),对数据流做连续查询,在计算时就将结果以流的形式输出给用户。它还可被用于“分布式RPC”,以并行的方式运行昂贵的运算。

Hadoop上的其它解决方案

就像前文说,基于业务对实时的需求,各个实验室发明了Storm、Impala、Spark、Samza等流实时处理工具。而本节我们将分享的是实验室基于性能、兼容性、数据类型研究的开源解决方案,其中包括Shark、Phoenix、ApacheAccumulo、ApacheDrill、ApacheGiraph、ApacheHama、ApacheTez、ApacheAmbari。

6、Shark

代码托管地址:GitHub

Shark,代表了“HiveonSpark”,一个专为Spark打造的大规模数据仓库系统,兼容ApacheHive。无需修改现有的数据或者查询,就可以用100倍的速度执行HiveQL。

Shark支持Hive查询语言、元存储、序列化格式及自定义函数,与现有Hive部署无缝集成,是一个更快、更强大的替代方案。

7、Phoenix

代码托管地址:GitHub

Phoenix是构建在ApacheHBase之上的一个SQL中间层,完全使用Java编写,提供了一个客户端可嵌入的JDBC驱动。Phoenix查询引擎会将SQL查询转换为一个或多个HBasescan,并编排执行以生成标准的JDBC结果集。直接使用HBaseAPI、协同处理器与自定义过滤器,对于简单查询来说,其性能量级是毫秒,对于百万级别的行数来说,其性能量级是秒。Phoenix完全托管在GitHub之上。

Phoenix值得关注的特性包括:1,嵌入式的JDBC驱动,实现了大部分的java.sql接口,包括元数据API;2,可以通过多个行键或是键/值单元对列进行建模;3,DDL支持;4,版本化的模式仓库;5,DML支持;5,通过客户端的批处理实现的有限的事务支持;6,紧跟ANSISQL标准。

8、ApacheAccumulo

代码托管地址:ApacheSVN

ApacheAccumulo是一个可靠的、可伸缩的、高性能、排序分布式的键值存储解决方案,基于单元访问控制以及可定制的服务器端处理。使用GoogleBigTable设计思路,基于ApacheHadoop、Zookeeper和Thrift构建。Accumulo最早由NSA开发,后被捐献给了Apache基金会。

对比GoogleBigTable,Accumulo主要提升在基于单元的访问及服务器端的编程机制,后一处修改让Accumulo可以在数据处理过程中任意点修改键值对。

9、ApacheDrill

代码托管地址:GitHub

本质上,ApacheDrill是GoogleDremel的开源实现,本质是一个分布式的mpp查询层,支持SQL及一些用于NoSQL和Hadoop数据存储系统上的语言,将有助于Hadoop用户实现更快查询海量数据集的目的。当下Drill还只能算上一个框架,只包含了Drill愿景中的初始功能。

Drill的目的在于支持更广泛的数据源、数据格式及查询语言,可以通过对PB字节数据的快速扫描(大约几秒内)完成相关分析,将是一个专为互动分析大型数据集的分布式系统。

10、ApacheGiraph

代码托管地址:GitHub

ApacheGiraph是一个可伸缩的分布式迭代图处理系统,灵感来自BSP(bulksynchronousparallel)和Google的Pregel,与它们区别于则是是开源、基于Hadoop的架构等。

Giraph处理平台适用于运行大规模的逻辑计算,比如页面排行、共享链接、基于个性化排行等。Giraph专注于社交图计算,被Facebook作为其OpenGraph工具的核心,几分钟内处理数万亿次用户及其行为之间的连接。

11、ApacheHama

代码托管地址:GitHub

ApacheHama是一个建立在Hadoop上基于BSP(BulkSynchronousParallel)的计算框架,模仿了Google的Pregel。用来处理大规模的科学计算,特别是矩阵和图计算。集群环境中的系统架构由BSPMaster/GroomServer(ComputationEngine)、Zookeeper(DistributedLocking)、HDFS/HBase(StorageSystems)这3大块组成。

12、ApacheTez

代码托管地址:GitHub

ApacheTez是基于HadoopYarn之上的DAG(有向无环图,DirectedAcyclicGraph)计算框架。它把Map/Reduce过程拆分成若干个子过程,同时可以把多个Map/Reduce任务组合成一个较大的DAG任务,减少了Map/Reduce之间的文件存储。同时合理组合其子过程,减少任务的运行时间。由Hortonworks开发并提供主要支持。

13、ApacheAmbari

代码托管地址:ApacheSVN

ApacheAmbari是一个供应、管理和监视ApacheHadoop集群的开源框架,它提供一个直观的操作工具和一个健壮的HadoopAPI,可以隐藏复杂的Hadoop操作,使集群操作大大简化,首个版本发布于2012年6月。

ApacheAmbari现在是一个Apache的顶级项目,早在2011年8月,Hortonworks引进Ambari作为ApacheIncubator项目,制定了Hadoop集群极致简单管理的愿景。在两年多的开发社区显着成长,从一个小团队,成长为Hortonworks各种组织的贡献者。Ambari用户群一直在稳步增长,许多机构依靠Ambari在其大型数据中心大规模部署和管理Hadoop集群。

目前ApacheAmbari支持的Hadoop组件包括:HDFS、MapReduce、Hive、HCatalog、HBase、ZooKeeper、Oozie、Pig及Sqoop。

神策数据第九大数据分析模型——间隔分析上线 行业视频课程

img

距离美

关注
在用户行为分析领域,数据分析方法的科学应用结合理论推导,能够相对完整地揭示用户行为的内在规律。围绕数据分析探索、应用场景拓展,神策数据始终走在领域前沿。近日,神策数据新上线的神策分析1.11版本再添行业力作——间隔分析。

间隔分析模型为数据分析行业首创,是神策数据继事件分析、漏斗分析、留存分析、用户路径、用户分群等分析模型之后推出的第九大分析模型。该分析模型旨在通过事件发生间隔时间与分布态势,辅助企业实现深度多维交叉分析,进一步提升用户行为分析的精细化程度。本文将详细介绍间隔分析模型的概念、特点与价值、应用场景。(也可通过下方视频提前了解间隔分析模型)

视频链接:https://v.qq.com/x/page/e0663uek4wk.html

一、什么是间隔分析?

间隔分析从事件发生的时间间隔维度来探索用户行为数据价值,它能够科学地反映特定用户群体(如北京地区年龄30岁以上女士),发生指定行为事件(如事件A到B的转化、金融用户的二次投资等)的时间间隔及数据分布情况。不同数据组的偏态和尾重可反馈用户路径过程中的应用体验,并借此评估产品设置的合理性。

例如,间隔分析在以下场景中可广泛应用:

在金融行业,为刺激新用户快速完成首投,运营人员会赠送新用户体验金。运营人员通过间隔分析可以了解:新用户从首次注册到首次投资通常需要多久?

在同城速递行业,快递上门时间长短非常影响用户体验,作为公司考核快递人员绩效的关键指标之一,企业通过间隔分析可以了解:用户在官网发起快递请求后,快递员多久接单?

二、间隔分析模型的特点与价值

企业市场、产品、运营人员通过事件发生的时间间隔、转化时间长短来判断与分析用户的活跃度、用户转化等情况。间隔分析模型的特点与价值主要表现在以下方面:

第一,可视化时间间隔,六类统计值直观描绘各用户群时间间隔分布差异。

六类统计值将时间间隔可视化

神策分析的间隔分析模型以箱线图形式展示,最大值、上四分位数、中位数、下四分位数、最小值、平均值六类统计量直观描绘特定用户群体的时间间隔分布差异,数据的偏态与尾重一定程度反馈用户体验,从转化时间的维度暴露用户转化瓶颈,可借此评估产品设计的合理性。

第二,依据分析需求,灵活设置用户属性与事件属性(初始行为和后续行为)。

企业可以根据具体分析需求,灵活设置间隔分析的初始行为或后续行为,并根据用户属性筛选合适的分析对象。

例如,在某奢侈品电商企业中,为分析高价值用户的复购频率与普通用户的区别,可将初始行为与后续行为均设为“支付订单”,并给初始行为增加“订单金额大于10000元”的筛选条件以此来表示高价值用户,从而得出分析结论。

第三,以全新视角探索数据价值,从转化时间窥视优化思路,促进用户快速转化。

在间隔分析中,将初始行为、后续行为设置为相同事件或不同事件,可满足不同的数据分析需求。

例如,在金融行业,将初始事件和后续事件分别设置成为“注册成功”和“投资成功”,可用于分析用户转化花费时长,侧面反映用户的转化意愿,帮助企业能够针对性地优化产品体验和运营策略;在在线教育行业,若将初始事件和后续事件均设为“学生上课”,则展示学生两次上课的时间间隔,可以此作为判断学生积极性、教育平台黏性的依据等。

从时间间隔维度呈现用户转化、黏性等情况,提升了用户行为分析的精度和效率,对用户行为的操作流程的异常定位和策略调整效果验证有科学指导意义。同时,通过判断各用户群体事件发生的时间间隔的偏态和尾重,以及数据分布的中心位置和散布范围,为发现问题、流程优化提供线索。

三、间隔分析的应用场景

间隔分析将帮助各行业从时间间隔维度来探索用户行为规律,更多应用场景值得摸索。下面列举一二:

1、互金场景:如何合理设置体验金的发放时间?

在金融投资类产品运营过程中,为了让新用户在注册后能够快速投资,运营人员通常会通过一些激励措施来刺激首投,如发放体验金。这会涉及到我们前面提到的“如何合理设置体验金的发放时间”的问题,在具体操作时,运营人员可以在间隔分析中将初始行为设置为“注册成功”,后续行为设置为“投资成功”事件,当了解事件发生的时间间隔时,可以作为设置体验金发放时间的参考。

当然也可以按天展示不同渠道来源的新用户首次投资成功所花费的时长情况,运营同学通过了解不同用户群体的差异化,让运营更为精细。另外,通过不同渠道来源的用户表现也成为渠道投放的判断的重要依据,如下图:

互金各渠道来源的新用户首次投资成功花费的时长分布

2、视频网站场景:用户多久完成一次视频播放?

内容是短视频App提供给用户的核心价值,可通过“用户完整看过一个短视频”衡量用户是否感受到视频平台的价值。该场景中选择新用户从“启动App”到“完成播放”所花费的时长情况作为分析对象。如果用户普遍需要较长的时长才能完成转化,说明用户需要付出的视频筛选的成本较高,则应将新用户从“启动App”到“完成播放”的时间间隔作为优化目标。

新用户从“启动App”到“完成播放”所花费的时长情况

同样,在同城速递行业,当了解用户发起快递请求后快递员的接单时间之后,公司可依据此来考核快递人员绩效,从而也进一步优化用户体验。

四、间隔分析模型与其他分析模型的配合

值得强调的是,间隔分析模型是多种数据分析模型之一,与其他分析模型存在无法割裂的关系。

从用户转化角度来说,用户转化过程受很多因素影响,间隔分析通常是业务情况的反映,转化时间间隔只是分析用户转化的单一维度,只有与其他分析模型配合,才能清晰看到用户行为特点和背后动机。

虽然在多数情况下,时间间隔并不能作为优化的指标,但是与其他分析模型的配合可以帮助我们探索可能存在的问题。例如,从“提交订单”到“支付订单”间隔时长中位数是5分钟,说明一半的用户支付订单需要花费5分钟以上。则应该思考其中可能存在的问题:是支付功能的Bug,还是其它问题导致支付失败?定位问题需要结合事件分析、漏斗分析等分析模型定位问题。

总之,只有将各分析模型实现科学互动和配合,能够科学揭示出用户个人/群体行为的内部规律,并据此做出理论推导,不断在工作实践中优化商业决策和产品智能。

关于神策数据

神策数据(https://www.sensorsdata.cn),一家专业的大数据分析服务公司,致力于帮助客户实现数据驱动。公司推出深度用户行为分析产品神策分析(SensorsAnalytics),支持私有化部署、基础数据采集与建模,并作为PaaS平台支持二次开发。此外,还提供大数据相关咨询和完整解决方案。神策数据积累了神策数据积累了中国银联、中国电信、百度视频、百联、万达、中邮消费金融、广发证券、聚美优品、中商惠民、趣店、纷享销客、Keep、36氪、中青旅、太平洋保险、平安寿险、链家、四川航空等500余家付费企业用户的服务和客户成功经验,为客户全面提供指标梳理、数据模型搭建等专业的咨询、实施、和技术支持服务。希望更深入了解神策数据或有数据驱动相关问题咨询,请咨询4006509827,由专业的工作人员为您解答。

img

在线咨询

建站在线咨询

img

微信咨询

扫一扫添加
动力姐姐微信

img
img

TOP