Hadoop和DBMS的互补性

日期: 2012-06-11 作者:Alex 来源:TechTarget中国 英文

    随着Microsoft 也加入Hadoop 阵营,Hadoop 已经完全变成了DBMS 的好朋友了 , 2年之前的SIGMOD组织提出的“A Comparison of Approaches to Large-Scale Data Analysis”引发了关于并行数据库和MapReduce模型的讨论, 双方唇枪舌剑之后发现两个系统根本就是各有所长, DBMS 目前有些处理好的领域和商业支持,Hadoop 也有自己的优势和使用案例。

    就如前一篇TDWI 所说的3个V 问题,新一代Hadoop MapReduce 主要解决的是数据容量和多种类型的数据(结构化,半结构化,非结构化)。 而传统的MPP DBMS 解决的主要还是速度,低延迟,实时性的问题。

DBMSHadoop
低延迟,一般响应时间为秒高延迟,一般响应时间最少为分钟
较高的吞吐(同一时间执行sql数)可以提交很多任务,但不一定快速执行
处理的数据量有限制(目前为P)可以处理大量的数据(从10p到1E)
硬件有特殊需要,不能随时添加硬件可随时添加,增加计算能力
假设机器是随时可用的,不对失败做处理默认机器故障时正常的,可以容忍机器失效并用其它迅速机器替代
数据库模式过渡优化对数据格式没有限制
数据满足完整性(外键)用户程序需要自己验证完整性
必须提前知道使用模式并进行优化
或者根据使用一段时间之后的情况进行特定优化
面对未知的使用模式,常规使用模式可以做一定程度的优化
需要添加额外的优化计算(索引,分区等)大部分情况不用额外优化
CPU,内存,磁盘,网络利用率较为高效资源利用率不算高效,人为优化需要较多技巧,目前没有DBMS 优化技术成熟

 
储存能力有限, 磁盘不能随意扩展储存能力极高,随时可以按需扩展
磁盘比较昂贵,经常访问的数据可使用高端SSD廉价磁盘,随意保存多份数据防止丢失
线型扩展能力一般, 一般到几百台机器有瓶颈极高的线型扩展能力,目前yahoo 的为4000台,下一代Hadoop 目标6000 – 10000台
不具备开放性,必须数据库厂商提供功能高端开放性,大多数组织参与合作
分析能力需要默认提供可以自己编写UDF 函数,随时扩展功能
不太适合用来保存过多的历史数据可以保存任意多的历史数据,随时可以访问
不能处理半结构化或非结构化的数据可以处理XML,图片,音频视频等任意格式数据
有厂商在数据库内提供MapReduce功能
(Aster Data 和Greenplum)
有厂商希望在Hadoop 内添加MPP DBMS 的特性降低延迟提高吞吐能力(Hadapt,MapR)
可以随时装载最新数据并查询和分析一般都是批量处理 , 需要特定的技术才能进行实时或叫准实时的计算
实施费用较为昂贵免费开源
人员培训较为简单,拥有成熟的人才市场需要IT 人员拥有较高的技能,而且培训较少

    目前DBMS 还是在其关系型领域拥有绝对的竞争力, 适合多种不同的功能需要。

    Hadoop 目前还是主要以廉价的解决方案,活跃的社区,储存能力和非结构化数据的处理见长。

    目前有名的数据仓库提供商都开始在自己的产品线里面提供直接的Hadoop 集成,帮助用户选择合适的技术做合适的事情。

    一些比较成功的数据仓库使用者都会同时使用DBMS 和Hadoop , 比如Ebay, Walmart, Yahoo, LinkedIn等。

    一些特殊的行业也会完全使用Hadoop 做其数据仓库的完整解决方案。 比如Facebook , Twitter 。

    Microsoft 加入Hadoop 估计也就是提供一下Windows 的便捷开发的然后骗骗用户“我们有大规模计算的能力了”,估计真要在Windows 服务器上跑Hadoop 效果可想而知。

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

作者

Alex
Alex

相关推荐