数据中心趋势迫使重新人们审视数据库

对于早期的数据中心设计来说,这是一个惊人的变化,当行业的主要参与厂商向数据中心投入数十亿美元时,当时新兴的数字经济的工厂蓬勃发展。

数据中心就像人一样:没有两个是完全一样的,尤其是现在。十年前的分离计算、存储,的硬件,甚至网络服务运行的硬件给人们留下了堆叠在旁边的x86的比萨饼盒子,或连接已有30年历史的计算机主机。为什么不呢?大部分的工作是由软件工具来定义的,并精确地定义了硬件是如何使用并何时完成的。

从虚拟机到软件定义存储,以及网络功能的虚拟化,这些抽象层将硬件组件抽象成一些更大、更容易控制的东西。

对于早期的数据中心设计来说,这是一个惊人的变化,当行业的主要参与厂商向数据中心投入数十亿美元时,当时新兴的数字经济的工厂蓬勃发展。他们的崛起催生了定义如何使用空间和电源的标准委员会,以确保主要供应商不会意外地建立一个太高或太宽的服务器,不适于用行业用户。

如今在廉价设备上运行的分类服务,通常比以往强大的设备完成得更多。而且也占用更少的空间,并在云中形成到外部资源的自然连接。

人们对基础设施的做法已经有所响应,但数据库基本上保持不变,特别是在处理相同的数据库的工作时,因为他们总是在这个过程中浪费了计算和存储资源。数据中心运营商正在处理太多的信息,这将继续下去。

数据中心信息迁移

奇怪的是,大部分行业人士都清楚地知道,过度供应是一个问题。去年的一项研究估计,北美地区的闲置的服务器浪费的资源达300亿美元。在去年九月的一项类似的研究中,华尔街日报发现了一个数据中心设施中,有1000多个服务器准备工作,却一直没有工作负载。人们才得知数据中心服务器有着这样一个惊人的资金浪费,而需要提高数据中心的效率从来没有这么迫切。

信息通过具有无可比拟的数量和种类的数据中心移动,其速度前所未见。思科公司追踪其视觉网络指数(VNI)的变化。最新数据表明,基于互联网的流量2015年每天为2艾字节,相当于自从人类出现以前40%的所说过的话。思科公司认为,到了2019的年,这个数字将超过一倍,达到每天5.5艾字节。

没有工具的软件定义和部署数据中心资源,有效地,我们将没有选择,只能依靠人工过度配置来处理所有的信息,没有痛苦的停机时间。对于大多数数据库服务,我们仍然需要完全的设备配置,这使得这些关键系统成为一个瓶颈。而分解是解决问题的关键。

扩展到工作负载,而不是基础设施

数据库处理是主要的三种功能之一。数据服务是系统的核心,并定义用于存储信息的模式。快速检索的索引服务分类,根据定义的参数查询服务。大多数系统将一次性处理许多不同类型的请求。

其困难来自于如何利用数据库硬件。这是所有的生硬的力量与请求分布在一个基础设施。没有一种系统更适合于处理一个输入/输出密集型数据服务。在一个单独的系统中,也没有一个机制来处理内存密集型索引服务,或者在一个不同的、优化的机群系统中管理计算密集型查询的规定。数据库平台不喜欢把效率提高到现代数据中心的计算、存储和网络服务的分离。人们需要改变,需要系统的发展,以不同的子系统独立和按需缩放到规模数据库服务。

有趣的是,这对大多数NoSQL数据库来说都面临一样的问题,因为它是所有的关系系统,一种低效的NoSQL数据库,甚至有可能情况更糟,因为他们是如何经常搭配一个大型分布式基础设施。没有办法查询分配到不同的节点,消耗大量的内存和一个裸关节计算争取资源。解决这一问题的方法是灾难性的计划,这就是为什么我们在数据中心实施过度的配置,还会有那么多的问题的原因。

然而,它不需要是这样的。多维数据库缩放是从给我们带来了虚拟化,软件定义网络,并已转化为更好的数据中心等分解技术。在其最简单的形式中,多维缩放是软件定义的工作负载优化,其中管理员组装的计算,内存和存储所需的工作量特性。系统是当时的最佳配置避免空转而维持需要处理高峰时的弹性。

把它看成是根据工作量的需求缩放,在这个过程中需要将每一个可用的硬件进行优化。而不是设计到最低限度的基础设施。在这世界上充斥着数据,这是一个改变,但速度不可能太快。