|
Facebook,Microsoft目标更快的服务与新的AI服务器设计.灰鸽子下载,远程控制软件
Facebook的大盆地和微软的返工项目Olympus有更多的空间用于GPU加速机器学习
Facebook周三推出了一些令人震惊的统计数据,与其社交网络。每天,用户观看1亿小时的视频,4亿人使用Messenger,超过95万张照片和视频发布在Instagram上。
这给数据中心中的Facebook服务器带来了沉重的负担,这有助于协调所有这些服务,以确保及时做出响应。此外,Facebook的服务器使用机器学习技术来改善服务,一个可见的例子是图像识别。
这个故事类似于Microsoft,它不断寻求平衡其服务器上的负载。例如,Microsoft的数据中心将机器学习应用于自然语言服务,如Cortana。
两家公司都推出了新的开源硬件设计,以确保更快地响应这种人工智能服务,并且设计将允许公司通过其网络和软件提供更多的服务。服务器设计在周三的美国开放计算计划峰会上介绍。
这些服务器设计可以被其他公司用作内部设计自己的服务器的参考,然后发送到亚洲的大规模制造,Facebook和谷歌已经做了多年。金融组织也在尝试OCP设计为其组织制造服务器。
Facebook的大盆地是一个非正统的服务器盒,该公司称为“JBOG” - 只是一堆的GPU,可以提供前所未有的力量为机器学习。系统没有CPU,并且作为需要连接到离散服务器和存储盒的独立盒操作。
大盆地提供了在数据中心中解耦处理,存储和网络单元的承诺。在独立池中,存储和处理可以更快地扩展,但是当如今填充在一个服务器盒中时有限。当处理和存储联网在一起时,计算速度也快得多。去耦单元还共享电力和冷却资源,这减少了数据中心的电费。
大盆地系统可以连接到新的Facebook开源双CPU服务器设计Tioga Pass。
分离的数据中心设计对于像Facebook和Google这样的公司非常重要,这些公司正在购买数千台服务器来满足他们不断增长的处理需求。这些公司可以通过解耦存储,处理和其他资源,更快地扩展Web服务和机器学习任务。
英特尔也在使用其Rack Scale架构来追求类似的设计,像戴尔和惠普企业这样的公司为这些服务器实施提供蓝图。
Facebook的大盆地系统有八个Nvidia Tesla P100 GPU加速器,通过超快的NVLink互连在网状架构中连接。网状互连类似于Nvidia的DGX-1服务器中的网络互连,其在来自日本的富士通的AI超级计算机中使用。
另一个新的AI服务器设计来自微软,它宣布奥林巴斯项目,它有更多的AI协处理器的空间。微软还宣布了一个GPU加速器与Nvidia和Ingrasys称为HGX-1,它类似于Facebook的大苏尔,但可以缩放到链接32 GPU在一起。
奥林巴斯项目是一种更传统的服务器设计,不需要在服务器安装上进行大规模的更改。它是一个1U机架式服务器,CPU,GPU,内存,存储和网络都在一个盒子里。
微软的新服务器设计有一个通用的主板插槽,将支持最新的服务器芯片,包括英特尔的Skylake和AMD的那不勒斯。奥林巴斯项目将做一些在服务器上很少见到的事情:从x86到ARM的交叉,支持高通的Centriq 2400或Cavium的Thunder X2芯片。
高通将在OCP峰会上展示基于奥林巴斯项目设计的主板和服务器。 Qualcomm服务器将运行Windows Server,第一次将操作系统显示为在ARM芯片上运行, 远程控制, 灰鸽子。
通用的x86和ARM主板支持将允许客户在不购买新硬件的情况下在芯片架构之间切换。将ARM支持带到奥林巴斯项目是新服务器设计的重大成就之一,微软Azure硬件基础架构总经理Kushagra Vaid在一篇博客文章中说。
还有用于英特尔FPGA(现场可编程门阵列)的空间,这将加快服务器中的搜索和深度学习应用。 Microsoft使用FPGA提供更快的Bing结果。服务器还有最多三个PCI-Express卡(如GPU),最多八个NVMe SSD,以太网和DDR4内存的插槽。它还具有多个风扇,散热器和多个电池,以保持服务器运行在电源损失的情况下。
项目Olympus HGX-1通过NVLink互连技术支持八个Nvidia Pascal GPU。四个HGX-1 AI加速器可以链接创建一个32 GPU的大型机器学习集群。
今天的数据中心正在经历巨大的转变
|
|