NREL的高效数据中心正在转向AI 为我们为百亿级超级计算机做准备

时间:2020-04-20 15:41:39来源:
导读世界上最高效的数据中心希望通过使用人工智能以相同的电能激发更多的计算能力来变得更好,能源系统集成设施(ESIF)HPC数据中心以大量数据为

世界上最高效的数据中心希望通过使用人工智能以相同的电能激发更多的计算能力来变得更好,

能源系统集成设施(ESIF)HPC数据中心以大量数据为基础,希望AI可以使其超级计算机变得更加智能,并为未来万亿级的未来做好准备。

ESIF坐落在科罗拉多州国家可再生能源实验室校园的研究实验室中,2017年的平均电力使用效率(PUE)仅1.032,目前从其超级计算机中收集了97%的余热,以加热附近的办公室和实验室空间。

在过去的五到十年中,NREL的研究人员一直使用传感器来跟踪设施中及其两个系统(HPE机器Peregrine和Eagle)中发生的一切。这些数据仓库已经增长到16 TB以上,只是在等待有人使用它。

不到三年前,当时HPE高级技术部门副总裁Mike Vildibill遇到了问题。他负责运行由能源部资助的公司百亿亿次计算工作。

“我们形成一个团队做的构建百亿亿次系统,是真正可用和运行在一个真实的世界环境所需要的非常深入的分析和设计,” Vildibill,现在HPE的副总裁兼高性能网络的总经理告诉DCD。“这真是一种谦卑的经历。我们如何管理,监视和控制这些庞大的庞然大物系统之一?”

Vildibill的团队从暴力手段入手,他回忆说:“我们需要管理和监视此事,我们必须从每台服务器,每台存储设备,每台存储设备以及数据中心的所有其他设备中收集大量数据。我们必须将其放入数据库中。我们必须对其进行分析,然后我们必须使用它来管理,监视和控制系统。”

考虑到这种方法,该小组对百亿亿分之一秒的系统进行了粗略的计算。他说:“他们回来告诉我他们可以做到,但是必须紧跟亿亿级系统的管理系统必须是世界上最大的计算机(200 petaflops Summit系统)的大小,”说:“好吧,所以我们偶然发现了一个实际问题。”

当时,Vildibill还在研究AI Ops,这是将人工智能应用于IT运营的行业流行语。他说:“我们意识到我们需要基于类固醇的AI Ops才能真正地以自动化方式管理和控制大型百亿亿级系统。”

最新文章