高端计算中心采用了曙光高性能计算机系统,x86系列集群构架,40Gb Infiniband全互联网络,三种不同的内存配置,100TB存储,总体计算能力为峰值64TFlops,该计算机系统很好的满足课本实验以及全校高性能计算方面的需求,现已成为一个完善的跨学科研究平台。
计算中心的仪器设备由专门技术人员负责,实行统一管理,制定了操作规程及日常保养等合理的、科学仪器设备管理和使用制度。设立共享大型仪器设备的运行基金,以确保共享设备和仪器的政策运行。
硬件系统
核心业务系统为曙光星云502节点,双路INTEL至强处理器集群一台,峰值速度为64Tfps,linpack值超过50Tfps。另配备管理服务器、登陆服务器、文件服务器等外围设备共10台
存储系统为3节点100TB lustre并行文件系统
计算节点系统内存共计12.768TB。(10节点96GB/节点,492节点24GB/节点)
软件系统
SUSE 操作系统
INTEL 编程环境,主要为C/C++和Fortran
管理软件(OpenPBS+自我开发)
应用软件(用户自备)
机房建设
机房面积120平方米,其中核心机房面积80平方米。
根据集群计算机房高功率密度(总功率15-20千瓦/机柜)的特点,系统采用曙光云座内冷式水平送风机柜,使系统制冷效率较传统开放式空调有较大提高,完全达到了计算机运行的要求。
制度建设
人员管理与资源分配:实现机房24小时值守,明确每个时间段员工的责任,实现责任到人;完善台风、雷雨等对计算机运行影响较大的灾害性天气的应对措施;明确用户对计算资源的申请、分配、总结方式。
设备使用方法与应急预案:电源、灭火设备的使用方法;火灾、停电、温控、节点死机等突发事件的处理方法。
运行情况
系统已基本稳定,就整体性故障而言,前期出现一些文件系统方面的故障(与用户递交的作业类型有关),造成系统停机,自2012年8月份起未发生影响使用的整体性故障。目前稳定用户主要分布于数学、物理、化学、材料、生物和信息科学等领域。
人员配置
责任人:龚新高 教授
管理人员:马允胜 副教授 付荣堂 副教授
安全值班人员:吴奔 陈福兴 王伯富