6月26日消息,据The Next Platform报道,近日AMD执行副总裁兼数据中心解决方案集团总经理Forrest Norrod在接受采访时表示,AMD将助力构建全球最大的单体人工智能(AI)训练集群,将集成高达120万片的GPU。
120万片GPU 是一个非常惊人的数字,要知道目前全球最强的超级计算机Frontier 所配备的 GPU 数量才只有37888片,这也意味着AMD所支持的AI训练集群的GPU规模将达到Frontier的30多倍。不过,Forrest Norrod没有透露哪个组织正在考虑构建这种规模的AI系统,但确实提到“非常清醒的人”正在考虑在AI训练集群上花费数百亿到数千亿美元。
目前的AI训练集群通常由几千个 GPU 构建而成,这些 GPU 通过跨多个服务器机架或更少的高速互连连接。如果要创建一个拥有高达 120 万个 GPU 的单体 AI 集群,意味着将会面临极为复杂的高速互连网络,并且还会有延迟、功耗、硬件故障等诸多的问题,这似乎是难以实现的。
比如,AI工作负载对延迟非常敏感,尤其是尾部延迟和异常值,其中某些数据传输比其他数据传输花费的时间要长得多,并且会中断工作负载。此外,当今的超级计算机也会面临每隔几个小时就会发生的 GPU 或其他硬件故障。当扩展到当今最大的超级计算机集群的 30 倍时。更为关键的是,如此庞大的AI训练集群,将会产生极为庞大的能耗,不仅稳定的供电将会是一个大难题,而且配套的散热解决方案也面临巨大挑战。