Meta推出了兩個新的資料中心集群,旨在透過NVIDIA的尖端加速器在以AI為中心的開發中表現出色。
隨著公司在通用人工智慧(AGI)上的快速發展,馬克·祖克柏(Mark Zuckerberg)的Meta AI企業已經達到了新的高度,通用人工智慧是該領域繼生成型人工智慧之後的下一個重大事件。根據Datacenter Dynamics報導為了實現最佳運算能力,Meta開發了兩個新的資料中心集群,其唯一目的是在語音和影像辨識等消費者特定應用中進行人工智慧研究和LLM開發。該公司決定整合NVIDIA的H100 AI GPU,兩個集群均包含24,576個單元。
進一步擴展集群的功能,兩個集群都有400Gbps互連能力,其中一個集群採用Meta採用Arista 7800自主開發的結構解決方案,而另一個集群則採用NVIDIA的 Quantum2 InfiniBand結構,以確保無縫互連體驗。此外這些叢集建立在Meta自己的開放GPU Grand Teton AI平台之上,該平台旨在透過提高主機到GPU的頻寬和運算能力來利用現代加速器中的功能。
Meta的兩個新集群是該公司計劃的一部分,該計劃旨在成為擁有比競爭對手更大的人工智慧運算能力的領先力量。NVIDIA H100的整合計畫是在今年年底前使用35 萬個AI GPU,總計60萬個H100。這無疑是該公司對人工智慧時代進步的硬核承諾,該技術近年來已被廣泛採用了。而且從表面上看Meta計劃快速發展其人工智慧基礎設施,並透過下一代零件進行改進。
消息來源 |