過去的2023年,英偉達的業績取得了巨大成就。因而,2024年的GTC大會備受市場關注。
在GTC大會召開之前,諸多外媒就開始小道消息頻傳:黃仁勛將在GTC大會上發布一款新的GPU產品。果然,黃仁勛不負眾望,采用Blackwell架構的B200和GB200系列芯片“千呼萬喚始出來”。英偉達表示,采用Blackwell架構的系列芯片將是迄今為止最強大的AI芯片產品。
黃仁勛稱,B200芯片擁有2800億個晶體管(作為對比,H100/H200上有800億個晶體管),采用臺積電4NP工藝制程,可以支持多達10萬億個參數的AI模型。
有意思的是,B200芯片并不是傳統意義上的單一GPU,是由兩個緊密耦合的芯片組成,這兩個芯片通過10TB/s NV-HBI(NVIDIA高寬帶接口)連接進行連接,以確保它們能夠作為單個完全一致的芯片正常運行。
「數智研究社」獲悉,B200系列的Blackwell架構在AI安全方面又向前邁進了一步。而且,Blackwelll將被整合到英偉達的GB200超級芯片中,這個超級芯片可以將兩個B200GPU連接到另一個GPU中去。
但截至目前,英偉達沒有透露價格。新品上市的時間,也沒有給出具體上市的時間。但如AWS、谷歌、微軟等知名公司都已經發出了使用Blackwell GPU的信心和欲望。
在演講中,黃仁勛坦言,“生成式人工智能是我們這個時代的決定性技術。Blackwell架構的GPU是推動這場新工業革命的引擎。英偉達和世界上最具活力的公司合作,將實現人工智能對每個行業的承諾。”
除了發布新架構的GPU產品外,英偉達還發布了GB200 NVL72液冷機架系統,包含36顆GB200 Grace Blackwell超級芯片,擁有1.4 exaflops的推理能力,內部含5000根單獨的電纜,總長度接近兩英里。
英偉達在發布會上著重介紹了這一產品,和用于推理的相同數量的H100 Tensor Core圖形處理單元相比,GB200 NVL72的性能提升高達30倍,同時成本和能耗降低25倍。
有舉例為證,此前訓練一個1.8萬億參數模型需要8000個Hopper GPU和15兆瓦的功率。如今,只需要2000個Blackwell GPU和4兆瓦的功率就能完成訓練。
此外,英偉達表示還將推出一款服務器主板,名為HGX B200。此主板支持在單個服務器節點中使用8個B200 GPU和一個X86架構的CPU。
除了硬件的“暴走式”升級外,在軟件方面,英偉達也展示了自身在未來發展中的AI戰略。黃仁勛在現場推銷起了AI軟件訂閱服務包,推出了NVIDIA推理微服務等。
黃仁勛在現場表示,英偉達正在認真考慮從本質上重新設計整個底層軟件堆棧,希望AI能助英偉達一臂之力。但從資本市場來看,英偉達當日高開5%,但收盤時漲幅不到1%。盤后股價則走跌超1%。