頂點光電子商城2024年4月1日消息:近日,英偉達(dá)的尖端圖像處理半導(dǎo)體(GPU)H200現(xiàn)已開始供貨。
H200是一款面向AI領(lǐng)域的半導(dǎo)體,性能超過當(dāng)前主打的H100。根據(jù)英偉達(dá)方面公布的性能評測結(jié)果,以Meta公司旗下大語言模型Llama 2處理速度為例,H200相比于H100,生成式AI導(dǎo)出答案的處理速度最高提高了45%。
H200是H100 GPU的繼任者,也是該公司第一款使用HBM3e內(nèi)存的芯片。這種內(nèi)存速度更快,容量更大,因此更適合大型語言模型。較前任霸主H100,H200的性能直接提升了60%到90%,且在成本和能耗效率上取得了革命性改進(jìn),僅為H100的四分之一。
英偉達(dá)在2023年3月18日的開發(fā)者大會上宣布,年內(nèi)將推出新一代AI半導(dǎo)體“B200”。B200和CPU組合的新產(chǎn)品用于最新的LLM上,推理大語言模型性能比H100提升30倍,成本和能耗降至25分之一。
隨著AI應(yīng)用對算力硬件產(chǎn)品需求的不斷提升,英偉達(dá)供應(yīng)鏈有望受益。H200作為英偉達(dá)在AI計算領(lǐng)域的又一里程碑式產(chǎn)品,不僅繼承了H100的優(yōu)勢,還在內(nèi)存性能上取得了重大突破。