科華數(shù)據(jù) · 液冷技術
11月7日,在ChatGPT推出近一年后,美國人工智能公司OpenAI舉行了首屆開發(fā)者大會。大會上,OpenAI的首席執(zhí)行官宣布了GPT-4、ChatGPT的重磅更新:ChatGPT的周活用戶數(shù)達到1億人,已經(jīng)有200萬開發(fā)者正在使用OpenAI的API(應用程序接口),92%的財富500強公司正在使用OpenAI的產(chǎn)品搭建服務。
AI大模型飛速增長,帶來的是算力的高需求,人工智能訓練任務中使用的算力正呈著指數(shù)級增長,GPU單顆芯片功耗逐漸增大,如NVIDIA 2023年Q1發(fā)布的HGX Grace Hopper Superchip Platform,其TDP高達1000W,以單臺機8卡計算,一臺服務器或?qū)⑦_到10KW左右,解決GPU散熱問題迫在眉睫。
硬件算力的提升一直是人工智能快速發(fā)展的重要因素。如果按照現(xiàn)在AI大模型的發(fā)展趨勢,以此為據(jù)進行推算,就會發(fā)現(xiàn)一個棘手的問題,我們要滿足超高算力需求,就需要用全新的系統(tǒng)以及技術來保障高算力行業(yè)的健康發(fā)展。
數(shù)據(jù)中心作為算力的承載者,體積愈發(fā)龐大,大型數(shù)據(jù)中心成為未來的發(fā)展趨勢,伴隨著大型數(shù)據(jù)中心增長,新技術的涌現(xiàn)也尤為火熱。液冷數(shù)據(jù)中心面對高算力需求,從容不迫,帶來最佳解決方案,讓類似AI大模型此類高算力行業(yè)得以施展拳腳。
液冷作為一種高效的冷卻技術,可以解決高功率、高熱流密度、高計算密度的芯片和系統(tǒng)散熱問題。液冷技術利用液體高比熱容/蒸發(fā)潛熱優(yōu)勢,實現(xiàn)對發(fā)熱元器件精準散熱,完美解決高功率密度機柜散熱問題,經(jīng)過幾十年發(fā)展,已被廣泛認為是解決散熱挑戰(zhàn)最行之有效的方法。
科華液冷技術利用液冷散熱優(yōu)勢,推出了液冷數(shù)據(jù)中心全生命周期服務,其液冷解決方案幫助數(shù)據(jù)中心高密服務器解決散熱問題,冷板式和浸沒式液冷解決方案,通過液冷機柜、內(nèi)部循環(huán)模組、換熱冷卻、內(nèi)外控制等設備,直接為服務器關鍵發(fā)熱元件進行熱交換。
科華板式液冷微模塊數(shù)據(jù)中心可實現(xiàn)15kW/柜以上的高功率密度散熱需求,各功能部件預安裝及預調(diào)試,進場即用,交付速度提升50%,模塊化設計,可靈活配置,滿足快速擴容需要,實時監(jiān)測相關動環(huán)設備,各設備關鍵信息一目了然。
液冷技術大幅提升了算力輸出能力,使服務器可以在相對的低溫環(huán)境中滿載運行。避免設備局部熱點的同時,甚至可以超頻運行,其可靠性得到大幅提升,由此高算力的輸出,有了穩(wěn)定可靠的保障。
算力作為核心生產(chǎn)力,推動著各行各業(yè)的發(fā)展,如何讓算力綠色穩(wěn)定,支持高算力行業(yè)快速發(fā)展,也是科華人一直在思考的問題,液冷技術作為數(shù)據(jù)中心高新技術,解決數(shù)據(jù)中心散熱痛點,科華數(shù)據(jù)將繼續(xù)利用其數(shù)據(jù)中心全生命周期服務優(yōu)勢,強力打造大型液冷數(shù)據(jù)中心項目落地,推動高算力行業(yè)綠色健康發(fā)展。
上一篇:科華液冷集裝箱項目海外順利交付!
下一篇:剛剛,科華斬獲兩大獎項!