報道:本刊 林德成
照片:法新社
ADVERTISEMENT
ChatGPT強勢崛起引發了一連串效應,全球人工智能(AI)發展開始狂飆,科技巨頭投入大量資源開發大語言模型(LLM)和聊天機器人,搶佔AI市場份額,比方說Meta的Llama 2、谷歌的PaLM 2和Bard、百度的文心一言等等。
除了AI聊天機器人,市場上亦出現很多生成式AI產品,像Midjourney﹑Stable Diffusion、Musicfy和MusicLM諸如此類。網民只需輸入文字指令,AI平臺便會自動生成圖像、文字、音樂和視頻,從而令到互聯網被AI“汙染”,充斥著各種真假難辨的內容。
這場科技革命有利必有弊,雖然改寫人類社會的發展,但也在自然環境埋下無法預估的禍害,因為這些大語言模型比你想像中更耗水和耗電。每次研發新一代的大語言模型,參數會達到上千億,需要動用很多圖形處理器(GPU)來提升AI算力。當你提升伺服器性能和算力,自然會消耗更多能源。
AI伺服器耗電量超乎想像
近期,阿姆斯特丹自由大學商學與經濟學院的一名博士生Alex de Vries在《Joule》學術刊物發佈了一份報告。他透露,如果AI產業繼續增長,到了2027年,全球AI伺服器所消耗的電量會等於荷蘭一年的用電量。
根據報告,從2010年到2018年,全球數據中心的耗電量只是增長了6%。如果科技公司持續開發和維護AI模型和應用,將會令到數據中心的耗電量不斷攀升。
在AI浪潮中,GPU是最稀缺的資源。科技公司若想要訓練大語言模型,需要大量的GPU來維持AI運行。NVIDIA作為GPU市場的龍頭,擁有90%的市佔率,而NVIDIA的旗艦GPU產品“A100”和“H100”就成了搶手貨。
Alex de Vries想要釐清AI伺服器到底消耗多少電力。可是科技公司沒有透露這方面的數據,他便以AI伺服器的銷售額來推算。英國《金融時報》曾報道,NVIDIA計劃在2024年推出150萬至200萬個“H100”。他估算,如果NVIDIA每年的出貨量能達到150萬個AI處理器,那麼到了2027年,AI產業每年會消耗大約85至134太瓦時(TWh)的電量,而這個耗電量相當於一個小國的全年用電量,佔全球用電量的0.5%。
“你就會在談著像荷蘭這樣的國家電力消耗規模。(然後)你在談著我們全球總用電量的0.5%。”他在BBC的採訪中如此說道。
ChatGPT一年排放8.4噸二氧化碳
那麼ChatGPT每天會消耗多少電量?報告裡面指出,訓練GPT-3模型時,需要用到1287兆瓦時(MWh)的電量。如果OpenAI要讓ChatGPT正常操作,每一天會消耗564兆瓦時的電量。這意味著AI系統在推理時,會動用更多能源。此外,谷歌報告稱,從2019年到2021年,與AI相關的能源消耗裡面,有60%是來自生成推理的階段。
Alex de Vries引述研究公司SemiAnalysis的資料,如果在谷歌搜索加插類似ChatGPT的生成式AI功能,谷歌需要51萬2821個NVIDIA HGX A100伺服器(總共410萬2568個GPU),預計每天會消耗80億瓦時(GWh)的電量,一年累積下來會達到29.2太瓦時(TWh)。按照這個假設,谷歌AI伺服器的耗電量就會等於愛爾蘭一年的用電量(每年29.3太瓦時)。
當然,在推高AI伺服器的性能時,間接也在製造更多的碳排放量。根據Earth.Org網站計算,一個人平均每年排放4噸的二氧化碳,而ChatGPT的排放量是一年8.4噸。
那麼,你知不知道,當你向ChatGPT輸入5至50個問題或指令時,ChatGPT是需要消耗500毫升的水。每當AI數據中心在高速運轉時,科技公司會準備冷卻塔來為伺服器降溫,避免這些AI伺服器過熱。
有資料顯示,科技公司會把伺服器的溫度控制在攝氏10度至27度之間。然後伺服器每消耗一度電(千瓦時,KWh),需要“喝”下一加侖(3.8公升)的水。以GPT-3為例,每一次訓練GPT-3模型,需要耗費70萬公升的淡水。而這個水量可以用來生產370輛BMW汽車或320輛的特斯拉電動車。可想而知,GPT-4或以上的模型將會更耗水電。倘若未來全面AI,政府和科技公司能夠承擔昂貴的運作成本嗎?
對此,他希望開發者不要只專注在優化AI功能,反而要思考是否每一個應用程式都要用到AI。
相關稿件: 【科技Talk】ChatGPT大紅OpenAI卻嚴重缺錢 4大關卡阻發展 【科技簡訊】ChatGPT大熱是吹的?使用率僅19%
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT