星洲网
星洲网
星洲网 登录
我的股票|星洲网 我的股票
Newsletter|星洲网 Newsletter 联络我们|星洲网 联络我们 登广告|星洲网 登广告 关于我们|星洲网 关于我们 活动|星洲网 活动

ADVERTISEMENT

ADVERTISEMENT

副刊

|

e潮

|
发布: 8:00am 19/10/2023

e潮

人工智能

AI

科技Talk

ChatGPT

耗电量

AI伺服器

【科技Talk】AI很“吃電” 年耗電量=小國年用電量

报道:本刊 林德成

報道:本刊 林德成
照片:法新社

ADVERTISEMENT

強勢崛起引發了一連串效應,全球)發展開始狂飆,科技巨頭投入大量資源開發大語言模型(LLM)和聊天機器人,搶佔AI市場份額,比方說Meta的Llama 2、谷歌的PaLM 2和Bard、百度的文心一言等等。

除了AI聊天機器人,市場上亦出現很多生成式AI產品,像Midjourney﹑Stable Diffusion、Musicfy和MusicLM諸如此類。網民只需輸入文字指令,AI平臺便會自動生成圖像、文字、音樂和視頻,從而令到互聯網被AI“汙染”,充斥著各種真假難辨的內容。

這場科技革命有利必有弊,雖然改寫人類社會的發展,但也在自然環境埋下無法預估的禍害,因為這些大語言模型比你想像中更耗水和耗電。每次研發新一代的大語言模型,參數會達到上千億,需要動用很多圖形處理器(GPU)來提升AI算力。當你提升伺服器性能和算力,自然會消耗更多能源。

AI伺服器耗電量超乎想像

近期,阿姆斯特丹自由大學商學與經濟學院的一名博士生Alex de Vries在《Joule》學術刊物發佈了一份報告。他透露,如果AI產業繼續增長,到了2027年,全球AI伺服器所消耗的電量會等於荷蘭一年的用電量。

Alex de Vries在《Joule》學術刊物發佈了《AI的能源足跡日益增加》的報告。

根據報告,從2010年到2018年,全球數據中心的耗電量只是增長了6%。如果科技公司持續開發和維護AI模型和應用,將會令到數據中心的耗電量不斷攀升。

在AI浪潮中,GPU是最稀缺的資源。科技公司若想要訓練大語言模型,需要大量的GPU來維持AI運行。NVIDIA作為GPU市場的龍頭,擁有90%的市佔率,而NVIDIA的旗艦GPU產品“A100”和“H100”就成了搶手貨。

Alex de Vries想要釐清AI伺服器到底消耗多少電力。可是科技公司沒有透露這方面的數據,他便以AI伺服器的銷售額來推算。英國《金融時報》曾報道,NVIDIA計劃在2024年推出150萬至200萬個“H100”。他估算,如果NVIDIA每年的出貨量能達到150萬個AI處理器,那麼到了2027年,AI產業每年會消耗大約85至134太瓦時(TWh)的電量,而這個耗電量相當於一個小國的全年用電量,佔全球用電量的0.5%。

“你就會在談著像荷蘭這樣的國家電力消耗規模。(然後)你在談著我們全球總用電量的0.5%。”他在BBC的採訪中如此說道。

ChatGPT一年排放8.4噸二氧化碳

那麼ChatGPT每天會消耗多少電量?報告裡面指出,訓練GPT-3模型時,需要用到1287兆瓦時(MWh)的電量。如果OpenAI要讓ChatGPT正常操作,每一天會消耗564兆瓦時的電量。這意味著AI系統在推理時,會動用更多能源。此外,谷歌報告稱,從2019年到2021年,與AI相關的能源消耗裡面,有60%是來自生成推理的階段。

研究公司SemiAnalysis指出,OpenAI需要3617個NVIDIA HGX A100伺服器,總共2萬8936個GPU來支持ChatGPT運行。如果換算成能源,即每天會消耗564兆瓦時(MWh)的電量。(法新社)

Alex de Vries引述研究公司SemiAnalysis的資料,如果在谷歌搜索加插類似ChatGPT的生成式AI功能,谷歌需要51萬2821個NVIDIA HGX A100伺服器(總共410萬2568個GPU),預計每天會消耗80億瓦時(GWh)的電量,一年累積下來會達到29.2太瓦時(TWh)。按照這個假設,谷歌AI伺服器的耗電量就會等於愛爾蘭一年的用電量(每年29.3太瓦時)。

當然,在推高AI伺服器的性能時,間接也在製造更多的碳排放量。根據Earth.Org網站計算,一個人平均每年排放4噸的二氧化碳,而ChatGPT的排放量是一年8.4噸。

那麼,你知不知道,當你向ChatGPT輸入5至50個問題或指令時,ChatGPT是需要消耗500毫升的水。每當AI數據中心在高速運轉時,科技公司會準備冷卻塔來為伺服器降溫,避免這些AI伺服器過熱。

根據Earth.Org網站計算,一個人平均每年排放4噸的二氧化碳,而ChatGPT的排放量是一年8.4噸。(本報資料中心)

有資料顯示,科技公司會把伺服器的溫度控制在攝氏10度至27度之間。然後伺服器每消耗一度電(千瓦時,KWh),需要“喝”下一加侖(3.8公升)的水。以GPT-3為例,每一次訓練GPT-3模型,需要耗費70萬公升的淡水。而這個水量可以用來生產370輛BMW汽車或320輛的特斯拉電動車。可想而知,GPT-4或以上的模型將會更耗水電。倘若未來全面AI,政府和科技公司能夠承擔昂貴的運作成本嗎?

對此,他希望開發者不要只專注在優化AI功能,反而要思考是否每一個應用程式都要用到AI。

相關稿件:
【科技Talk】ChatGPT大紅OpenAI卻嚴重缺錢 4大關卡阻發展
【科技簡訊】ChatGPT大熱是吹的?使用率僅19%

打开全文

ADVERTISEMENT

热门新闻

百格视频

ADVERTISEMENT

点击 可阅读下一则新闻

ADVERTISEMENT