隨著技術的發展,AI大模型在給人類社會帶來巨大變革的同時,卻也成為能源消耗大戶。據美國媒體報道,此前引爆全球人工智能產業浪潮的ChatGPT,每天的耗電量已超過50萬千瓦時。
(文章來源:央視財經,ID:cctvyscj)
據美國《紐約客》雜志報道,美國開放人工智能研究中心(OpenAI)的熱門聊天機器人ChatGPT每天可能要消耗超過50萬千瓦時的電力,以響應用戶的約2億個請求。相比之下,美國一個家庭平均每天的用電量約為29千瓦時,也就是說,ChatGPT每天用電量是美國家庭平均用電量的1.7萬多倍。而且如果生成式AI被進一步采用,耗電量可能會更多。
根據全球數據中心標準組織之一“國際正常運行時間協會”的預測,到2025年,人工智能業務在全球數據中心用電量中的占比,將從2%猛增到10%。而荷蘭國家銀行數據科學家德弗里斯在一篇論文中估計,到2027年,整個人工智能行業每年將消耗850億至1340億千瓦時的電力。屆時,人工智能的用電量可能占全球總用電量的0.5%。據他推算,如果谷歌將生成式人工智能技術整合到每次搜索中,每年將消耗約290億千瓦時的電量。這比肯尼亞、危地馬拉和克羅地亞等國一年的用電量還要多。
分析指出,生成式AI帶來的種種創新,都是以處理性能和功耗方面的高昂成本為代價。馬斯克曾預測,未來兩年內行業將由“缺硅”變為“缺電”,而這可能阻礙人工智能的發展。在他看來,電力短缺可能會造成嚴重后果,就像芯片短缺一度阻礙科技和汽車行業一樣。