3月10日消息,AI已經(jīng)重新成為科技行業(yè)的熱門話題,預(yù)計它將徹底改變從零售到醫(yī)藥等價值數(shù)萬億美元的行業(yè)。但每創(chuàng)造一個新的聊天機器人或圖像生成器都需要耗費大量的電力,這意味著這項技術(shù)可能釋放大量溫室氣體,進而加劇全球變暖問題。微軟、谷歌和Ch
3月10日消息,AI已經(jīng)重新成為科技行業(yè)的熱門話題,預(yù)計它將徹底改變從零售到醫(yī)藥等價值數(shù)萬億美元的行業(yè)。但每創(chuàng)造一個新的聊天機器人或圖像生成器都需要耗費大量的電力,這意味著這項技術(shù)可能釋放大量溫室氣體,進而加劇全球變暖問題。
微軟、谷歌和人工智能制造商OpenAI都要使用云計算,而云計算依賴于全球海量數(shù)據(jù)中心服務(wù)器內(nèi)數(shù)以千計的芯片來訓(xùn)練被稱為模型的AI算法,分析數(shù)據(jù)以幫助這些算法“學(xué)習(xí)”如何執(zhí)行任務(wù)。人工智能的成功促使其他公司競相推出自己的AI系統(tǒng)和聊天機器人,或者開發(fā)使用大型AI模型的產(chǎn)品。
與其他形式的計算相比,AI需要使用更多的能源,訓(xùn)練單個模型消耗的電力超過100多個美國家庭1年的用電量。然而,雖然AI行業(yè)增長非常快,但卻不夠透明,以至于沒有人確切知道AI的總用電量和碳排放量。碳排放量也可能有很大差異,這取決于提供電力的發(fā)電廠類型,靠燒煤或天然氣發(fā)電供電的數(shù)據(jù)中心,碳排放量顯然高于太陽能或風(fēng)力發(fā)電支持的數(shù)據(jù)中心。
雖然研究人員已經(jīng)統(tǒng)計了創(chuàng)建單一模型所產(chǎn)生的碳排放量,有些公司也提供了有關(guān)他們能源使用的數(shù)據(jù),但他們沒有對這項技術(shù)的總用電量進行總體估計。AI公司Huging Face研究員薩莎·盧西奧尼(Sasha Luccioni)寫了一篇論文,量化了她旗下公司Bloom的碳排放情況,Bloom是OpenAI模型GPT-3的競爭對手。盧西奧尼還試圖根據(jù)一組有限的公開數(shù)據(jù),對OpenAI聊天機器人人工智能的碳排放情況進行評估。
提高透明度
盧西奧尼等研究人員表示,在AI模型的電力使用和排放方面,需要提高透明度。有了這些信息,**和公司可能會決定,使用GPT-3或其他大型模型來研究癌癥治療或保護土著語言是否值得。
更高的透明度也可能帶來更多的審查,加密貨幣行業(yè)可能會提供前車之鑒。根據(jù)劍橋比特幣電力消耗指數(shù),比特幣因其耗電量過大而受到批評,每年的耗電量與阿根廷一樣多。這種對電力的貪婪需求促使紐約州通過了一項為期兩年的禁令,暫停向以化石燃料發(fā)電供電的加密貨幣采礦商發(fā)放許可證。
GPT-3是功能單一的通用AI程序,可以生成語言,具有多種不同的用途。2021年發(fā)表的一篇研究論文顯示,訓(xùn)練GPT-3耗用了1.287吉瓦時電量,大約相當(dāng)于120個美國家庭1年的用電量。同時,這樣的訓(xùn)練產(chǎn)生了502噸碳,相當(dāng)于110輛美國汽車1年的排放量。而且,這種訓(xùn)練只適用于一個程序,或者說是“模型”。
雖然訓(xùn)練AI模型的前期電力成本巨大,但研究人員發(fā)現(xiàn),在某些情況下,這只是模型實際使用所消耗電力的40%左右。此外,AI模型也在變得越來越大。OpenAI的GPT-3使用了1750億個參數(shù)或變量,而其前身僅使用了15億個參數(shù)。
OpenAI已經(jīng)在研究GPT-4,而且必須定期對模型進行再訓(xùn)練,以保持其對時事的了解??▋?nèi)基梅隆大學(xué)教授艾瑪·斯特魯貝爾(Emma Strubell)是首批研究AI能源問題的研究人員之一,她說:“如果你不對模型進行再訓(xùn)練,它甚至可能不知道何為**肺炎?!?/p>
另一個相對的衡量標(biāo)準(zhǔn)來自谷歌,研究人員發(fā)現(xiàn),AI訓(xùn)練占該公司總用電量的10%至15%,2021年該公司的總用電量為18.3太瓦時。這意味著,谷歌的AI每年耗電量達2.3太瓦時,大約相當(dāng)于亞特蘭大所有家庭的1年用電量。
科技巨頭做出凈零承諾
雖然在許多情況下,AI模型變得越來越大,但AI公司也在不斷改進,使其以更高效的方式運行。微軟、谷歌和亞馬遜等美國最大的云計算公司,都做出了碳減排或凈零承諾。谷歌在一份聲明中表示,到2030年,該公司將在所有業(yè)務(wù)中實現(xiàn)凈零排放,其目標(biāo)是完全使用無碳能源運營其辦公室和數(shù)據(jù)中心。谷歌還在使用AI來提高其數(shù)據(jù)中心的能效,該技術(shù)直接控制設(shè)施中的冷卻系統(tǒng)。
OpenAI也列舉了該公司為提高人工智能應(yīng)用程序編程接口的效率所做的工作,幫助客戶降低了用電量和價格。OpenAI發(fā)言人表示:“我們非常認(rèn)真地承擔(dān)起阻止和扭轉(zhuǎn)氣候變化的責(zé)任,我們對如何最大限度地利用我們的計算能力進行了很多思考。OpenAI運行在Azure上,我們與微軟團隊密切合作,以提高運行大型語言模型的效率并減少碳排放?!?/p>
微軟指出,該公司正在購買可再生能源,并采取其他措施,以實現(xiàn)之前宣布的目標(biāo),即到2030年實現(xiàn)凈零排放。微軟在聲明中稱:“作為我們創(chuàng)造更可持續(xù)性未來承諾的一部分,微軟正在投資于研究,以衡量AI的能源使用和碳排放影響,同時致力于提高大型系統(tǒng)在培訓(xùn)和應(yīng)用方面的效率?!?/p>
耶路撒冷希伯來大學(xué)教授羅伊·施瓦茨(Roy Schwartz)與微軟的一個團隊合作,測量了一個大型AI模型的碳足跡。他表示:“顯然,這些公司不愿透露他們使用的是什么模型,以及它排放了多少碳?!?/p>
有些方法可以讓AI更高效地運行。能源咨詢公司W(wǎng)ood Mackenzie的本·赫茲-沙格爾(Ben Hertz-Shargel)表示,由于AI訓(xùn)練可以隨時進行,開發(fā)者或數(shù)據(jù)中心可以將訓(xùn)練安排在電力更便宜或過剩的時候,從而使它們的運營更加環(huán)保。AI公司在電力過剩時訓(xùn)練自己的模型,第二可以在營銷中將其當(dāng)成一大賣點,以此表明他們注重環(huán)保。
芯片運行耗電量驚人
大多數(shù)數(shù)據(jù)中心使用圖形處理單元(GPU)來訓(xùn)練AI模型,這些組件是芯片行業(yè)制造的最耗電組件之一。摩根士丹利分析師本月早些時候發(fā)布的一份報告稱,大型模型需要數(shù)萬個GPU,培訓(xùn)周期從幾周到幾個月不等。
AI領(lǐng)域更大的謎團之一是與所使用芯片相關(guān)的碳排放總量。最大的GPU制造商英偉達表示,當(dāng)涉及到AI任務(wù)時,他們的芯片可以更快地完成任務(wù),總體上效率更高。
英偉達在聲明中表示:“與使用CPU相比,使用GPU來加速AI速度更快,也更高效。對于某些AI工作負(fù)載來說,能效通??梢蕴岣?0倍,對于生成式人工智能必不可少的大型語言模型,能效則可提高300倍。”
盧西奧尼說,雖然英偉達已經(jīng)披露了與能源相關(guān)的直接排放和間接排放數(shù)據(jù),但該公司并沒有透露更多細(xì)節(jié)。她認(rèn)為,當(dāng)英偉達分享這些信息時,我們可能發(fā)現(xiàn)GPU消耗的電量與一個小國用電量差不多,“這可能會讓人抓狂”!
本文由小編網(wǎng)絡(luò)轉(zhuǎn)載而成,原文來源:http://www.techweb.com.cn/it/2023-03-10/2922251.shtml,如有侵權(quán),請聯(lián)系刪除
原創(chuàng)文章,作者:小編,如若轉(zhuǎn)載,請注明出處:http://m.xiesong.cn/127567.html