碳栗子 發(fā)自 凹非寺
量子位 報道 | 公眾號 QbitAI
當(dāng)你打開這篇文章的時候,你的模型可能正在安靜地訓(xùn)練。
模型的身后,有飛速運轉(zhuǎn)的GPU,為它提供訓(xùn)練的動力。
曲線顯示,它的學(xué)習(xí)情況良好,你在一旁露出了“孺子可教”的圍笑。
就在此時,有人向你發(fā)射了直擊靈魂的提問:
你總是關(guān)心模型學(xué)得好不好,就不關(guān)心它學(xué)得累不累 (誤) ,就不關(guān)心它排了多少二氧化碳?
發(fā)問的是名叫Emma Strubell (簡稱艾瑪) 的研究人員,來自美國馬薩諸塞大學(xué)阿姆赫斯特分校。
艾瑪和小伙伴一起,研究了許多優(yōu)秀NLP?(自然語言處理) 模型的碳排,還和人類日常生活的碳足跡做了對比:
比如,訓(xùn)練一只Transformer的碳排,相當(dāng)于從坐飛機(jī)在舊金山和紐約之間往返200次。
過不了多久,團(tuán)隊就會前往ACL 2019,與NLP領(lǐng)域的佼佼者們,分享自家的成果。
而在那之前,這項酸爽的研究,已經(jīng)在推特上引發(fā)了大規(guī)模圍觀,有2200人點贊,也惹來了不小的爭議。
能排多少噸?
如果看艾瑪提供的數(shù)據(jù),訓(xùn)練好一只NLP領(lǐng)域的State-of-the-Art,包括調(diào)參包括實驗,大概需要排放3.3萬磅二氧化碳,相當(dāng)于15噸:
而要訓(xùn)練一只Transformer,包含神經(jīng)網(wǎng)絡(luò)架構(gòu)搜索 (NAS) 的那種,排放二氧化碳大概39.5萬磅,相當(dāng)于180噸。
比剛才的SOTA多了10倍不止。
那么,這些噸位到底是什么概念?
如果還看艾瑪提供的數(shù)據(jù):
訓(xùn)練一只Transformer的碳排放量,相當(dāng)于把三輛汽車從全新用到報廢;
如果換算成,一個人從紐約坐飛機(jī)去舊金山,再從舊金山回紐約,可以往返200次。
一個 (平均) 美國人10年日常生活的碳排,不過如此。
一個 (平均) 地球人30年日常生活的碳排,也不過如此。
現(xiàn)在,完整論文還沒放出,艾瑪說快了快了。
即便如此,驚人的數(shù)據(jù)也已在眾人矚目之下,收獲了許多質(zhì)疑:
“你這碳排怎么算的?”
谷歌大腦的研究員David Ha,就提出了問題:
用千瓦時作指標(biāo)才比較科學(xué)吧。因為不同的能源,每千瓦時的碳排會差出很多啊。看數(shù)據(jù):
他覺得,如果不知道能源是什么,就計算二氧化碳排放量,作為一篇論文并不嚴(yán)謹(jǐn);
但如果是為了讓大家重視環(huán)境問題,用碳排來博眼球,那就說得通了。
評論區(qū),有同樣感受的人類不在少數(shù):
看來保護(hù)地球,也需要有一顆嚴(yán)謹(jǐn)?shù)男摹?/p>
One More Thing
當(dāng)然,觀眾大多還是對這項研究表示喜聞樂見,有人說:
以后交論文的時候,應(yīng)該要求把碳排信息附上。
閣下以為如何?
—?完?—




