《麻省理工技術(shù)評論》曾在官網(wǎng)發(fā)表文章表示,隨著ChatGPT等大模型的持續(xù)火熱,對訓練數(shù)據(jù)的需求越來越大。大模型就像是一個“網(wǎng)絡(luò)黑洞”不斷地吸收,最終會導致沒有足夠的數(shù)據(jù)進行訓練。
而知名AI研究機構(gòu)Epochai直接針對數(shù)據(jù)訓練問題發(fā)表了一篇論文,并指出,到2026年,大模型將消耗盡高質(zhì)量數(shù)據(jù);到2030年—2050年,將消耗盡所有低質(zhì)量數(shù)據(jù);
到2030年—2060年,將消耗盡所有圖像訓練數(shù)據(jù)。(這里的數(shù)據(jù)指的是,沒有被任何標記、污染過的原生數(shù)據(jù))
論文地址:https://arxiv.org/pdf/2211.04325.pdf
事實上,訓練數(shù)據(jù)的問題已經(jīng)顯現(xiàn)。OpenAI表示,缺乏高質(zhì)量訓練數(shù)據(jù)將成為開發(fā)GPT-5的重要難題之一。這就像人類上學一樣,當你的知識水平達到博士級別時,再給你看初中的知識對學習毫無幫助。
所以,OpenAI為了增強GPT-5的學習、推理和AGI通用能力,已建立了一個“數(shù)據(jù)聯(lián)盟”,希望大面積搜集私密、超長文本、視頻、音頻等數(shù)據(jù),讓模型深度模擬、學習人類的思維和工作方式。
目前,冰島、Free Law Project等組織已加入該聯(lián)盟,為OpenAI提供各種數(shù)據(jù),幫助其加速模型研發(fā)。
此外,隨著ChatGPT、Midjourney、Gen-2等模型生成的AI內(nèi)容進入公共網(wǎng)絡(luò),這對人類構(gòu)建的公共數(shù)據(jù)池將產(chǎn)生嚴重污染,會出現(xiàn)同質(zhì)化、邏輯單一等特征,加速高質(zhì)量數(shù)據(jù)消耗的進程。
高質(zhì)量訓練數(shù)據(jù),對大模型研發(fā)至關(guān)重要
從技術(shù)原理來看,可以把大語言模型看成“語言預測機器”, 通過學習大量文本數(shù)據(jù),建立起單詞之間的關(guān)聯(lián)模式,然后利用這些模式來預測文本的下一個單詞或句子。
Transformer便是最著名、應用最廣泛的架構(gòu)之一,ChatGPT等借鑒了該技術(shù)。
簡單來說,大語言模型就是“照葫蘆畫瓢”,人類怎么說它就怎么說。所以,當你使用ChatGPT等模型生成文本時,會感覺這些文本內(nèi)容的敘述模式在哪里見過。
因此,訓練數(shù)據(jù)的質(zhì)量直接決定了大模型學習的結(jié)構(gòu)是否準確。如果數(shù)據(jù)中包含了大量語法錯誤、措辭不當、斷句不準、虛假內(nèi)容等,那么模型預測出來的內(nèi)容自然也包含這些問題。
例如,訓練了一個翻譯模型,但使用的數(shù)據(jù)都是胡編亂造的低劣內(nèi)容,AI翻譯出來的內(nèi)容自然會非常差。
這也是為什么我們經(jīng)常會看到很多參數(shù)很小,性能、輸出能力卻比高參數(shù)還強的模型,主要原因之一便是使用了高質(zhì)量訓練數(shù)據(jù)。
大模型時代,數(shù)據(jù)為王
正因數(shù)據(jù)的重要性,高質(zhì)量的訓練數(shù)據(jù)成為OpenAI、百度、Anthropic、Cohere等廠商必爭的寶貴資源,成為大模型時代的“石油”。
早在今年3月,國內(nèi)還在瘋狂煉丹研究大模型時,百度已經(jīng)率先發(fā)布了對標ChatGPT的生成式AI產(chǎn)品——文心一言生。
除了超強的研發(fā)能力之外,百度通過搜索引擎積累的20多年龐大的中文語料數(shù)據(jù)幫了大忙,并在文心一言的多個迭代版本中發(fā)揮重要作用,遙遙領(lǐng)先國內(nèi)其他廠商。
高質(zhì)量數(shù)據(jù)通常包括出版書籍、文學作品、學術(shù)論文、學校課本、權(quán)威媒體的新聞報道、維基百科、百度百科等,經(jīng)過時間、人類驗證過的文本、視頻、音頻等數(shù)據(jù)。
但研究機構(gòu)發(fā)現(xiàn),這類高質(zhì)量數(shù)據(jù)的增長非常緩慢。以出版社書籍為例,需要經(jīng)過市場調(diào)研、初稿、編輯、再審等繁瑣流程,耗費幾個月甚至幾年時間才能出版一本書,這種數(shù)據(jù)產(chǎn)出速度,遠遠落后大模型訓練數(shù)據(jù)需求的增長。
從大語言模型過去4年的發(fā)展趨勢來看,其年訓練數(shù)據(jù)量的增速超過了50%。也就是說,每過1年就需要雙倍的數(shù)據(jù)量來訓練模型,才能實現(xiàn)性能、功能的提升。
所以,你會看到很多國家、企業(yè)嚴格保護數(shù)據(jù)隱私以及制定了相關(guān)條例,一方面,是保護用戶的隱私不被第三方機構(gòu)搜集,出現(xiàn)盜取、亂用的情況;
另一方面,便是為了防止重要數(shù)據(jù)被少數(shù)機構(gòu)壟斷和囤積,在技術(shù)研發(fā)時無數(shù)據(jù)可用。
到2026年,高質(zhì)量訓練數(shù)據(jù)可能會用光
為了研究訓練數(shù)據(jù)消耗問題,Epochai的研究人員模擬了從2022年—2100年,全球每年產(chǎn)生的語言和圖像數(shù)據(jù),然后計算這些數(shù)據(jù)的總量。
又模擬了ChatGPT等大模型對數(shù)據(jù)的消耗速率。最后,比較了數(shù)據(jù)增長速度和被消耗的速度,得出了以下重要結(jié)論:
在當前大模型的高速發(fā)展趨勢下, 到2030年—2050年將消耗盡所有低質(zhì)量數(shù)據(jù);高質(zhì)量數(shù)據(jù),極有可能在2026年就會消耗完。
到2030年—2060年,將消耗盡所有圖像訓練數(shù)據(jù);到2040年,由于缺乏訓練數(shù)據(jù),大模型的功能迭代可能會出現(xiàn)放緩的跡象。
研究人員使用了兩個模型進行了計算:第一個模型,通過大語言和圖像模型兩個領(lǐng)域?qū)嶋H使用的數(shù)據(jù)集增長趨勢,再利用歷史統(tǒng)計數(shù)據(jù)進行外推,預測它們何時會達到消耗峰值和平均消耗。
第二個模型:預測未來每年全球范圍內(nèi)將產(chǎn)生多少新數(shù)據(jù)。該模型基于三個變量,全球人口數(shù)量、互聯(lián)網(wǎng)普及率和平均每個網(wǎng)民每年產(chǎn)生的數(shù)據(jù)。
同時研究人員使用聯(lián)合國數(shù)據(jù)擬合出人口增長曲線,用一個S型函數(shù)擬合互聯(lián)網(wǎng)使用率,并做出每人每年產(chǎn)數(shù)據(jù)基本不變的簡單假設(shè),三者相乘即可估算全球每年的新數(shù)據(jù)量。
該模型已經(jīng)準確預測出Reddit(知名論壇)每個月產(chǎn)出的數(shù)據(jù),所以,準確率很高。
最后,研究人員將兩個模型進行相結(jié)合得出了以上結(jié)論。
研究人員表示,雖然這個數(shù)據(jù)是模擬、估算出來的,存在一定的不確定性。但為大模型界敲響了警鐘,訓練數(shù)據(jù)可能很快成為制約AI模型擴展和應用的重要瓶頸。
AI廠商們需要提前布局數(shù)據(jù)再生、合成的有效方法,避免在發(fā)展大模型的過程中出現(xiàn)斷崖式數(shù)據(jù)短缺。
本文素材來源麻省理工科技評論官網(wǎng)、Epochai論文,如有侵權(quán)請聯(lián)系刪除
未經(jīng)允許不得轉(zhuǎn)載:RPA中國 | RPA全球生態(tài) | 數(shù)字化勞動力 | RPA新聞 | 推動中國RPA生態(tài)發(fā)展 | 流 > ChatGPT等模型:到2026年,將消耗盡高質(zhì)量訓練數(shù)據(jù)
熱門信息
閱讀 (14728)
1 2023第三屆中國RPA+AI開發(fā)者大賽圓滿收官&獲獎名單公示閱讀 (13753)
2 《Market Insight:中國RPA市場發(fā)展洞察(2022)》報告正式發(fā)布 | RPA中國閱讀 (13055)
3 「RPA中國杯 · 第五屆RPA極客挑戰(zhàn)賽」成功舉辦及獲獎名單公示閱讀 (12964)
4 與科技共贏,與產(chǎn)業(yè)共進,第四屆ISIG中國產(chǎn)業(yè)智能大會成功召開閱讀 (11567)
5 《2022年中國流程挖掘行業(yè)研究報告》正式發(fā)布 | RPA中國