色综合中文综合网_性猛交娇小69hd_久久精品99久久久久久_欧美日韩精品一区二区三区四区 _97视频色精品_国产高清精品久久久久_日日鲁鲁鲁夜夜爽爽狠狠视频97 _国产成人免费视频精品含羞草妖精 _熟女少妇在线视频播放_精品人妻一区二区三区麻豆91 _久久女同性恋中文字幕_一区二区福利视频

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

網友:跑完項目我要把ML工程師寫簡歷上 !

西風 發自 凹非寺

量子位 | 公眾號 QbitAI

100美元成本、8000行代碼純手搓克隆ChatGPT!

特斯拉前AI總監、OpenAI創始成員、宣布全職搞教育的AI大神Andrej?Karpathy(卡帕西)沉寂了好久,終于終于終于來上新課了!

新作nanochat,被其本人稱作是寫得最“精神錯亂”放飛自我的作品之一。

它是一個極簡的、從零開始構建的全棧訓練/推理pipeline,用最少量依賴的單一代碼庫實現了簡易版ChatGPT。

只要你啟動一臺云GPU服務器,運行一個腳本,最快只要4小時,就能在類似ChatGPT的網頁界面與自己訓練的大語言模型對話。

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

整個項目約8000行代碼,可實現以下功能:

  • 基于全新Rust語言實現,訓練分詞器(tokenizer)
  • 在FineWeb數據集上預訓練Transformer架構大語言模型,并通過多項指標評估CORE得分
  • 在SmolTalk用戶-助手對話數據集、多項選擇題數據集、工具使用數據集上進行中期訓練(Midtrain)
  • 執行指令微調(SFT),并在世界知識多項選擇題數據集(ARC-E/C)、數學數據集(GSM8K)、代碼數據集(HumanEval)上評估對話模型性能
  • 可選在GSM8K數據集上通過“GRPO”算法對模型進行強化學習(RL)訓練
  • 在推理引擎中實現高效模型推理,支持KV緩存、簡易預填充/解碼流程、工具使用(輕量級沙箱環境中的Python解釋器),可通過CLI或類ChatGPT的WebUI與模型交互
  • 生成單個Markdown格式報告卡,對整個訓練推理流程進行總結,并加入“游戲化”呈現(如用評分、進度等形式直觀展示結果)

整體成本只需約100美元(在8×H100上訓練4小時),就能訓練復刻出一個可進行基礎對話、創作故事詩歌、回答簡單問題的簡易版ChatGPT模型。

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

整體表現指標如下:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

訓練約12小時后,模型在CORE指標上的表現即可超越GPT-2。

若進一步將成本提升至約1000美元(訓練約41.6小時),模型表現顯著提升,能解決簡單的數學/代碼問題,還能做多項選擇題。

舉個具體的例子:一個深度為30的模型訓練24小時后(相當于GPT-3 Small 125M的算力消耗,僅為GPT-3的千分之一),在MMLU數據集上可達到40多分,在ARC-Easy數據集上達70多分,在GSM8K數據集上達20多分。

卡帕西表示,他的目標是將這套完整的“強基線”技術棧整合為統一、極簡、易讀、可修改、易分發的代碼庫。

nanochat將成為LLM101n課程的壓軸項目(該課程仍在開發中)。

我認為它還有潛力發展為一個研究工具框架或基準測試的工具,就像之前的nanoGPT一樣。目前該項目遠未完全優化(實際上存在大量可改進空間),但整體框架已足夠完整,可以發布到GitHub上,后續所有模塊都能在社區中進一步優化。

等來新作的網友也已徹底瘋狂。項目剛發出來,GitHub Star數已飆到4.8k:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

太酷了!跑一次這個項目,就把“機器學習工程師(ML Engineer)”放在我的簡歷上!

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

你發布的不只是代碼,更是可被理解的智慧,價值爆炸,栓Q。

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

在評論區,卡帕西還解釋了nanochat基本架構與Llama類似,但更簡化一些,也借鑒了部分modded-nanoGPT的設計,整體是為此規模的模型找到一個穩健的基礎架構。

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

以及這個項目基本上是完全手寫的

我確實嘗試過用Claude或Codex之類的Agent來幫忙,但效果非常糟糕,幾乎毫無幫助。可能是因為這個repo的結構偏離了它們訓練數據的分布,所以它們根本“對不上號”。

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

話不多說,下面來看nanochat快速上手的詳細指南。

100美元成本,能捏出的最好的ChatGPT

從比如Lambda GPU Cloud上啟動了一臺8卡H100的服務器,每小時要花大約24美元,所以接下來得爭分奪秒了。

環境搭建

克隆項目:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

目標是用100美元的成本訓練出一個最好的類ChatGPT模型,稱之為一次“速通(speedrun)”,可參考speedrun.sh這個腳本,它被設計成能在一臺全新的服務器上直接從頭到尾運行。

但接下來,卡帕西會逐步講解其中的每一步。

首先需要確保安裝了當下熱門的uv項目管理器。安裝uv,在.venv目錄下創建一個新的虛擬環境,獲取所有依賴項,然后激活該環境,這樣當輸入python時,使用的是虛擬環境中的Python,而不是系統自帶的Python:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

接下來,需要安裝Rust/Cargo,以便編譯自定義的Rust分詞器。引入一個全新/自定義的分詞器確實有點折騰,但遺憾的是,卡帕西覺得早期minbpe項目中的Python版本速度太慢,而huggingface的分詞器又過于臃腫且令人困惑。

因此要專門為訓練打造了自己的新分詞器(經測試與Python版本效果一致),不過在推理時仍會使用OpenAI的tiktoken來保證效率。

現在就開始編譯分詞器吧:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

訓練分詞器

接下來,需要獲取預訓練數據,這樣才能:1)訓練分詞器;2)對模型進行預訓練。

預訓練數據就是大量網頁的文本內容,這里將使用FineWeb-EDU數據集。

通常來說,可以直接用huggingface datasets.load_dataset(),但卡帕西不喜歡它過于臃腫笨重且掩蓋了本應簡單的邏輯,所以把整個數據集重新打包成了簡單、完全打亂的分片,這樣就能輕松高效地隨意訪問,并且把它的sample-100B版本重新上傳為karpathy/fineweb-edu-100b-shuffle。

在這個頁面上,你還可以預覽數據集中的示例文本。每個分片是一個約0.25M個字符的簡單parquet文件,壓縮后(gzip格式)在磁盤上大約占100MB。總共有1822個分片,但訓練深度為20的模型只需要其中240個。

現在就開始下載所有數據吧。雖然需要下載約24GB,但在云服務器上通常速度很快:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

默認情況下,所有這些都會被下載到~/.cache/nanochat目錄下。

下載完成后,開始訓練分詞器——它負責在字符串與符號碼本(codebook)序列之間進行雙向轉換。默認情況下,訓練的詞匯表大小是21?= 65,536個tokens(這是個不錯的數字),其中部分tokens會被保留作為特殊tokens(供后續聊天模式使用)。訓練集包含2B字符,訓練僅需約1分鐘。

訓練算法與OpenAI使用的完全一致(regex splitting, byte-level BPE)。想了解更多信息,可以看卡帕西關于tokenization技術的視頻講解。

訓練完成后可以評估這個分詞器:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

評估結果顯示,實現了約4.8的壓縮比(即原始文本中平均4.8個字符壓縮為1個token),還可以看到與GPT-2、GPT-4分詞器的對比結果。

相比GPT-2(擁有50257個tokens),在壓縮文本方面全面更優,僅在數學內容上稍遜一籌:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

與GPT-4相比,表現并不突出,但需要考慮到GPT-4擁有更大的詞匯表規模(100,277個tokens)。特別是在多語言處理方面GPT-4優勢明顯(由于FineWeb數據集高度側重英語內容,這個結果很合理),同時在代碼和數學領域也更勝一籌:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

盡管如此,即使在詞匯量較小的條件下,我們在FineWeb數據集上仍以微弱優勢超越了GPT-4——因為這正是我們訓練所用的數據集,所以我們的分詞器能完美契合該文檔分布(例如在英語文本壓縮方面可能更具優勢)。

預訓練

在啟動預訓練之前,需要下載另一個被卡帕西稱之為“評估包(eval bundle)”的文件。

在預訓練過程中,腳本會定期評估CORE指標。你可以在DCLM論文中看到一些細節,本質上,它是一個很好的、標準化的、寬泛的指標,用于衡量模型在大量自動補全數據集上的表現好壞。

這些數據集包括HellaSwag、jeopardy、bigbench QA wikidata、ARC-Easy/Challenge、copa、commonsense qa、piqa、lambada、winograd、boolq等等(共22個)。

下載、解壓該評估包,并將評估包目錄放置到基礎目錄~/.cache/nanochat/eval_bundle下:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

還建議(盡管這是可選的)再做一項設置:

配置wandb,以便在訓練過程中查看美觀的圖表。前面uv已經安裝好了wandb,但你仍需創建賬戶并登錄:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

現在我們可以啟動預訓練了!這是計算量最大的部分,要訓練大語言模型(LLM),通過預測序列中的下一個token來壓縮互聯網網頁文本,在此過程中,大語言模型會獲取大量關于世界的知識:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

在這里,通過scripts/base_train.py腳本在8塊GPU上啟動訓練。我們正在訓練一個有20層的Transformer。默認情況下,每塊GPU在每次前向/反向傳播時處理32行、每行2048個tokens的數據,優化器每一步總共處理32×2048=21?=524,288≈0.5M個tokens。

如果已經設置好了wandb,可以添加—run=speedrun(所有訓練腳本都支持該參數)來設置運行名稱并記錄相關數據。

當你啟動訓練后,會看到類似這樣的輸出(為簡潔起見,省略了大量內容):

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

可以看到,這個Transformer有1280個channels,注意力機制中有10個注意力頭,每個頭的dim=128。它大約有560M參數。為了符合Chinchilla scaling law的建議,這意味著我們需要用560M×20≈11.2B tokens來進行訓練。

由于優化器的每一步處理524,288個tokens,這意味著11.2B/0.5M≈21400次迭代。

通過對每個token的估計FLOPs與總tokens數相乘,我們可以知道這將是一個計算量達約4e19 FLOPs的模型。

學習率會自動按1/sqrt(dim)自動縮放,因為更大的模型更偏好更小的學習率。

我們使用Muon來優化矩陣,使用AdamW來優化嵌入和反嵌入。在這個模型中,沒有其他可訓練的參數(比如偏置、rmsnorm參數等)。訓練過程會定期報告“驗證集bpb”,即驗證數據集上每字節的位數。

每字節位數(bits per byte)是一個比典型的交叉熵損失更好的衡量指標,因為它通過每個token的字節數進一步歸一化了每個token的損失,使得該指標與分詞器無關。

所以,無論你使用的是詞匯量小的分詞器還是詞匯量大的分詞器,這個數值都是可比較的,而原始的交叉熵損失則不然。

注意,每一步大約耗時0.5秒,lrm是學習率衰減乘數(在訓練接近尾聲時,它會線性下降到0),報告的MFU(模型flops利用率)看起來很不錯,幾乎達到了一半,這意味著我們充分利用了可用的bfloat16計算能力。

現在,要等待大約3小時,直到4e19 FLOPs的計算量完成……在你的wandb圖表中,你應該會看到類似這樣的內容:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

隨著時間的推移,bpb下降是好的跡象(說明模型能更準確地預測下一個token)。此外,CORE分數在上升。

除了這些近似的指標,還可以更全面地評估模型:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

可以看到,訓練集/驗證集的bpb達到了約0.81,CORE指標上升到了0.22。

作為對比,評估包中包含了GPT-2模型的CORE分數。具體來說,0.22的CORE分數略高于GPT-2 large(0.21),但略低于GPT-2 xl(即“標準”的GPT-2,為0.26)。

此時,這個模型就像一個高級的自動補全工具,所以我們可以運行一些提示詞,來感受模型中存儲的知識。base_loss.py文件會運行這些提示詞。這些提示詞包括:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

補全后的文本如下:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

所以,模型知道巴黎是法國的首都、Au代表金、星期六在星期五之后、“冷”是“熱”的反義詞,甚至還知道太陽系的行星。

不過,它對天空的顏色還不太確定,也不太會做簡單的數學題。

對于一個花費72美元訓練出來的模型來說,已經不算太差了。推理過程使用了一個自定義的Engine class,利用KV緩存來實現高效推理,同時還簡單實現了兩種常見的推理階段:預填充和解碼。

我們的Engine class還支持工具使用(比如Python解釋器),這在GSM8K數據集上訓練時會很有用(之后會詳細介紹)。

訓練中期

接下來是中期訓練,這一步會在smol-SmolTalk數據集上進一步微調模型。

算法層面和預訓練完全一致,但數據集變成了對話內容,而且模型會去適應那些用于構建多輪對話結構的新特殊token。現在,每次對話大致是這樣的,大致遵循OpenAI的Harmony聊天格式:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

像<|example|>這樣顯示的token是特殊token,遵循OpenAI特殊token的格式。中期訓練階段對模型的多種適配非常有用

  • 模型學習與多輪對話相關的特殊token(除了用于分隔文檔的<|bos|>token,基礎模型預訓練期間沒有這些token)。
  • 模型適應對話的數據分布,而非互聯網文檔的數據分布。
  • 對我們來說非常重要的一點是,必須教會模型做多項選擇題,因為在這么小的模型規模下,模型無法從隨機的互聯網數據中學會這一點。具體而言,模型必須學會將幾個選項與幾個字母(如ABCD)關聯起來,然后輸出正確選項的算法。通過混合10萬道來自MMLU輔助訓練集的多項選擇題來實現這一點。需要明確的是,問題不在于模型沒有相關知識,而在于它不理解多項選擇題的運作方式,無法將知識展現出來。這很重要,因為許多常見的模型評估(如MMLU)都采用多項選擇題的形式。
  • 你可以教會模型使用各種工具。對我們來說,需要通過在特殊token <|python_start|>和<|python_end|>之間放入Python命令,來教會模型使用Python解釋器。這對之后解決GSM8K問題會很有用。
  • 在中期訓練期間,你還可以針對許多其他適配進行訓練,例如上下文長度擴展(尚未探索)。

中期訓練混合數據默認是這樣的:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

然后按如下方式啟動它:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

這次運行只需要大約8分鐘,比預訓練的約3小時短得多。現在,模型已經是一個真正的聊天模型,能夠扮演助手的角色回答用戶的問題,可以對其進行評估:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

得到了該階段模型的以下結果:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

可以看到:

  • 世界知識:前三項(ARC-E/C和MMLU)都是多項選擇題測試,用于衡量模型在各個領域的世界知識。由于有4個選項(A、B、C、D),隨機猜測的正確率約為25%,所以模型已經表現得比隨機猜測更好了。(對于這么小的模型來說,多項選擇題是相當難的)
  • 數學:GSM8K是小學水平的數學題。這里的基準性能是0%,因為模型必須寫出實際的答案數字。目前我們的性能仍然不是很強,只解決了2%的問題。
  • 代碼:HumanEval是一個Python編碼基準測試,同樣,隨機基準性能為0%。
  • ChatCORE:這是卡帕西嘗試復制CORE分數對基礎模型的評估方式,并將其擴展到聊天模型的成果。也就是說,將上述所有指標都減去基準性能,這樣分數就在0到1之間(例如,隨機模型得0分,而不是MMLU上的25%),然后報告所有任務的平均值。它是對當前模型實力的一個單一數字總結。
  • 這些評估仍然相當不完整,還有很多其他可以衡量但尚未衡量的方面。

確實沒有一個很好的圖表來展示這一步,但這里有一個之前對另一個更大的模型進行中期訓練的例子,只是為了讓你了解在微調運行期間這些指標上升時的樣子:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

監督微調

中期訓練之后是監督微調(SFT)階段。

這是在對話數據上額外進行的一輪微調,理想情況下,你會精心挑選最優質的好數據,而且也會在這里進行安全訓練(比如助手拒絕不當請求的訓練)。

我們的模型甚至連天空的顏色都還不確定,所以目前在生物危害這類問題上可能還是安全的。這里會進行的一項領域適配是,SFT會拉伸數據行并對其進行填充,完全模擬測試時的格式。

換句話說,示例不再像預訓練/中期訓練時那樣為了訓練效率而被隨機拼接成長行。修正這種領域不匹配的問題,是另一個小小的“擰緊螺絲”式的提升。我們可以運行SFT并重新評估:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

這個過程同樣只需運行約7分鐘,你應該能觀察到各項指標均有小幅提升:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

終于,我們可以以用戶身份與模型對話了!

其實在中期訓練后就可以進行對話,但現在效果會更理想些。你可以通過終端窗口(方式1)或網頁界面(方式2)與它交流:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

chat_web腳本會使用FastAPI來提供Engine服務。要確保正確訪問它,比如在Lambda上,使用你所在節點的公網IP,后面加上端口,例如http://209.20.xxx.xxx:8000/等等。

那看起來會很棒,大概是這樣的:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

它短期內還無法在物理或詩歌比賽中獲勝,但話說回來——用這么少的預算能做到這個程度,看起來還是很酷的,而且這個項目還遠遠沒到充分調優的地步

強化學習

“速通”的最后一個階段是強化學習。

基于人類反饋的強化學習(RLHF)是一種不錯的方法,能提升幾個百分點的性能,還能緩解很多因采樣循環本身帶來的模型缺陷——比如幻覺、無限循環等。

但以我們的規模,這些都不是主要考慮因素。話雖如此,在我們目前使用的所有數據集中,GSM8K是唯一一個有清晰、客觀獎勵函數的(數學題的正確答案)。

所以我們可以運行RL(/GRPO)腳本,通過交替進行采樣和訓練的簡單強化學習循環,直接在答案上進行性能攀升:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

在強化學習過程中,模型會遍歷訓練集中所有的GSM8K題目,對完成情況進行采樣,然后我們會對這些采樣結果進行獎勵,并針對獲得高獎勵的樣本進行訓練。

我們使用的是高度簡化的GRPO訓練循環,比如,不使用信任區域(舍棄參考模型和KL正則化),采用在策略(舍棄PPO的比率+裁剪),使用GAPO風格的歸一化(基于token級,而非序列級歸一化),優勢函數僅通過均值進行簡單的獎勵平移(舍棄用除以標準差的z分數歸一化)。

所以最后得到的東西看起來更像是REINFORCE算法,但保留了GR(”組相對”)部分來計算獎勵的優勢值。在當前規模和任務簡單度下,這種方法效果尚可。更多細節請參閱腳本。

目前強化學習默認是注釋掉的,因為它還沒有經過很好的調優,而且我們也沒有完整通用的RLHF。

只針對GSM8K進行了強化學習,這也是為什么用-a標志將評估也限制在GSM8K上。由于強化學習就像通過吸管汲取監督信號,這個過程會運行相當長的時間。

例如,默認設置下運行約1.5小時后,效果如下所示:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

成績

最后卡帕西指出的是項目文件夾里出現的report.md文件。它包含了很多與運行相關的細節,最后還有一個不錯的總結表格:

  • Characters:333,989
  • Lines:8,304
  • Files:44
  • Tokens(approx):83,497
  • Dependencies(uv.lock lines):2,004
卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

總用時:3小時51分鐘

需要注意的是,由于目前對強化學習(RL)的支持還不太完善,在計算總耗時時把它排除了。到監督微調(SFT)階段為止,整個過程運行了3小時51分鐘,總成本為(3+51/60)×24=92.4美元(如果加上強化學習,現在總時間會更接近5小時)。

甚至還剩下8美元可以買冰淇淋呢。

該你了

借助nanochat,你可以對任何部分進行調優。

更換分詞器、修改任意數據、調整超參數、改進優化過程……有很多想法可以去嘗試。你或許還想訓練更大的模型。這個代碼庫的設置能讓你輕松做到這一點。

只需使用—depth參數來更改層數,其他所有相關設置都會基于這個參數作為復雜度的單一調節項而自動調整。比如,通道數會增加,學習率會相應調整等。

原則上,僅通過改變深度,你就能探索出一整套nanochat的“迷你系列”模型。使用更大的深度并等待更長時間,理論上你應該能得到明顯更好的結果。

你需要在base_train.py的預訓練階段傳入深度參數。例如,要得到一個CORE指標約為0.25、性能接近GPT-2的模型,嘗試depth=26是個不錯的選擇。

但訓練更大模型時,需要調整設備最大批處理大小,比如從32降至16:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

代碼會察覺到這一變化并自動進行補償,它會通過2次梯度累積循環來達到目標批處理量0.5M。要訓練depth=30的模型,需要進一步降低設置:

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

依此類推。歡迎大家去閱讀代碼,卡帕西盡力讓代碼保持易讀性,添加了注釋,代碼整潔且易于理解。

當然,你也可以把所有內容打包,去詢問你喜歡的大語言模型,或者更簡單的是,使用Devin/Cognition的DeepWiki來對這個代碼倉庫提問。只需把代碼倉庫的URL從github.com改成deepwiki.com即可,比如 nanochat DeepWiki。

就是這樣,調優整個流程的任意部分,重新運行,然后享受其中的樂趣吧!

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

AI界超高人氣專注于教育的大牛

卡帕西曾任特斯拉AI主管,之后去了OpenAI,去年2月從OpenAI離職。

他在整個AI界擁有超高的人氣,很大一部分來自于他的課程。

包括他自己的早期博客文字分享和后來的一系列Youtube視頻教程,他還與李飛飛合作開設的的斯坦福大學首個深度學習課程CS231n《卷積神經網絡與視覺識別》。

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

今天的不少學者和創業者,都是跟著他入門的。

卡帕西對教育的熱情,甚至可以追溯到學生時期在網上教大家玩魔方。

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

去年7月,從OpenAI離職的卡帕西突然官宣創業,搞了一家AI原生的新型學校——Eureka Labs

怎么理解AI原生?

想象一下與費曼一起學習高質量教材,費曼會在每一步中1對1指導你。

不幸的是,即使每個學科都能找到一位像費曼這樣的大師,他們也無法分身親自輔導地球上的80億人。

但AI可以,而且AI有無限的耐心,精通世界上所有的語言。

所以卡帕西要打造“教師+人工智能的共生”,可以在一個通用平臺上運行整個課程。

如果我們成功了,任何人都將易于學習任何東西,擴大教育這個概念本身的“范圍”和“程度”。

Eureka Labs首個產品,也是首門課程LLM101n。

手把手帶你構建一個類似ChatGPT的故事生成大模型,以及配套的Web應用程序。

卡帕西8000行代碼手搓ChatGPT,成本僅100美元,訓練12小時CORE表現超越GPT-2,手把手教程來了

GitHub repo:https://github.com/karpathy/nanochat
詳細指南:https://github.com/karpathy/nanochat/discussions/1
參考鏈接:https://x.com/karpathy/status/1977755427569111362

版權所有,未經授權不得以任何形式轉載及使用,違者必究。
一卡二卡三卡视频| 91免费小视频| 在线视频日本亚洲性| 日韩不卡一二三| 91免费国产视频网站| 国产精品裸体一区二区三区| 国产免费不卡视频| 久久天天躁日日躁| 国精品无码一区二区三区| 欧美精品亚洲二区| 在线免费看v片| 亚洲最大成人综合| 精品少妇在线视频| 久久久亚洲精品石原莉奈| 久热这里只精品99re8久| 污视频在线免费观看| 欧美激情视频三区| 国产成人精品一区二三区| 国产视频欧美视频| 欧美 变态 另类 人妖| 欧美午夜无遮挡| 99久久激情视频| 综合中文字幕亚洲| 国产不卡一区二区视频| 久久久精品国产免大香伊| 日韩成人在线资源| 美女性感视频久久| 亚洲综合成人婷婷小说| 男人天堂综合网| 国产精品白嫩美女在线观看| 国产精品女人久久久| 国模精品视频一区二区三区| 最新中文字幕在线观看视频| 欧美第一黄色网| 国产www在线| 欧美激情女人20p| 中文字幕第一页在线播放| 久久久久久伊人| 在线观看免费观看在线| 久久男人的天堂| 在线免费观看日韩视频| 清纯唯美亚洲激情| 亚洲精品无amm毛片| 国产精品一区二区3区| 天天干,夜夜爽| 国产精品久久久久久久天堂第1集 国产精品久久久久久久免费大片 国产精品久久久久久久久婷婷 | 丝袜制服一区二区三区| 亚洲午夜视频在线| 激情文学亚洲色图| 欧美欧美午夜aⅴ在线观看| 国产精品亚洲无码| 亚洲欧美日韩高清| 日本视频免费观看| 国产成人亚洲综合91精品| 色哟哟中文字幕| 成人在线免费观看一区| 国产高清在线观看免费不卡| 日本老太婆做爰视频| 国产精品妹子av| 亚洲污视频在线观看| 欧美日韩一区二区三区四区五区| 亚洲精品午夜视频| 久久精品人人爽| 国产视频第一页| 国产91社区| 久久亚洲免费视频| 亚洲欧洲日本精品| 日韩欧美久久久| 国产一级做a爰片在线看免费| 久久久久亚洲精品| 亚洲区小说区图片区| 日韩精品久久一区二区三区| 综合久久给合久久狠狠狠97色 | 欧美精品免费观看二区| 久久女同精品一区二区| 亚洲色图久久久| 日韩欧美一区二区久久婷婷| 欧美一级高潮片| 国产精品激情自拍| 福利电影一区二区| 欧美激情精品久久久久久小说| 欧美女孩性生活视频| 久久久久成人网站| 国产精品69精品一区二区三区| 国产一区日韩二区欧美三区| 大j8黑人w巨大888a片| 欧美日韩国产区一| 国产精品黄色大片| 91久久国产综合久久蜜月精品| 久久综合丝袜日本网| 中文字幕永久有效| 亚洲天堂av在线免费| 成 人 免费 黄 色| 国产福利片一区二区| 欧美日韩在线免费| 久久精品第一页| 国产主播喷水一区二区| 国产亚洲欧美日韩在线一区| 日本美女视频网站| 久久精品91久久久久久再现| 久热精品视频| 国产av人人夜夜澡人人爽麻豆| 日韩一区二区视频| 怡红院成永久免费人全部视频| 欧美亚洲国产免费| 91福利视频在线| 久久精品女人毛片国产| 成人免费看片网址| 亚洲国产精品久久人人爱蜜臀| 国产黄色录像片| 国产日韩在线观看av| 国产精品毛片久久久久久久| 97超碰在线资源| 日本高清不卡在线| 国产精品网站导航| 波多野结衣欲乱| 国产日韩欧美在线视频观看| 国产精品麻豆一区二区| 99热6这里只有精品| 91精品在线一区| 亚洲综合久久久| 久久精品久久国产| 日韩av一区二区三区美女毛片| 91久久精品一区二区三| 国产一卡二卡三卡| 热这里只有精品| 亚洲精品一区二区精华| 亚洲人视频在线观看| 熟妇人妻无乱码中文字幕真矢织江| 亚洲性生活视频| 久久国产成人午夜av影院| 国产精品igao网网址不卡| 国产69精品久久久久9| 久久久久久久久久美女| 国产一二三四区在线| 91嫩草在线视频| 无码av中文一区二区三区桃花岛| 日韩手机在线视频| 公共露出暴露狂另类av| 精品亚洲国产成av人片传媒| 久草这里只有精品视频| 黄色在线免费播放| 成人在线播放av| 色综合中文字幕国产| 97人妻一区二区精品免费视频 | 日韩一区二区三区久久| 欧美肥老妇视频| 国产视频一区二区在线观看| 欧美激情一区二区视频| 亚洲v欧美v另类v综合v日韩v| 精品成人一区二区三区四区| 久久99久国产精品黄毛片色诱| 最新国产精品自拍| 91亚洲国产成人精品性色| 色狠狠桃花综合| 手机在线观看毛片| 亚洲欧美综合视频| 97神马电影| 欧美丰满少妇xxxbbb| 手机精品视频在线观看| 精品国产av色一区二区深夜久久| 91视频免费在线| 欧美美女视频在线观看| 轻轻草成人在线| www.自拍偷拍| 久久精品99| 精品一区二区三区四区| 91丨porny丨中文| 久久久久免费看| 蜜臀精品一区二区| 午夜精品福利视频| 午夜欧美2019年伦理 | 捆绑调教美女网站视频一区| 在线精品一区二区三区| 麻豆亚洲一区| 在线看日韩av| 亚洲欧美一区二区三区久本道91| 一级特黄录像免费看| 蜜桃福利午夜精品一区| 97se国产在线视频| 精品国产亚洲在线| 26uuu亚洲综合色| 国产一级片av| 欧洲在线免费视频| 黑人另类av| 日韩在线观看你懂的| 一区二区三区在线观看视频| 欧美熟妇乱码在线一区| 久久综合久中文字幕青草| 高清不卡一区二区在线| 麻豆久久一区二区| 欧美国产禁国产网站cc| 97成人精品区在线播放| 欧美激情第一区| 日本精品999| 欧美xxxxxxxx| 国产无限制自拍| 性色av无码久久一区二区三区| 中文字幕在线播放av| 亚洲第一页视频| 尤物在线观看一区| 欧美午夜电影在线播放| 国产精品视频在线播放| 亚洲加勒比久久88色综合 | 久久久亚洲影院| 天天操天天爽天天射| 香蕉影院在线观看| 国内精品伊人久久久久av一坑 | 久久国产精品视频在线观看| 日韩免费在线视频观看| 精品一区免费av| 亚洲人成亚洲人成在线观看| 九九精品久久久| 久久国产夜色精品鲁鲁99| 欧美劲爆第一页| 亚洲综合av在线播放| 蜜桃视频在线观看一区| 午夜久久久久久久久久一区二区| 国产亚洲精品美女| 26uuu久久噜噜噜噜| 一本—道久久a久久精品蜜桃| 色哟哟无码精品一区二区三区| 久久99久久99| 精品一二三四在线| 国产精品美女一区二区| 日韩高清不卡av| 2025韩国理伦片在线观看| 免费在线观看日韩欧美| 午夜一区二区三区在线观看| 日韩视频一区二区三区| 情事1991在线| 小嫩苞一区二区三区| 欧美激情一二三区| 久久久久久久电影一区| 亚洲理论中文字幕| 婷婷激情5月天| 91亚洲国产成人久久精品麻豆| 久久日一线二线三线suv| 中文字幕在线精品| 亚洲一区二区三区四区av| 亚洲一区二区高清| 欧美高清中文字幕| 日韩黄色小视频| 久久中国妇女中文字幕| 日韩.欧美.亚洲| 制服 丝袜 综合 日韩 欧美| 日韩不卡一区二区| 欧美sm美女调教| 自拍偷拍99| 一卡二卡三卡在线观看| 国产精品一区二区久久精品爱涩| 福利视频导航一区| 欧美激情第99页| 久久综合加勒比| 国产丝袜视频一区| 五月婷婷综合色| 精品视频久久久久| 一本大道av伊人久久综合| 欧美福利精品| 蜜桃传媒一区二区三区| 亚洲精品www久久久久久| 精品久久久久久国产91| 欧美日韩精品不卡| 性插视频在线观看| 国产成人av一区二区三区| 国产suv一区二区三区88区| 亚洲图片小说在线| 国产剧情av麻豆香蕉精品| 国产中文字幕91| 欧美a在线播放| 欧美性猛交xxxx黑人| 51午夜精品视频| 中文字幕欧美激情极品| 黑人巨大精品欧美一区二区一视频| 中文字幕久精品免| 国产成人a人亚洲精品无码| 一区二区三区丝袜| 国产精品com| 亚洲性图第一页| 欧美日韩免费高清一区色橹橹| 中国xxxx性xxxx产国| 国产乱人伦偷精品视频不卡| 91精品国产91久久久久久最新 | 欧美日韩国产综合视频在线观看| 性欧美18一19内谢| 久久久青草婷婷精品综合日韩| 乱亲女秽乱长久久久| 人人草在线观看| 亚州成人av在线| 男人天堂网在线视频| 亚洲一区二区三区毛片| 国产精品亚洲视频| 国产精品无码人妻一区二区在线| 香蕉久久一区二区三区| 91av视频在线| 久久久久久无码精品人妻一区二区| 亚洲六月丁香色婷婷综合久久 | 午夜午夜精品一区二区三区文| 久久久久久久久久久久久久av| 国产一区二区三区在线看| 日本久久综合网| www.亚洲天堂| 少妇一级淫免费观看| 亚洲一区二区三区国产| 无码人妻丰满熟妇区毛片18| 精品在线一区二区| 日韩在线精品视频| 中文字幕在线看人| 午夜精品视频在线| 中文字幕+乱码+中文乱码www| 日本精品一区二区三区在线| 成人亚洲一区二区一| 黑森林av导航| 55夜色66夜色国产精品视频| 久久精品亚洲一区二区| 精品人妻人人做人人爽| 色欧美88888久久久久久影院| 免费成年人高清视频| 亚洲不卡av一区二区三区| 精品久久久久久一区| 国产精品一卡二卡| 午夜精品视频在线观看一区二区| 久久久综合九色合综国产精品| 黄色网在线视频| 国产91精品一区二区| 91久久在线观看| 午夜视频免费看| 欧洲高清一区二区| 欧美日韩久久久久| 成人一区二区三| 天天综合网 天天综合色| 亚洲欧美天堂在线| 欧美精品一区二区三区很污很色的| 中文写幕一区二区三区免费观成熟| 91蜜桃在线免费视频| 一本岛在线视频| 欧美精品亚洲一区二区在线播放| 国产精品白丝喷水在线观看| 国产富婆一区二区三区| 欧美一级免费大片| 肉色丝袜一区二区| 性生交大片免费看l| 午夜精品福利电影| 亚洲男人都懂的| 天天操天天操天天操天天| 91久久久久久| 成人丝袜高跟foot| 免费网站永久免费观看| 亚洲一区视频在线观看视频| 人妻体体内射精一区二区| 精品国产成人系列| 国产精品无码粉嫩小泬| 国自产精品手机在线观看视频| 一区二区 亚洲| 91欧美激情另类亚洲| 久久久www成人免费毛片麻豆| 青青草自拍偷拍| 久久久女女女女999久久| 狠狠久久亚洲欧美| 精品久久一二三| 亚洲欧美国产精品久久久久久久| 性一交一乱一乱一视频| 久久手机免费视频| 欧美a一区二区| 亚洲黄色av网址| 在线激情影院一区| 国产婷婷色一区二区三区| 亚洲美免无码中文字幕在线 | 久久99九九99精品| 成人片黄网站色大片免费毛片| 欧美做受高潮电影o| 国产亚洲一区二区在线观看| 国产999免费视频| 久久中文字幕一区| 国产69精品一区二区亚洲孕妇 | 日韩有码在线观看| 麻豆成人久久精品二区三区小说| 农村寡妇一区二区三区| 午夜精品123| 日韩熟女一区二区| 激情视频小说图片| 国产精品91久久| 日韩欧美一区二区在线视频| www.久久精品.com| 91亚洲精品一区二区| 久久精品欧美日韩精品| 97精品在线播放| 麻豆久久久9性大片| 亚洲精品视频免费在线观看| 日韩免费av片| 亚洲在线一区二区| 欧美日韩高清一区二区| 日本亚洲三级在线| 久久国产精品国产精品| 五月天久久狠狠| 国产一区深夜福利| 久久精品影视伊人网| 欧美人体做爰大胆视频| 26uuu国产电影一区二区| caoporn国产| 日韩一卡二卡在线观看| 成人免费毛片在线观看| 国产成人+综合亚洲+天堂| 91在线丨porny丨国产| 国产男女猛烈无遮挡| 成人综合视频在线| 国产欧美精品日韩精品| 91精品国产综合久久精品| 色综合久久久久久| 成人无码av片在线观看|