GPT-4推理能力暴漲32%,谷歌新型思維鏈效果超CoT,成本降至1/40
讓大模型千人千面
明敏 發自 凹非寺
量子位 | 公眾號 QbitAI
GPT-4推理能力還能暴漲32%?
谷歌&南加大推出最新研究“自我發現”(Self-Discover),重新定義了大模型推理范式。
與已成行業標準的思維鏈(CoT)相比,新方法不僅讓模型在面對復雜任務時表現更佳,還把同等效果下的推理成本壓縮至1/40。

核心策略其實很簡單:千人千面。
讓大模型針對不同問題,提出特定的推理結構。完全不同于以往CoT等方法“千篇一律”的方式。

這種靈活應變的方式,更加貼近于人類的思考模式,也向著期待中的大模型思維方式更進一步。

大模型“千人千面”
一直以來大模型在處理復雜問題時都容易遇到困難,所以一些模擬人類思維能力的提示方法被提出。
最出名的就是思維鏈(CoT),它通過引導大模型“一步一步來”,讓大模型能像人類一樣逐步思考解決問題,最終帶來顯著性能提升。
還有分解法(decomposition-based prompting),它是讓大模型將復雜問題拆解成一個個更小的子問題。
這類方法本身都能充當一個原子推理模塊,對給定任務的處理過程做了先驗假設,也就是讓不同問題都套到同一個流程里解決。
但是不同方法其實都有更擅長和不擅長的領域。比如在解決涉及符號操作等問題時,分解法要優于CoT。
所以研究人員提出,對于每個任務,都應該有獨特的內在推理過程,同時還不提高模型的推理成本。

自發現步驟架構由此而來。
它主要分為兩個階段。
第一階段指導大語言模型從原子推理模塊中進行挑選、調整、整合,搭建出一個可以解決特定任務的推理結構。
比如“創造思維”可能在創作故事任務上有幫助、“反思思考”可能對搜索科學問題有幫助等。大模型需要根據任務進行挑選,然后進一步調整并完成整合。

第二階段輸入實例,讓大模型使用第一階段發現的推理結構來生成答案。

通過在GPT-4和PaLM 2上進行實驗,在BBH、T4D、MATH幾個基準中,使用自發現步驟架構后,模型的性能都有明顯提升。

在更細分的測試中,自發現步驟在需要世界知識的任務中表現最好,在算法、自然語言理解上超過CoT。

在處理問題的推理調用方面,自發現步驟需要的調用次數明顯少于CoT+Self Consistency,而且準確性更高。
如果想要達到和自發現步驟同樣的準確率,需要的推理計算量則是其40倍。

研究團隊
本項研究由南加州大學和谷歌DeepMind聯合推出。
第一作者是Pei Zhou,他現在正在南加州大學的NLP小組攻讀博士。
兩位通訊作者分別是Huaixiu Zheng和Swaroop Mishra。
Huaixiu Zheng此前參與過谷歌LaMDA工作,這是谷歌一個專攻對話的大模型。
Swaroop Mishra是谷歌DeepMind的研究科學家,它參與的Self-Instruct框架在GitHub上星標3.5k、被引用次數超過600,并被ACL 2023接收。
此外Quoc Le、Denny Zhou等大模型提示微調、推理方向的老面孔也參與其中。
雖然官方暫未開源,但已經有迫不及待的開發者根據論文自行復現了代碼。
發現不僅適用于GPT-4和谷歌PaLM,連Mistral家泄露版模型Miqu上都能很好發揮作用。

論文地址:
https://arxiv.org/abs/2402.03620
- DeepSeek-V3.2-Exp第一時間上線華為云2025-09-29
- 你的AI助手更萬能了!天禧合作字節扣子,解鎖無限新功能2025-09-26
- 你的最快安卓芯片發布了!全面為Agent鋪路2025-09-26
- 任少卿在中科大招生了!碩博都可,推免學生下周一緊急面試2025-09-20



