掃碼關注量子位
而且還不增加參數量
RNN的速度+Transformer的性能
下一次突破來自多模態推理+具身智能
帶工具的SSMs更具潛力
“閉源人工智能在阻礙我們探索真正的科學”
保持大模型性能的同時降低計算和內存成本
而且Attention并非All You Need
像人類一樣“想清楚再回答”
將標準點積注意力推廣到三元線性函數
能夠動態調制大模型的超網絡架構
入選CVPR 2025,代碼已開源
正向掩碼+反向預測
新的長期記憶模塊
推理階段也適用
CoT讓Transformer更接近圖靈完備
預言5年內機器人領域將迎來大突破!
與Jeff Dean一起共事
作者:和MLP不能互相取代
Transformer作者創業成果
ViT作者等一眾學者點贊
量子位 QbitAI 版權所有©北京極客伙伴科技有限公司 京ICP備17005886號-1