Transformer
谷歌新架構(gòu)突破Transformer超長上下文瓶頸!Hinton靈魂拷問:后悔Open嗎?
RNN的速度+Transformer的性能
Transformer作者爆料GPT-5.1內(nèi)幕!OpenAI內(nèi)部命名規(guī)則變亂了
下一次突破來自多模態(tài)推理+具身智能
Transformer作者:DeepSeek才有搞頭,OpenAI指望不上了
“閉源人工智能在阻礙我們探索真正的科學”
Transformer危!谷歌MoR架構(gòu)發(fā)布:內(nèi)存減半推理速度還翻倍
保持大模型性能的同時降低計算和內(nèi)存成本
Mamba一作預告新架構(gòu)!長文論述Transformer≠最終解法
而且Attention并非All You Need
一句話生成任務專屬LoRA!Transformer作者創(chuàng)業(yè)公司顛覆LLM微調(diào)
能夠動態(tài)調(diào)制大模型的超網(wǎng)絡架構(gòu)























