
本期《张小珺商业访谈录》由主持人张小珺对话 MIT 博士杨松琳,深入探讨人工智能算法与架构创新,重点分析了 Kimi Linear、Minimax M2、Queen3Next 等新模型。杨松琳作为 Kimi Linear 论文的作者之一,详细解读了线性注意力机制,讨论了数据瓶颈下算法创新的重要性,以及中国 AI 算法在算力限制下的发展优势。访谈内容涵盖 DeepSeek 的 MOE 混合专家模型、Sparse Attention、Linear Attention 等技术押注,并对 Kimi Linear 的设计逻辑、性能表现,以及 Minimax 在 Attention 机制上的选择与反复进行了分析,同时也探讨了硅谷公司在混合注意力机制上的探索方向。杨松琳还分享了线性注意力机制的发展线索,以及 Linear Attention 和 Sparse Attention 的未来结合的可能性,并对 Transformer 架构的未来演进方向提出了自己的见解。
Sign in to continue reading, translating and more.
Continue