本期《张小珺商业访谈录》由小珺主持,邀请麻省理工学院博士杨松琳探讨人工智能的算法与架构创新,重点分析了 Kimi Linear、Minimax M2、Qwen3-Next 等新模型中的注意力机制。杨松琳作为 Kimi Linear 论文的作者之一,详细讲解了线性注意力机制的原理、发展历程及其在长文本处理中的优势,并对比了 Kimi Linear Attention 与 DeepSeek Sparse Attention 的不同技术路线选择。此外,还讨论了数据墙背景下算法创新的重要性、Transformer 架构的局限性以及未来算法演进的方向,强调硬件亲和性对算法设计的重要性,并认为国内算法创新在架构层面更具优势。
Sign in to continue reading, translating and more.
Continue