据 动察Beating 监测,普林斯顿博士生 Yifan Zhang 透露,中国 AI 公司 DeepSeek(深度求索)的下一代旗舰 V4 将在下周发布;他在跟帖里列出三项架构组件:稀疏 MQA(Sparse Multi-Query Attention)、融合 MoE 大核(Fused MoE Mega Kernel)、Hyper-Connections。Zhang 本科北大元培、硕士清华姚班,现为普林斯顿 AI Lab Fellow,曾在字节跳动 Seed 基础模型团队任研究实习生;目前不在 DeepSeek 任职,DeepSeek 官方也未就发布时间表作出确认。
三项组件各对应 LLM 优化里的一条独立方向。稀疏 MQA 是在多查询注意力基础上引入稀疏性,用于在长上下文场景进一步压低推理算力和显存占用;融合 MoE 大核把 MoE 的路由判断与专家矩阵乘法编进同一个 GPU kernel,砍掉推理阶段大量 kernel 启动和显存搬运开销;Hyper-Connections 是对残差连接的泛化,用多条可学习加权通路替代单一残差加法。