LLM
DeepSeek-V4 開放權重並支援百萬 Token 長上下文,強化代理式工作流
DeepSeek-V4 以混合注意力與壓縮 KV cache 的設計,把長上下文帶入可用成本範圍,並釋出多個開放權重模型。
ValueAI 每日從全球頂尖媒體精選 AI 新聞,以繁體中文為您呈現最重要的人工智能發展。
2026年5月1日 最新報導
DeepSeek-V4 以混合注意力與壓縮 KV cache 的設計,把長上下文帶入可用成本範圍,並釋出多個開放權重模型。
Google 提出 TurboQuant 量化方法,以低位元壓縮 KV cache 並維持準確度,目標是降低長上下文推論的記憶體與運算成本。
Meta 擴大與 Broadcom 的合作,共同開發多代自訂加速器與網路技術,提升 AI 叢集效率與成本表現。
Google整理近期AI更新,包含Search Live擴展、AI Mode新功能與更深度的個人化資料連結。