近日,金山办公正式开放AI原生笔记产品 “WPS笔记” 内测,开放首日便引爆市场,申请量突破8000。
这款主打 “随心记录,永远有序” 的AI原生应用,不仅支持文字即时记录,更深度融合AI Agent,兼容语音转写、图片结构化处理等多模态录入方式,实现从信息录入、整理到复用的全流程智能化,彻底改变传统笔记 “难整理、难复用” 的困境。

“整理是AI的事,思考是用户的事。
”金山办公AI产品负责人徐奕成强调,我们在产品立项之时就明确WPS笔记的AI只做内容的重构,不做AIGC。
我们要做的不是简单的功能叠加,而是一次 “责任转移”—— 把对抗熵增、整理信息的重担,从用户身上彻底转移给 AI。
用户只需要专注于记录和思考,放心地把各类信息 “往里扔”,剩下的分类、归档、结构化工作,全由AI完成。
为了实现这个目标,WPS笔记团队围绕 “责任转移” 展开关键布局。
首先,语音转写自带记忆能力,能精准留存用户的修正历史,结合上下文自动优化转写准确性,例如在小米1S发布会相关场景中,可智能将转写识别的 “小米 Yes” 修正为 “小米 1S”,避免重复纠错。

同时,针对图片结构化处理,依托WPS自研的 Monkey OCR 技术,能精准提取图片中的文字、公式与表格,让图片内容从 “黑盒” 变为可检索的结构化数据,搭配梯形校正与弯曲矫正功能,拍白板、PPT 无需纠结拍摄角度。
此外,通过打通MCP与CLI双接口,WPS笔记开放23 +原子能力接口,支持龙虾、Claude Code 等工具直接操作笔记。
赋予 AI Agent 直接读写、编辑笔记的完整权限,彻底省去人工复制粘贴的中间环节,真正达成 “Agent 负责干活,笔记负责留存结果” 的高效协同模式,让信息流转更顺畅。
从行业的角度看,区别于传统AI笔记的 AIGC 生成模式,WPS笔记坚持 “只做内容重构,不做无中生有”,确保用户思考的纯粹性。
同时开源Skill仓库,允许开发者贡献场景化工具脚本,覆盖教育、编码、内容创作等多元场景,形成灵活扩展的生态体系。
此前,WPS已在文档总结、格式优化、多模态处理等领域积累了成熟的AI能力,而WPS 笔记则进一步打通了 AI Agent 协作链路,构建起 “工具协同 - 知识沉淀 - 高效复用” 的闭环。
在一年前震动硅谷之后,这次带来了其迄今为止最大的一次升级。
DeepSeek发布V4版本 4月24日,DeepSeek全新系列模型DeepSeek-V4的预览版本正式上线并同步开源。
据介绍,DeepSeek-V4拥有百万字超长上下文,在Agent能力、世界知识和推理性能上均实现国内与开源领域的领先。
模型按大小分为两个版本。
即日起登录官网或官方App,即可与DeepSeek-V4对话,API服务也已同步更新。
以下是新版本的重点内容: 1.DeepSeek-V4-Pro:性能比肩顶级闭源模型 相比前代模型,DeepSeek-V4-Pro的Agent能力显著增强。
在Agentic Coding评测中,V4-Pro已达到当前开源模型最佳水平,并在其他Agent相关评测中同样表现优异。
目前DeepSeek-V4已成为公司内部员工使用的Agentic Coding模型,据评测反馈使用体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式,但仍与Opus 4.6思考模式存在一定差距。
DeepSeek-V4-Pro在世界知识测评中,大幅领先其他开源模型,仅稍逊于顶尖闭源模型Gemini-Pro-3.1。
在数学、STEM、竞赛型代码的测评中,DeepSeek-V4-Pro超越当前所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的优异成绩。
2.大幅降低了对计算和显存的需求 DeepSeek-V4开创了一种全新的注意力机制,在token维度进行压缩,结合DSA稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力,并且相比于传统方法大幅降低了对计算和显存的需求。
从现在开始,1M(一百万)上下文将是DeepSeek所有官方服务的标配。
3.Agent 能力专项优化 DeepSeek-V4针对Claude Code、OpenClaw、OpenCode、CodeBuddy 等主流的Agent产品进行了适配和优化,在代码任务、文档生成任务等方面表现均有提升。
DeepSeek融资进行中 据多家媒体报道, DeepSeek近日 启动首轮融资, 正与少数战略投资者接触,可能把估值推高至200亿美元以上。
知情人士称,DeepSeek的自由现金流确实不如一些体量更大的竞争对手充裕,但公司眼下并没有迫切的大额外部融资需求。
因此,这轮融资的核心其实是稳定研究团队。
过去一年,一些竞争对手估值快速上升,DeepSeek已有部分研究人员离职投向对方。
在AI行业,股票期权通常是研究人员薪酬的重要组成部分,很多时候甚至占到大头。
目前谈判仍存在较大不确定性,最终是否达成交易以及具体估值仍未可知。
2025年1月,DeepSeek发布了一款具有突破性的模型,其性能可与美国竞争对手相媲美,震动了整个AI行业。
市场反应 DeepSeek消息出来之后,市场反应较为剧烈。
国产芯片直线猛拉,寒武纪直线大涨。
消息面上,寒武纪已基于vLLM推理框架完成对DeepSeek全新版本的Day 0适配,适配代码已开源到GitHub社区。
这一成果得益于寒武纪长期积累的自研NeuWare软件生态与芯片设计技术,也是寒武纪对芯片与算法联合创新持续投入的延续。
而DeepSeek的竞争对手——智谱、Minimax在V4发布后跌势扩大,分别跌6.8%和3.9%。
编辑:张玲 校对:乔伊 制作:嘉颖 审核:许闻
就在刚刚,DeepSeek-V4的预览版本正式上线并同步开源。
据官方介绍,DeepSeek-V4拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能上均实现国内与开源领域的领先。
模型按大小分为两个版本: 更具产业里程碑意义的是,DeepSeek-V4 从模型设计之初就深度适配国产算力,在华为昇腾芯片生态实测跑通,成为全球首个在国产算力底座上完成训练与推理的万亿参数级模型,打破对海外芯片与框架的长期依赖。
性能比肩顶级闭源模型,价格比Claude便宜21倍 官方实测数据显示,DeepSeek-V4-Pro性能比肩顶级闭源模型。
Agent(智能体)能力方面,相比前代模型,DeepSeek-V4-Pro的能力显著增强。
在 Agentic Coding 评测中,V4-Pro 已达到当前开源模型最佳水平,并在其他 Agent 相关评测中同样表现优异。
DeepSeek介绍,目前 DeepSeek-V4 已成为公司内部员工使用的 Agentic Coding 模型,据评测反馈使用体验优于 Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式,但仍与Opus 4.6 思考模式存在一定差距。
DeepSeek给出的结论相对克制。
在知识与推理任务上,其性能已经超过主流开源模型,并接近Gemini等闭源系统,但仍存在约3到6个月差距。
在 agent和代码任务上,其表现接近甚至部分超过Claude Sonnet。
此外,在数学、STEM、竞赛型代码的测评中,DeepSeek-V4-Pro超越当前所有已公开评测的开源模型(包括月之暗面的K2.6 Thinking、智谱GLM-5.1 Thinking等),取得了比肩世界顶级闭源模型的优异成绩。
相较之下,DeepSeek-V4-Flash主打性价比,能够提供更加快捷、经济的 API 服务。
在 Agent 测评中,DeepSeek-V4-Flash 在简单任务上与 DeepSeek-V4-Pro 旗鼓相当,但在高难度任务上仍有差距。
据悉,V4-Pro 与 V4-Flash 最大上下文长度为 1M,均同时支持非思考模式与思考模式,其中思考模式支持 reasoning_effort 参数设置思考强度(high/max)。
对于复杂的 Agent 场景建议使用思考模式,并设置强度为 max。
使用价格如下: DeepSeek表示,“受限于高端算力,目前Pro的服务吞吐十分有限,预计下半年昇腾950超节点批量上市后,Pro的价格会大幅下调。
” 再看看国际友商价格对比,可见DeepSeek的实惠: 混合架构解决工程落地痛点,全面适配国产算力 大模型处理超长文本的最大痛点,从来不是 “能不能装下”,而是跑不动、记不住、算不起。
随着传统注意力机制呈平方级复杂度攀升,百万Token场景下显存与算力直接 “爆炸”,几乎无法工程落地。
DeepSeek-V4 的发布,标志着大模型正式走出 “参数竞赛”,进入效率优先下一代赛道。
从一口气审计全量代码库、一次性解析千页合同,到全程记住长时间会议、串联多轮复杂智能体任务,V4让AI 真正具备“完整理解、长期记忆、深度推理”的能力,同时把使用成本大幅下拉。
这一切得益于DeepSeek业内首创“CSA (压缩稀疏注意力) + HCA (重度压缩注意力)”的混合架构。
用一套“分级压缩 + 分级检索”思路,把效率拉到极致。
这一新方法显著减少了计算复杂度,提升了长上下文处理的效率。
具体来看,CSA像给长文本做重点精读。
先把每 4 个Token压缩成一个信息块,再用稀疏检索只挑最相关的内容,既保留中段细节,又大幅削减计算量,兼顾精准与效率。
HCA像给长文本做大纲速读,把海量信息浓缩成框架级块,专门负责全局逻辑。
官方数据显示:1M Token场景下,V4-Pro 仅需 V3.2 的 27% 推理算力、10% KV 缓存;
Flash 版更是低至 10% 算力、7% 缓存。
除了混合注意力,V4 还带来三项关键技术革新,构成完整效率革命: mHC 流形约束超连接:升级传统残差连接,把信号传播约束在稳定流形上,深层不衰减、训练不炸数值。
Muon 优化器:替代传统 AdamW,收敛更快、训练更稳,完美适配 MoE 大模型与低精度训练,解决大批次长上下文训练的抖动难题。
全链路工程优化:专家并行细粒度通信重叠、TileLang 内核开发、FP4 量化感知训练、异构 KV 缓存管理,从计算、通信、存储全方位降本提速,推理加速最高近2倍。
最受大家关心的,是V4这次是否成功全面适配国产算力? 报告指出,DeepSeek-V4在英伟达 GPU 与华为昇腾 NPU 两大硬件平台上,对细粒度 EP 优化方案完成了全面验证。
相较于性能优异的非融合基线方案,该方案在通用推理负载场景下可实现1.50~1.73 倍的加速比。
有业内观点指出,这代表已经完成华为昇腾平台的适配和实测落地。
但目前对外开源的只有英伟达GPU版本,昇腾适配代码未开源,属于闭源适配优化。
值得一提的是,寒武纪在软硬一体生态中,已经完成基于 vLLM 推理框架完成对 285B DeepSeek-V4-flash 和 1.6T DeepSeek-V4-pro 的适配,适配代码已开源到 GitHub 社区。
剩下的,就等DeepSeek-V4的实用表现了。
还有DeepSeek的首轮融资最终花落谁家,也还是个谜题。
“不诱于誉,不恐于诽,率道而行,端然正己。
” DeepSeek官方在文章最后表示,他们将始终秉持长期主义的原则理念,在尝试与思考中踏实前行,努力向实现 AGI 的目标不断靠近。
”