未来一到两年内,整个产业链中业绩确定性最强、能…
【菜科解读】
最近这段时间,无论你是否身处科技圈,大概率都在各大社交平台上刷到过一只异常火爆的“AI龙虾”。
伴随着大量无编程基础、甚至极少接触大模型的小白用户开始兴致勃勃地加入到“沉浸式养龙虾”的行列中,国内众多科技厂商也迅速跟进,密集发布了一系列低门槛、强交互的同类应用。
在这个春天,人工智能终于剥离了晦涩的代码外衣,真真切切地以一种工具的形态,涌入了普通人的手机和工作台。
然而,在这个产业端高歌猛进、全民欢呼AI终于“好用”的沸腾时刻,二级市场却展现出了惊人的冷静:既然 AI Agent的应用已经跑通,全行业景气度持续上行,大家都在疯狂使用,为什么相关上市公司的股价却在近期陷入了震荡,迟迟未能迎来预期中的全线大涨?
今天,我们就从这只火出圈的“AI龙虾”入手,再盘一盘万众瞩目的英伟达 GTC 大会,到底释放了什么核心信号,看看资本市场到底在担忧什么,又在期待什么。
为什么最近AI龙虾持续火爆股价却不涨?市场在担忧什么?
“AI龙虾”是近期爆火的一类AI智能体(行业内称之为 AI Agent)的昵称,相比于传统的AI聊天对话框,“AI龙虾”不仅能听懂人类语言指令,还能直接代替用户干活。
例如,你让它“把今天邮箱里关于二季度规划的附件下载并总结成表格发给老板”,它能在后台自主打开邮箱、下载文件、新建表格、提取信息并发送。
“AI龙虾”跨越了被动问答的对话框时代,变成了一个能把人从繁琐日常劳动中解放出来的超级助理。
这就是为何全网都在疯狂“养龙虾”、拥抱Agent的底层逻辑。
“AI龙虾”的运行消耗了大量的算力,带来了全行业需求快速提升,但为什么市场反响平平,部分公司甚至还出现短期调整?除了短期风险偏好下降的影响,还有一个问题是“AI龙虾”太贵了,市场担忧提供AI服务的公司入不敷出,也担心高昂的成本使消费者尝鲜过后不再续订,也就是说,市场吃不准“繁荣”的持续性。
很多深度体验的用户发现,现在的“AI龙虾”极其费钱,一天可能就要消耗掉大量Token。
如果权限配置不慎,养一天龙虾或要花费上千美元。
这是因为“AI龙虾”需要在后台自己跟自己不断对话来完成任务。
它越聪明、越像真人,完成一个任务消耗的算力就是以前聊天机器人的十倍甚至上百倍。
因此,市场开始担忧AI企业提供“龙虾”收到的订阅费很难覆盖对应的算力支出。
而如果现在就向用户收取过高的费用,又容易在行业发展早期吓跑客户,让大家放弃持续探索使用AI。
总结来说,“AI龙虾”的出现使算力需求激增,但市场担心收入增长无法匹配算力支出,也担忧用户在当前的价格下更多是尝鲜,缺乏持续订阅,也就难以形成持续的“繁荣”。
短期股价回调,不是否认行业的景气度和AI的长期空间,而是在对这种短期的不确定性进行定价。
后续要观察什么?期待算力成本的进一步下降
如何解决当前的担忧呢?既然不能让AI变笨,唯一的办法就是进一步降低算力成本,让更多用户能可持续地“养龙虾”。
这正是全球投资者紧盯昨夜英伟达GTC大会的原因,在行业发展的关键节点,我们看到产业界正以极快的速度降低算力成本。
其一,是传统芯片架构的升级,让推理成本下降10倍。
在昨夜的GTC大会上,黄仁勋正式揭晓了基于Vera Rubin架构的 R100 GPU。
这颗超级芯片不仅在推理性能上实现了较上一代Blackwell提升5倍的跨越,更是将单次推理Token的成本整整降低了10倍。
其二,是推出专门为“龙虾”类应用订制的推理芯片。
为了彻底打下推理成本,老黄不仅在升级GPU,还在大会上重点展示了此前重金收购的Groq团队及LPU(语言处理单元)技术的新进展。
LPU是一条专为生成Token而建的极速定制流水线。
这种专为推理而生的底层架构,吞吐量和超低延迟大幅提升,同样降低了推理成本。
其三,是算法层面的升级,用更少的算力跑出更聪明的模型。
以国内DeepSeek等为代表的优秀大模型企业,也在底层架构上贡献了诸多亮眼发明。
通过巧妙的算法优化,用更少的算力跑出更聪明的模型,从软件端压缩了“养龙虾”的开销。
AI产业中长期发展空间依然广阔,这种发展离不开基础设施的支持
一项颠覆性的技术在普及之初,往往都伴随着高昂的基础设施成本。
早期的4G网络如此,早期的云计算如此,AI也不能例外。
尽管短期面临一定波动,但AI中长期的投资逻辑其实非常清晰,主要看两股力量的交汇:
一方面,是成本端的进一步压缩,为更多用户持续使用AI创造基础。
以英伟达Rubin架构、被其吸收整合的Groq LPU技术、以及DeepSeek算法创新为代表,底层算力推理成本正速度加速下行,为更多用户持续地使用AI提供支撑。
另一方面,是收入端的规模效应,通过吸引更多用户来摊薄每个人的成本。
众多科技大厂正在一起借助不断下降的算力门槛,打造更平民化的Agent产品,吸引更多小白用户加入,用庞大的用户基数去摊薄固定成本。
当整个行业因为 Agent 大规模应用而产生的收入预期,实打实地跨过了支撑它运转的算力总投入时,这个行业就真正越过了盈利的临界点。
到那一天,我们将看到一大批AI产业链企业业绩增长的确定性大幅提升。
在这个从“投入期”向“兑现期”跨越的关键阶段,无论前台的应用形态如何演变,底层的算力消耗都是必须的。
未来一到两年内,整个产业链中业绩确定性最强、能最先兑现利润、能够扛过短期不确定性的,大概率依然是上游的算力芯片及AI Infra(基础设施)方向。
对于想高效把握这一投资者主线的投资者,建议关注下列ETF产品,整体打包产业趋势:
半导体设备ETF易方达(159558):国产算力的基石,国产化水平快速提升,业绩确定性强;
科创芯片设计ETF易方达(589030):聚焦AI芯片领域,投向“中国的英伟达们”;
云计算 ETF 易方达(516510):AI Infra(基础设施)占比超过50%,同时包含AI应用重点领域;
科创创业人工智能ETF易方达(159140):全AI产业链布局,AI算力基础设施占比高(65%)。
表:四大高算力基础设施占比指数对比

资料来源:WIND,数据截至2026/3/16,不作为个股推荐
以上内容与数据,与有连云立场无关,不构成投资建议。
据此操作,风险自担。
据介绍,它完全兼容OpenClaw的技能,在官网下载安装后,直接输入指令就能让WorkBuddy帮干活;
如果用户想通过企业微信远程“遥控”,最快1分钟即可完成配置并连接。
此外,它还能接入QQ、飞书、钉钉等工具。
WorkBuddy 操作界面 WorkBuddy不是一个只会聊天的网页框,而是“能听懂人话、带脑子思考”的桌面智能体。
它内置了超20种Skills技能包与MCP协议。
无论是海报生成还是自动化报表,你都能一键导入或零代码新建,能力可以做到无限扩展。
它甚至支持多窗口、多Agent并行工作。
把复杂任务动态拆解,几个AI同步开工,让生产力直接拉满。
字节火山引擎上线ArkClaw“龙虾” 今日,火山引擎正式上线ArkClaw,据官方介绍,这是一款开箱即用的云上SaaS版OpenClaw。
无需任何复杂配置,打开网页即可使用724小时在线的AI 助手,轻松养“虾”。
官方表示,“火山方舟Coding Plan”用户可以抢先体验 ArkClaw,“Coding Plan Pro”用户登陆即可同步使用 ArkClaw,“Coding Plan Lite”用户可以免费体验7天。
订阅后,ArkClaw“龙虾”可以畅享 Doubao-Seed-2.0系列、Kimi2.5、MiniMax2.5和 GLM 等主流模型,ArkClaw 协同 Doubao-Seed 2.0 Pro,复杂任务效果突出。
除了在网页端进行交互,ArkClaw 已支持多种主流即时通讯 APP,并深度适配飞书 OpenClaw 官方插件。
用户使用飞书处理任务更丝滑,无需反复配置权限或者复制上下文给 ArkClaw,即可轻松处理飞书日程安排和提醒、复杂文档/表格处理等任务。
我们针对 Windows、macOS、Linux 三大操作系统分别编写了经过反复验证的可复现流程,同时解决了国内外网络环境下的依赖拉取、服务访问等常见问题。
教程详细拆解了私有化部署的核心环节:包括反向代理网关配置、多租户安全认证体系搭建、以及与主流大模型 API 的标准化对接方案。
考虑到国内开发者的实际需求,我们重点优化了 Kimi 大模型的集成流程,充分发挥其长上下文与工具调用优势;
同时保留了对 OpenAI 系列模型的原生支持,为海外用户提供最佳体验。
按照本指南操作,开发者可在 5 分钟内完成私有化 AI 智能体的落地部署,实现企业级数据隐私保护与 OpenClaw 强大执行能力的结合。
一、关于什么是 OpenClaw(龙虾)? 2026 年,大模型技术演进的重心已从模型本身的参数规模优化,全面转向智能体的端到端执行能力构建。
行业终于突破了长期以来 "能说不能做" 的瓶颈,从纯对话交互阶段迈入了任务执行阶段。
在开源智能体领域,有着 "龙虾" 昵称的 OpenClaw,凭借其出色的工具调用与任务编排能力,成功实现了从自然语言理解到实际动作执行的闭环。
核心特点: 全链路任务闭环:具备“意图理解 任务拆解 路径规划 工具调用 执行校验 结果反馈”的完整能力,无需人工二次干预,即可自主完成多步骤复杂工作流。
系统级操作权限:可直接驱动本地设备,完成文件管理、命令行执行、浏览器自动化、代码编写部署、邮件收发、日程管理等几乎所有手动可执行的系统操作。
多渠道统一交互:支持 50+ 主流通讯平台接入,用户可通过日常使用的聊天软件下达指令,无需安装额外专属客户端。
多智能体协同:支持构建专属 AI 团队,多个智能体可分工协作,适配多角色、多环节的复杂工作场景。
二、安装前准备 系统要求:Windows 10+/macOS 12+/主流 Linux 发行版(Ubuntu 22.04+ 推荐) 依赖条件:Node.js v22(一键脚本会自动安装)、npm/pnpm、Git(源码安装需要) 内存要求: 2GB(推荐 4GB+) 网络环境:需联网下载安装包和依赖 权限要求:Windows 需 PowerShell 管理员权限,Linux/macOS 需 sudo 权限三、安装 OpenClaw1、官方一键脚本安装(推荐新手,全平台) 这是最简单、最不易出错的安装方式,脚本会自动检测并安装缺失依赖。
1.1 Windows 系统 右键开始菜单,选择终端 (管理员)或 Windows PowerShell (管理员),在 UAC 弹窗点击 “是”。
执行官方一键安装命令:iwr -useb https://openclaw.ai/install.ps1|iex 国内用户若下载缓慢,可使用国内镜像加速脚本:iwr -useb https://open-claw.org.cn/install-cn.ps1|iex 等待安装完成,全程无需手动操作,脚本会自动完成 Node.js 检测、核心程序安装、环境变量配置。
1.2 macOS / Linux / WSL2 系统 打开系统终端,直接执行官方一键安装命令:curl-fsSLhttps://openclaw.ai/install.sh|bash 国内加速镜像命令:curl-fsSLhttps://open-claw.org.cn/install-cn.sh|bash 等待脚本执行完成,全程自动完成环境配置。
2、包管理器安装(npm/pnpm,适合开发者) 适合已安装 Node.js 环境,想要精准控制版本的用户。
2.1 先确认 Node.js 版本,终端输入以下命令验证,需输出 >=22.0.0: node-v 2.2 全局安装 OpenClaw(二选一即可) npm 安装:npminstall-gopenclaw@latest pnpm 安装(速度更快,依赖更稳定):pnpmadd-gopenclaw@latest 2.3 国内用户可添加镜像源加速,示例: npminstall-gopenclaw@latest--registry=https://registry.npmmirror.com 四、初始化配置安装后初始化向导 安装完成后,配置以下代码执行初始化向导 openclawonboard--install-daemon 入门向导新手引导 入门向导会引导你完成以下核心设置: 完成引导过程中配置大模型 OpenClaw 需要连接大模型才可以使用,以下是国内(海外)的常用配置: Kimi API 配置(国内用户优选方案) { env: { KIMI_API_KEY: "sk-..." }, agents: { defaults: { model: { primary: "kimi-coding/k2p5" } }, }, } OpenAI API 配置(海外用户选择方案) { agents: { defaults: { model: { primary: "openai/gpt-5.4" } } }, }五、使用 TUI 快速体验,开始畅聊 选择 TUI 并敲击回车 六、配置完成后查看 OpenClaw 状态: 完成网关、模型通道、管理员配置(推荐添加 --install-daemon 安装后台守护进程): 执行环境诊断命令,检查安装是否完整、环境是否正常:openclawdoctor 查看网关运行状态:openclawstatus 打开本地可视化控制台:openclawdashboard 七、常见问题及解决方案:未找到 OpenClaw 如果安装成功但在终端中找不到 openclaw:node -v # Node 是否已安装? npm prefix -g # 全局包位于何处? echo “$PATH” # 全局二进制目录是否在 PATH 中? 如果未包含在 PATH 中,请将其添加到 shell 启动文件(或)中:$(npm prefix -g)/bin$ PATH~/.zshrc~/.bashrcexport PATH="$(npm prefix -g)/bin:$ PATH" 然后打开一个新的终端。
八、结语 至此,OpenClaw 全链路本地化部署保姆级教程已全面收官,从环境配置到服务上线的全流程教学形成完整闭环。
恭喜你成功完成 OpenClaw 从 0 到 1 的私有化部署,正式掌握这款开源社区顶流的智能体执行框架!你的专属 "小龙虾" 节点已通过全链路校验,服务正式上线运行,所有功能模块已全面开放调用,支持无限制自定义二次开发与全场景拓展。
愿这款原生开源的智能体工具,助你深挖 AI 落地的无限可能,在私有化智能体的探索征程中解锁更多全新价值。