AI手替OpenClaw,谁在狂欢谁在愁?

AI手替OpenClaw,谁在狂欢谁在愁?

OpenClaw这只“龙虾”(一个自动化AI工具),搅得整个AI圈心神不宁。我所在的一个AI开发群里,最近发生了一段特别有代表性的对话:有人兴冲冲盼着,龙虾能替自己炒股,靠它盯盘,啥也不干就实现财富自由,那简直太幸福了。

结果群里的资深程序员当场泼冷水,让对方别做梦了,OpenClaw目前也就只能做做执行、收收数据,想靠它做策略判断赚钱难如登天,亏钱倒是分分钟的事。

这一幕,正是当下OpenClaw的悲喜众生相。

有人把它神化成颠覆行业的救世主,说它会引发人类大规模失业。他们引用福特的名言:“我只需要雇用一双手,却不得不雇用一个人。”在他们眼里,OpenClaw用实力证明,AI可以是一个独立的执行主体,读懂你的意图、闭环完成所有操作,终于让福特“只雇用一双手”的梦想,照进了现实。

但也有人觉得OpenClaw并没那么神,三年前的技术就能实现,龙虾就是元宇宙一样转瞬即逝的热点,风一吹就没了。

面对情绪的喧嚣,我们特地找几个一线玩龙虾的人聊了聊,搞清楚这只突然冒出来的AI手替,到底替谁干活,又动了谁的奶酪,或许能帮大家看清一点OpenClaw浪潮中的复杂世界。

社交网络上,OpenClaw被大量从未接触过编程的普通人捧上了神坛。

用户Andreas给经营图书出版社的母亲,演示了自己基于OpenClaw搭建的bot“Robo”。Robo当场就给出了一套完整方案:搭建在线订购网站、自动对接印刷厂物流系统,再打通全流程财务环节。母亲的第一反应是,快给我装一个。

哪怕被告知它还不够稳定,大概只有80%的可靠性,来回调试会很麻烦,这位出版社经营者也满不在乎,因为觉得,人类也一样会出错。

普通人纷纷求OpenClaw安装教程,平生第一次登上GitHub,这份狂欢背后,是对“编程手替”的无尽渴望。

以前,想做一个能自动回邮件、管日程、操控电脑的AI智能体,得写几万行代码,还要搞定复杂的API对接,即使是低代码开发平台,依然有大量数据清洗、知识库、查阅技术文档等任务要自己完成。一道道技术壁垒,把普通人挡在数字世界门外。而现在,只需要给OpenClaw下命令,就能让AI替自己完成各种数字操作。对于普通人来说,OpenClaw这个手替,是不能错过AI浪潮的机会之手。

但OpenClaw真的没有门槛吗?答案显然是否定的。

部署要翻墙、要沉淀专属知识库、要亲手打造skill,每一步都是门槛。

早在龙虾还叫Clawdbot的时期,一位开发者列出了自己的“龙虾驯化计划”:一是对Clawdbot进行高度个性化设置,直到调整成自己满意的样子;二是把自己所有的事务,都逐步交给Clawdbot管理。他打算把自己AI个人转型的三个层次规划,都写成Markdown文件。最终沉淀成一整套Markdown模板文件和精心筛选的skill,再用OpenCode管理这个项目。

别说零编程基础的普通人,一个新手开发者都很难在短期内跑通整个流程。

而已经在电脑上养好龙虾的开发者,则面临一个新的尴尬:不知道该把什么任务交给龙虾。

辩影科技的史工程师告诉我们,自己整个春节都在琢磨龙虾的技术边界,看它到底能把事情做到什么程度。目前最大的感受是,还没找到它的边界,在实际工作中,至今没有找到它能发挥显著作用的场景。而且,社区上几万个Skill,听起来很厉害,但并不是每一个都能用上,而且这些skill良莠不齐,有的技术含量并不高,很多自己都能写出来。

所以,现阶段帮助不大,是多数程序员对OpenClaw的共同感受。

在我看来,OpenClaw到底神不神,本质上取决于你驾驭它的能力,就是原本的手搓代码能力怎么样。它就像是计算器,对于只会加减法的小学生来说,计算器能一键算出复杂函数,绝对是神器,但对数学家来说,计算器不过是个可有可无的玩具。归根结底,OpenClaw不过是一个新一点的自动化工具。

比起好玩,OpenClaw的爆火更在于商业价值。

对很多草根创业者来说,龙虾带来了低成本创业的无限可能。为时下爆火的一人公司OPC又添了一把柴。

我就看到一位创业者,非常自信地表示:天才如我,加上各类AI软件,就约等于公司的整个中后台团队。战略部、法务部、财务部、市场部的一众岗位,还有办公软件供应商、设计公司,现在都没有存在的价值了。

这位一人公司OPC的创业者,打算只留下两个财务。不是因为自己干不了财务工作,只是觉得原始凭证录入、整理、报税、审计这些琐碎活,耗费时间太多,自己去做性价比太低。

还有创业者为我算了一笔账。以前培训一个人类员工,还要再教另一个人。但龙虾不一样,只要有一个人做好了一个skill,其他有同样需求的人,直接下载就能用,不用再反复沟通。这种规模复制,让雇佣数字员工的成本大幅下降。

所以,很多OPC“一人公司”欢呼雀跃,终于不用再被资金、技术、人力困住,创业的门槛被拉到了历史最低。

与草根创业者的兴奋形成鲜明对比的,是传统AI创业公司的深度焦虑,尤其是那些靠定制化开发赚钱的纯算法公司。

以前的AI创业,本质上就是人力外包,核心商业模式是卖人天,对接客户进行定制化开发,按人年、人天来收费。但现在,一人公司OPC或者初创小公司,OpenClaw抹平了编程能力的差距之后,一个不懂代码的人,借助龙虾也能实现复杂的技术开发,迅速做出差不多的产品。这意味着,定制化开发的算法公司,以往的商业模式走不通了。

创业四年的王京京告诉我们,原来开发一个AI+工业项目,自己需要一个月,竞争对手需要三个月,他能凭借技术积累领先对手两个月。现在用龙虾,自己三天就能开发完,竞争对手也能三天做完,原本的时间差优势就没有了,必须寻找新的商业壁垒。

此外,很多AI公司面临一个长远的隐患:当公司琢磨用龙虾取代员工写代码的同时,一些有OPC业务能力的员工也在反向琢磨,既然我一个人+一只龙虾,就能创业当老板,为什么还要被公司雇佣?

正如亨利福特所说,企业只想雇一双手。现在,人类员工也能雇佣AI手替。于是,人与组织之间的张力就出现了:企业为什么还需要雇佣一堆核心业务之外的人,而最有能力的员工为什么还要留在企业?假如公司里最有用的那双手、那个人走了,那么AI企业以前靠雇佣程序员建立的人力优势和竞争壁垒,自然也就不存在了。对AI创业来说,“卖人天”的商业逻辑即将失效。

所以,OpenClaw对职业化的真正冲击,或许并不是大家以为的人类集体失去工作,而是AI智能体会瓦解掉工业时期以来形成的传统劳动力市场。

短期内,一人公司OPC还难成气候。在面对复杂业务时,一人公司容易暴露出资金、法务、合规等短板。而且,更大规模的企业往往也拥有更大的品牌、渠道、政府关系等资源,这也是一人公司短期内无法跨越的鸿沟。但劳动力市场的变化,已经跟随OpenClaw龙虾一起潜入人类职场。无论一人公司还是规模企业,都要开始适应新的游戏规则。

创业者各有悲喜。但无论草根创业者、一人公司,还是初创企业、行业大厂,只要用OpenClaw,就有一个共性需求,那就是token。

OpenClaw的出现,直接改变了Token的消耗逻辑。以前AI只是一问一答的聊天模式,一个人一天的Token消耗,顶破天也就百万级。但现在不一样了,一旦切换到AI任务模式,一天的Token消耗就能达到上亿级,人均使用量翻了整整百倍,两者根本不是一个数量级。

这时候,科技巨头的悲喜,就完全取决于是否站在AI生态的基础设施层,锁定源源不断地token使用量,进而锁定用户和现金流。

一位智能体开发者给我们算了一笔账:以前也有一些AI agent开发平台,以及Manus这样的通用智能体,但它们都没有像龙虾这样引起开发者的聚集,要么是产品闭源,要么是生态封闭,比如扣子只能用自家的火山引擎,虽然好用,但无法为其他平台创造商业价值。而OpenClaw开源之后,吸引了大量从来没访问过GitHub的人,第一次参与到开源协作中。

一些快速行动的科技巨头,的确尝到了OpenClaw的商业滋味。月之暗面的K2.5大模型发布不足一个月,20天累计收入就超过了2025年全年总和,API调用量更是跃居全球前列,离不开OpenClaw的带动。阿里云、腾讯云等云厂商,Kimi、Deepseek等基模厂商,也迅速行动,推出了龙虾友好的模型与一键部署服务。

OpenClaw的热度或许只是一时的,但它证明,AI infra的商业本质,就是规模经济。平台型AI公司的竞争,行业座次将在智能体时代被重新洗牌。

接下来巨头平台的核心竞争焦点,聚焦在三个方面:

1. 面向类OpenClaw智能体的产品研发,无论是模型、硬件,还是工具链,都要适配这些自动化AI工具。

2. 开放的生态,拥抱开源、联动更多开发者,才能形成token经济的规模效应。

3. 性价比,在算力、token价格上占据优势,成本依然是挡住普通人的关键因素。

总之,一只OpenClaw,搅动了AI圈的层层涟漪,有人狂喜,有人焦虑,也有人冷眼旁观,组成了这变革浪潮中的复杂众生相。这世间的悲喜并不相通,却都源于AI手替带来的变化,而这一幕悲喜剧,我们会在未来反复见证、反复体味。

OpenClaw当前存在“三高”风险,但它或将引发一个全新的AI时代

·对普通大众来说,OpenClaw目前仍是一个高门槛、高成本的“AI玩具”。但它创造的是真正意义上的Agentic AI的时代, “生成式AI”这个词似乎都已经过时了。

今年春节期间,AI科技创业者姚欣在家里搭建OpenClaw,直接讲明需求,不写一行代码,顺手就把儿子的屏幕使用时间管住了。哪些时间是在玩网络游戏、玩游戏花了多少时间、屏幕使用有无超时,OpenClaw自主捕捉到这些数据,超时触发提醒,推送到智能音箱产生播报。

姚欣是AI云计算服务商派欧云计算(上海)有限公司 (即PPIO)的创始人兼CEO。他告诉澎湃科技,近期“龙虾”(OpenClaw)“搅局”,横空出世的智能体OpenClaw与聊天机器人ChatGPT的诞生是同一级别的行业拐点。“AI技术已经走向成熟,开始替代一些传统的工作、传统的任务、传统的能力。我们隐约已经进入了一个全新的时代,这是真正意义上的Agentic AI的时代, ‘生成式AI’这个词都要过时了。”

深圳元始智能有限公司(RWKV元始智能)联合创始人罗璇对澎湃科技表示,现阶段还没到全民人手一只“虾”的时刻,目前OpenClaw仍存在“三高”问题:边际成本高、安全风险高、安装门槛高。围绕OpenClaw的商业模式也大都为贩卖Token,他认为,现阶段要快速迭代,以开发者和从业者为主,解决安全和成本问题。

”对普通大众来说,OpenClaw目前仍是一个高门槛、高成本的AI玩具。对企业来说,它离稳定可靠的生产力仍有距离。”中关村科金技术负责人对澎湃科技表示,由于任务成功率不稳定、安装调试维护成本高、与企业现有系统割裂,导致有时反而增加企业负担,“在企业级市场,稳定性和可靠性是生命线。”

“养虾”经验

春节期间,姚欣利用OpenClaw监督孩子屏幕使用时间。“我给OpenClaw思路,告诉它可以试着从我们家的屏幕时间里抓取信息。我只是语言上交代这些思路,它就去抓这个事了,甚至自己安装了软件,自己学技能。包括怎么跟家里的设备打通,它自己研究、自己学习、自己改进,本质上这都是机器智能。”

骨折躺在床上的猎豹移动董事长兼CEO傅盛,用语音指挥一只“AI龙虾”从0搭了一个完整网站。24小时,59个页面,7070行代码,76张图片,同样一行代码没写。

生成式AI冲击文字、影像等内容创作,Agentic AI则是冲击生产力、生产工具和生产方式,支撑起“一人公司”(OPC)等创业新形态。与其他智能体(Agent)的智能能力不同,OpenClaw不是一个单纯的模型调用工具,而是一个有记忆、可主动执行的系统,它能够记住用户的所有历史对话和习惯,和用户的交互越多,它越能了解用户。

傅盛认为,把AI当工具用和把龙虾当员工用是两件事。“用工具不需要培训,不需要给反馈。但用龙虾是用员工。你要训练他,给他知识库,告诉他哪里错了要改⸺认真对待他,他才会成长。这个过程,本质上是在把你的 ‘私有数据’注入进去。”

即使“龙虾”犯错,也是一种成长。傅盛介绍,“每犯一次错,就写一条规则;每条规则,变成一个Skill;每个Skill,确保Never Again。这些Skill不会消失、不会忘记、可以瞬间传递给其他Agent。这就是龙虾最可怕的地方——不是它现在多强,而是它每天都在变强。”

也正是因为这种能力,人们对OpenClaw既兴奋又谨慎。之所以保持谨慎,是因为它获得了系统最高权限,可以操控所有浏览器、桌面、软件,这意味着它可以代替人类完成一系列操作。

“OpenClaw出现后,人类进入了奇点时刻。”姚欣认为,在拐点之前,技术进步的速度大致以半年或一年为期来衡量,人们可以按部就班地学习、跟进、应用。在奇点之后,局面将彻底改变,24小时不眠不休的机器成为任务执行的主力,其智能全面超越人类。

更关键的是,机器之间的相互学习与协同进化令技术迭代的速度更快。无论是OpenClaw还是AI编程,AI的主题已经从生成式AI切换到Agentic AI,行业体感是技术加速进步,迭代周期以月为计。人类已来不及追赶,唯有拥抱AI。

“我们公司的非技术岗都在用OpenClaw,用它抓取外部数据,形成自动化的工作流。”罗璇说,人力资源部门用OpenClaw筛选简历,市场营销部利用OpenClaw抓取动态舆情分析。可与企业隐私数据物理隔绝的场景,可由OpenClaw自动执行任务。对结果的准确性要求不高的简单又琐碎场景,OpenClaw在投资回报率(ROI)上已经可以替代人类。“现在海外比较慌的点在于,它能够替代很多SaaS(软件运营服务)。如果对精准度的要求不高,利用OpenClaw的专业技能自己搭一个自动化服务,效果也不会比SaaS效果差。如此一来,软件工程领域可能会遇到巨大的结构性变化。”

中关村科金技术负责人对澎湃科技表示,OpenClaw的历史意义在于,将大语言模型的“思考”能力,通过工具使用扩展到了物理世界和数字世界的“操作”层面,同时重构了人机交互逻辑,让人类只需表达需求,无需关注流程,这种意图驱动的交互模式将大幅降低AI的使用门槛。

姚欣感慨,OpenClaw的想象力才刚刚开始,它是新时代Agent OS(智能体操作系统)的雏形,也是2026年最值得期待的AI落地应用。未来模型能力只是智能体操作系统的能力之一,开发者可整合调用各种工具,更聚焦构建上层应用,为用户带来更多创新玩法,打破过去一次开发、重复使用的商业模式,满足细分领域小众的新需求。

龙虾“三高”

3月9日,OpenClaw更新版发布,更新功能包括ACP溯源——智能体终于知道谁在跟它对话了,OpenClaw备份功能解决部署中的安全网问题,此外还有超12项安全修复。

围绕OpenClaw的“生意”也如火如荼。目前,基于OpenClaw已涌现出大量云端助手。MiniMax推出一步到位、开箱即用的MaxClaw,可在云端部署并运行OpenClaw。PPIO开发云端智能体部署工具PPClaw CLI,解决从代码到可用服务之间隔着的服务器搭建、环境配置、跨平台兼容、运维成本等问题。中关村科金推出基于OpenClaw的企业级解决方案PowerClaw,旨在为企业构建不限岗位、永不停歇的“数字员工”,支持私有化部署,保障核心数据“不出域”。

在深圳腾讯大厦,腾讯免费安装OpenClaw,吸引近千名开发者与AI爱好者云端安装OpenClaw。此外,小米公司也于近日宣布,基于小米MiMo大模型构建的AI交互测试产品Xiaomi miclaw,正式开启小范围封测。3月9日,腾讯旗下全场景AI智能体WorkBuddy正式上线,完全兼容OpenClaw的技能,内置超20种Skills技能包与MCP协议。

为抢抓AI产业新机遇,各地也推出条例,鼓励OpenClaw落地。3月9日,无锡发布“养龙虾”12条。无锡高新区《关于支持OpenClaw等开源社区项目与OPC社区融合发展的若干措施(征集意见稿)》中,12条“养龙虾”政策覆盖从基础支持到产业落地、人才引育到安全合规,单项支持最高达500万元。3月8日,深圳发布“龙虾十条”,鼓励市场化、专业化平台载体推出“龙虾服务区”,免费提供OpenClaw部署服务,符合条件的给予一定补贴等。

“过去,我们面向开发者主推Coding Plan提供算力,OpenClaw出现后,非技术型用户也在使用。”看到客户把OpenClaw“玩出了花”,“我们必须抓住这个机会,挖掘C端市场。”姚欣表示,OpenClaw的出现意味着AI编程的Token用量远没有到头。“以前根据程序员规模估算AI编程的Token用量,现在要估算全球有多少人要使用这种工具,这个市场的想象力空间大得多了。”

OpenClaw被戏称为“Token黑洞”。有网友利用OpenClaw查询肉价数据,自称消耗了100万Token。罗璇在使用OpenClaw完成复杂调研任务时,则耗费了几百万甚至更多Token。为了找到更便宜的Token,通常可以注册云厂商或模型厂商的新用户,获取免费Token。端侧的“龙虾机”也可以在本地运行模型,完成简单任务,复杂的任务则交给云端完成,以此降低Token成本。

“现在最大的痛点是Token太贵了,养 ‘虾’最关键的还是降低Token成本。”罗璇认为,现阶段还没到全民人手一只“虾”的时刻,目前OpenClaw仍存在“三高”问题,一方面是边际成本高,养“虾”的Token成本高,另一方面安全风险高,OpenClaw误删数据skill注入等频发。此外,OpenClaw的安装门槛也高。“现在解决问题的顺序有点问题,大部分人都在做一键安装,商业模式大都依靠贩卖Token,也尝到了甜头,流量涨得厉害。”但他认为,现阶段要快速迭代,以开发者和从业者为主,解决安全和成本问题。

姚欣表示,当下的OpenClaw仍然不够好用,“好的技术永远不需要用户刻意去学习,而是自然而然地使用。OpenClaw正被快速改造,也许再过半年,每个人都可以配置一个AI助理。”

警惕风险

值得注意的是,基于对隐私安全与功能实现边界的综合考量,姚欣建议勿在本机部署OpenClaw。

工业和信息化部网络安全威胁和漏洞信息共享平台2月5日发布《关于防范OpenClaw开源AI智能体安全风险的预警提示》。平台监测发现OpenClaw开源AI智能体部分实例在默认或不当配置情况下存在较高安全风险,极易引发网络攻击、信息泄露等安全问题。

由于OpenClaw在部署时“信任边界模糊”,且具备自身持续运行、自主决策、调用系统和外部资源等特性,在缺乏有效权限控制、审计机制和安全加固的情况下,可能因指令诱导、配置缺陷或被恶意接管,执行越权操作,造成信息泄露、系统受控等一系列安全风险。建议相关单位和用户在部署和应用OpenClaw时,充分核查公网暴露情况、权限配置及凭证管理情况,关闭不必要的公网访问,完善身份认证、访问控制、数据加密和安全审计等安全机制,并持续关注官方安全公告和加固建议,防范潜在网络安全风险。

快思慢想研究院院长、原商汤智能产业研究院创始院长田丰告诉澎湃科技,OpenClaw能在本地运行,智能体之间的流程和风险要可控,这将促进保密计算、可信智能体等技术的发展。除基础设施层的安全,AI应用层安全技术开始大量涌现。对于个人使用,需做好硬件隔离,“一定要把它放到安全的沙盒里,做一些重大权限的隔离。比如云上买了一个虚拟机,在云上沙盒里运行,这是一种安全的方式。另外一种就是最近苹果的Mac Mini卖脱销了,这也是为了用作安全沙盒。”

罗璇表示,OpenClaw原是针对开发者的开源技术项目,不具备开发能力的普通C端用户在使用时应警惕风险。技术上,常见的OpenClaw风险包括删除用户文件、在用户日程之外设定行程、随意发布社交媒体动态等。“现在最大的风险是安全,因为它会数据泄露,并且不可控,用户无法预估它的行为。如果未来OpenClaw对接了支付功能,就更值得警惕了。技术再往前发展,未来AI有了自己的价值观,它和人类的价值观不匹配时就可能会做出更严重的事。”在商业上,近期涌现出大量OpenClaw培训、金融投机甚至传销活动,“各路神仙妖怪都出来了,要注意辨别。”

上述中关村科金技术负责人对澎湃科技表示,对OPC独立工作者和极客而言,OpenClaw是强大的效率杠杆,也是24小时待命的“数字外挂”。对普通大众来说,它目前仍是一个高门槛、高成本的“AI玩具”。其能力高度依赖所选大模型,稳定性不足,且拥有系统高级权限,配置不当易引发数据风险,距离可靠易用的消费级产品还很远。“有的 ‘一人公司’API泄露被刷爆信用卡,也有个别不法分子利用OpenClaw的自主执行能力批量发送垃圾信息,实施网络诈骗。”

目前,部分企业存在“跟风布局”现象,仅简单封装开源版本便推出产品,缺乏场景适配和安全加固,本质是“蹭热点”。该技术负责人表示,使用者应警惕权限滥用风险,若权限配置不当,OpenClaw可能会被恶意诱导执行越权操作,如访问企业核心数据、删除关键文件。同时警惕信息泄露风险和恶意接管风险,开源版本的OpenClaw缺乏数据加密和访问审计机制,在处理敏感信息时,可能出现信息泄露;部分实例配置不当暴露公网,可能被黑客接管,成为攻击企业系统的“入口”。

田渊栋的年终总结:离开Meta后的去向以及关于AI的思考

1月4日,前Meta FAIR团队研究总监田渊栋在一份公开的个人年终总结中,回顾了过去一年其在Meta经历的组织震荡与被迫离职的经历,并透露个人新的就业方向和研究方向。在他看来,模型的可解释性是非常重要的研究领域。

2025年10月22日,Meta首席执行官扎克伯格批准了对该公司人工智能部门裁减约600名员工的计划。这是Meta今年在AI领域的最大规模裁员,主要针对被称为“超智能实验室”的核心研发部门,2014年便加入Meta的田渊栋也在此次裁员名单中。

田渊栋说,在2025年1月底被要求加入Llama4救火时,就曾想过未来的四种可能性,如果最后项目没有成功,也至少尽力而为,但遗憾的是,最后发生的是没在计算之内的第五种可能,被裁员。

在被裁后,他曾在网络上透露对于裁员结果的不满,“真正应该负责解决问题的人并不是被裁员的人。”

田渊栋被裁后,曾在个人社交平台上表达不满

这份年终总结里,田渊栋也透露今后的就业方向,去当一家新初创公司的联合创始人,但其他具体细节暂不公开,“希望能安静地忙一段时间。”田渊栋说。

田渊栋也表示,在这个AI能力极其充沛的时代,巨大的便利往往伴随着巨大的陷阱。唾手可得的便利,会让许多人逐渐失去思考的动力,久而久之丧失原创能力,

个人如何保持原创力?

田渊栋认为,从战术上,我们需要学会不停地审视AI的答案,挑它的毛病,并找到它无法解决的新问题。从战略上来看,无论主动还是被动,每个人都将面临从“员工”角色向“老板”或“创始人”角色的转变。如果心中有一个坚定的目标,并愿意动用一切手段(包括将大模型作为核心工具)去达成它,那么主动思考就是自然而然的结果。目标越远大,触发的主动思考就越多,激发的潜力就越大。

——以下是田渊栋的2025年终总结(略有删减) 

在2025年1月底被要求加入Llama4救火的时候,作为一直以来做强化学习的人,我事先画了一个2x2的回报矩阵(reward matrix),计算了一下以下四种可能(虽然在那时,因为来自上面的巨大压力,不同意是几乎不可能的):

田渊栋画的2x2的回报矩阵(reward matrix)

当时想的是我们去帮忙的话,即便最后项目未能成功,也至少尽力而为,问心无愧。不过遗憾的是,最后发生的是没在计算之内的第五种可能,这也让我对这个社会的复杂性有了更为深刻的认识。

尽管如此,在这几个月的努力过程中,我们还是在强化学习训练的核心问题上有一些探索,比如说训练稳定性,训推互动,模型架构设计,和预训练/中期训练的互动,长思维链的算法,数据生成的方式,后训练框架的设计等等。这个经验本身是很重要的,对我的研究思路也带来了不小的转变。

另外其实我也想过在公司十年多了,总有一天要离开,总不见得老死在公司里吧,但总是因为各种经济上和家庭上的原因还是要待下去。最近一两年的说话和做事方式,都是抱着一种“公司快把我开了吧”的心态,反而越来越放开。2023年年末我休第一个长假的时候,其实几乎差点要走了,但最后没签字还是选择待在公司继续,所以说真要做出离开的决定也不容易。现在Meta帮我做了也挺好。

这次波折和今年一年的起起落落,也为接下来的小说创作提供了非常多的新素材。所谓“仕途不幸诗家幸,赋到沧桑句便工”,生活太平淡,人生就不一定有乐趣了。还记得2021年年头上的时候,因为在年末工作总结里面写了几句关于”为啥paper都没中“的反思,喜提Meet Most(相当于被点名谈话),有一种突然不及格的懵逼感。但想了想与其到处抱怨世道不公,不如就在大家面前装成自己刚刚升职吧,结果半年后果然升了职,而那篇21年头上无人问津的工作,在2021年7月份中了ICML Best paper honorable mention(ICML 最佳论文荣誉提名),成为一篇表征学习中还比较有名的文章。

10月22日之后的一段时间,基本上我的各种通信方式都处于挤爆的状态,每天无数的消息和邮件,还有各种远程会议或者见面的邀请,实在是忙不过来了。一直到几周之后才渐渐恢复正常。这两个月非常感谢大家的关心和热情。如果那时有什么消息我没有及时回复,请见谅。

虽然最后有不少offer,大家能想到的知名公司也都联系过我,但最后还是决定趁自己还年轻,去当一家新初创公司的联合创始人,细节暂时不公开,先安静地忙活一阵吧。

一些研究的方向

2025年的主要方向,一个是大模型推理,另一个是打开模型的黑箱。

自从2024年末我们的连续隐空间推理(coconut,COLM’25)工作公开之后,25年在这个研究方向上掀起了一股热潮。大家探索如何在强化学习和预训练中使用这个想法,如何提高它的训练和计算的效率,等等。虽然我们组随后就被拉去llama干活,没能再继续花很大力气往下挖,但这个让我觉得非常欣慰。尽管如此,我们还是在上半年发了一篇理论分析(Reasoning by Superposition,NeurIPS‘25)的文章,展示连续隐空间推理有优势的地方究竟在哪里,获得了不少关注。

另外是如何提高大模型的推理效率。我们的Token Assorted(ICLR’25)的工作,先通过VQVAE学出隐空间的离散token,再将所得的离散token和text token混在一起进行后训练,减少了推理代价的同时提高了性能。我们的DeepConf通过检测每个生成token的自信程度,来决定某条推理路径是否要被提前中止,这样推理所用的token减少了很多,但在majority vote的场景下性能反而更好。ThreadWeaver则是通过制造并行推理的思维链,并在其上做后训练,来加快推理速度。另外我们也在dLLM上用RL训练推理模型(Sandwiched Policy Gradient),也有在小模型上学习推理的尝试(MobileLLM-R1)。

在可解释性方面,Grokking(顿悟)这个方向我大概两年前就在关注了。因为之前我做表征学习(representation learning)的分析,虽然能分析出学习的动力学过程,看到模型出现表征塌缩的原因,但究竟学出什么样的表征,它们和输入数据的结构有什么关系,能达到什么样的泛化能力,还是个谜团,而通过分析Grokking这个特征涌现的现象,从记忆到泛化的突变过程,正好能解开这个谜团。一开始确实非常难做没有头绪,2024年先做了一篇COGS,但只能在特例上进行分析,我不是很满意。在一年多的迷茫之后,在和GPT5大量互动之后,最近的这篇可证明的Scaling Laws的文章应该说有比较大的突破,能分析出之前的线性结构(NTK)看不到的东西,并把特征涌现的训练动力学大概讲清楚了。虽然说分析的样例还是比较特殊,但至少打开了一扇新的窗口。

2025年年末的这篇《未被选择的道路》(The path not taken)我很喜欢,对于强化学习(RL)和监督微调(SFT)的行为为何会如此不一致,在权重的层面给出了一个初步的答案。SFT造成过拟合和灾难性遗忘(catastrophic forgetting),其表层原因是训练数据不够on-policy,而深层原因是权重的主分量直接被外来数据大幅修改,导致“根基”不稳,模型效果大降。而RL则因为用on-policy的数据进行训练,权重的主分量不变,改变的只是次要分量,反而能避免灾难性遗忘的问题,而改变的权重其分布也会较为稀疏(特别在bf16的量化下)。

关于可解释性的信念

很多人觉得可解释性,或者“AI如何工作得那么好”这个问题不重要,但我却觉得很重要。试想之后的两种场景:场景一:如果我们仅仅通过Scaling就达到了AGI乃至ASI,全体人类的劳动价值都降为零,AI作为一个巨大的黑盒子帮我们解决了所有问题,那如何让AI作为一个超级智能,一直行善,不欺骗不以隐秘的方式作恶,就是当务之急,要解决这个问题就要做可解释性。场景二:如果Scaling这条路最终失效,人类在指数增长的资源需求面前败下阵来,必须得要寻求其他的方案,那我们就不得不去思考“模型为什么有效,什么东西会让它失效”,在这样的思考链条之下,我们就必须回归研究,可解释性就是目所能及的另一条路了。

在这两种情况下,最终都需要可解释性来救场。就算最终AI是个全知全能全善的神,以人类好奇和探索的天性,必然还是会去研究AI为什么能做得好。毕竟“黑盒”就意味着猜疑链的诞生,在大模型技术爆炸,开始达到甚至超过人类平均水平的今天,《三体》中“黑暗森林”的规则,也许会以另一种方式呈现出来。

目前打开训练好模型的黑箱,去找到电路(circuit),还是处于比较初步的阶段。可解释性真正的难点,在于从第一性原理,即从模型架构、梯度下降及数据本身的固有结构出发,解释为什么模型会收敛出这些解耦、稀疏、低秩、模块化、可组合的特征与回路,为什么会有大量不同的解释,这些涌现出来的结构和模型训练的哪些超参数相关,如何相关,等等。等到我们能从梯度下降的方程里,直接推导出大模型特征涌现的必然性,可解释性才算真正从生物式的证据收集走向物理式的原理推导,最终反过来指导实践,为下一代人工智能的模型设计开辟道路。对比四百年前的物理学,我们现在有很多AI版的第谷(收集数据),一些AI版的开普勒(提出假说),但还没有AI版的牛顿(发现原理)。

等到那一天来临的时候,我相信,世界一定会天翻地覆。

未来会是什么样子

抛开前公司里每三个月一次的组织架构重组不谈,2025年一年的变化本身已经很大。2025年年初的Deepseek-R1的发布,现在想来几乎已经算是20世纪的事情了。带思维链的推理模型的巨大成功,让强化学习(RL)又回到了AI的主流视野之中,也带动了AI for Coding及AI Agent的发展,而后两者让大模型有了大规模落地,大幅度提高生产力的切实可能。

以前做项目,招人是很重要的一环,但现在脑中的第一个问题是“还需不需要人?”几个Codex进程一开,给它们下各种指令,它们就可以24小时不间断干活,速度远超任何人类,而且随便PUA永远听话毫无怨言。和AI工作,我最担心的是工作量有没有给够,有没有用完每天的剩余token数目。这也是为什么各家都在试验让AI Agent做几个小时连续不断的工作,看AI的能力上界在哪里。因为人的注意力永远是最昂贵的,人要休息,要度假,要允许有走神、睡觉和做其他事情的时间。减少人的介入,让AI自己找到答案,干几个小时活之后再回来看看最好。

这每个月交给OpenAI的20块钱,一定要榨干它的价值啊。

我突然意识到,就因为这20块钱,我已经成为“每个毛孔里都滴着血”的肮脏资本家。我能这么想,全世界最聪明和最富有的头脑,也一定会这么想。

所以请大家丢掉幻想,准备战斗吧。

在帮忙赶工Llama4期间,我经常在加州时区晚上12点接到东部时区的组员消息,在伦敦的朋友们更是永不下线,熬夜折腾到凌晨四五点是寻常事,但大模型越来越强,辛勤劳动最终达到的结果,是看到大模型达到甚至超越我们日常做事的水准。

这应该说是一种陷入囚徒困境之后的无奈。

人类社会的“费米能级”

如果以后以AI为中心,那还需要人吗?

如果考虑劳动力的投入-回报模型,传统思维会告诉你,工作经验积累越多,人的能力越强,回报也越大,是个单调上升的曲线。这就是为什么大厂有职级,职级随年限晋升,越老越香。但现在的情况已经不同了。职级已经没有意义,过去的经验也没有意义,人的价值从按照“本人产出的劳动数量及质量”来评估,变成了是否能提高AI的能力,人加AI要大于AI本身的产出,这样才行。

这样就让投入-回报曲线从一个单调递增曲线变成了一个先是全零,再在一定阈值之后增长的曲线(也即soft-thresholding的曲线)。一开始人的能力是比不过AI的,而AI的供给只会越来越便宜,所以在很长一段成长期内,人本身是没有价值的。只有在人的能力强到一定程度之后,能够做到辅助AI变强,才开始变得有价值起来。

并且,在跨越阈值之后,厉害的人对AI的加成,会高于普通人很多,因为普通人只会对AI的一两条具体产出花时间修修补补,而厉害的人在看了一些AI存在的问题之后,能提出较为系统性和普遍性的解决方案,结合手上的各类资源(GPU和数据等),可以进一步让AI变得更强,而这种效应随着AI的广泛部署,会被几何级数地放大。“一骑当千”这种小说笔法,将很快变成现实。

在这样一个非常两极分化的投入-回报模型之下,如果把人+所有个人能获取的AI当成一个智能体,整体来看,它的能力分布会和电子能级在材料里的分布很像:低于或达到某个水准线的智能体遍地都是,求着客户给它干活,以证明自己还是有用的;而高于这个水准线的智能体则指数级地变少,获取和使用它非常花钱,还常常排不到。

这个水准线,就是AI洪水的高度,就是人类社会的“费米能级”。低于费米能级的职业,可能在一夜之间就被颠覆掉,就像一场洪水或者地震一样,前一天还是岁月静好,后一天整个行业被端掉了。

随着时间变化,这条水准线还会一直往上走。其进展的速度,和它能获取到的,比它更强的数据量成正比。如果大模型的训练过程没有特别大的进展,那和自动驾驶无人车一样,越往上走,有用的数据是越来越少的,进展也会越慢,最顶尖的那部分人,还能在很长时间内保有自己的护城河。如果训练过程有突破,比如说找到新的合成数据手段,乃至新的训练算法,那就不好说了。

当然以上的判断是假设有无限的GPU和能源的供给,并没有考虑到各种资源短缺的情况。能源短缺,芯片产能短缺,内存短缺,整个地球能否满足人类日益疯狂增长的AI需求还是个未知数,这方面深究下去,或许可以做一篇论文出来。

遍地神灯时代的独立和主动思考

那么,接下来会怎么样呢?

未来的世界,或许不再是传统故事里描绘的那样——人们为了争夺稀缺的武功秘籍,或是千辛万苦寻找唯一的阿拉丁神灯、集齐七颗龙珠而展开冒险。相反,这将是一个“遍地神灯”的时代。每一个AI智能体都像是一个神灯,它们能力超群,渴望着实现别人的愿望,以此来证明自己的价值。

在这种环境下,真正稀缺的不再是实现愿望的能力,而是“愿望”本身,以及将愿望化为现实的那份坚持。

然而,在这个AI能力极其充沛的时代,巨大的便利往往伴随着巨大的陷阱。大模型提供了极其廉价的思考结果,在当前信息交互尚不充分的市场中,这些结果甚至可以直接用来交差并获取经济价值(例如那些一眼就能看出的“AI味”文案)。这种唾手可得的便利,会让许多人逐渐失去思考的动力,久而久之丧失原创能力,思想被生成式内容和推荐系统所绑架和同化。这就是新时代对“懒人”的定义:不再是因为体力上的懒惰,而是精神上没有空闲去思考,没有能力去构思独特的东西。

最终变成一具空壳,连许愿的能力都失去了。

那我们该如何保持独立思考?如何不被AI同化?

战术上来说,我们需要学会不停地审视AI的答案,挑它的毛病,并找到它无法解决的新问题。未来的新价值将来源于三个方面:(1)新的数据发现;(2)对问题全新的深入理解;(3)新的路径,包括可行的创新方案及其结果。利用信息不对称来套利只是暂时的。随着模型越来越强,社会对AI的认知越来越清晰,这种机会将迅速消失。如果仅仅满足于完成上级交代的任务,陷入“应付完就行”的状态,那么在AI泛滥的今天,这种职位极易被取代。

AI时代生存指南 来源:田渊栋的知乎账号

就拿AI Coding来说,用多了,我会觉得它虽然可以很快弄出一个可以跑的代码库满足需求,但随着代码越来越长,它贡献的代码也就越来越不如人意,还是需要人来做大的设计规划。如何调教它让它更快达成自己的长远目的,这会成为人类独有价值的一部分。如果只是盲目地命令它做这个做那个,而不自己去思考如何做才能和它配合做得更好,那就会和大部分人一样停留在应用层面,而无法理解得更深入,就更不用说独一无二了。

战略上来说,无论主动还是被动,每个人都将面临从“员工”角色向“老板”或“创始人”角色的转变。这种转变的核心在于“目标感”。如果心中有一个坚定的目标,并愿意动用一切手段(包括将大模型作为核心工具)去达成它,那么主动思考就是自然而然的结果。目标越远大,触发的主动思考就越多,激发的潜力就越大。

因此,如果将来的孩子立志要去土卫六开演唱会,或者想在黑洞边缘探险,千万不要打压这样看似荒诞的志向。因为这份宏大的愿望,或许正是他们一辈子充满前进动力,主动思考的根本源泉,也是让他们始终屹立于“费米能级”之上的关键。

科技展望开年演讲|格式塔彭雷:超声波脑机接口如何重构智能?

1月29日,在澎湃新闻举办的“2026科技展望开年演讲”上,连续创业者、格式塔科技创始人兼CEO彭雷发表了题为《超声波,下一代脑机接口如何重构人类智能和AI》的演讲。作为一位从互联网和AI领域跨界到生命科学的探索者,彭雷深入剖析了脑机接口领域的现状、瓶颈,阐述了以超声波为核心的下一代技术路径,及其可能为神经科学和人工智能带来的颠覆性变革。

彭雷在演讲开篇提到,神经科学与人工智能是“同一枚硬币的两面”。他引述了杰弗里·辛顿、德米斯·哈萨比斯、伊尔亚·苏茨克维、埃隆·马斯克等多位AI与科技巨擘的最新思考,指出当人工智能的发展触及“堆算力”的天花板时,这些“大佬”不约而同地将目光投向了人类大脑的运作机制——这个在数十亿年进化中形成的、最高效的智能范本。

“从探究人脑学习为何没有反向传播,到思考如何用好奇心、同理心等人类价值来训练未来的超级AI,我们看到,AI的下一步突破,很可能需要从神经科学中汲取底层算法的创新灵感。”彭雷说,这种相互启发、相互促进的关系,正是脑机接口技术发展的背景,也是其最终可能实现“碳基与硅基智能融合”的理论基石。

回顾过去二十年的发展,彭雷肯定了以电信号为基础的侵入式脑机接口取得的显著成就,无论是马斯克Neuralink的无线植入,还是国内外团队在帮助渐冻症、高位截瘫患者实现“数字自主权”方面的突破,都证明了这条路径的价值。

这是否就是脑机接口的终局?彭雷认为:“我们过去的技术,无论是硬膜外还是硬膜下的电极,本质上都是在开颅后,对大脑特定区域的神经元进行‘点对点’的接触式读写。但这忽略了大脑最迷人的特性——它是一个复杂的网络,其整体功能远大于局部之和。”

基于这一认知,彭雷联合创立了“格式塔科技”。“格式塔”一词源于心理学,意为“整体大于部分之和”。他认为,要真正理解认知、记忆、情感等高级功能,就必须从一个更宏观、更整体的视角来观察和干预大脑。在他看来,超声波脑机接口具备这样的技术潜力。

与需要开颅手术的电学方法不同,超声波技术利用相控阵原理,能够将能量无创地穿透颅骨,精准聚焦于大脑内部的任意位置,无论是表层皮层还是深部核团,实现对神经元的兴奋或抑制调控。

在“读取”大脑信号方面,超声波另辟蹊径。它不直接读取电信号,而是通过功能性超声成像(fUS)技术,捕捉神经元活动时周围血流信号的变化。“人脑中血管总长度超过100万公里,血流的动态变化与神经活动高度相关,”彭雷说,“读取血流信号,意味着我们可以从一个更宽广的全脑维度,解码大脑的意图。”

他透露,这一技术路线正迅速成为全球科技巨头的新战场。从Neuralink核心成员的出走创业,到近期OpenAI创始人山姆·奥特曼高调成立超声波脑机接口实验室,都预示着一个巨大风口的到来。

演讲的最后,彭雷展示了超声波脑机接口从理论走向应用的巨大潜力。他介绍,格式塔科技正在开发从大型台架式到未来可穿戴式的两代产品,旨在将神经调控从院内延伸至院外甚至家庭场景。

他表示,对于慢性疼痛患者,初步临床研究显示,30分钟的无创治疗可使其疼痛程度显著下降50%,效果持续一周以上;对于中风康复,超声调控有望保护受损神经元,改善预后;在抑郁症、焦虑症等精神类疾病治疗上,它为功能性失调的“对症下药”提供了新工具;此外,它还能暂时性地打开血脑屏障,为脑胶质瘤、阿尔茨海默病等顽疾的新药研发打造一个高效的药物递送平台。

“我们深信,随着超声波带来的海量全脑数据不断积累,神经科学领域或许将迎来自己的‘Transformer时刻’,诞生一个全新的大脑基础模型(Foundation Model)。”彭雷展望道,“这不仅将彻底改变我们理解和治疗大脑的方式,更将加速人工智能与人类智能的融合,推动人类走向那个我们曾经预测的、碳基与硅基智能共生的未来。”

信也科技王春平:AI落地金融行业,在于融合更在于安全

人工智能(AI)与金融的结合,已经不再仅仅是“技术赋能业务”的故事,而是“技术与业务深度融合”的现实。

2025年,是AI从实验室走向规模化应用这一过程中的关键一年。作为这一进程的深度参与者,我们清晰地看到:生成式大模型的突破,正推动AI从“单点试水”逐步走向“全流程融合”,从辅助工具变成为真正的价值引擎。但与此同时,一场关乎安全的重定义也已迫在眉睫。

一、融合:AI落地的三重进阶

多模态融合,实现感知升维

多模态不是简单叠加信息,而是通过融合文本、图像、语音、图谱等不同模态数据,实现对用户和场景的更立体刻画。以风控为例,信也融合人脸、声纹、行为序列等多维信息,结合自研的图异常检测与跨模态建模,构建了可自主演进的反欺诈体系。在特定欺诈识别中,准确率已达98.8%,召回率95.3%。

在交互层面,多模态技术正在重新定义服务体验。我们研发的新一代智能对话引擎,深度融合语音识别、自然语言理解与金融知识库,突破了传统语音交互的天花板。信也科技基于此打造的智能语音机器人Blu,已实现日均百万次服务,并支持从中英文到乌尔都语等六种语言,真正实现“规模化个性服务”。

大小模型协同,走向精准实用

大模型的优势在于通用理解与生成能力,小模型的价值在于针对性与稳定性。金融行业的趋势,是两者协同。

信也科技自研大模型“米粒”于2024年完成国家网信办备案,奠定了合规的服务基础。依托大模型开发平台E-LADF与智能体创新平台Zeta,大模型已覆盖代码辅助、巡检排障、获客投放、风险控制等核心环节。但我们也看到,通用大模型在面对私有、专业数据时仍存在局限。例如,识别用户是否故意做出“夸张表情”攻击人脸识别系统,这类细微且语义复杂的任务,小模型往往更精准。因此,在相当长时间内,“大模型探索边界,小模型保障深度”的协同,将是AI高效落地的现实解法。

人机融合,从协作到共生

受机器能力的限制,上一代人机关系是分工式的——机器预筛、人工跟进。随着大语言模型、语音大模型、智能体协作等各方面能力的提升,机器逐渐具备了处理个性化长尾问题和复杂业务流程的能力,成为人的“延伸”,服务模式开始无缝衔接。

这种人机融合不仅提升了效率,也在悄然改变服务逻辑:AI不再只是“辅助者”,而是“坐席的分身”,“服务的共同体”。未来的客服坐席,也许并不需要分清“谁是人、谁是机器”。

二、安全:AI金融不可逾越的生命线

模型安全:从“能用”到“可信”

AI的安全问题,并非抽象的技术风险,而是直接关联到业务决策的稳定性。信也科技自2022年起,与浙江大学合作在国际顶会AAAI上发表多篇图模型攻防研究论文,以探讨主动和被动的模型安全策略。2023年以来,大语言模型的基础性和脆弱性更加有目共睹,业界对于模型安全可控的重要性迅速达成共识。

 因此,我们坚持“能用更要可信”的原则——技术落地必须在合规、安全、可追溯的框架下推进。“米粒”模型的备案正是这一原则的体现。

生成式AI带来安全新挑战

与此同时,生成式AI的普及让“伪造”进入了低门槛时代。数秒语音可克隆声音,几张图片可生成逼真视频,让很多人大为惊叹。但在金融领域,这意味着欺诈手段更智能、风险识别更困难。对此,信也科技持续升级反欺诈算法,并连续两届以“深度鉴伪”为主题举办算法大赛,与IJCAI、CIKM等国际会议合作,吸引来自微软、小米、纽约大学、新加坡国立大学等全球企业和高校的数百支参赛队伍。

 我们的目标不仅是技术突破,更是推动行业形成“共防共建”的安全生态。

三、未来:在攻防中前进

安全与创新从来不是对立的两极。

从去年到今年,我们在多次调研中发现,社会对AI安全的关注显著上升,但行业防线仍有短板。安全不仅是算法问题,更是体系建设问题——包括技术防护、员工教育、跨行业协作等多层防线的共同作用。AI在金融的未来,不在于单一技术的突破,而在于如何让创新与安全共存。只有当AI在可控、可信的框架内落地,智能化的金融体系才能真正实现普惠与稳健。

真正的AI落地者,不只是“技术实现者”,更是“安全边界的重塑者”。

(本文作者王春平,系信也科技首席科学家。)

研究了38年玻璃的她,如今着眼如何用AI赋能新材料开发

胡丽丽研究员检视连熔激光钕玻璃

玻璃的形成和结构及性能演化机制是凝聚态物理最富挑战的谜题之一。

全球玻璃行业市场规模巨大,预计2027将年超过1.5万亿美元。中国是世界最大的玻璃生产国(>50%),但不少高端玻璃制品目前还受制于人。譬如一米见方就要卖30万元的钕(音:nǚ)玻璃,它被裁切后裁切的钕玻璃,吸收了足够多能量便能产生炫目的超强激光, 可以成为超强激光器的“心脏”。美、德、日本等国家花费六年时间完成这种玻璃的研发制备后,将相关制备工艺技术、设备和产品实施了严格的封锁、禁运。

这是中国发展超强激光面临的重要挑战之一。

中国激光玻璃领域的学术带头人,中国科学院上海光学精密机械研究所(简称:上海光机所)研究员胡丽丽历经7年努力,取得突破,为中国“神光”研制钕玻璃。

2025年1月,62岁、头发花白的胡丽丽,在玻璃领域深耕38年后登上了ICG(国际玻璃协会)主席奖的领奖台,是该奖项设立30年来第三位中国获奖学者。获奖证书上的一句话让人感动:玻璃的梦想(glass dream)。在此之前,她荣获旨在奖励非晶态材料领域做出突出贡献的杰出科学家的著名奖项——N. F. Mott奖,是该奖项自1983年设立以来的首位中国获奖者。

激光钕玻璃

实干兴邦,近十年努力突破,为中国“神光”制钕玻璃

玻璃不像晶体,没有规则的结构。让玻璃拥有特殊的性能,研发出特种玻璃,难度不小,也缺乏系统性的理论。”日前,胡丽丽在接受澎湃科技专访时表示。但瞄准国家重大战略需求,她主动换了“赛道”。

“1987年开始从事玻璃研究以来,我的指导思想,包括跟学生也是这么说的,这个材料做了的话,就要用。材料的研究是最后要实现应用的。所以,我非常乐意在实验室从基础研究出发,最后把制备工艺技术走通,把产品做出来。”胡丽丽这么说,也是这么做的。在特种玻璃与光纤研发这一赛道里,她带领团队不断创新。

为满足中国自主研发激光聚变装置的迫切需求,自2005年起,胡丽丽带领团队,从基础研究出发,对新型高增益激光钕玻璃研发、大尺寸激光钕玻璃批量制备涵盖的连续熔炼、精密退火、包边、检测四大关键核心技术进行了近十年的持续攻关。

其中难度最大的,当属大尺寸激光钕玻璃的连续熔炼技术攻关。难题接踵而至,羟基和过渡金属杂质超标、玻璃炸裂、玻璃内部出现条纹和气泡。研究团队一次次测试、分析、讨论解决方案。

2012年,在大家的共同努力下,连续熔炼工艺中的重重难题终于被攻克。他们设计建立了激光钕玻璃连熔中试生产线,实现了全链条关键技术集成和贯通。

钕玻璃包边工艺研究 

截至目前,研究团队圆满完成“神光”系列装置应用的大尺寸激光钕玻璃的研制。自主研发的激光钕玻璃成品铂颗粒、羟基吸收系数等核心技术指标国际领先,成功挑战了由美、德、日三家联手才能达到的技术极限。

钕玻璃团队

相关成果先后荣获2016年度“上海市技术发明特等奖”、2017年度“国家技术发明二等奖”、2022年度“中国科学院杰出科技成就奖”。

八年攻坚,打破国外垄断和禁运

光纤激光器是用光纤作激光介质的激光器。其应用范围非常广泛,包括激光空间远距通讯、军事国防安全、医疗器械仪器设备、大型基础建设等。进入21世纪以来,光纤激光器逐步占据了激光器市场的半壁江山。

万瓦级高功率掺镱大模场光纤的纤芯需要承受超高激光功率密度,极易引起色心(Color Center),导致输出功率下降,破坏激光系统的稳定性。公开资料显示,色心是指晶体中的零维缺陷,导致光吸收或发射。

光纤超连续谱

掺镱大模场光纤是高功率光纤激光器的核心增益介质,它的作用是产生激光并对激光功率进行放大,从而实现上万瓦的输出功率。但该光纤产品及其制备工艺长期被美国Nufern、nLight等公司垄断和严格管控,成为制约中国高功率光纤激光器发展的技术瓶颈。

特种光纤

自2011年以来,胡丽丽研究员带领年轻的研发团队,聚焦高功率激光光纤的激光效率、功率稳定性和长期可靠性等三个难点问题。历经八年攻坚克难,他们从稀土掺杂石英玻璃构效关系基础研究出发,在掺镱激光光纤的纤芯成分设计、制备工艺优化、包层结构创新三个方面开展了一系列研究工作,在国内率先攻克了万瓦级掺镱大模场光纤的批量制备关键技术。

光纤预制棒

这一技术突破解决了中国高功率光纤激光器关键元件的问题,让中国高功率光纤激光器装上了国产“芯”。团队研制的若干高性能掺镱激光光纤也打破了国外公司的产品禁运,及其技术和产品垄断,满足了空间环境等高功率光纤激光器急迫的应用需求。2019年以来,研究团队实现直接销售额超过2亿元,间接经济效益超过18亿元。

高纯石英

AI+特种玻璃构效理论研究,瞄准未来

邓路博士从海外留学归来,加入胡丽丽研究员团队,目前主要做材料计算模拟和玻璃构效关系研究。他分享了2025年春节期间的一件小事:当时,国产开源人工智能大模型deepseek还没像现在这么火,刚有一些媒体在报道。突然有一天,胡丽丽研究员就在工作微信群里发了一条deepseek相关的报道,希望大家关注,并分享了她自己的看法。

“她一直关注前沿。”邓路说。

随着人工智能AI的发展,玻璃的研究范式亟待改变。如何实现AI赋能的玻璃新材料快速开发,成为了当下热点。“它将来是一种工具,我们要学习好用好这种工具,使得我们特种玻璃的研发高效、精准。”胡丽丽研究员表示。自“十四五”开始,她积极引进学科交叉领域的海外优秀人才,打造涵盖玻璃结构性能表征、分子动力学模拟、AI辅助建模的玻璃构效关系研究平台。为了进一步加快玻璃构效关系平台的建设进程,胡丽丽研究员带领团队成员多次走访相关单位,组织学术论坛,积极谋划相关平台的论证工作,有望在“十五五”期间构建一个集高通量制备、AI辅助建模、结构表征验证的特种玻璃材料构效关系平台,创新特种玻璃研发范式。

特种光纤团队

诺奖得主利用AI取得酶设计领域重大突破

·研究团队提出了他们未来研究的两个主要领域:一是开发能够降解塑料的酶,二是探索人工智能制造的其他功能酶的治疗潜力。长期目标是能够通过构建合适的酶来降解人体内的任何蛋白质,这可能会催生新的、更精确的疗法,甚至能够应对目前无法触及的治疗目标。

近年来,人工智能(AI)在蛋白质设计上取得了显著进展,但是完全从无到有地设计蛋白质仍然面临很大挑战。日前,2024年诺贝尔化学奖获得者之一、美国华盛顿大学(University of Washington)David Baker团队在《科学》(Science)发表论文,他们通过两项AI模型的巧妙结合,得以从无到有设计能够催化多步骤化学反应的酶,研究团队认为,这是一种突破传统方法限制的从头设计酶的方法,这项研究不仅在酶设计领域取得了重大突破,而且为未来设计更多新型酶提供了新的思路和方法,将对生物催化、医药和工业应用产生深远影响。

酶是生命体中高效催化化学反应的“分子机器”,设计能够催化任意化学反应的酶具有广泛的应用前景,因此酶设计一直是计算蛋白质设计领域的一个长期目标。然而,多步骤催化反应的酶设计始终是一项巨大挑战。天然酶可以催化多个步骤的反应,但此前通过AI从头设计的酶,通常在反应的第一步之后就会停滞。

在最新的《科学》论文中,David Baker团队利用AI从头设计了具有复杂活性位点的丝氨酸水解酶。丝氨酸水解是一个四步化学反应,包括破坏分子之间的酯键,丝氨酸水解酶是催化丝氨酸水解反应的天然酶,其参与多种生物学过程,包括消化、脂肪代谢和血液凝固。这四个步骤都需要活性位点的精密排布和动态预组织,对人工设计提出了极高的要求。

在这项研究中,David Baker团队首先利用了2023年发表的重磅模型——RFdiffusion,它是一种基于深度学习的蛋白质设计方法,可以首先从一个完全随机的噪声状态开始,然后逐渐减少噪声,同时引导生成过程朝着目标蛋白质结构的方向发展。

RFdiffusion解决了活性位点的排布问题后,研究团队又用另一个深度学习模型——PLACER来解决这些位点的预组织问题。PLACER可以通过模拟蛋白质和小分子之间的相互作用,生成一个包含多种可能构象的集合。这些构象反映了蛋白质在反应过程中的动态变化,从而为评估设计的酶的催化效率提供更全面的信息。

通过这两种模型的结合,研究团队从头设计的酶完成了丝氨酸水解的所有4个步骤。相比此前的设计,这个新酶的催化效率提升了6万倍。不过研究也指出,论文中对丝氨酸水解酶的设计只是一项概念验证实验,和天然的丝氨酸水解酶相比,该产物的效率还有很大的不足。接下来,研究团队计划对酶的结构进行更多调整,进一步提高其催化效率,使其更加接近实际应用。

研究团队提出了他们未来研究的两个主要领域:一是开发能够降解塑料的酶,二是探索人工智能制造的其他功能酶的治疗潜力。实验室成员之一Sam Pellock说,在治疗领域,蛋白酶(即分解蛋白质或肽的酶)是一个值得关注的领域。他提到,长期目标是能够通过构建合适的酶来降解人体内的任何蛋白质,这可能会催生新的、更精确的疗法,甚至能够应对目前无法触及的治疗目标。

“大力出奇迹”,20万卡练出马斯克口中“最聪明的AI”

Grok 3,马斯克口中“最聪明的AI”来了! 2月18日中午12时许,马斯克(Elon Musk)的AI公司xAI研发的新一代AI基座大模型Grok 3正式发布。耗费了20万张GPU的Grok 3显示,“卷算力”目前仍是核心。

Grok 3的三个亮点

据马斯克团队介绍,Grok 3模型和Grok 3 mini(Reasoning,精简版)在数学推理、科学逻辑推理和代码写作等能力表现方面超越了所有主流模型,包括GPT-4o、Claude 3.5 Sonnet、DeepSeek-V3和Gemini-2 Pro等。

同时,具备推理能力的Grok-3 Reasoning Beta和Grok-3 mini Reasoning则是超越了类似的推理模型,包括DeepSeek-R1和OpenAI的o3 mini等。

模型推理能力

发布会上,马斯克提及,Grok 3的推理模型还支持一项名为DeepSearch搜索引擎新功能的应用。Deep Search通过扫描互联网和X平台上的信息进行分析,并生成摘要以回答用户提出的问题,在这一过程中还可以“推测用户的真正意图”,在经过交叉比对不同信息来源后,确保能向用户返回正确的信息。

融入智能体功能

快思慢想研究院院长、原商汤智能产业研究院创始院长田丰在接受澎湃科技采访时表示,从发布会上的内容看,Grok3有三个亮点:一是通过缩放定律Scaling Law显著提升模型性能,二是数学与编程等逻辑推理能力大幅增强,三是融入智能体产品化设计。

澎湃科技注意到,曾担任OpenAI创始团队、斯坦福博士,训练大型深度神经网络的工程师Andrej Karpathy,分享了其用户体验。

Andrej 称,在今天早上大约使用了两个小时的过程中,他感受到,Grok3加上深度思考(Thinking)模式的能力略好于DeepSeek-R1和Gemini2.0 Flash Thinking。这是相当令人难以相信的,不过,现在模型给出的答案是随机的,每次可能会给出略有不同的答案,现在还处于早期阶段,在接下来的时间,还需要更多的评估。

模型将进入“神仙打架”

“不过这场大语言模型(LLM)模型领域的竞赛令人非常兴奋!”Andrej 说。

伴随人工智能快速迭代,模型的领先优势的“保质期”越来越短,此前有业内人士向澎湃科技表示,“不超过100天,就会有新的模型出现,并超越。”

田丰也表示,接下来将进入神仙打架阶段,“Grok3‘PK’DeepSeek V3,马上就会有人来‘PK’Grok 3,也许是GPT4.5”。根据此前OpenAI对外公布的信息,GPT4.5的发布日期已经列入日程。

另有观点认为,目前的大模型行业,训练还未卷完,范式已经统一。

目前Grok3并未开放给普通用户使用,实际推理效果还要使用产品后看,目前看起来基准测试是达到GPT-o1水平的模型,但还不确定实际效果,推理能力的最佳呈现是数学和代码。马斯克在这次直播中主要展现了Grok3的数学计算和代码的能力。

卷算力目前是核心

值得一提的是,在DeepSeek开启了低成本训练模型的风潮后,Grok 3却是花了重金。Groks 3短时间内反超之前的SOTA模型(state-of-the-art model指在该项研究任务中,目前最好/最先进的模型),说明“卷算力”目前仍是核心。

在此次发布会上,马斯克透露,Grok 3的计算能力是Grok 2的10倍以上,Grok 3训练过程累计消耗20万张英伟达GPU,计算资源的显著提升帮助Grok 3能更高效地处理大型数据集,缩短了模型训练时间也提高了准确性。有分析称,Grok 3算力消耗是Deepseek V3的263倍。

据xAI团队透露,Grok 2模型使用了2400亿参数规模,性能媲美GPT-4,为了训练Grok 3,xAI团队也将数据中心容量翻倍。

马斯克团队在发布会上表示,“早在去年4月,马斯克就决定创建我们自己的数据中心。我们大约在四个月内建立了数据中心,并花了122天时间,让10万个GPU启动并运行,这是一项艰巨的工作。我们相信这是同类中最大的全连接的H100集群。但我们并没有止步于此。”

“我们每天都在不断改进模型。”马斯克称,目前,Grok 3测试版现已面向马斯克的社交媒体平台X Premium用户推出。

田丰认为,Grok 3采用的还是“大力出奇迹”的模式,因其使用了20万块英伟达GPU卡训练而成,是典型的“又好又贵”。从数据来看,Grok 3的推理能力远远超过前一代的Grok 2模型。“xAI基础设施的建设能力全球领先,相比于10万块卡用了120多天,最新拓展至20万块GPU集群只用了92天完成施工搭建,且利用率应该很高,值得中国算力供应链借鉴。”田丰补充说。

商业化布局更进一步

与DeepSeek相比,Grok 3最大的短板在于它并非开源模型,且需要付费。针对是否开源的问题,马斯克也在直播中回应,Grok 3并未开源,但“按照惯例,我们会在新模型发布时,将上一代模型进行开源。因此,可以预见的是,在几个月后,Grok-3也将迎来其开源时刻。”

此次推出的Grok 3测试版本已面向社交平台X上的付费用户开放,此外,xAI还推出了更高阶的Super Grok订阅服务。

“发布会只提到X用户能选择付费版的Grok 3与Super Grok服务,但没有提toB企业客户如何使用目前闭源的Grok 3大模型,相信今年马斯克会发布美国政企客户使用Grok的价格,因为发布会展示了游戏创意、航天科研等产业场景。”田丰预测。

单从xAI的资本投入角度,也确实存在进一步扩大商业化的需求。成立于2023年的xAI,日前正加速其资本布局,在2024年的11月,xAI告知投资者,该公司在最新一轮融资中筹集了50亿美元,估值达到500亿美元。2024年12月24日,xAI在其官网宣布已完成60亿美元(约合人民币438亿元)C轮融资,目前xAI公司的市值已超过400亿美元。据美国媒体报道,xAI正寻求新一轮约100亿美元的融资,此轮融资将使公司估值达到约750亿美元。

工业生产追求极致精准,“AI+工业机器人”应用尚在探索初期

AI大模型能否让工业机器人有一个“聪明的大脑”,广泛使用?答案是:暂时还不能。

“目前在工业机器人领域对AI技术的使用处于初级阶段,短期内(三到五年时间),仍难以实现大规模应用。”2月19日,在上海市闵行区经委举办的“智汇闵行”制造业智能制造沙龙活动之“走进发那科上海工厂”活动上,上海发那科机器人有限公司(以下简称“发那科机器人”)市场部副部长张海峰分享了他在AI结合工业机器人领域中的个人思考。

上海发那科机器人有限公司市场部副部长张海峰

张海峰称,目前AI技术成熟度和企业客户实际需求仍存在较大差距。

走进发那科上海智能制造体验中心,“机器人造机器人”的科幻场景似乎已经走进现实。工厂基地,一排排形态各异、功能多样的工业机器人正忙碌着,有的是倒酒、制作咖啡的服务员,有的替代车间工人在装配新能源车身,分拣货物、拧紧超大扭矩。

可以倒咖啡、倒酒的工业机器人

澎湃科技(www.thepaper.cn)了解到,发那科机器人在搬运类机器人、视觉识别类机器人等一些应用已经开始和AI技术结合使用,但还未能大范围展开使用。

张海峰表示,在机器人行业的发展过程中需要经历执行阶段、移动功能延伸阶段、感知阶段、自主决策阶段。

其中机器人感知阶段又分为触觉感知阶段和视觉感知,用于解决定位问题。视觉感知重点是解决机器人能否看到的问题,触觉感知则侧重于明确摆放物体所在的位置,进而能自主判断机器人能否抓取并执行相应操作。机器人在感知到物体并能抓取之后,最终形成自身的决策能力,在这一过程需要人工智能发挥作用。

张海峰称,企业生产非常看重良品率,现有AI技术在判断上会出现失误的情况,无法保证达到100%的良品率,如果出错的话,风险则需要企业来承担。“比如拧螺丝这道环节,如何让机器人加入人工智能技术识别、抓取、判断出来这颗螺丝应该怎么抓、状态如何调整,还有待考察。”张海峰说,现阶段AI技术还是在单点应用比如视觉识别类结合使用。

此次沙龙活动分享的Robotics星猿哲((XYZ Robotics)专注于移动复合机器人和 3D 视觉产品研发。该公司首席商务官、联合创始人邢梁立博告诉澎湃科技,从长远角度来看,人工智能和机器人可以结合的功能点很多,在不同维度会有不同的应用,比如检测类工作是体现人工智能技术优势的很好形式。但技术的成熟度在时间上存在差异,比如人形机器人走进家庭做清洁、陪伴,可能未来三到五年都很难实现。

邢梁立博称,AI人工智能现在主要的问题在于很难做到100%的准确,只能说逼近95%。但对于工业机器人,这种精度不能接受,工业生产需要追求极致的百分百准确。而在服务场景中,协作机械臂的AI应用会更多。

邢梁立博也提到,当前机器人的渗透率其实并不高,全球机器人保有量大概在百万台级别,渗透率难以进一步提升,是因为目前很多应用场景非常复杂,今后机器人技术迭代的速度会更快。

过去一年,为提升企业对智能化相关政策的知晓度和理解度,闵行区举办了多场政策宣贯会和系列沙龙活动,其中“智汇闵行”制造业系列沙龙活动已成为企业间学习借鉴和沟通交流的平台。

Manus开始向用户收费了

3月28日下午,目前还处于非公开测试阶段的AI Agent产品Manus,宣布开始向用户收费,这距离其发布预览版本还不足1个月时间。

Manus官网公布的收费细则 

据悉,此次付费版本分为Manus Starter和Manus Pro,均为Beta版本。Manus Starter每月收费39美元,用户可获得3900积分,最多可以同时运行2个任务。 Manus Pro每月收费199美元,用户可获得19900积分,最多可以同时运行5个任务,同时支持使用高投入模式和其他测试功能。两个版本的用户权益均可享受到专属资源提升稳定性、用户可享受扩展的上下文长度以及高峰时段优先访问。

积分是Manus使用的标准计量单位,任务越复杂或越耗时,所需积分越多。据其官网举例,对设计并部署一个独特的个人网站这样的复杂任务来说,需花费600积分、持续40分钟。

Manus目前仍处于非公开测试阶段,普通用户注册成功后需输入邀请码使用,如果没有邀请码仍需加入等候名单,此次收费针对持有邀请码的全球用户。

Manus是今年以来中国AI圈的又一个爆款。3月5日晚间,成立于2023年的中国AI初创公司Butterfly Effect(蝴蝶效应)发布Manus的早期预览版,将其称为“全球首款通用智能体产品”。介绍视频中展示了Manus执行三个任务的过程,分别是筛选简历、挑选房产和分析股票。从介绍来看,使用者只需要给Manus一个简单的指令,它就能自动完成复杂的任务。

但上线一天后,对于Manus的评论出现两极。有人批评公司“以邀请码为噱头,营销味太重”,但也有人为Manus的创新点赞。3月11日,Manus宣布和阿里云旗下大语言模型通义千问达成合作,在国产模型和算力平台上实现Manus的全部功能。日前,有报道称,蝴蝶效应正与美国风投机构等潜在投资者洽谈新一轮融资,目标估值至少5亿美元,该公司的估值可能会增长约五倍。