两市融资余额增加190.57亿元

截至2月10日,上交所融资余额报9365.42亿元,较前一交易日增加85.06亿元;深交所融资余额报8887.41亿元,较前一交易日增加105.51亿元;两市合计18252.83亿元,较前一交易日增加190.57亿元。

我国科学家实现“双环路”脑机“互学习”新突破

天津大学与清华大学联合研发出一款“双环路”脑机接口系统。此系统不仅精度更高、能耗更低,还能处理更为复杂的任务。

这款基于忆阻器神经形态器件的无创演进脑机接口系统,成功揭示了脑电发展与解码器演化在脑机交互过程中的协同增强效应,实现了人脑对无人机的高效四自由度操控。2月17日,这一成果在最新一期《自然·电子》上刊发。

协同演进脑机接口框架。(联合研究团队供图)

脑机接口能实现大脑与机器直接信息交流,促进生物智能与机器智能融合,被公认为是新一代人机交互和人机混合智能的核心技术。如何通过脑机之间的信息交互实现“互学习”,进而促进脑机智能的协同演进,是突破脑机性能瓶颈的重点和难点。但目前脑机交互过程中大脑与机器的动态耦合机制尚未厘清,导致脑机之间的长时程互适应能力较弱,工作性能随时间显著下降。

天津大学与清华大学的联合研究团队针对这一难题,发现脑电信号的非平稳特性与任务脑电演变密切相关。基于此,他们创新性地提出了“双环路脑机协同演进框架”,并通过忆阻器神经形态器件加以实现。在“双环路”框架下,脑与机的学习环路相互协同,共同促进系统性能的提升。

(a)脑-忆阻器交互式更新框架;(b)基于忆阻器脑电解码的实时脑控无人机飞行。(联合研究团队供图)

实验结果显示,新方案相较于传统方案,解码速度大幅提升,能耗显著降低。更令人瞩目的是,在连续6小时的长时程交互实验中,系统性能不仅保持稳定,准确率还提升了约20%。这一成果无疑为脑机接口技术的实用化奠定了坚实基础。

天津大学脑机海河实验室教授许敏鹏表示,这项研究不仅实现了生物智能与机器智能的互适应、互学习,还为未来脑机接口系统的发展提供了重要的理论基础与技术支撑。他透露,团队计划将这一系统拓展至更多便携式或可穿戴设备中,以满足不同场景下的智能人机交互需求。

(a)协同演进脑机解码正确率较初始状态提高20%;(b)任务相关脑电特征发生正向演化;(c)脑与忆阻器解码器实现互适应。(联合研究团队供图)

据了解,此研究由天津大学与清华大学团队合作开展:天津大学脑机海河实验室团队完成协同演进脑机接口软件系统设计与范式算法实现,清华大学集成电路学院团队完成协同演进忆阻器神经形态器件硬件设计及忆阻器算法设计部署。

全球首个“双环路”无创脑机接口问世:意念操控无人机,能耗骤降至千分之一

脑机接口(Brain-Computer Interface,简称 BCI)是一种能够在大脑与外部设备之间建立直接信息交流通道的技术。其核心原理是通过电极(侵入式或非侵入式)记录大脑活动,利用信号处理算法将神经信号转化为可执行的指令。通过脑机接口,人类或动物不需要通过语言或动作,直接用大脑就可以控制机器设备。

传统脑机接口的自适应解码器缺乏大脑主动参与,且脑电信号采集的通道数急剧增长,解码算法也变得更加复杂,为脑电高效实时处理带来巨大挑战。

近日,由天津大学脑机海河实验室和清华大学集成电路学院合作发布的全球首个“双环路”无创脑机接口系统,把脑与机的信息交互,进行了智能融合,实现了“1+1>2”的效果,其脑电信号解码速度提升216倍,能耗降低至原本的1/1643,并可以实现对无人机的灵活“脑控”。

协同演进脑机接口框架

2月17日,相关成果的论文在线发表于国际权威期刊《自然·电子》。论文标题为《基于忆阻器自适应神经形态解码器的脑机接口》(A memristor-based adaptive neuromorphic decoder for brain-computer interfaces)。

2月19日,该论文的通讯作者之一、天津大学许敏鹏教授向澎湃科技表示,“双环路脑机协同演进框架”的提出,不仅带来了理论上的创新,更在系统性能方面实现了突破。许敏鹏解释说,在系统中引入了忆阻器,使解码速度提升很多,归一化解码速度提高百倍以上,能耗降低至千分之一以下;功耗降低很多,可以长时间进行脑机交互。“忆阻器的基本原理就是模拟大脑神经元的放电过程。”在连续6小时的长时程脑机交互实验中,“双环路”脑机接口的准确率提升约20%,打破了传统脑机接口实验时长一般控制在1个小时的限制。

对于“脑控”时长上的差异,许敏鹏表示,传统的脑接口研究,一般都是短时长研究。“因为我们的大脑是一个非线性系统,它的脑电波一直都在变化。这种变化的脑电波会对我脑机的解码带来负面影响,让它的正确率下降,导致没有办法做长时间的脑机交互。但我们是做了6个小时的脑机交互实验。我们通过‘双环路’机制,让整个脑机接口的系统性能不随时间的推移而下降,反而提升了。”

许敏鹏表示,因为无人机操控应该是目前脑机接口控制任务中难度最大的任务,所以这次他们选择了使用脑机接口对无人机进行操控来进行检测。

无人机的自由度非常高,精度也非常高,而且实时响应。“我们的脑机接口能实现4个自由度的连续操控,而且能完成一些相对复杂的任务。其他的,基本上都只是两个自由度的操控。”

(a)脑-忆阻器交互式更新框架;(b)基于忆阻器脑电解码的实时脑控无人机飞行。

许敏鹏展望,未来5-10年内,脑机接口系统有望在医疗领域推动视健康诊断、偏瘫康复、人工耳蜗调试等应用落地,并在消费电子领域催生意念操控、脑健康监测等新场景。

针对无创设备长期佩戴的安全性争议,许敏鹏教授则以“学习骑自行车”类比解释:“长期佩戴这类设备,确实会对大脑活动产生影响,但并非一定是不良影响。以学骑自行车为例,从最初的手忙脚乱到轻松驾驭,大脑的神经网络必然经历了重构。这就是学习带来的改变,是大脑习得新技能的过程,也是自身优化升级的过程。”

天津大学许敏鹏教授(中)。

全球首次!复旦大学科研团队发现帕金森病全新治疗靶点

近期,复旦大学附属华山医院郁金泰团队通过5年的临床和基础研究获得重大科研突破,在全球首次发现了帕金森病全新治疗靶点FAM171A2。此次研究发现的全新治疗靶点和候选新药有望从疾病早期对帕金森病进行干预,延缓疾病进展。相关研究成果于北京时间2月21日在线发表于国际学术期刊Science(《科学》)。

患病人数持续攀升 帕金森病成世界难题

帕金森病是仅次于阿尔茨海默病的第二常见的神经退行性疾病,严重影响患者日常生活。全球帕金森病患病人数预计将从2015年的700万左右增至2040年的1300万,我国帕金森病患者总数约占全球一半。传统药物和手术治疗都只是针对帕金森病的症状进行治疗,不能延缓疾病进展,因而进一步研究帕金森病致病的深层原因并开展针对性治疗,成为全球相关领域科学家竞相探索的战略高地。

帕金森病病程进展机制及干预手段

全球首次发现FAM171A2靶点是病理性α-突触核蛋白传播的关键

复旦大学附属华山医院郁金泰团队通过长达5年的潜心钻研,明确了PD关键致病蛋白——病理性α-突触核蛋白在神经元间的传播“导火索”,并发现了抑制其传播过程的候选新药,为帕金森病治疗提供了新思路。

研究团队首先从大规模人群的全基因组关联分析中,发现FAM171A2是帕金森病风险基因,FAM171A2是一种神经元细胞膜蛋白,但其功能此前从未被人研究过。郁金泰团队经过系列研究证实了神经元膜受体FAM171A2蛋白是促进病理性α-突触核蛋白传播的关键,在全球首次揭示了FAM171A2蛋白与α-突触核蛋白的结合机制。

基于帕金森病患者临床样本分析,团队发现帕金森病患者大脑中FAM171A2蛋白含量增高,且FAM171A2含量越高的患者,其脑内病理性α-突触核蛋白含量也越高。紧接着,通过一系列体内外实验,研究团队发现在神经元细胞膜上,FAM171A2像“智能识别门”一样,可选择性地结合病理性α-突触核蛋白,并携带其进入到神经元中,诱导神经元内单体形式的α-突触核蛋白发生错误折叠,造成神经元死亡和其在神经元间的传播。随后,研究团队通过转基因动物证实,敲除小鼠神经元上FAM171A2,可以有效控制小鼠帕金森样症状的进展。

对于此次的研究发现,《科学》杂志审稿人指出,识别病理性α-突触核蛋白聚集体的神经元受体是帕金森病研究领域的“圣杯”,它能提供阻断病理传播并延缓疾病进展的治疗方法;该研究探讨了一个至关重要且具有重大意义的科学问题,是一项非常有趣、新颖、重要且具有转化意义的研究。

帕金森病患者在出现运动症状之前十几年,大脑内就已存在α-突触核蛋白病理,本次研究发现有望在疾病的临床前期、前驱期和临床期通过靶向抑制原创新靶点FAM171A2,阻断病理性α-突触核蛋白传播,延缓帕金森病进展。此外,开发靶向FAM171A2新药还可补充目前在临床期改善运动症状的补充多巴胺水平的药物治疗、在临床晚期用脑起搏器的神经调控治疗手段,构建更完善的帕金森病标本兼治的治疗新体系。

在这一成果基础上,郁金泰团队申请了基于干预FAM171A2治疗帕金森病的国际专利,接下来,将全面、系统地开展寻找治疗帕金森病的小分子药物、抗体以及基因治疗手段的临床前研发工作,并进一步将相关成果推向临床试验和临床应用。

两市融资余额增加116.10亿元

截至3月12日,上交所融资余额报9709.25亿元,较前一交易日增加51.29亿元;深交所融资余额报9459.22亿元,较前一交易日增加64.81亿元;两市合计19168.47亿元,较前一交易日增加116.10亿元。

1089.6亿元!中国科幻产业连续两年破千亿元

在今天上午开幕的2025中国科幻大会上,《2025中国科幻产业报告》发布。据统计,2024年中国科幻产业的总营收为1089.6亿元,同去年基本持平,且连续两年突破千亿元规模。

2024年,科幻阅读产业营收为35.1亿元,同比增长10.7%。

科幻影视产业营收为67.1亿元,科幻微短剧与中短视频发展势头强劲,科幻电影节规模与影响力稳步提升。

科幻游戏产业营收为718.1亿元,同比增长10.2%,电脑端和主机端科幻游戏营收增速加快,科幻游戏制作水平显著提升。

科幻衍生品产业营收为25.3亿元,同比增长11%,市场呈现回暖趋势,国内原创IP逐步占据主导地位。

科幻文旅产业营收为244亿元,本土主题公园科幻游乐项目较去年营收占比提升,科幻舞台剧和科幻剧本娱乐逐步迈向内容精品化与运营高端化阶段。

两市融资余额减少477.05亿元

截至4月7日,上交所融资余额报9396.59亿元,较前一交易日减少191.48亿元;深交所融资余额报8991.72亿元,较前一交易日减少285.57亿元;两市合计18388.31亿元,较前一交易日减少477.05亿元。

“雪龙”号凯旋!中国第41次南极考察队主要任务完成

今天(4月8日),“雪龙”号极地科考破冰船返回上海,中国第41次南极考察队顺利完成主要任务。

来自国内外118家单位的516人参加此次考察,实施3船分航段进行。除了“雪龙”号之外,“永盛”号已于1月23日完成考察任务返港,“雪龙2”号目前仍在执行罗斯海联合航次,预计6月完成考察任务返回上海。

五院士建言创新药如何实现“既大又强”:舍得花钱做基础研究

“必须客观认识到,在科技创新的原创能力方面我们有些大而不强,在生物医药人才方面多而不精。”4月9日,在2025(第五届)张江生命科学国际创新峰会年度开幕主论坛话题讨论环节,中国科学院院士、发展中国家科学院院士、微生物代谢国家重点实验室主任邓子新直言,伴随着中国的创新药国际化趋势不断深入,当前中国在生物医药行业尚缺乏原始创新。

在这场以“创新驱动下的生物医药行业:多维度跨界融合与国际化市场竞争”为主题的圆桌对话中,五位院士一致认为生物医药领域做源头创新的时机已经到来,呼吁加强原创靶点的开发,推动国产生物医药行业从源头创新。

五位院士为创新药破局“大而不强”建言。

中国科学院院士、中国科学院上海有机化学研究所研究员马大为表示,现在正是国内提倡原始创新的好时机。过去十年,中国在跟踪性创新方面已经做的非常不错,下一个阶段要考虑的是有没有可能发展一些中国真正的原创药,这是基础研究一定要做的事。“我相信随着这样一个学科的不断推进,十年、二十年以后我们肯定能给企业界提供一些创新靶点,让大家做出真正国际一流的创新药。”

中国科学院院士、发展中国家科学院院士、中国科学院杭州医学研究所所长谭蔚泓也表示,目前国内在研发能力上只强调应用研究,为产业开发服务,真正要做原始创新还需强调一部分基础研究,有了原创的基础研究才能有中国药物领域的原创靶点,原创的成果,“中国大部分的企业追求money(钱)、money(钱)、money(钱),总是追求make more money(赚更多的钱)。”然而,在谭蔚泓看来,要做出真正能追赶世界的原始创新,一定要拿出人力、物力、财力来做基础性的研究,谭蔚泓呼吁中国企业要有创新精神,“要舍得把你剩下来的钱用来真正做创新。”

在院士们看来,做原始创新、做基础研究离不开科研人才的培养。

邓子新认为,当前国内人才培养体系,充斥着一种“快餐文化”,对人才的培养过于追求效率。然而人才培养与企业成长不可能也不应完全套用“快餐文化”的思维模式,需要鼓励科研人才板凳做的更扎实一些。

除了需要在人才培养体系、人才评估体系以及创新生态文化上做出改变,邓子新还认为,目前国内高校、科研院所要加强与企业的对接,“完全靠人才的输送并不能解决企业的痛点问题,现在传统产业要实现换代升级,甚至要颠覆已有创新,需要充分了解企业生产的堵点在哪。”

 中国工程院院士、中国医学科学院学部委员吴玉章表示,谈原始创新,一定要摒弃模仿式、表演式、“显而易见是个套路式”的研究,此外还要打通整个研发的管线链条。

中国科学院院士、发展中国家科学院院士、中国科学院生物物理所研究员阎锡蕴认为, 中国原创新药的春天已到来。未来三到五年内,中国一定会出现一批引领全球的创新药企,原因有两方面,一是现在的科研人员不仅有意识开始保护自己的原创专利,而且还能跟企业家联合,另一方面,中国创新药企实现了从Me-too到Me-better,甚至到创新药的跨越,投资环境也开始提倡投早投小。阎锡蕴最后表达了期许,“从这个纬度看,中国创新药的研发非常有希望。”

硅基世界的“缘分”——系统与人工智能携手进化

在NeurIPS 2024大会上,微软亚洲研究院院长周礼栋发表了题为“硅基世界的‘缘分’——系统与人工智能携手进化”的主题演讲。他提出了一个前瞻性的观点:未来人工智能的突破,不仅依赖于模型和算法本身,更有赖于与计算机系统的深度融合。围绕“效率(Efficiency)、可信(Trust)、融合(Infusion)”三大关键词,周礼栋阐述了系统与人工智能之间如何实现双向赋能、共同演进,从而打破现有技术瓶颈,推动计算机科学迈入以智能驱动的新纪元。本文基于该演讲撰写。

从指数增长的算力到智能的转化

在全球掀起人工智能(AI)热潮的今天,我们不妨回到一个根本问题——究竟是什么驱动了人工智能的崛起?

Ray Kurzweil在其2005年的著作《奇点临近》(The Singularity is Near)中给出了一个广为流传的答案。他观察到,计算能力——尤其是每秒每美元所能获得的计算量——长期以来呈现出指数级增长。他据此大胆预测,到2023年前后,人工智能将拥有与人类大脑相当的处理能力。这一预测在当时听起来也许过于理想,但今天看来,已经逐渐接近现实。

Kurzweil的核心洞察在于,智能的演进,归根结底受限于底层算力的供给。而随着模型、数据与算法的持续进化,我们越来越清晰地意识到单纯的算力增长并不足以转化为真正的智能。真正的挑战在于,我们如何有效地将计算能力“变现”为智能能力。

这一“转化机制”并非自动发生,它依赖于算法的创新,也离不开系统的支撑。系统不仅负责调度资源、管理复杂性,更决定了算力释放与智能实现之间的效率与可达性。换言之,系统是智能得以生根发芽的土壤。

长期以来,我们往往将人工智能与计算机系统视为两个平行甚至割裂的研究方向。然而,随着AI能力的持续提升和资源需求的指数增长,这种二分的视角已经难以为继。现在,是时候重新审视二者的关系——它们不仅需要协同,更应共同进化。

人工智能与计算机系统的协同进化

回顾过去几十年,人工智能和计算机系统的进化并非步调一致。上世纪90年代,人工智能曾一度陷入长达二十多年的“寒冬”,算法停滞、资金匮乏、研究热度骤降。但就在AI逐渐被边缘化的这段时期,计算机系统却在持续拓展自身边界,孕育出一系列为未来智能应用奠定基础的关键技术。

我们见证了多媒体计算的崛起、面向并行计算的GPU迅猛发展、万维网的诞生、网络搜索的普及,以及大数据和云计算基础设施的广泛部署。每一项系统层面的突破,尽管其初衷未必是直接服务于AI,但最终都成为了后者“苏醒”的温床。尤其是在系统层面构建的大规模分布式计算能力,让人工智能重新焕发出生命力。

AI并不是在真空中崛起的,它的“再度觉醒”离不开系统几十年的厚积薄发。没有高吞吐、低延迟的分布式系统,没有GPU架构与并行编程的进步,就没有实现今天能训练百亿参数大模型的可能。

这也提醒我们,系统与人工智能从来不是单向依赖的关系。两者的历史是交错演化、彼此推动的。系统为AI的腾飞提供了算力和基础设施,AI也在逐步改变我们构建和使用系统的方式。从最初的依赖,到如今的共生,系统与AI之间正在形成一种前所未有的协同关系。

计算机系统的进化历程

随着人工智能的迅猛发展,尤其是“规模法则”(scaling law)的提出,我们见证了AI能力的指数级提升。扩展法则揭示了只要不断扩大模型规模、训练数据与计算资源,AI的性能便会持续跃升。这一趋势推动了人工智能的快速突破,同时也对底层计算机系统提出了前所未有的挑战。

为了支撑指数级增长的智能需求,计算机系统必须随之演化:既能够在硬件层面提供更强的计算力,还要在系统架构上具备更高的伸缩性与灵活性。

但要真正理解“系统”,不能仅将其等同于强大的GPU、云平台或编程工具链。对真正从事系统研究的学者而言,系统更是一种“思维方式”——一种管理复杂性、构建秩序的哲学。正是这种系统思维,使我们能够在众多复杂组件和高度动态的相互作用中构建出可控、可靠且具扩展性的结构。

过去几十年中,系统研究积累了丰富的原则与机制,如抽象分层、关注点分离、容错设计与资源隔离等。这些原则帮助我们构建了从操作系统到云服务的一系列关键基础设施。但随着AI带来的计算复杂度与动态性不断上升,传统的系统设计方法正逼近边界。我们越来越难以依赖经验法则预见系统行为,也很难再以线性的方式将系统扩展到下一个数量级。正如攀登高峰一般,系统的扩展不是线性爬坡,而是一次次“回到山脚”,重新建立假设与架构、重新规划路径与工具。每一次跨越数量级的系统升级,本质上都是一次系统的重新再造。

在这个过程中,我们也逐渐意识到,人工智能不仅是系统的负载和挑战,更可能成为新的“系统伙伴”。面对系统扩展过程中的复杂性、不确定性与非线性,人工智能有望辅助规划、优化决策、自动调参、系统实现和维护,甚至参与设计。

系统为AI提供运行的土壤,AI也将在反哺系统设计中发挥越来越大的价值。这是一个深层次的共生过程,也是计算机科学走向新纪元的前奏。

围绕三个核心目标实现协同进化

人工智能与计算机系统如何从“相互依赖”走向“协同进化”?这一问题的答案正逐渐清晰:我们必须跳出以往单点突破的思维方式,转向系统性、结构化的协同创新路径。

围绕“效率(Efficiency)、可信(Trust)、融合(Infusion)”三个核心目标,我们看到了一条可行的进化路线。这三个维度并非孤立存在,而是共同构成了人工智能与系统之间相互增强、螺旋上升的基础结构。它们代表着我们从算法与模型出发,逐层深入软件、系统与硬件,最终实现从设计理念到工程实践的整体跃升。

这不仅是一场技术的整合,更是一次范式的重塑:系统不再只是AI的“承载平台”,而是AI自身演进机制的一部分;AI也不再只是运行于系统之上的应用,而是成为推动系统持续演化的内在引擎。以下将从效率、可信和融合三个角度展开,具体探讨人工智能与计算机系统如何在技术路径上迈出协同进化的实质性步伐。

一、效率

尽管人工智能近年来取得了飞跃式进展,但其能效与灵活性仍远不及人类大脑。我们希望缩小两者之间的数量级差距,让人工智能既可以在云端高效运行,也能广泛部署在终端设备中,实现“随处可用”的智能体验。要实现这一目标,离不开模型架构、系统软件与硬件设计的协同突破。对于系统研究者而言,这意味着我们必须打破传统分层设计的局限,推动更深入的跨层协作。这种跨层的系统性思维,为人工智能效率的持续跃升奠定了坚实的基础。

在模型架构方面,微软亚洲研究院近年来聚焦于极低精度表示的探索,并创新性地提出了基于三元表示(-1,0,1)的BitNet架构。该架构支持1-bit大语言模型(LLMs)的训练与推理,且随着模型规模的扩大,其效率优势愈加显著,性能可与同规模的全精度模型媲美。

但只有模型上的创新远远不够。如果新架构仍运行在传统的软硬件堆栈上,那么其效率优势将大打折扣。为此,我们的系统团队引入了基于查找表(Lookup Tables, LUT)的执行机制,在不更改现有硬件的前提下实现了计算效率的大幅提升,并显著降低了能耗,使得诸如BitNet这样的超高效模型能够在普通的个人电脑乃至边缘设备上运行。

这些工作背后,离不开系统研究团队与AI团队的密切协作——从架构设计初期就引入系统反馈,促使模型设计与系统实现协同演进,构建起一个贯穿算法、软件与硬件的高效路径。更进一步,当前主流的AI模型多为GPU架构优化而设计,但要实现效率极限,还需打破模型架构与硬件平台间的强绑定。这就需要新的抽象与中间表示形式,以实现模型与硬件的解耦,从而为模型设计和硬件开发提供更大的自由度。这同样离不开系统研究者与AI研究者之间长期、深入的协同合作。

二、可信(Trust)

对于计算机系统,“可信”一直是一个关键的要素,意味着系统必须可靠、准确、符合预期。我们总在尽可能地确保所使用的系统足够可信,即使某些部件可能存在缺陷,或者系统受到恶意攻击。但在人工智能介入后,情况变得更加复杂,同时也带来了新的创新机遇。

既然系统具备强大的“可信”特质,那么是否能将其借鉴到人工智能中?

我们不妨从系统实现可信性的基础入手。在系统领域,我们总是努力创建一个尽可能小的可信计算基(Trusted Computing Base, TCB),并通过引入验证器(verifier)来检查系统的关键属性是否符合预期,从而验证其可信性。这种“信任但验证”(trust but verify)原则同样可用于人工智能,以应对其固有的随机性和创造性(即“幻觉”)所带来的挑战。我们可以构建一个独立于人工智能系统之外的可信计算基,并在其中部署验证器,然后对人工智能生成的内容进行验证,确保只有可验证的正确输出才能被接受。

系统的另一大优势在于能够提供即时、直接、准确且可复现的反馈。这种反馈不仅完全符合预期,而且在相同输入条件下始终能够产生相同的结果。相比之下,人工智能的应用往往难以提供这种确定性反馈。人工智能的许多任务仍依赖人类监督(如强化学习中的人类反馈,RLHF),或者需要等待模拟结果,而这些结果可能不够准确;在某些情况下,还需要建模物理世界,甚至依赖于系统外的生物或化学变化过程。

近年来,基于形式方法(formal methods)和形式验证(formal verification)的研究得到了广泛关注,并在可信系统的构建上取得了显著进展。例如,在微软雷德蒙研究院的最新研究中,研究员们提出了在Rust代码中添加基于逻辑的注释,以确保代码能够满足特定的规范。这些注释包括前置条件、后置条件和不变量。研究员们还开发了一个名为“Verus”的验证器,用于自动检查代码的正确性。这种方法只需在代码中添加形式验证组件,看起来就像是对编程语言的一种扩展。

这些研究让我们看到人工智能不仅能够生成代码,还能进一步生成可以被验证为正确的代码的可能性。这成为我们一个重要的研究方向。然而,这是一个极具挑战性的任务。研究员们手动创建了150个任务作为基准测试,最初基于GPT-4的实验结果显示,即便在各种优化的提示下,GPT-4 也只能成功处理不到30%的任务。但从积极的角度来看,我们已经迈出了第一步。我们的目标是利用验证系统的反馈机制,使人工智能能够学习如何生成可证明其正确性的代码。大语言模型在尝试不同策略方面具有天然的优势,通过不断地接受正确或错误案例的反馈,人工智能可以逐步掌握如何编写符合形式验证要求的代码。经过持续的迭代和反馈循环,在同一个基准测试中人工智能的成功率不断提升,已达到90%以上。但这只是一个阶段性的里程碑,不表示人工智能已经拥有产生可验证代码的能力。

最终,我们希望人工智能能够掌握形式方法的严谨思维模式,并提高其整体推理能力。我们相信,这一研究方向在提升人工智能可信性的同时,也为人工智能与计算机系统的进一步融合奠定了坚实的基础。

三、融合(Infusion)

通过与人工智能的深度融入,打造更强大、高效且可靠的新一代系统,是我们对未来系统演进的核心愿景之一。人工智能与系统的融合将催生出一种全新的系统设计范式:人工智能擅长从复杂数据中发现规律、提出创见性建议;而系统具备将这些建议验证、编译、反馈并最终落地的能力。正是在这种反馈闭环中,系统与人工智能得以实现双向赋能。

事实上,我们已经在多个系统场景中实践了这一融合路径。例如,在分布式人工智能系统基础设施中,“聚合通信”(collective communication)作为关键组件,其调度效率直接影响整体性能。在模型训练和推理过程中,聚合通信通常占据总执行时间的30%至70%。然而,最佳的通信调度方案高度依赖硬件架构与模型负载的组合,手动为每一种组合优化调度不仅耗时巨大,还需具备极高的系统专业知识。

传统的人工智能方法尚不足以独立完成通信调度代码的自动生成,而通过融合人工智能与系统的能力,我们提出了一种新的设计模式。以OptiFlow项目为例,我们定义了一套可学习的通信调度抽象,人工智能根据系统反馈不断提出新的调度方案,系统则负责验证、编译并反馈执行效率,驱动AI迭代优化。该系统已在微软Azure云上成功部署,自动生成的调度策略完全可以达到或优于人工设计,并将工作效率提升了一个数量级。

同样的融合方法也可以被应用于拥塞控制领域。在诸如WebRTC这类对实时性和带宽控制要求极高的场景中,我们让人工智能根据系统反馈生成拥塞控制策略,并由系统进行验证和执行。结果显示,AI设计出的方案在效率和体验上显著优于人类专家的设计。

这些实例揭示了一种新的可能性:通过系统与人工智能的深度融合,我们正迈向一个双向协作的新范式。这种范式既发挥了人工智能在模式识别和生成上的优势,也保留了系统在验证、控制和执行路径上的稳定性。未来,若能进一步将这种协同范式系统化,我们就有望将人工智能嵌入到更多关键计算系统中,从而催生出新一代真正以智能驱动的系统基础设施。

结语

人工智能与计算机系统的结合,是科技演进的趋势,更是一场深刻的范式转变。围绕“效率、可信与融合”这三大核心目标,我们已经在模型设计、系统验证和协同优化等多个维度取得了积极进展。我们看到,系统为人工智能提供了更高效、更可信的执行土壤,而人工智能也在重塑系统的设计理念与实现方式。

但这只是协同进化的起点。更大的挑战仍在前方:我们如何构建具有学习能力的系统,使其能够不断自我演化?我们如何让人工智能具备工程理性与逻辑约束,使其成为真正可控、可验证的智能体?我们又该如何将这一协同机制系统化,使其能够适应千变万化的现实场景?

我坚信,人工智能与系统的融合,不是一个取代与被取代的过程,而是一种双向赋能、互为镜像的关系。只有通过协同设计、共同进化,我们才能真正突破当下的技术瓶颈,迈向一个由智能与系统共塑的未来。那将是一个以智能为驱动、以系统为保障的计算新时代!

(本文作者周礼栋现任微软公司全球资深副总裁、微软亚太研发集团首席科学家、微软亚洲研究院院长。原标题:硅基世界的“缘分”——系统与人工智能携手进化。)