硅基世界的“缘分”——系统与人工智能携手进化

在NeurIPS 2024大会上,微软亚洲研究院院长周礼栋发表了题为“硅基世界的‘缘分’——系统与人工智能携手进化”的主题演讲。他提出了一个前瞻性的观点:未来人工智能的突破,不仅依赖于模型和算法本身,更有赖于与计算机系统的深度融合。围绕“效率(Efficiency)、可信(Trust)、融合(Infusion)”三大关键词,周礼栋阐述了系统与人工智能之间如何实现双向赋能、共同演进,从而打破现有技术瓶颈,推动计算机科学迈入以智能驱动的新纪元。本文基于该演讲撰写。

从指数增长的算力到智能的转化

在全球掀起人工智能(AI)热潮的今天,我们不妨回到一个根本问题——究竟是什么驱动了人工智能的崛起?

Ray Kurzweil在其2005年的著作《奇点临近》(The Singularity is Near)中给出了一个广为流传的答案。他观察到,计算能力——尤其是每秒每美元所能获得的计算量——长期以来呈现出指数级增长。他据此大胆预测,到2023年前后,人工智能将拥有与人类大脑相当的处理能力。这一预测在当时听起来也许过于理想,但今天看来,已经逐渐接近现实。

Kurzweil的核心洞察在于,智能的演进,归根结底受限于底层算力的供给。而随着模型、数据与算法的持续进化,我们越来越清晰地意识到单纯的算力增长并不足以转化为真正的智能。真正的挑战在于,我们如何有效地将计算能力“变现”为智能能力。

这一“转化机制”并非自动发生,它依赖于算法的创新,也离不开系统的支撑。系统不仅负责调度资源、管理复杂性,更决定了算力释放与智能实现之间的效率与可达性。换言之,系统是智能得以生根发芽的土壤。

长期以来,我们往往将人工智能与计算机系统视为两个平行甚至割裂的研究方向。然而,随着AI能力的持续提升和资源需求的指数增长,这种二分的视角已经难以为继。现在,是时候重新审视二者的关系——它们不仅需要协同,更应共同进化。

人工智能与计算机系统的协同进化

回顾过去几十年,人工智能和计算机系统的进化并非步调一致。上世纪90年代,人工智能曾一度陷入长达二十多年的“寒冬”,算法停滞、资金匮乏、研究热度骤降。但就在AI逐渐被边缘化的这段时期,计算机系统却在持续拓展自身边界,孕育出一系列为未来智能应用奠定基础的关键技术。

我们见证了多媒体计算的崛起、面向并行计算的GPU迅猛发展、万维网的诞生、网络搜索的普及,以及大数据和云计算基础设施的广泛部署。每一项系统层面的突破,尽管其初衷未必是直接服务于AI,但最终都成为了后者“苏醒”的温床。尤其是在系统层面构建的大规模分布式计算能力,让人工智能重新焕发出生命力。

AI并不是在真空中崛起的,它的“再度觉醒”离不开系统几十年的厚积薄发。没有高吞吐、低延迟的分布式系统,没有GPU架构与并行编程的进步,就没有实现今天能训练百亿参数大模型的可能。

这也提醒我们,系统与人工智能从来不是单向依赖的关系。两者的历史是交错演化、彼此推动的。系统为AI的腾飞提供了算力和基础设施,AI也在逐步改变我们构建和使用系统的方式。从最初的依赖,到如今的共生,系统与AI之间正在形成一种前所未有的协同关系。

计算机系统的进化历程

随着人工智能的迅猛发展,尤其是“规模法则”(scaling law)的提出,我们见证了AI能力的指数级提升。扩展法则揭示了只要不断扩大模型规模、训练数据与计算资源,AI的性能便会持续跃升。这一趋势推动了人工智能的快速突破,同时也对底层计算机系统提出了前所未有的挑战。

为了支撑指数级增长的智能需求,计算机系统必须随之演化:既能够在硬件层面提供更强的计算力,还要在系统架构上具备更高的伸缩性与灵活性。

但要真正理解“系统”,不能仅将其等同于强大的GPU、云平台或编程工具链。对真正从事系统研究的学者而言,系统更是一种“思维方式”——一种管理复杂性、构建秩序的哲学。正是这种系统思维,使我们能够在众多复杂组件和高度动态的相互作用中构建出可控、可靠且具扩展性的结构。

过去几十年中,系统研究积累了丰富的原则与机制,如抽象分层、关注点分离、容错设计与资源隔离等。这些原则帮助我们构建了从操作系统到云服务的一系列关键基础设施。但随着AI带来的计算复杂度与动态性不断上升,传统的系统设计方法正逼近边界。我们越来越难以依赖经验法则预见系统行为,也很难再以线性的方式将系统扩展到下一个数量级。正如攀登高峰一般,系统的扩展不是线性爬坡,而是一次次“回到山脚”,重新建立假设与架构、重新规划路径与工具。每一次跨越数量级的系统升级,本质上都是一次系统的重新再造。

在这个过程中,我们也逐渐意识到,人工智能不仅是系统的负载和挑战,更可能成为新的“系统伙伴”。面对系统扩展过程中的复杂性、不确定性与非线性,人工智能有望辅助规划、优化决策、自动调参、系统实现和维护,甚至参与设计。

系统为AI提供运行的土壤,AI也将在反哺系统设计中发挥越来越大的价值。这是一个深层次的共生过程,也是计算机科学走向新纪元的前奏。

围绕三个核心目标实现协同进化

人工智能与计算机系统如何从“相互依赖”走向“协同进化”?这一问题的答案正逐渐清晰:我们必须跳出以往单点突破的思维方式,转向系统性、结构化的协同创新路径。

围绕“效率(Efficiency)、可信(Trust)、融合(Infusion)”三个核心目标,我们看到了一条可行的进化路线。这三个维度并非孤立存在,而是共同构成了人工智能与系统之间相互增强、螺旋上升的基础结构。它们代表着我们从算法与模型出发,逐层深入软件、系统与硬件,最终实现从设计理念到工程实践的整体跃升。

这不仅是一场技术的整合,更是一次范式的重塑:系统不再只是AI的“承载平台”,而是AI自身演进机制的一部分;AI也不再只是运行于系统之上的应用,而是成为推动系统持续演化的内在引擎。以下将从效率、可信和融合三个角度展开,具体探讨人工智能与计算机系统如何在技术路径上迈出协同进化的实质性步伐。

一、效率

尽管人工智能近年来取得了飞跃式进展,但其能效与灵活性仍远不及人类大脑。我们希望缩小两者之间的数量级差距,让人工智能既可以在云端高效运行,也能广泛部署在终端设备中,实现“随处可用”的智能体验。要实现这一目标,离不开模型架构、系统软件与硬件设计的协同突破。对于系统研究者而言,这意味着我们必须打破传统分层设计的局限,推动更深入的跨层协作。这种跨层的系统性思维,为人工智能效率的持续跃升奠定了坚实的基础。

在模型架构方面,微软亚洲研究院近年来聚焦于极低精度表示的探索,并创新性地提出了基于三元表示(-1,0,1)的BitNet架构。该架构支持1-bit大语言模型(LLMs)的训练与推理,且随着模型规模的扩大,其效率优势愈加显著,性能可与同规模的全精度模型媲美。

但只有模型上的创新远远不够。如果新架构仍运行在传统的软硬件堆栈上,那么其效率优势将大打折扣。为此,我们的系统团队引入了基于查找表(Lookup Tables, LUT)的执行机制,在不更改现有硬件的前提下实现了计算效率的大幅提升,并显著降低了能耗,使得诸如BitNet这样的超高效模型能够在普通的个人电脑乃至边缘设备上运行。

这些工作背后,离不开系统研究团队与AI团队的密切协作——从架构设计初期就引入系统反馈,促使模型设计与系统实现协同演进,构建起一个贯穿算法、软件与硬件的高效路径。更进一步,当前主流的AI模型多为GPU架构优化而设计,但要实现效率极限,还需打破模型架构与硬件平台间的强绑定。这就需要新的抽象与中间表示形式,以实现模型与硬件的解耦,从而为模型设计和硬件开发提供更大的自由度。这同样离不开系统研究者与AI研究者之间长期、深入的协同合作。

二、可信(Trust)

对于计算机系统,“可信”一直是一个关键的要素,意味着系统必须可靠、准确、符合预期。我们总在尽可能地确保所使用的系统足够可信,即使某些部件可能存在缺陷,或者系统受到恶意攻击。但在人工智能介入后,情况变得更加复杂,同时也带来了新的创新机遇。

既然系统具备强大的“可信”特质,那么是否能将其借鉴到人工智能中?

我们不妨从系统实现可信性的基础入手。在系统领域,我们总是努力创建一个尽可能小的可信计算基(Trusted Computing Base, TCB),并通过引入验证器(verifier)来检查系统的关键属性是否符合预期,从而验证其可信性。这种“信任但验证”(trust but verify)原则同样可用于人工智能,以应对其固有的随机性和创造性(即“幻觉”)所带来的挑战。我们可以构建一个独立于人工智能系统之外的可信计算基,并在其中部署验证器,然后对人工智能生成的内容进行验证,确保只有可验证的正确输出才能被接受。

系统的另一大优势在于能够提供即时、直接、准确且可复现的反馈。这种反馈不仅完全符合预期,而且在相同输入条件下始终能够产生相同的结果。相比之下,人工智能的应用往往难以提供这种确定性反馈。人工智能的许多任务仍依赖人类监督(如强化学习中的人类反馈,RLHF),或者需要等待模拟结果,而这些结果可能不够准确;在某些情况下,还需要建模物理世界,甚至依赖于系统外的生物或化学变化过程。

近年来,基于形式方法(formal methods)和形式验证(formal verification)的研究得到了广泛关注,并在可信系统的构建上取得了显著进展。例如,在微软雷德蒙研究院的最新研究中,研究员们提出了在Rust代码中添加基于逻辑的注释,以确保代码能够满足特定的规范。这些注释包括前置条件、后置条件和不变量。研究员们还开发了一个名为“Verus”的验证器,用于自动检查代码的正确性。这种方法只需在代码中添加形式验证组件,看起来就像是对编程语言的一种扩展。

这些研究让我们看到人工智能不仅能够生成代码,还能进一步生成可以被验证为正确的代码的可能性。这成为我们一个重要的研究方向。然而,这是一个极具挑战性的任务。研究员们手动创建了150个任务作为基准测试,最初基于GPT-4的实验结果显示,即便在各种优化的提示下,GPT-4 也只能成功处理不到30%的任务。但从积极的角度来看,我们已经迈出了第一步。我们的目标是利用验证系统的反馈机制,使人工智能能够学习如何生成可证明其正确性的代码。大语言模型在尝试不同策略方面具有天然的优势,通过不断地接受正确或错误案例的反馈,人工智能可以逐步掌握如何编写符合形式验证要求的代码。经过持续的迭代和反馈循环,在同一个基准测试中人工智能的成功率不断提升,已达到90%以上。但这只是一个阶段性的里程碑,不表示人工智能已经拥有产生可验证代码的能力。

最终,我们希望人工智能能够掌握形式方法的严谨思维模式,并提高其整体推理能力。我们相信,这一研究方向在提升人工智能可信性的同时,也为人工智能与计算机系统的进一步融合奠定了坚实的基础。

三、融合(Infusion)

通过与人工智能的深度融入,打造更强大、高效且可靠的新一代系统,是我们对未来系统演进的核心愿景之一。人工智能与系统的融合将催生出一种全新的系统设计范式:人工智能擅长从复杂数据中发现规律、提出创见性建议;而系统具备将这些建议验证、编译、反馈并最终落地的能力。正是在这种反馈闭环中,系统与人工智能得以实现双向赋能。

事实上,我们已经在多个系统场景中实践了这一融合路径。例如,在分布式人工智能系统基础设施中,“聚合通信”(collective communication)作为关键组件,其调度效率直接影响整体性能。在模型训练和推理过程中,聚合通信通常占据总执行时间的30%至70%。然而,最佳的通信调度方案高度依赖硬件架构与模型负载的组合,手动为每一种组合优化调度不仅耗时巨大,还需具备极高的系统专业知识。

传统的人工智能方法尚不足以独立完成通信调度代码的自动生成,而通过融合人工智能与系统的能力,我们提出了一种新的设计模式。以OptiFlow项目为例,我们定义了一套可学习的通信调度抽象,人工智能根据系统反馈不断提出新的调度方案,系统则负责验证、编译并反馈执行效率,驱动AI迭代优化。该系统已在微软Azure云上成功部署,自动生成的调度策略完全可以达到或优于人工设计,并将工作效率提升了一个数量级。

同样的融合方法也可以被应用于拥塞控制领域。在诸如WebRTC这类对实时性和带宽控制要求极高的场景中,我们让人工智能根据系统反馈生成拥塞控制策略,并由系统进行验证和执行。结果显示,AI设计出的方案在效率和体验上显著优于人类专家的设计。

这些实例揭示了一种新的可能性:通过系统与人工智能的深度融合,我们正迈向一个双向协作的新范式。这种范式既发挥了人工智能在模式识别和生成上的优势,也保留了系统在验证、控制和执行路径上的稳定性。未来,若能进一步将这种协同范式系统化,我们就有望将人工智能嵌入到更多关键计算系统中,从而催生出新一代真正以智能驱动的系统基础设施。

结语

人工智能与计算机系统的结合,是科技演进的趋势,更是一场深刻的范式转变。围绕“效率、可信与融合”这三大核心目标,我们已经在模型设计、系统验证和协同优化等多个维度取得了积极进展。我们看到,系统为人工智能提供了更高效、更可信的执行土壤,而人工智能也在重塑系统的设计理念与实现方式。

但这只是协同进化的起点。更大的挑战仍在前方:我们如何构建具有学习能力的系统,使其能够不断自我演化?我们如何让人工智能具备工程理性与逻辑约束,使其成为真正可控、可验证的智能体?我们又该如何将这一协同机制系统化,使其能够适应千变万化的现实场景?

我坚信,人工智能与系统的融合,不是一个取代与被取代的过程,而是一种双向赋能、互为镜像的关系。只有通过协同设计、共同进化,我们才能真正突破当下的技术瓶颈,迈向一个由智能与系统共塑的未来。那将是一个以智能为驱动、以系统为保障的计算新时代!

(本文作者周礼栋现任微软公司全球资深副总裁、微软亚太研发集团首席科学家、微软亚洲研究院院长。原标题:硅基世界的“缘分”——系统与人工智能携手进化。)

已有17个国家和国际组织、50多个国际科研机构加入国际月球科研站合作

记者4月23日从国家航天局在上海组织召开的国际月球科研站开发者会议上了解到,目前,已有17个国家和国际组织、50多个国际科研机构加入由中国发起的国际月球科研站合作。

研究|和去年相比,人们使用AI的需求发生了哪些变化?

2025年以来,人们对于AI的使用重心开始从去年的“写、画、搜”逐渐转向“治愈心灵”。

近日,《哈佛商业评论》(Harvard Business Review)联合数据分析师Marc Zao-Sanders基于数千篇论坛帖子发布了一项AI年度使用情况研究。在2024-2025年AI使用场景前30名榜单中,“获取专业或个人支持”已成为2025年AI应用的最常见场景,“疗愈和陪伴”超越2024年排名第1的“创意生成”功能,首次进入榜单的新需求“整理生活”与“寻找人生方向”紧随其后。

通过追踪2024与2025年最受欢迎的AI使用案例,研究还发现,传统热门用途“具体搜索”和“创意生成”等需求的热度有所下降。其中,2024年排名第3的“具体搜索”则在今年跌出前10。分析指出,这可能与生成式AI被集成至主流搜索引擎(如Gemini被整合进Google)有关,用户已不再单纯依赖AI进行查询,而更多将其作为认知辅助工具使用。

除了心理支持类应用场景的登顶,2025年的排名还彰显出几大新趋势。“生成代码”跃升42位至第5名,表明AI编程正深度参与软件开发者的日常工作。同时,“健康生活”排名则大涨65位,跃升至第10,显示AI已被广泛用于饮食建议、运动计划等健康管理领域。此外,“面试准备”、“图像生成”、“法律解释”等功能热度飙升,反映出AI在求职、内容创作和技术辅助等多场景中的持续扩张。

对于AI正逐渐成为用户获取“数字陪伴”重要途径的现象,专家表示,AI确实具备辅助用户开展正念练习或认知行为疗法等方面的潜力。但问题在于,当AI被用来替代真实的人际关系时,其可能会阻碍深度连接的缔结,从而加剧用户的孤独感。

此份榜单既折射了人类对AI认知的转变,也揭示出一个社会心理趋势,即人们对于“理解与陪伴”的需求远比想象中更普遍和迫切。AI能否真正承担起这一角色?这可能正是AI走向“有温度”的关键命题。未来的AI,不能只会“说话写字”,更需要“读懂人心”。

我国首次采用航空冰雷达技术开展典型冰川储量调查

记者今天(12月20日)从中国科学院空天信息创新研究院获悉,近期,基于国家重大科技基础设施“航空遥感系统”建设的新舟60遥感飞机和奖状遥感飞机搭载航空冰雷达与三维激光雷达,在甘肃省老虎沟12号冰川、七一冰川、宁缠河3号冰川开展了冰川透视探测。这是我国首次基于航空冰雷达技术开展典型冰川储量调查,可以为河西走廊各流域水资源管理和决策、祁连山生态环境保护与区域可持续发展等提供关键数据支撑。

△七一冰川表面数字高程模型

 本次调查自2024年9月至11月,共有效飞行13架次,采集原始数据5.6TB,取得了冰川表面数字高程模型(DEM)、冰川底部基岩数字高程模型(DEM)、冰川剖面图、冰川储量、冰川三维透视图及3个典型冰川储量等成果,并结合探地雷达(GPR)测量数据完成了冰川厚度准确度评价,圆满完成了项目各项任务。

至此,由中国科学院空天信息创新研究院航空遥感中心承担的“2024年度甘肃省典型冰川航空冰雷达透视探测项目”顺利通过验收。验收专家组给予项目高度评价,指出该项目首次实现了复杂地形条件下的复式山谷冰川冰厚测量,总体技术达到了国际领先水平。

航空冰雷达是一种搭载在飞机上对冰川进行透视观测的雷达,通过向冰川发射低频段电磁波,例如P波段或VHF波段,接收冰川表面和冰底基岩的散射回波,经过处理和反演得到冰川厚度及储量信息。

长达15亿年的高精度曲线,南京大学在《科学》发表地球早期生命演化最新研究成果

早期地球生物多样性宏演化的空白。

“我们从哪里来,又要到哪里去?”

生命起源与演化,是国际顶级学术期刊《科学》(Science)曾列出的125个重大科学问题之一。

中国科学家最新发表的一项相关研究成果填补了早期地球生物多样性宏演化的空白,并为探索地外生命是否存在以及宜居地球的可持续发展提供了重要的理论基础和借鉴。

澎湃科技获悉,前述研究成果于12月20日凌晨在线发表在学术期刊《科学》(Science)上。该研究由南京大学地球科学与工程学院唐卿研究员和中国科学院院士沈树忠等科研人员与中外多家科研单位合作完成。

化石是记录生命演化的最直接证据。研究团队耗时六年时间创建了目前全球数据最全、信息量最大的早期地球古生物地层数据库、全球首个早期地球化石大数据平台,并采用“超算+AI”等分析方法,绘制出迄今第一条早期地球高精度生物多样性曲线,揭示了地球从20亿年前到5亿年前——约15亿年的高精度生物多样性演化历史。

早期地球高精度生物多样性曲线。

在新闻发布会上,唐卿研究员表示,未来如果有新的相关化石文献发表,将录入到前述数据库中,以更新其数据信息。

作为所有现代高等生物的祖先,早期生命是如何逢凶化吉,幸存,并演化至今的?

研究结果表明,随着第一个可信的真核生物化石在约17亿年前出现后,其多样性一直保持较低但稳定增长的模式。

直到约7.2亿年前全球性大冰期的出现,打断了生命演化的原有进程。

示意图:埃迪卡拉生物群。(Xiao and Laflamme 2009)

随着大冰期事件的结束,地球物种多样性开始迅速增加并且频繁发生波动,造成多次生物大辐射和大灭绝事件。其中包括约6.35亿年前到5.8亿年前的生物大辐射事件,以及紧随其后发生的生物演化史上第一次大灭绝事件,导致当时的优势类型—带刺的微体生物大量灭绝。

在此之后,形态更为复杂的宏体生物(包括动物)迎来了快速辐射。但这些复杂宏体生物在埃迪卡拉纪末(约5.51亿年前至5.39亿年前)又遭遇了两次明显的多样性下降,代表了动物演化史上最早的两次大灭绝事件。

该项研究首次用大数据方法定量化地揭示了早期地球15亿年的生命演化历程,定量勾画了复杂生命的起源、辐射、灭绝、再次辐射至现代生态系统形成的早期历史过程;也凸显了地表温度与氧气含量等环境因素的骤变对早期地球复杂生命系统演化的巨大影响,这对科学家探索极端环境下的地外生命和评估未来地球的宜居性提供了重要参考。

论文链接:science.org/doi/10.1126/science.adm9137

两市融资余额增加190.57亿元

截至2月10日,上交所融资余额报9365.42亿元,较前一交易日增加85.06亿元;深交所融资余额报8887.41亿元,较前一交易日增加105.51亿元;两市合计18252.83亿元,较前一交易日增加190.57亿元。

我国科学家实现“双环路”脑机“互学习”新突破

天津大学与清华大学联合研发出一款“双环路”脑机接口系统。此系统不仅精度更高、能耗更低,还能处理更为复杂的任务。

这款基于忆阻器神经形态器件的无创演进脑机接口系统,成功揭示了脑电发展与解码器演化在脑机交互过程中的协同增强效应,实现了人脑对无人机的高效四自由度操控。2月17日,这一成果在最新一期《自然·电子》上刊发。

协同演进脑机接口框架。(联合研究团队供图)

脑机接口能实现大脑与机器直接信息交流,促进生物智能与机器智能融合,被公认为是新一代人机交互和人机混合智能的核心技术。如何通过脑机之间的信息交互实现“互学习”,进而促进脑机智能的协同演进,是突破脑机性能瓶颈的重点和难点。但目前脑机交互过程中大脑与机器的动态耦合机制尚未厘清,导致脑机之间的长时程互适应能力较弱,工作性能随时间显著下降。

天津大学与清华大学的联合研究团队针对这一难题,发现脑电信号的非平稳特性与任务脑电演变密切相关。基于此,他们创新性地提出了“双环路脑机协同演进框架”,并通过忆阻器神经形态器件加以实现。在“双环路”框架下,脑与机的学习环路相互协同,共同促进系统性能的提升。

(a)脑-忆阻器交互式更新框架;(b)基于忆阻器脑电解码的实时脑控无人机飞行。(联合研究团队供图)

实验结果显示,新方案相较于传统方案,解码速度大幅提升,能耗显著降低。更令人瞩目的是,在连续6小时的长时程交互实验中,系统性能不仅保持稳定,准确率还提升了约20%。这一成果无疑为脑机接口技术的实用化奠定了坚实基础。

天津大学脑机海河实验室教授许敏鹏表示,这项研究不仅实现了生物智能与机器智能的互适应、互学习,还为未来脑机接口系统的发展提供了重要的理论基础与技术支撑。他透露,团队计划将这一系统拓展至更多便携式或可穿戴设备中,以满足不同场景下的智能人机交互需求。

(a)协同演进脑机解码正确率较初始状态提高20%;(b)任务相关脑电特征发生正向演化;(c)脑与忆阻器解码器实现互适应。(联合研究团队供图)

据了解,此研究由天津大学与清华大学团队合作开展:天津大学脑机海河实验室团队完成协同演进脑机接口软件系统设计与范式算法实现,清华大学集成电路学院团队完成协同演进忆阻器神经形态器件硬件设计及忆阻器算法设计部署。

全球首个“双环路”无创脑机接口问世:意念操控无人机,能耗骤降至千分之一

脑机接口(Brain-Computer Interface,简称 BCI)是一种能够在大脑与外部设备之间建立直接信息交流通道的技术。其核心原理是通过电极(侵入式或非侵入式)记录大脑活动,利用信号处理算法将神经信号转化为可执行的指令。通过脑机接口,人类或动物不需要通过语言或动作,直接用大脑就可以控制机器设备。

传统脑机接口的自适应解码器缺乏大脑主动参与,且脑电信号采集的通道数急剧增长,解码算法也变得更加复杂,为脑电高效实时处理带来巨大挑战。

近日,由天津大学脑机海河实验室和清华大学集成电路学院合作发布的全球首个“双环路”无创脑机接口系统,把脑与机的信息交互,进行了智能融合,实现了“1+1>2”的效果,其脑电信号解码速度提升216倍,能耗降低至原本的1/1643,并可以实现对无人机的灵活“脑控”。

协同演进脑机接口框架

2月17日,相关成果的论文在线发表于国际权威期刊《自然·电子》。论文标题为《基于忆阻器自适应神经形态解码器的脑机接口》(A memristor-based adaptive neuromorphic decoder for brain-computer interfaces)。

2月19日,该论文的通讯作者之一、天津大学许敏鹏教授向澎湃科技表示,“双环路脑机协同演进框架”的提出,不仅带来了理论上的创新,更在系统性能方面实现了突破。许敏鹏解释说,在系统中引入了忆阻器,使解码速度提升很多,归一化解码速度提高百倍以上,能耗降低至千分之一以下;功耗降低很多,可以长时间进行脑机交互。“忆阻器的基本原理就是模拟大脑神经元的放电过程。”在连续6小时的长时程脑机交互实验中,“双环路”脑机接口的准确率提升约20%,打破了传统脑机接口实验时长一般控制在1个小时的限制。

对于“脑控”时长上的差异,许敏鹏表示,传统的脑接口研究,一般都是短时长研究。“因为我们的大脑是一个非线性系统,它的脑电波一直都在变化。这种变化的脑电波会对我脑机的解码带来负面影响,让它的正确率下降,导致没有办法做长时间的脑机交互。但我们是做了6个小时的脑机交互实验。我们通过‘双环路’机制,让整个脑机接口的系统性能不随时间的推移而下降,反而提升了。”

许敏鹏表示,因为无人机操控应该是目前脑机接口控制任务中难度最大的任务,所以这次他们选择了使用脑机接口对无人机进行操控来进行检测。

无人机的自由度非常高,精度也非常高,而且实时响应。“我们的脑机接口能实现4个自由度的连续操控,而且能完成一些相对复杂的任务。其他的,基本上都只是两个自由度的操控。”

(a)脑-忆阻器交互式更新框架;(b)基于忆阻器脑电解码的实时脑控无人机飞行。

许敏鹏展望,未来5-10年内,脑机接口系统有望在医疗领域推动视健康诊断、偏瘫康复、人工耳蜗调试等应用落地,并在消费电子领域催生意念操控、脑健康监测等新场景。

针对无创设备长期佩戴的安全性争议,许敏鹏教授则以“学习骑自行车”类比解释:“长期佩戴这类设备,确实会对大脑活动产生影响,但并非一定是不良影响。以学骑自行车为例,从最初的手忙脚乱到轻松驾驭,大脑的神经网络必然经历了重构。这就是学习带来的改变,是大脑习得新技能的过程,也是自身优化升级的过程。”

天津大学许敏鹏教授(中)。

全球首次!复旦大学科研团队发现帕金森病全新治疗靶点

近期,复旦大学附属华山医院郁金泰团队通过5年的临床和基础研究获得重大科研突破,在全球首次发现了帕金森病全新治疗靶点FAM171A2。此次研究发现的全新治疗靶点和候选新药有望从疾病早期对帕金森病进行干预,延缓疾病进展。相关研究成果于北京时间2月21日在线发表于国际学术期刊Science(《科学》)。

患病人数持续攀升 帕金森病成世界难题

帕金森病是仅次于阿尔茨海默病的第二常见的神经退行性疾病,严重影响患者日常生活。全球帕金森病患病人数预计将从2015年的700万左右增至2040年的1300万,我国帕金森病患者总数约占全球一半。传统药物和手术治疗都只是针对帕金森病的症状进行治疗,不能延缓疾病进展,因而进一步研究帕金森病致病的深层原因并开展针对性治疗,成为全球相关领域科学家竞相探索的战略高地。

帕金森病病程进展机制及干预手段

全球首次发现FAM171A2靶点是病理性α-突触核蛋白传播的关键

复旦大学附属华山医院郁金泰团队通过长达5年的潜心钻研,明确了PD关键致病蛋白——病理性α-突触核蛋白在神经元间的传播“导火索”,并发现了抑制其传播过程的候选新药,为帕金森病治疗提供了新思路。

研究团队首先从大规模人群的全基因组关联分析中,发现FAM171A2是帕金森病风险基因,FAM171A2是一种神经元细胞膜蛋白,但其功能此前从未被人研究过。郁金泰团队经过系列研究证实了神经元膜受体FAM171A2蛋白是促进病理性α-突触核蛋白传播的关键,在全球首次揭示了FAM171A2蛋白与α-突触核蛋白的结合机制。

基于帕金森病患者临床样本分析,团队发现帕金森病患者大脑中FAM171A2蛋白含量增高,且FAM171A2含量越高的患者,其脑内病理性α-突触核蛋白含量也越高。紧接着,通过一系列体内外实验,研究团队发现在神经元细胞膜上,FAM171A2像“智能识别门”一样,可选择性地结合病理性α-突触核蛋白,并携带其进入到神经元中,诱导神经元内单体形式的α-突触核蛋白发生错误折叠,造成神经元死亡和其在神经元间的传播。随后,研究团队通过转基因动物证实,敲除小鼠神经元上FAM171A2,可以有效控制小鼠帕金森样症状的进展。

对于此次的研究发现,《科学》杂志审稿人指出,识别病理性α-突触核蛋白聚集体的神经元受体是帕金森病研究领域的“圣杯”,它能提供阻断病理传播并延缓疾病进展的治疗方法;该研究探讨了一个至关重要且具有重大意义的科学问题,是一项非常有趣、新颖、重要且具有转化意义的研究。

帕金森病患者在出现运动症状之前十几年,大脑内就已存在α-突触核蛋白病理,本次研究发现有望在疾病的临床前期、前驱期和临床期通过靶向抑制原创新靶点FAM171A2,阻断病理性α-突触核蛋白传播,延缓帕金森病进展。此外,开发靶向FAM171A2新药还可补充目前在临床期改善运动症状的补充多巴胺水平的药物治疗、在临床晚期用脑起搏器的神经调控治疗手段,构建更完善的帕金森病标本兼治的治疗新体系。

在这一成果基础上,郁金泰团队申请了基于干预FAM171A2治疗帕金森病的国际专利,接下来,将全面、系统地开展寻找治疗帕金森病的小分子药物、抗体以及基因治疗手段的临床前研发工作,并进一步将相关成果推向临床试验和临床应用。

两市融资余额增加116.10亿元

截至3月12日,上交所融资余额报9709.25亿元,较前一交易日增加51.29亿元;深交所融资余额报9459.22亿元,较前一交易日增加64.81亿元;两市合计19168.47亿元,较前一交易日增加116.10亿元。