英特尔CEO基辛格:AI促进“芯经济”崛起,将颠覆个人电脑

芯片形成了规模达5740亿美元的产业,并驱动着全球约8万亿美元的技术经济。

基辛格表示,“我们正迈向AI PC的新时代。”

阿里云首席技术官周靖人发表视频演讲。

·英特尔正在建造一台新的人工智能超级计算机,基于其Gaudi AI加速器和至强(Xeon)处理器。大模型领域明星初创企业Stability AI是其主要客户。

·基辛格认为,AI将通过云与PC的紧密协作,进而从根本上改变、重塑和重构PC体验,释放人们的生产力和创造力,“我们正迈向AI PC的新时代。”

英特尔公司首席执行官帕特·基辛格在美国加利福尼亚州圣何塞市举办的2023英特尔on技术创新大会上。(02:02)
“世界对计算的需求呈指数级增长,而且这种需求与芯片的面积、成本和功耗成反比。简而言之,这就是摩尔定律。更充足、更强大、更具性价比的处理能力,是经济增长的关键组成。人工智能代表着计算的新时代,促进了“芯经济”的崛起。”当地时间9月19日,英特尔公司首席执行官帕特·基辛格(Pat Gelsinger)在美国加利福尼亚州圣何塞市举办的2023英特尔on技术创新大会上表示。

芯片形成了规模达5740亿美元的产业,并驱动着全球约8万亿美元的技术经济。

基辛格所说的“芯经济”指的是,“在芯片和软件的推动下,正在不断增长的经济形态”,“如今,芯片形成了规模达5740亿美元的产业,并驱动着全球约8万亿美元的技术经济(tech economy)。”

在开幕主题演讲中,基辛格介绍了英特尔如何在其各种硬件产品中加入AI能力,公开了下一代英特尔至强(Xeon)可扩展处理器的所有细节,以及使用英特尔至强处理器和Gaudi 2 AI硬件加速器打造一台大型AI超级计算机的计划。

不过,在发布会当天,英特尔股价截至收盘下跌约4.3%至36.28美元。部分投资者表现出对其数据中心芯片库存的担忧,英特尔首席财务官大卫·辛斯纳(David Zinsner)在现场发言时表示,存在过多的数据中心芯片库存,英特尔的数据中心业务复苏“会有一点延迟”。

“迈向AI PC的新时代”

在会上,基辛格宣布英特尔开发者云平台全面上线。该平台使开发者可利用最新的英特尔软硬件创新来进行AI开发(包括用于深度学习的英特尔Gaudi 2加速器),并授权他们使用英特尔最新的硬件平台,如第五代英特尔至强可扩展处理器和英特尔数据中心GPU Max系列1100和1550。

基辛格表示,“我们正迈向AI PC的新时代。”

基辛格认为,AI将通过云与PC(个人电脑)的紧密协作,进而从根本上改变、重塑和重构PC体验,释放人们的生产力和创造力,“我们正迈向AI PC的新时代。”

基辛格所说的全新的PC体验,最直接展现为接下来将推出的产品——代号为Meteor Lake的英特尔酷睿Ultra处理器。该处理器配备英特尔首款集成的神经网络处理器(NPU),用于在PC上进行高能效的AI加速和本地推理体验。

简单而言,该芯片将能够在笔记本电脑上运行生成式人工智能聊天机器人,而不必利用云数据中心来获取计算能力。基辛格表示,“我们认为AI PC是技术创新领域翻天覆地的变化。”

可以看出这代处理器被英特尔官方寄予厚望,不仅采用了全新的命名规则(酷睿 Ultra),同时还用上了目前最先进的封装技术。酷睿Ultra处理器是英特尔客户端处理器路线图的一个转折点:该款处理器是首个采用Foveros封装技术(通过使用硅通孔在有源转接板上集成不同类型的器件,从而使搭配上更加灵活,同时提高核心能力)的客户端芯粒(Chiplet,又称小芯片)设计。酷睿Ultra也将在12月14日发布。

英特尔AI超级计算机将通义千问大模型加速3倍

在数据中心用于“训练”ChatGPT等人工智能系统的强大芯片市场上,英特尔一直在努力与英伟达竞争。基辛格表示,英特尔正在建造一台新的人工智能超级计算机,基于其Gaudi AI加速器和至强处理器。大模型领域明星初创企业Stability AI是其主要客户。

Gaudi系列芯片是英特尔在AI芯片市场的旗舰产品之一。7月11日,英特尔面向中国市场推出AI芯片Gaudi 2,专为训练大语言模型而构建,对标英伟达GPU的100系列(如其明星芯片H100)。

阿里云首席技术官周靖人发表视频演讲。

在此次大会上,阿里云首席技术官周靖人发表视频演讲时表示,目前已将内置了AI加速器的第四代英特尔至强可扩展处理器用于其生成式AI和大语言模型“阿里云通义千问大模型”。周靖人表示,英特尔技术“大幅缩短了模型响应时间,平均加速可达3倍”。

在介绍了Gaudi 2(7纳米制程)的同时,英特尔表示,公司下一代使用5纳米工艺打造的Gaudi 3将在性能方面大幅提升。其中,BF16(谷歌人工智能研究小组开发的一种计算机数字格式)的性能提升了四倍、计算能力提升了2倍、网络带宽提升1.5倍以及HBM(高带宽存储器)容量提升1.5倍。

据基辛格透露,在Gaudi 3之后,英特尔将推出一个代号为Falcon Shores的继任者。但在此次大会上,英特尔没有披露Falcon Shores的相关细节。按照英特尔的最初规划,其会于2024年推出,原计划为“XPU”设计(集成CPU和GPU)。不过在8月的财报会上,英特尔调整了Falcon Shores的计划,随后将其重新定位为独立GPU,将于2025年发布。

“四年五个制程节点”计划进展顺利

英特尔还展示了基于通用芯粒高速互连开放规范(UCIe)的测试芯片封装,该测试芯片集成了一个基于Intel 3的英特尔UCIe IP小芯片,以及一个基于台积电N3E的Synopsys UCIe IP小芯片,它们通过先进封装技术实现互连。UCIe于2022年3月正式推出,旨在芯片封装层面确立互联互通的统一标准,打造一个开放性的芯粒生态系统。

基辛格表示,摩尔定律的下一波浪潮将由多芯粒封装技术所推动,“如果开放标准能够解决IP集成的障碍,它将很快变成现实。”发起于去年的UCIe标准将让来自不同厂商的芯粒协同工作,从而以新型芯片设计满足不同AI工作负载的扩展需求。目前,UCIe开放标准已经得到了超过120家公司的支持。

在大会上,英特尔也预览了第五代至强处理器,并宣布于12月14日正式发布。到时候,英特尔将能够在相同的功耗下为全球数据中心提供更强的性能和更快的存储速度。

具备了高能效E核(E-Core)处理器的Sierra Forest将于2024年上半年上市(4个E-Core的大小与1个P-Core的大小大致相同)。基辛格表示,与第四代至强处理器相比,拥有288核的Sierra Forest将使机架密度提升2.5倍,每瓦特性能提升2.4倍。紧随Sierra Forest发布的高性能P核(P-Core)处理器Granite Rapids,其AI性能预计比第四代至强处理器提升2到3倍。

据基辛格透露,英特尔的“四年五个制程节点”计划进展顺利,Intel 7(10纳米制程)已经实现大规模量产,Intel 4(7纳米制程)已经生产准备就绪,Intel 3(5纳米制程)也在按计划推进中,目标是2023年年底试生产。英特尔的主要竞争对手台积电曾表示,其有望在2025年推出自己的2纳米工艺节点,并已获得高通、英伟达、AMD、联发科和苹果等主要客户的支持。

除制程外,英特尔向前推进摩尔定律的另一路径是使用新材料和新封装技术,如玻璃基板(glass substrates)。这是英特尔刚于本周宣布的一项技术突破,将增加单个封装内的晶体管数量,助力满足AI等数据密集型高性能工作负载的需求,并在2030年后继续推进摩尔定律。(详见澎湃科技报道《英特尔推出玻璃基板计划:重新定义芯片封装,推动摩尔定律进步》

此前,基辛格在德意志银行2023年技术会议上指出,英特尔的转型计划已经进行了两年半,预计在2025年凭借其节点技术重新夺回市场领导地位。

MIT最新研究:多个AI协作有助提高大模型推理能力和准确性

一种新颖的方法允许多种语言模型进行协作,经过多轮辩论,最终得出统一且精确的响应。 \n图片来源:Alex Shipps/MIT CSAIL,来自Midjourney

·麻省理工学院计算机科学与人工智能实验室(CSAIL)研究团队发现,多个语言模型协同工作胜过单一模型,多个AI协作有助于提高大型语言模型的推理能力和事实准确性。

·每个语言模型都生成对给定问题的回答,然后整合来自其他代理的反馈,以更新自己的回应。最终,多个模型的解决方案通过投票达成一致的最终输出。这一过程有点像小组讨论。

一种新颖的方法允许多种语言模型进行协作,经过多轮辩论,最终得出统一且精确的响应。
图片来源:Alex Shipps/MIT CSAIL,来自Midjourney

当地时间9月18日,麻省理工学院计算机科学与人工智能实验室(CSAIL)的团队在其官网更新了一项研究:发现多个语言模型协同工作胜过单一模型,多个AI协作有助于提高大型语言模型的推理能力和事实准确性。

俗话说“三个臭皮匠,顶个诸葛亮”。简单而言,这项研究利用多个AI系统互相协作,以协商、辩论的方式以达成对给定问题的最佳答案。这种方法提高了大语言模型对事实数据的依从性和改进决策的能力。

大型语言模型(LLM)长期存在的问题之一是,其生成的回答不一致,可能有不准确和错误的推理。而新方法允许每个智能体(agent)积极评估其他智能体的回答,并利用这些集体反馈来完善自己的回答。

这一过程包括多轮的回应生成和批判,每个语言模型都生成对给定问题的回答,然后整合来自其他代理的反馈,以更新自己的回应。最终,多个模型的解决方案通过投票达成一致的最终输出。这一过程有点像小组讨论,个体一起努力达成一致和合理的结论。

这一技术的一个显著优点在于,它可以无缝应用于现有的“黑匣子”模型(指难以知晓其内部运行过程),因为这个方法基于生成出的文本,而无需明晰其内部工作原理。CSAIL团队表示,这种简化可以帮助研究人员和开发者改进各种语言模型输出的一致性和事实准确性。

“我们不仅仅依赖于单一的AI模型来提供答案,相反,我们让众多的AI模型参与,每个模型都带来独特的见解以解决问题。尽管它们的初始回应可能显得简单或包含错误,但这些模型可以通过审查其同行提供的回应来改进和提高自己的回答。”麻省理工学院电气工程和计算机科学博士生、CSAIL附属成员以及论文的首席作者之一Yilun Du说道。

根据Yilun Du的个人主页,他目前正在攻读博士,此前已获得麻省理工学院学士学位,曾在ChatGPT的开发机构OpenAI担任研究员,在Facebook人工智能研究所(FAIR)和Google Deepmind担任实习生和访问研究员,并在国际生物奥林匹克竞赛中获得金牌。有趣的是,他曾在TED发表题为《为什么机器人需要梦想》的演讲。

“当这些AI模型参与对话和思考时,它们更能够识别和纠正问题,增强解决问题的能力,并更好地验证其回应的准确性。基本上,我们正在创造一种迫使它们深入问题核心的环境。这与单一的孤立的AI模型形成对比,后者经常复制互联网上找到的内容。然而,我们的方法积极刺激了AI模型制定更准确和全面解决方案的能力。”Yilun Du说。

此项研究涉及数学问题的解决,包括小学和初高中的数学问题,并通过多智能体辩论显著提高了性能。该方法还可以帮助解决经常困扰大语言模型的“幻觉”问题。通过设计这样的环境,智能体之间可以批判对方的回应,更有动力避免随机生成信息并优先考虑事实准确性。

除了应用于语言模型,该方法还可以用于整合具有专门能力的不同模型。通过建立一个多智能体相互交互和辩论的去中心化系统,它们可以潜在地在语音、视频或文本等各种模式下提高问题解决能力。不过研究人员表示,当处理非常长的上下文时,现有的语言模型可能面临挑战,批判能力可能表现得不如预期。

此外,多智能体辩论形式尚未包括有助于智能集体决策的更复杂形式的讨论。据研究团队透露,这正将是未来探索的关键领域。推进这项技术可能需要更深入地了解人类辩论和讨论背后的计算基础,并使用这些模型来增强或补充现有的大语言模型。

Yilun Du认为,随着研究人员继续完善和探索这种方法,人们可以更接近一个未来,在这个未来,语言模型不仅模仿人类语言,还表现出更系统化和可靠的思维,开创语言理解和应用的新时代。

“利用审议过程来改善模型的整体输出非常有道理,这是从思维链的提示中迈出的一大步。”加利福尼亚大学伯克利分校电气工程与计算机科学系副教授、未参与该项工作的安卡·德拉甘说,“我对接下来的发展感到兴奋。当人们看到辩论时,他们是否能更好地判断大语言模型的答案?人们是否通过自己与大语言模型辩论来得出更好的答案?是否可以使用类似的思想来帮助用户审查大语言模型给出的答案,以得出更好的答案?”

苹果被曝正悄悄开发大模型,创建聊天机器人“Apple GPT”

·消息人士称,苹果去年年底创建了Ajax,基于该系统对搜索、Siri和地图进行了人工智能相关的改进。Ajax现在正被用来创建大型语言模型,并以此为基础开发内部ChatGPT式工具。

·截至目前,苹果还没有出台一个向消费者提供人工智能的清晰战略。熟悉情况的人士认为,苹果的目标是在明年发布与人工智能相关的重大消息。

在发布会上只字不提人工智能的苹果公司,被曝出正在悄悄地开发人工智能工具,可能会挑战OpenAI、谷歌等公司的类似产品。

彭博社当地时间7月19日援引知情人士的话报道,苹果已经建立了自己的框架来创建大型语言模型,被称为Ajax,在此基础上还创建了一个聊天机器人服务,一些工程师称之为“苹果GPT(Apple GPT)”。

这些不愿透露身份的知情人士还说,最近几个月,人工智能的推进已成为苹果的一项重要工作,有多个团队在该项目上进行合作,主要工作包括解决与人工智能技术相关的潜在隐私问题。

在彭博社曝出这一消息后,苹果股价从19日早些时候的跌势中反弹,最高上涨了2.3%,达到198.23美元,创下历史新高。作为OpenAI的合作伙伴和主要支持者,微软公司的股价受此消息影响下滑了约1%。

苹果公司发言人拒绝就这一消息发表评论。截至目前,苹果还没有出台一个向消费者提供人工智能的清晰战略。在今年6月的开发者大会上,苹果公司没有提到人工智能,而是以机器学习等技术语言替代,但在其推出的多项更新中,却处处隐藏着AI功能,比如自动拼写更正升级、耳机自适应音量调整、图片编辑功能优化。有评论人士认为,苹果实际上已经成为一家人工智能公司,因为许多实现人工智能的微小功能调整正在悄然进入iPhone。(详见澎湃科技报道《绝口不提AI,但苹果已经成为一家人工智能公司》

在公开场合,苹果首席执行官蒂姆·库克(Tim Cook)对今年大量涌入市场的人工智能服务持谨慎态度。他在5月的一次电话会议上说,虽然这项技术很有潜力,但仍有“一些问题需要解决”。苹果将在更多产品中加入人工智能,但会在“深思熟虑的基础上”进行。

与此同时,库克在接受《早安美国》采访时表示,他自己在使用ChatGPT,而且公司正在“密切关注”。

库克在接受采访时表示,自己也用ChatGPT,但部署AI需要“深思熟虑”。(01:33)

据熟悉“苹果GPT”工作的人士说,Ajax是去年年底首次创建的,目的是统一苹果公司的机器学习开发。Ajax系统建立在谷歌Jax(一种机器学习框架)之上。苹果已经基于该系统对搜索、Siri和地图进行了人工智能相关的改进。现在,Ajax正被用来创建大型语言模型,并作为内部ChatGPT式工具的基础。

据报道,这个聊天机器人是由一个小工程团队作为实验而创建的。最初,由于对生成式人工智能的安全担忧,苹果公司停止了对它的推广,但后来推广给了更多员工。不过,该系统的访问仍需要特别批准。此外,还有一个重要的注意事项:该系统的任何输出结果都不能用于开发面向客户的功能。即便如此,苹果公司的员工仍在使用它来协助产品原型设计。它还能根据训练过的数据总结文字并回答问题。

苹果公司的员工说,这个工具基本上是对谷歌的Bard、ChatGPT和微软的Bing AI的复制,不包含任何新功能或技术。该系统可作为网络应用访问,设计简洁,不适合公众使用。因此,尽管苹果公司正在积极改进其底层模型,但目前还没有向消费者发布的计划。

除了技术状况,苹果仍在努力确定生成式人工智能对于消费者的使用角度。目前,苹果正在开展几项相关计划,包括人工智能小组和软件工程小组、云服务工程小组之间的跨团队合作,以便为重要新功能提供基础架构。虽然公司还没有具体的计划,但熟悉这项工作的人士认为,苹果的目标是在明年发布与人工智能相关的重大消息。

报道称,领导这项工作的是苹果机器学习和人工智能部门主管约翰·吉安南德雷亚(John Giannandrea)和苹果公司软件工程部门高级主管克雷格·费德里吉(Craig Federighi)。

在开发自己工具的同时,苹果还对OpenAI的技术进行了企业试用,并考虑与OpenAI签订一份更大的合同。

苹果近期正在招聘生成式人工智能专家。在招聘启事中,苹果承诺将把这项技术应用到iPhone及其他设备上“人们交流、创造、连接和消费媒体”的方式中。最能引发联想的是目前地位尴尬的语音助手Siri将如何采用生成式人工智能技术。

 

改变格局?Meta与微软合作发布开源模型可免费商用,威胁OpenAI

Llama 2的参数。

·Meta发布其最新开源人工智能模型Llama 2,可免费用于研究和商业用途。微软成为Llama 2的首选合作伙伴。这可能对生成式人工智能软件市场的现有格局带来改变,加剧大模型间的竞争。

·高通和Meta同日宣布,从2024年开始,Llama 2可以在手机和PC上的高通芯片上运行,该技术将使智能虚拟助理等应用成为可能。

Meta首席执行官马克·扎克伯格最近攻势猛烈。

在社交媒体产品Threads挑战推特并成为史上用户增长最快的App之一后,当地时间7月18日,Meta发布其最新开源人工智能模型Llama 2,可免费用于研究和商业用途。Llama自发布后便被称为AI社区内最强大的开源大模型,但因为开源协议一直不可免费商用。

值得注意的是,Meta同时宣布微软是Llama 2的首选合作伙伴,Llama 2将由微软通过其云服务分发,并在Windows操作系统上运行。众所周知,微软一直和OpenAI在生成式人工智能方面密切合作。

除了微软,Llama 2也可通过亚马逊云(AWS)、Hugging Face等其他提供商获取。

Meta首席人工智能科学家杨立昆(Yann LeCun)在推特上表示,“这将改变大语言模型(LLM)市场的格局。”

Llama模型是什么?

Llama全称为Large Language Model Meta AI,今年2月,Meta推出了第一个较小版本的Llama,仅限研究人员使用。Meta当时称,Llama参数量仅为OpenAI的大模型GPT-3的10%,但性能却优于GPT-3。

与GPT-3相比,Meta在一开始就将Llama定位成一个“开源的研究工具”,该模型所使用的是各类公开可用的数据集(例如Common Crawl、维基百科以及C4)。该项目组成员纪尧姆·兰普尔(Guillaume Lample)在推文中指出,“与Chinchilla、PaLM或GPT-3不同,我们只使用公开可用的数据集,这就让我们的工作与开源兼容且可以重现。而大多数现有模型,仍依赖于非公开可用或未明确记录的数据内容。”

Llama 2的参数。

此次Meta发布的Llama 2实际上是一个开源AI大语言模型系列,包含70亿、130 亿和700亿3种参数变体。此外,他们还训练了340亿参数变体,但只在技术报告中提及,并未发布。

据扎克伯格介绍,Llama 2的训练数据相比Llama 1多了40%,纳入了超过100万条人工注释,以提高其输出的质量。

Meta副总裁艾哈迈德·阿尔达勒(Ahmad Al-Dahle)表示,训练数据有两个来源:在线抓取的数据,以及根据人类注释者的反馈进行微调和调整的数据集。Meta表示,它没有在Llama 2中使用Meta的用户数据,并排除了来自拥有大量个人信息的网站的数据。

业内人士认为,从某种意义上讲,Llama是对2022年3月发表的Chinchilla模型及其论文《训练计算优化型大模型》(Training Compute-Optimal Large Models)的直接反应。这篇论文的核心观点是,AI训练与推理的最佳性能未必由大模型的参数量直接决定。相反,增加训练数据并缩小模型体量才是达成最佳性能的前提。这样的训练可能需要更多时间,但也会带来有趣的意外收获——在推理新数据时,小模型的速度更快。

也是在这种思路下,大模型Llama 2可以“在边缘”或“在设备上”,而不是“在云端”运行。

当地时间7月18日,高通和Meta宣布,从2024年开始,Llama 2可以在手机和PC上的高通芯片上运行。到目前为止,因为对计算能力和数据的巨大需求,大型语言模型主要在大型数据中心运行。高通表示,该技术将使智能虚拟助理等应用成为可能。

“100亿-150亿参数级别的模型可以覆盖绝大多数生成式AI的用例。”高通技术公司产品管理高级副总裁兼AI负责人齐亚德·阿斯哈尔(Ziad Asghar)7月初在接受澎湃科技(www.thepaper.cn)采访时介绍,“届时我们会拥有非常丰富的使用场景,手机会成为真正的个人助理,与手机交流和交互,能够成为我们日常行为的自然延伸,如用于预约会议、写邮件,以及在娱乐和内容生产上。”

成为OpenAI的领先替代方案

Llama模型商业版本的开源将对生成式人工智能软件市场的现有格局带来改变,它可以成为收费的ChatGPT的绝佳替代品,可能将加剧大模型间的竞争。

某种程度上,开源模型的任何渐进式改进都会蚕食闭源模型的市场份额。斯坦福大学基础模型研究中心主任Percy Liang表示,像Llama 2这样强大的开源模型对OpenAI构成了相当大的威胁。Liang是自然语言处理(NLP)领域的著名研究者,师从机器学习泰斗迈克尔·乔丹(Michael I. Jordan)。

“Llama 2不是GPT-4。”Liang说,Meta在其研究论文中承认,Llama 2和GPT-4(目前OpenAI最先进的人工智能语言模型)在性能上仍然存在很大差距。“但对于许多用例,你不需要GPT-4。”

Liang认为,像Llama 2这样更加可定制和透明的模型,比起大型、复杂的专有模型,或能让使用者更快地创建产品和服务。

加州大学伯克利分校教授史蒂夫·韦伯(Steve Weber)表示,“让Llama 2成为OpenAI的领先开源替代方案,对Meta来说将是一个巨大的胜利。”   

Meta在发布Llama 2的新闻稿里称,他们相信,“开放的方法是当今人工智能模型开发的正确方法,特别是在技术快速发展的生成领域。”此外,“我们相信它更安全。开放对当今人工智能模型的访问意味着一代开发人员和研究人员可以作为一个社区对其进行压力测试,快速识别和解决问题。”

微软现在是Meta的合作伙伴

作为OpenAI的亲密伙伴,此次微软作为Meta首选合作伙伴的出现意味深长。

一方面可以理解为,为了应对主要云服务竞争对手,微软也希望提供多种人工智能模型供选择。此前,亚马逊云(AWS)宣布,除了自家的Titan之外,还提供由著名初创公司Anthropic开发的人工智能Claude的访问权限。同样,谷歌也表示有意让其云客户使用Claude和其他模型。

另一方面,据此前《华尔街日报》揭秘,微软与OpenAI合作的背后实际上也是“相爱相杀”的关系。

知情人士称微软内部出现了抱怨AI研发预算减少的声音,微软部分研究人员还抱怨OpenAI不愿开放技术细节。知情人士称,虽然微软有少数内部团队可以接触到该模型的底层工作原理,例如代码库和模型权重,但大多数团队还是被直接拒之门外。尽管微软持有OpenAI大量股份,可大部分员工在使用OpenAI模型时享受的待遇甚至等同于普通外部供应商。

与此同时,微软和OpenAI都在营销大模型的使用权,有时是针对同一个客户。而且OpenAI正在加速与企业合作,包括与微软竞争对手的合作,如客户关系管理(CRM)软件服务提供商Salesforce。它们在ChatGPT的支持下打造了Einstein GPT,主要卖点是自动完成某些日常任务,比如生成营销类电子邮件,这跟微软基于OpenAI技术打造的功能高度重合。

当天,微软还宣布,计划就使用其办公软件Microsoft 365的人工智能助手向企业收取每人每月30美元的费用,该软件包括Word和Excel。这个价格是微软目前对Microsoft 365最廉价版本收费的两倍多。消息宣布后,微软股价18日收盘创下历史新高,当天上涨4%,收于359.49美元,今年上涨了约50%。

 

美国七大AI公司自愿向白宫承诺,为AI生成内容添加水印

七家领先的人工智能科技公司的高管当地时间7月21日在白宫与美国总统拜登会面。

·这些公司同意进行安全测试,部分由独立专家进行;对偏见和隐私问题进行研究;与政府和其他组织共享有关风险的信息;开发应对气候变化等社会挑战的工具;采取识别AI生成材料的透明度措施。 

·七家公司均是自愿签署协议,如果不履行承诺,目前不会产生任何重大法律后果。自愿保障措施只是早期的试探性步骤,拜登政府目前正在制定一项行政命令。

七家领先的人工智能科技公司的高管当地时间7月21日在白宫与美国总统拜登会面。

当地时间7月21日,美国白宫召集人工智能七大公司做出一系列保护用户的自愿承诺,包括同意进行安全测试,采用新的水印系统以告知用户内容是人工智能生成的。

这七家公司是亚马逊、Anthropic、谷歌、Inflection、Meta、微软和OpenAI,它们的代表与美国总统拜登举行了会面,同意白宫提出的一系列要求,以解决人工智能带来的许多风险。

作为保障措施的一部分,这些公司同意进行安全测试,部分由独立专家进行;对偏见和隐私问题进行研究;与政府和其他组织共享有关风险的信息;开发应对气候变化等社会挑战的工具;采取识别AI生成材料的透明度措施。 

七家公司均是自愿签署协议,这些承诺不包括具体的截止日期,如果不履行承诺,目前不会产生任何重大法律后果。此外,每家公司都可以做出不同的解释。但这些承诺的执行将在很大程度上由美国联邦贸易委员会监督,联邦贸易委员会的一名官员称,违反公共承诺可以被视为一种欺骗性做法,这将与现有的消费者保护法相冲突。

自愿保障措施只是早期的试探性步骤。当天,一名白宫官员在与记者的通话中表示,拜登政府目前正在制定一项行政命令,以解决人工智能带来的一些风险。该官员拒绝透露具体细节。与自愿承诺相比,行政命令可能会引起科技行业更多的反对。

纽约大学斯特恩商业与人权中心副主任保罗·巴雷特(Paul Barrett)对媒体表示,需要做更多工作来防止人工智能对社会构成的危险。 “今天宣布的自愿承诺是不可执行的,这就是为什么,国会与白宫一起迅速制定立法,要求透明度、隐私保护和加强对生成式人工智能构成的广泛风险的研究至关重要。”他在声明中说。

过去几个月里,拜登政府与科技高管以及劳工和民权领袖会面,讨论人工智能问题。5月,白宫宣布为开发人工智能技术的公司提供更多资金和政策指导,其中包括向国家科学基金会提供1.4亿美元,用于建立7个新的国家人工智能研究所(NAIR)。谷歌、微软、英伟达、OpenAI和其他公司也同意在今年的Def Con(在拉斯维加斯举行的知名年度黑客大会)上公开评估其语言模型。

在国会方面,参议院多数党领袖、民主党人查克·舒默6月推出一项计划,要求国会在不抑制创新的情况下监管该技术。该计划名为SAFE(安全、问责、基础、解释)框架,没有提供具体的政策要求,但呼吁立法者共同制定规则,以应对人工智能危害国家安全、导致失业和制造错误信息的可能性。舒默的计划还包括为参议员提供一系列有关人工智能的简报。两党立法者也都出台了立法来监管人工智能。一些限制国防部如何使用生成式人工智能的新规则已纳入今年必须通过的国防授权法案。

中国互联网大厂订购50亿美元英伟达芯片,全球GPU短缺暂难缓解

随着生成式人工智能爆火,英伟达的GPU因为能为开发大型语言模型提供算力,已成为全球科技行业最热门的商品。

A100和H100的性能对比。图片来源:GPU Utils

英伟达GPU的供应路径。图片来源:GPU Utils

·多位熟知内情的消息人士透露,百度、字节跳动、腾讯和阿里巴巴已向英伟达共订购了价值10亿美元的A800处理器,将于今年交付,还购买了价值40亿美元的GPU,将于2024年交付。

·“我被告知,对于需要100或1000块(英伟达GPU)H100的公司来说,Azure(微软云服务)和GCP(谷歌云服务)实际上已经没有容量了,亚马逊也接近没有容量了。”

随着生成式人工智能爆火,英伟达的GPU因为能为开发大型语言模型提供算力,已成为全球科技行业最热门的商品。

硬件短缺真的会拖累人工智能革命吗?在OpenAI首席执行官山姆·奥特曼和特斯拉首席执行官埃隆·马斯克抱怨GPU(图形处理器)不够用之后,这个事实越来越明显。

中国多家互联网巨头正在抢购对构建生成式人工智能系统至关重要的高性能英伟达(Nvidia)芯片,订单价值总计约50亿美元。

知名科技博客GPU Utils最近对GPU短缺问题进行了一项深入调查,证实了科技巨头的担忧。通过与国外各大云服务和GPU提供商高管的对话,博客主克雷·帕斯卡尔(Clay Pascal)写道:“我被告知,对于需要100或1000块(英伟达GPU)H100的公司来说,Azure(微软云服务)和GCP(谷歌云服务)实际上已经没有容量了,亚马逊也接近没有容量了。”

将于今年或明年交付

据《金融时报》8月10日报道,多位熟知内情的消息人士透露,百度、字节跳动、腾讯和阿里巴巴已向英伟达共订购价值10亿美元的A800处理器,将于今年交付。两位与英伟达关系密切的人士说,这些中国企业还购买了价值40亿美元的GPU,将于2024年交付。

随着生成式人工智能爆火,英伟达的GPU因为能为开发大型语言模型提供算力,已成为全球科技行业最热门的商品。一位英伟达经销商此前表示,经销商们手中的A800价格上涨了50%以上。

A800是英伟达用于数据中心的尖端A100 GPU的弱化版本。由于美国去年实施的出口限制,中国的科技公司只能购买数据传输速率低于A100的A800。

据两位接近字节跳动的人士透露,字节跳动有许多小团队正在开发各种生成式人工智能产品,其中包括一个代号为Grace的人工智能聊天机器人,目前正在进行内部测试。

今年早些时候,字节跳动为其社交媒体应用TikTok测试了一个生成式人工智能功能,名为TikTok Tako,授权使用OpenAI的ChatGPT。

两位直接了解情况的员工表示,字节跳动已经储备了至少1万块英伟达GPU,还订购了近7万块A800芯片,将于明年交付,价值约7亿美元。

目前,字节跳动利用储备的英伟达A800和A100提供云计算设备。6月,该公司发布大模型服务平台“火山方舟”,供企业试用不同的大语言模型服务。

腾讯云在4月发布了专为大模型训练设计的新一代HCC高性能计算集群,供他人租用计算能力,采用了英伟达H800 GPU,这是英伟达最新的H100型号在中国的改良版,可以为大型语言模型训练、自动驾驶和科学计算提供动力。

据两位接近阿里巴巴的人士透露,阿里巴巴云也从英伟达收到了数千枚H800芯片,许多客户已经联系该公司,寻求由这些芯片驱动的云服务。

针对《金融时报》的这一报道,英伟达、百度、字节跳动、腾讯和阿里巴巴拒绝发表评论。

稀缺性加剧稀缺性?

在国外,大多数大型人工智能开发者都通过亚马逊和微软等科技公司的云服务获得顶级处理器。但根据GPU Utils的深度调查,现在,这些开发者基本上无法再获取服务,一位匿名员工告诉帕斯卡尔,现在的情况“就像20世纪70年代的大学主机一样”。人工智能公司甚至用GPU作为抵押来担保他们的债务。

调查称,目前最被需要的GPU是英伟达的H100,因为它对于大模型的推理和训练来说都是速度最快的,通常也是推理方面性价比最高的。匿名人士称:“我的分析是,(H100)做同样的工作也更便宜。如果你能找到V100,那它就很划算了,但你却找不到。”

对于大模型训练来说,内存带宽、浮点运算次数、缓存和缓存延迟、互连速度等是重要的因素。H100比A100更受青睐,部分原因是缓存延迟较低和具有FP8计算功能等。

A100和H100的性能对比。图片来源:GPU Utils

除了英伟达,芯片巨头AMD也在生产GPU,但一位私有云公司的高管表示:“理论上,一家公司可以购买一堆AMD的GPU,但要让一切正常运转需要时间。开发时间(即使只有两个月)可能意味着比竞争对手更晚进入市场。所以CUDA现在是英伟达的护城河。”CUDA是英伟达推出的只能用于自家GPU的并行计算框架。

调查称,目前谷歌云拥有大约2.5万块H100,微软云服务Azure可能有1万-4万块H100,甲骨文的情况应该类似。Azure的大部分容量都将流向OpenAI。对于H100的需求,OpenAI可能需要5万块,Meta可能需要2.5万块,大型云厂商可能每家都需要3万块,加上其他一些初创企业,可能总共需要大约43.2万块H100。以每块约3.5万美元计算,所需GPU的价值约为150亿美元。这还不包括像字节跳动(TikTok)、百度和腾讯这样需要大量H800的中国公司。

“因此,供应短缺可能需要一段时间才能消失。但我的所有估计都可能被严重夸大了,其中许多公司今天不会立即购买H100,他们会随着时间的推移进行升级。此外,英伟达正在积极提高产能。”帕斯卡尔写道。

但帕斯卡尔也指出,芯片巨头台积电还无法生产足够多的高端GPU。目前,台积电是H100的唯一生产商。英伟达未来也可能和芯片制造商英特尔与三星合作,但在短期内不会解决供应紧张。

英伟达GPU的供应路径。图片来源:GPU Utils

一位退休的半导体行业专业人士认为,台积电的瓶颈不是晶圆开工,而是CoWoS(3D堆叠)封装。

此外,影响内存带宽的HBM(高带宽内存)也是生产难点,HBM主要由韩国厂商生产。当地时间8月8日,英伟达宣布推出世界上第一个配备HBM3e内存的GPU芯片——下一代版本的GH200 Grace Hopper超级芯片,将于2024年二季度上市。HBM3e内存比当前一代GH200中的HBM3技术快50%。

英伟达表示今年下半年将会有更多供应,但除此之外没有透露更多信息,也没有提供任何定量信息。与此同时,一位私有云公司的高管认为,稀缺性导致GPU容量被视为护城河,从而导致更多的GPU囤积,又加剧稀缺性。

这份调查报告预计,至少到2023年底,H100的部署将出现大量短缺。届时情况将会更加清晰,但目前看来,短缺情况可能还会持续到2024年的部分时间。

参考资料:https://gpus.llm-utils.org/nvidia-h100-gpus-supply-and-demand/

白宫要求美国人更广泛通报三大高科技领域对华投资情况,中方回应

当地时间8月9日,白宫发布美国总统拜签署的行政命令,从明年开始禁止美国人对中国敏感技术的某些投资。

当地时间8月9日,白宫发布美国总统拜签署的行政命令,从明年开始禁止美国人对中国敏感技术的某些投资。

经过数月的讨论后,美国总统拜登当地时间8月9日发布一项行政命令,将从明年开始禁止美国人对中国敏感技术的某些投资,并要求向美国政府报告相关科技领域的投资情况。命令中,“涵盖的国家安全技术和产品”是指对一个国家的军事、情报、监视或网络能力至关重要的半导体和微电子、量子信息技术和人工智能领域的敏感技术和产品。

中国驻美国大使馆发言人刘鹏宇当天在一份声明中表示,中方对美国继续推进投资限制的决定感到“非常失望”,并将维护自身利益。“中方反对美方过度利用国家安全理由,将贸易、科技问题政治化、武器化,故意为正常的经贸交流和技术合作设置障碍。”刘鹏宇指出。

中国商务部8月10日指出,美方限制本国企业对外投资,打着“去风险”的幌子在投资领域搞“脱钩断链”,严重背离美方一贯提倡的市场经济和公平竞争原则,影响企业正常经营决策,破坏国际经贸秩序,严重扰乱全球产业链供应链安全,中方对此表示严重关切,将保留采取措施的权利。希望美方尊重市场经济规律和公平竞争原则,不要人为阻碍全球经贸交流与合作,不要为世界经济恢复增长设置障碍。

这项行政命令要求阻止“美国人”对中国半导体和微电子、量子信息技术和人工智能的某些投资,例如主要为军事和情报用途设计的人工智能系统、芯片设计自动化软件和量子技术,称这些技术“可能会破坏加密和其他网络安全控制并危及军事通信”。命令还要求美国投资者向财政部通报对其中一些目标行业开发技术的公司的潜在投资。

在应通报和禁止的交易中,行政命令称:“财政部长(部长)应与商务部长以及其他相关行政部门和机构(机构)负责人酌情协商,根据公众公告和意见,发布法规,要求美国人提供与涉及受涵盖外国人的某些交易(应通报的交易)相关的信息通知,并禁止美国人从事涉及受涵盖外国人的某些其他交易(禁止交易)。”

文件解释称,“所涵盖的外国人(covered foreign person)”是指参与根据本命令发布的法规中所确定的涉及一种或多种所涵盖的国家安全技术和产品的活动的受关注国家的个人。“美国人(United States person)”一词是指任何美国公民、合法永久居民、根据美国或美国境内任何司法管辖区法律组建的实体,包括任何此类实体的任何外国分支机构,以及在美国境内的任何人。

违反规定的投资者可能会面临罚款并被迫撤资。这些规定适用于未来的交易,但不包括对中国股票和债券的组合投资。

美国财政部表示,预计将豁免“某些交易,包括潜在的公开交易工具以及从美国母公司到子公司的公司内部转移”。

在明年执行新规则之前,拜登政府将完成多轮公众意见征求,其中包括最初的45天公众意见咨询阶段,可能导致该禁令的范围缩小。

《华尔街日报》报道称,当天业界反应平淡。一些行业代表表示,与立法者考虑的方法相比,该行动的范围相对狭窄。《华盛顿邮报》援引分析人士的话称,至少就目前而言,任何此类禁令对中国的影响都可能微乎其微。

美国半导体行业协会表示,期待提供意见,并补充说“我们希望最终规则允许美国芯片公司在公平的竞争环境中竞争并进入包括中国在内的主要全球市场”。美国国家风险投资协会表示正在密切关注,“以确保对美国公司的投资不会产生意想不到的后果。”

《纽约时报》将白宫的这一行动称为“美国在与中国的经济冲突中为遏制金融流动而采取的首批重要措施之一”。分析人士认为,沟通和执行这项措施将会很困难,美国“商界已经开始反对私人市场政治化”。通信技术专家项立刚8月9日对《环球时报》记者表示,美国明年就要举行大选,拜登政府在竞选压力之下需要显示对华强硬态度,因此会将打压中国的措施作为拉选票的工具。在这种情况下,华盛顿并不看重这些措施实施后的效果,即便美国企业的利益将受到损害。

复旦邱锡鹏:MOSS中文能力已超ChatGPT,可进行角色扮演

复旦大学计算机科学技术学院教授、MOSS系统负责人邱锡鹏7月7日在2023世界人工智能大会发表演讲。

·MOSS系统负责人邱锡鹏表示,最新的MOSS已经能够在中文能力上超过ChatGPT,可以通过使用工具来为用户提供帮助,并在预防“有害道德”方面做了很多优化。

·邱锡鹏认为,通用大模型除了算力需求大以外,目前依然在可信性、安全性、逻辑性等方面存在许多挑战,里面有非常多的科学问题并没有被解决,这些都需要高校研究团队进行重大科研攻关。

复旦大学计算机科学技术学院教授、MOSS系统负责人邱锡鹏7月7日在2023世界人工智能大会发表演讲。

7月7日,在2023世界人工智能大会“大模型时代的通用人工智能产业发展机遇以及风险”论坛上,复旦大学计算机科学技术学院教授、MOSS系统负责人邱锡鹏表示,国内首个对话式大型语言模型MOSS在今年2月发布后,还在连续不停地迭代,“最新的MOSS已经能够在中文能力上超过ChatGPT。”

邱锡鹏在演讲中表示,目前MOSS可以通过使用工具来为用户提供帮助。例如MOSS本身不会绘画,但它可以调用文字生成图片的插件来达到效果。而对于算数运算,MOSS也可以调用计算器和解方程器来完成复杂的数学解题。如果向MOSS询问原有知识库里没有的实时信息,MOSS可以调用搜索引擎,根据反馈的结果进一步回答,例如每天抓取新闻,为用户汇总新闻链接与内容。

邱锡鹏透露,MOSS发布后,团队把一部分精力放在如何打通使用工具的能力,并在4月推出了开源插件版的模型MOSS-Plugin。“作为模型和外界交互的一种非常重要的方式,插件能力在未来是非常重要的。”他说。

值得一提的是,MOSS在预防“有害道德”方面也做了很多优化。“对于违背道德的问题,MOSS会避免回答,我们通过优化让MOSS具有非常强的道德感。”邱锡鹏同时表示,MOSS还可以进行角色扮演,实现个性化上的优化。

此外,邱锡鹏表示,现在所谓的大型语言模型成本高,主要是集中在第一阶段,即预训练(Pretraining)。“我们的大模型不是大公司才能玩得起,以后高校、普通爱好者和学生都可以玩大模型。” 邱锡鹏指出,后面阶段的成本相对来说并不是特别高,例如预训练后的监督微调、迭代优化、推理部署、模型评测等阶段。但这些阶段才是真正的挑战,“前面的预训练阶段并不适合所有人来研究,但是后面有非常多的科学问题需要我们进一步研究。”

大模型仅仅只是工程问题,高校和学术团体做大模型没有意义?邱锡鹏并不这么认为。公司投入金钱与工程师来推进工程的确重要,但大模型如果仅仅靠公司是没办法真正做好的。“大模型里有非常多的科学问题需要广大研究者参与。如果离开了学术团队,大模型可能会缺少非常多的理论和技术支撑。”

邱锡鹏进一步指出,“通用大模型除了算力需求大以外,目前依然在可信性、安全性、逻辑性等方面存在许多挑战,这里面有非常多的科学问题并没有被解决,比如智能如何涌现、复杂推理如何实现、高效架构、学习策略,以及如何做更好的知识融合,这些都需要高校研究团队进行重大科研攻关。”

复旦团队将围绕MOSS持续开展大模型其他方面的研究,包括能力强化、知识对齐、模态融合和开源开放,进一步迈向通用人工智能。

邱锡鹏在论坛中还介绍了正在建设中的开源语言模型平台OpenLMLab,该平台的下层将对接国产通用框架和预训练模型库,而上层会面向大模型生态方面的应用。

据介绍,OpenLMLab集对话模型、模型微调、模型对比和模型评测等领域于一体。MOSS是该开源平台的对话模型,而COLLiE是模型微调的工具库,将来会进行强化学习迭代。此外,该平台支持AI生成文本检测软件Sniffer和快速对比多个对话大模型效果的工具ChatZoo。

邱锡鹏在演讲结尾还介绍了一款名为Gaokao的工具,基于高考题目进行模型评测。“我们认为,现在有许多大模型的榜单都不太全面或权威,然而人类的考试是非常全面和权威的,例如高考。基于它,我们可以评测各种大模型的能力。高考的题目还有另一个好处,由于每年高考题目都会更新,基本上大模型不太会存在刷题的嫌疑,因此每年都可以有新题目来比较不同的大模型。”