信仰与突围:2026人工智能趋势前瞻

日期:2025-12-23 18:09:14 / 人气:92


谁也无法想到,ChatGPT迎来三周年之际,没有庆祝与纪念,反而是内部发布的一封红色警报,再次敲响了人工智能竞争白热化的战鼓。在受到Gemini 3惊艳效果的威胁下,Open AI加速推出GPT 5.2,以更多资源在多项指标上实现反超。然而三年以来,各大模型间的性能差距与范式差异持续缩小,业界出现不少质疑声音,认为大模型发展正面临天花板;但也有众多人坚定看好AGI(通用人工智能)的到来,产业充满了更多争论与分化。

站在2025年年尾回望来时之路,从DeepSeek的火热,到GPT4o之后吉卜力风格动画的流行,从Sora2生成与山姆·奥特曼同框的视频,到谷歌Nano Banana生图工具制作的各类机器猫讲解内容,时常令人产生恍如隔世之感——一项当年的技术,仿佛已是多年前的流行。展望2026,我们既感受到对大模型智能瓶颈与投资回报不确定性的焦虑,看到更多非共识的存在,也见证着行业的坚守与信仰,以及多个方向上有望实现的突围,更多期待与探索正扑面而来。

一、 信仰:AI进化的核心坚守方向

1. Scaling Law驱动向AGI持续进化

自ChatGPT横空出世以来,业界主流观点始终认为,只要不断增加算力、扩充数据、堆叠参数,机器智能就会像物理定律般稳步增长,直至触达AGI的奇点。但随着近两年大模型智能升级逐渐放缓,加之数据枯竭论等观点的提出,对规模法则(Scaling Law)的质疑声愈发强烈。Scaling Law究竟是通往AGI神坛的阶梯,还是人类在数学与统计学迷宫中建造的、注定无法封顶的巴别塔?

对此,Gary Marcus认为大模型并未真正理解世界,只是在巨量语料中拟合了语言相关性,而真正的智能应包含抽象化、因果建模、符号推理与长期记忆能力。近日伊利亚在播客中也表示,规模法则正接近极限,强化学习虽消耗巨大算力,却不能算作真正的扩展,未来的突破将源于更好的学习方式,而非简单的规模扩张。

伊利亚的观点不无道理,因为真正的核心需求是解决问题的有效方法。但在底层架构缺乏突破性创新、训练方法未出现颠覆式变革的背景下,规模法则仍是当前可行的路径。从工程与产业逻辑来看,Scaling Law依旧是最可靠、最实用的增长路径,其优势体现在三方面:其一,能力提升可预测,通过增加训练FLOPs(浮点运算次数)和优化数据等方式,就能对模型能力进行预判;其二,产业投入可评估,算力、算法、数据等要素可按线性方式扩展;其三,人才与工程体系无需推翻重来,可在原有架构基础上通过工程化优化、算法迭代等方式持续升级。

2025年11月以来,Gemini 3发布后的优异表现、DeepSeek V3.2的研究成果,均印证了规模法则在现阶段的有效性,这也为美国轰轰烈烈的AI新基建增添了底气。当前美国规划建设的大型数据中心项目总装机容量已突破45吉瓦(GW),这场建设热潮预计将吸引超2.5万亿美元投资。针对未来算力需求,黄仁勋提出了“三重Scaling Law”观点,认为在预训练、后训练强化学习以及推理过程中,均存在规模法则,从而支撑算力的持续增长。

数据是当前大模型进化中最迫切的难题。相较于算力暂不构成主要瓶颈、参数规模可继续放大的现状,高质量可用数据持续稀缺。业界正积极探索系统性的扩数据方法,当前已形成一定共识:并非简单寻找更多互联网语料,而是通过合成数据、推理过程数据、强化学习数据、环境反馈数据、多模态数据与具身数据等方式,构建可放大的数据生成体系。核心目标是摆脱被动收集数据的模式,建立可工程化、可控制、可规模化的数据生产能力,并通过更优的学习算法提升学习效率。

可预见的未来,将是“New Scaling Law”的时代。它不再是简单的算力堆砌,而是向数量扩大与质量提升两个方向同步扩展。加之算力资源的充沛支持,研究员将拥有充足资源探索算法与架构的更多优化路径,有望实现底层能力的突破。而AGI的到来,很可能源于规模扩展与结构性创新的结合,包括世界模型构建、新型高效训练架构、具身智能、长期记忆机制、工具化执行链路以及更高水平的对齐系统等。

2. 多模态的ChatGPT时刻到来,推动智能非线性跃升

谷歌Gemini、OpenAI Sora等多模态模型已具备出色的文字内容总结能力,能提炼生成栩栩如生的PPT、播客内容与视频动画,实现了对内容的深度理解,标志着多模态的ChatGPT时刻已然到来。若类比生命进化过程,语言本是高级智能形态,但这一波大模型的突破却始于语言,与生命进化路径恰好相反。未来,多模态技术的进步将从另一维度探索智能进化,极有可能成为推动AI智能水平实现非线性跃升的关键因素之一。

回顾生物进化史可知,智能并非突然出现的抽象能力,而是伴随感知与行动系统的复杂化逐步涌现的结果。其中,视觉的出现被广泛视为关键性分水岭:早期生命的光敏细胞仅能区分明暗,而成像视觉的诞生,让生物得以识别空间结构、物体边界与运动关系。这一变化直接扩大了生物可感知、可行动的世界范围,捕食与躲避行为的复杂度急剧上升,倒逼神经系统进化出更强的处理与决策能力。从结果来看,视觉并非单纯增加一种感觉,而是触发了认知能力与智能水平的阶段性跃迁。

长期以来,大语言模型主要在文本空间中学习世界,其理解并非真正意义上的理解,感知也并非真正的感知,本质上源于语言对现实的高度压缩与抽象。尽管这种方式已展现出惊人的语言推理与知识整合能力,但始终面临根本性限制——模型所接触的世界,是经过人类过滤、描述和重构的二手世界。有个生动的比喻:大模型虽能绘声绘色地描述红酒的香气与味道,却从未喝过一口红酒,也从未打翻过一个酒杯。

多模态模型的进步有望在一定程度上改变这一前提。图像、视频、语音等模态并非对世界的解释,而是对世界状态的直接投射,天然包含空间连续性、时间演化以及隐含的物理约束(如物体恒常性、遮挡关系、运动轨迹和因果顺序等)。这些信息难以在文本中完整表达,却在多模态数据中以被动但强制的方式存在。模型学习多模态数据时,必须面对更接近真实世界的结构性约束空间,这为构建更稳健的世界模型提供了可能。

更重要的是,多模态为人工智能打开了“感知—决策—行动”闭环技术通道的可能性。当多模态感知与工具使用、机器人控制、软件操作等相结合时,智能将不再局限于回答问题、生成内容,而是能在环境中尝试、修正与规划,通过反馈持续优化,实现智能的跃升。

3. 底层架构与学习范式等领域研究多点开花

对大模型行业而言,研究驱动始终是核心范式。大量实验是研发的必要前提,以小团队为单位开展多方向实验齐头并进的“赛马机制”,一直是OpenAI等前沿机构的有效组织方式,这种模式与大模型路线持续迭代变化的特性高度契合。预计2026年,在底层架构、训练范式、评测方法、长期记忆机制、智能体(Agent)等多个领域,都有望诞生更多突破性成果。

近两年,全球涌现出一批非共识且极具技术个性的实验室。例如,伊利亚创办的主打安全超智能的SSI(Safe Superintelligence),已吸引30亿美元投资;原OpenAI CTO Mira建立的Thinking Machines Lab,专注于解决AI系统可靠性、可定制性及多模态协作等问题,已推出首款产品Tinker,可帮助开发者和研究人员微调语言模型。在物理世界与智能体结合的方向上,李飞飞创立的World Labs聚焦空间智能,旨在让AI模型理解三维环境与物理规律,填补大语言模型在物理交互层面的空白;杨立昆从Meta离职后,将投身专注高级机器智能的AI初创公司AMI,目标是构建能理解物理世界、具备持久记忆、可推理并规划复杂动作序列的系统。在智能体方向,欧洲的H Company认为,若AI无法持续解决复杂现实问题,再流畅的对话能力也只是表象智能,因此重点研发能持续解决复杂任务的认知系统,希望打造可像人类一样操作工具、执行复杂工作流的超级Agent。

在底层架构与训练范式创新方面,行业内也有诸多值得期待的研究。日本的Sakana AI明确站在主流大模型Scaling Law路线的对立面,由多位前Google DeepMind核心研究员(包括Transformer论文主要作者之一的Llion Jones)创立。该实验室推崇演化与群体智能,探索降低算力依赖的高效路径:一是演化式模型(Evolutionary AI),不追求一次性训练出完美模型,而是通过变异、选择和组合,让模型在动态过程中持续进化;二是群体智能与多模型协作,将多个能力互补、结构不同的模型视为生态系统,通过协作而非追求单体最优,产生更强的整体智能。具有麻省理工学院背景的Liquid AI则开发了液体神经网络架构,对神经网络的运作逻辑进行底层重构,认为真正通用、鲁棒的智能系统应随环境变化而调整,而非像当前预训练模型那样“一次训练、终身冻结”——这正是“液体”一词的含义,即网络并非固态结构,而是可连续演化的动态系统。在长期记忆领域,谷歌提出“嵌套学习(Nested Learning)”概念,试图从根源上解决灾难性遗忘问题:借鉴人类大脑中海马体(短期记忆)与大脑皮层(长期记忆)的协同工作模式,设计快慢双系统,部分模块专门快速适应当前新任务,另一部分则通过长期记忆巩固通用知识。

评测牵引正日益成为驱动大模型研发的重要范式。当前,静态刷榜导致的数据污染、人类标注昂贵且难以扩展、模型能力在部分维度已超越普通评估者等问题,给大模型评测带来重大挑战。行业内正探索更多新评测方法:在Agent与长期任务评测方面,学界和工业界围绕Agent能力构建跨多步、跨工具、跨状态管理的评测体系,如DeepMind的复杂任务规划环境、OpenAI内部的多工具协作任务,以及学术界的SWE-bench、WebArena、AgentBench等,这类评测不再关注模型是否答对单道题目,而是考察其在长时间尺度内完成目标、纠错、更新策略的能力,真实暴露规划与记忆短板;在动态、交互式与仿真环境评测方面,代表性探索包括基于游戏、模拟世界或数字孪生环境的评测,模型每一步决策都会改变后续状态,错误具有累积效应。当然,评测的挑战可能长期存在,因为评测指标本身容易陷入古德哈特定律的陷阱——当一个指标成为目标时,它就不再是一个好的指标。

4. 仿真数据将在物理AI领域大放异彩

机器人的物理世界数据极其匮乏,尤其是复杂的灵巧操作,真机采集一条数据通常需要数分钟,成本在1-10美元;而仿真生成一条数据的边际成本趋近于零,且能并行运行数万个实例。因此,在物理AI的早中期研发、可控环境任务范围内,仿真数据将成为绝对主流,Sim-to-Real(仿真到现实)的鸿沟正被生成式AI填平。

在规模与覆盖面上,真机采集的瓶颈并非“采不到”,而是“采得慢、采得贵、采得不够广”。仿真技术则能以指数级的低成本优势,覆盖极端光照、遮挡、碰撞、稀有故障、不同摩擦系数、质量差异、关节间隙等长尾场景。在可控与可复现性上,物理AI研发需要严谨的回归测试和安全验证,仿真可锁定变量,将问题定位从“玄学”转化为可诊断的明确问题。在跨本体迁移方面,现实数据常常绑定于特定硬件本体、传感器及标定参数,而仿真天然适合做多本体、多观测、多动作空间的统一生成与对齐,这在多机器人和多任务训练范式中尤为关键。

产学研界已有诸多相关研究与实践:上海人工智能实验室构建的合成数据集InternData-A1,包含超过63万条轨迹、总计7433小时数据,涵盖4种具身形态、18项技能、70项任务及227个场景,涉及刚性、铰接、可变形及流体物体的操控;采用与π0相同的架构,完全在InternData-A1上预训练的模型,在49项仿真任务、5项真实世界任务以及4项长时程灵巧操作任务上的表现,与官方π0模型相当,验证了仿真数据的有效性。银河通用发布的灵巧手功能性抓取合成大数据集DexonomySi,包含超950万条高质量抓取姿态,覆盖超1万个物体、31种常用抓握类型,涵盖人类抓握分类法中约94%的类型;依托这一数据范式,该公司自研了面向零售行业的端到端具身大模型GroceryVLA,实现了复杂货架上的机器人双手自主取物。谷歌的Genie 3让模型学会预测下一帧画面,为机器人和自动驾驶汽车的训练提供了无限可能的模拟环境。

当然,真机派的担忧也客观存在:仿真永远存在建模误差(如接触力学、材料特性、软体形变、磨损、传感器时序与噪声等),且真实世界的意外组合无穷无尽。因此,在物理AI的早中期研发中,仿真将以极低成本提供覆盖长尾场景的多模态经验,支撑策略成型、泛化训练与系统评测等工作,承担90%以上的数据与验证任务;而真机数据则集中用于物理锚定、残差校准与产品级验收等环节。这种“仿真主供给、真机强纠偏”的范式,已从学术论文走向NVIDIA、DeepMind等公司的工业化实践,仿真不再是单纯的演示工具,正成为物理AI的数据基础设施。

5. AI4S有望出现变革行业的新突破

过去几年,AI for Science(AI4S)最具象征意义的成果无疑是AlphaFold,其在蛋白质结构预测上的突破,让人们对基础学科研究范式的重塑充满期待。但与此同时,普遍的质疑也随之而来:这些突破离产业应用仍过于遥远。从药物研发到材料工程,现实世界的研发周期、验证成本和组织复杂度,并未因某一个模型而发生根本性改变。

2026年是否会成为AI4S的转折点?答案并非简单的“是”或“否”。但从科研前沿、产业实践和国家政策三条线索综合观察,一个清晰的信号正在浮现:AI4S正从模型驱动的学术突破,转向系统工程化的科研生产力——这种转变,可能是行业被真正改变的前兆。

AI4S迟迟难以影响产业,核心障碍并非预测不够精准,而是验证过程昂贵、缓慢且难以复制。正因如此,一个极具信号意义的变化正在发生:AI正被直接嵌入实验系统本身。谷歌DeepMind将于2026年在英国建立基于AI的自动化科研实验室,首批研究方向包括超导体、半导体材料等关键科学领域,这是AI4S从算法走向实验物理试验平台的重要标志。该实验室并非简单让机器人执行实验,而是由AI负责假设生成与实验编排,机器人系统执行实验,数据自动回流用于模型更新和策略优化,形成可复现、可规模化的闭环。这一步的意义在于,它首次让AI4S从“建议者”转变为“执行者”,打通实验闭环,使材料科学、化学工程和药物筛选等领域具备了被真正加速、甚至重构的条件。

另一个不可忽视的变化来自国家层面。美国近期明确将AI4S上升为国家战略重点,特朗普政府在2025年底签署《启动创世纪任务》行政令,该计划由美国能源部(DOE)牵头,目标是建立全国性的AI科学平台,通过整合联邦科研数据、超算资源和AI模型,实现科学研究的加速和跨学科突破。计划聚焦先进制造业、生物技术、关键材料、核裂变与核聚变能源、量子信息科学、半导体与微电子等领域,有望打通美国联邦政府数十年积累的庞大科学数据集(包括能源、生物、核物理等内部绝密数据),并结合国家实验室的超算资源,专门用于训练科学基础模型。这意味着获得许可的美国本土企业,可能首次获得海量高质量科学数据用于模型训练,解决了AI4S高质量数据匮乏的最大痛点。

若期待2026年AI4S实现大规模商业落地、具备清晰的ROI(投资回报率)并全面替代现有研发模式,大概率还为时尚早。但如果将转折点定义为“部分领域研发周期出现数量级压缩、自动化实验与AI工作流成为头部机构标准配置、科研组织开始围绕AI agents重构分工”,那么2026年很可能正是这一转折开始显现的年份。

二、 突围:2026 AI产业的关键突破路径

1. 模应一体推动AI网络效应,智联网雏形初显

在过去的互联网发展叙事中,几乎都遵循“用户规模扩大—网络价值上升—粘性增强—形成壁垒”的路径,搜索、电商、社交、短视频等领域无一例外。但令人意外的是,自2022年大模型能力实现跃迁以来,尽管AI智能突飞猛进,类似移动互联网时代的网络效应却始终未能真正形成。ChatGPT的周活用户已接近10亿,但用户增多并未让模型自动变强,且用户间连接关系薄弱,未形成类似电商的供需双边网络或社交网络那样的壁垒。这构成了AI时代的核心难题:AI能力已足够强大,但平台效应极弱,梅特卡夫定律在大模型领域尚未见效。

在“裸模型”阶段,大模型本身并不具备孕育网络效应的天然条件。传统互联网产品之所以能形成网络效应,本质上依赖于“使用行为本身就是反馈和优化信号”;而大模型则完全不同,绝大多数用户与模型的交互是一次性、私有的,既无法直接回流用于训练,也难以在不同用户间复用。即便可收集部分数据,也需面对隐私、版权、分布偏移与对齐风险等复杂问题。更深层的原因在于,大模型当前创造的价值,主要源于对个体能力的提升,而非用户间的关系密度——它解决的是“帮人做好一件事”,而非“让用户通过系统产生新的协作、交易或社会连接”。在这种结构下,AI只是生产力工具,而非平台。

正是在这一背景下,“模型与应用一体化”(模应一体)成为破局关键。当模型开始拥有稳定身份、长期记忆,并持续参与用户的工作、决策与协作过程时,AI才首次具备成为平台的能力。这种延伸正朝着两个方向展开:

一是模型接入更多应用,更接近现有互联网平台形态,本质是“+AI”的功能延伸。例如,GPT最新推出的智能购物功能,通过询问用户需求与喜好,结合历史对话嵌入商品推荐和电商导流(目前仍处于研究型购物体验阶段,尚无法满足“逛”的需求);GPT推出的群聊功能,希望团队在单一对话内持续积累知识沉淀,强化协作联系;Sora2在视频社交领域的尝试,虽后续留存数据不佳,但其推出的Cameo个人数字形象功能,允许用户创建数字分身并与好友共同出演视频,试图以此建立社交关系链和用户画像体系。

二是更具颠覆性的“AI+”智联网新形态。当前诸多大模型内置的Agent和开发平台,正是这一模式的雏形,但潜力远不止于此。当每个个人、团队乃至组织都拥有专属Agent,且这些Agent可彼此调用、分工协作时,网络的基本节点将不再仅限于人类,而是更多具备行动能力的智能体。随着使用规模扩大,Agent网络中可调用的能力、工具和经验不断丰富,单个Agent的实际效能也会同步提升。这种“用得越多,整体越强”的正反馈,可能成为AI时代最原生的网络效应。

未来的Agent网络效应将呈现多种形式:其一,交易型网络,即Agent协作的新双边市场。当用户的私人助理Agent接收到“预订去深圳的出差行程”指令时,不会引导用户下载携程App,而是直接在云端呼叫差旅平台的票务Agent、酒店的预订Agent及网约车的出行Agent。供给端接入该协议标准的服务型Agent越多,用户Agent能解决的问题就越复杂、越闭环,体验越好;需求端拥有私人Agent的用户基数越大,服务商就会开发更多服务型Agent接入网络,形成新的AI双边市场。其二,知识型网络。若一名资深工程师教会模型处理某类复杂问题并形成技能,该技能经脱敏处理后可发布在模型技能库中,地球另一端的工程师遇到同类问题时,模型能立即调用该技能。用户越多,模型处理的长尾场景越丰富,技能经验值就越高——这种由千万用户在真实场景中打磨的隐性知识库,会让大模型“越用越聪明”,并构建极高的数据和经验壁垒。其三,工作流型网络。复杂任务经反复执行后,会被拆解、模块化和标准化,最终形成成熟的AI工作流。这类流程被使用得越多,就会变得越可靠、高效,新用户的进入门槛也会降低。此时的网络效应不再体现为“人多热闹”,而是生产范式的持续进化;在此基础上,用户、专业Agent、工具、数据与知识源将共同构成由模型统一调度的复杂多边市场,AI不再局限于单次交易,而是实现全链条的系统性优化(如智能购物领域,AI可贯穿选品、比价、谈判、定制和供应链反馈,甚至反向影响供给结构)。其四,社交型网络。AI不再是群聊中被动被@的对象,而是成为社交网络的超级连接器。例如,在大型集团企业中,AI持续分析组织内的文档和项目进度,当员工A提出难题时,AI可主动介入:“虽然我不知道答案,但我检测到群里的B可能了解这个问题,建议你们沟通”,并可启动与B的Agent沟通,获取授权信息或直接对接B,扩大协作网络。

模应一体的真正意义,或许并非打造一个超级App,而是构建以模型为认知核心、以应用为关系容器、以Agent为基本节点的智能网络——这才是AI时代可能出现的新型平台。

2. 迈入个性化软件的新时代

当AI Coding(AI编程)逼近普适生产力之后,软件将不再是标准化的工业化产品,而是转向高度个性化、情境化、即时化的工具形态。

AI界大V安德烈·卡帕斯提出的“软件3.0时代”论断,揭示了软件开发自1940年软件1.0以来最深刻的范式转移。2025年3月,Anthropic首席执行官Dario Amodei表示,未来3-6个月内,AI将编写90%的代码,12个月内几乎所有代码都可能由AI编写。美团创始人王兴曾披露,美团内部已有52%的代码由AI生成,90%的工程师频繁使用AI工具,部分团队甚至依赖AI完成90%以上的代码编写。腾讯发布的《2025腾讯研发大数据报告》显示,腾讯月均新增代码3.25亿行,每月完成需求37万个,构建交付2520万次;超过90%的腾讯工程师使用AI编程助手CodeBuddy辅助编程,50%的新增代码由AI辅助生成。Anthropic的工程师和研究人员,也常使用Claude修复代码错误和熟悉代码库。

软件生产的核心瓶颈已从编码能力转移到问题定义能力,自然语言、示例、上下文描述正成为主要编程接口,甚至出现了“vibe coder”(氛围编程者)这一新称谓。软件不再是专业工程师的专属产物,而是可随需生成的表达介质,如同PPT、Excel、Notion页面一般。

编程供给侧的充裕,将彻底激活需求侧的长尾市场。由于构建软件应用的成本大幅降低,软件将具备千人千面的生成能力,真正实现“从人适应软件到软件适应人”的范式转移,个性化与情境化成为可能。这意味着,那些曾因市场规模过小而无法被商业软件覆盖的细碎需求,将迎来专属解决方案:普通人可根据个人购物习惯生成家庭物品管理工具,或定制每日特定信息汇总应用;备考学生可获得针对薄弱知识点的定制化互动复习系统;活动组织者可临时搭建讲座报名统计系统;装修业主能生成报价比对工具,瞬间拉齐5家公司不同格式的报价单并精准识别隐形差价;骨折康复者可制作体感小游戏,将枯燥的术后复健动作转化为操控飞船避障的趣味互动。

部分新生成的工具,因解决了大众共性的小需求,会自然被分享、复用,甚至形成小规模生态。例如Hugging Face Spaces上大量个人搭建的小应用、Chrome插件中越来越多“功能小而实用”的工具,均是这种“微软件”思想的体现——此前只因开发门槛过高,人们虽有需求却难以实现。

在Vibe Coding的推动下,我们正进入软件平权的新阶段。未来,编写软件将像写文章、发朋友圈一样简单自然,软件将成为人类表达思想、解决问题、感知世界的基本媒介。在这个新时代,核心竞争力不再是掌握复杂的语法或架构模式,而是对他人的共情能力、对问题的定义能力,乃至天马行空的想象力。

3. 行业落地从探索试错到性价比和ROI验证

过去两年,AI在各行业的落地经历了明显的阶段跃迁:从早期的概念验证(PoC)和零散试点,逐步进入核心业务流程与一线生产系统。与此同时,一个关键变化同步发生:企业和投资人对AI的关注点,正从“技术是否先进”迅速转向“是否真正创造可衡量的业务价值”,ROI与性价比已成为AI行业应用的第一性问题。

麦肯锡最新《2025年AI现状报告》揭示,更多企业开始使用AI,但真正的规模化部署仍较为稀少。至少在一个职能中常态化使用AI的企业比例,从去年的78%上升至88%;但在企业层面,多数机构仍停留在探索或试点阶段,尚未将AI深度嵌入工作流和业务流程,距离释放企业级价值仍有不小差距,AI改善整体利润的案例较少,AI高绩效企业仅占6%。调研还显示,在各职能中,智能体应用进入规模化阶段的受访者比例均未超过10%。

OpenAI近日发布的企业级AI现状报告,对近100家企业的9000名员工调研后发现:过去一年,ChatGPT Enterprise的每周消息量增加约8倍,员工人均消息发送量提升30%,组织平均推理token消耗量增长约320倍;75%的员工表示使用AI提升了工作速度或产出质量,平均每日节省40-60分钟,重度用户每周可节省超过10小时。这些数据虽展现了AI使用量的增长,却也反映出核心现实:未来需要更多有力数据,证明AI创造的经济效益。

背后的核心原因在于,企业早期部署AI时,其多以Copilot(副驾驶)形态存在,承担信息检索、文本生成、简单问答等边缘性任务。这类应用的特点是部署快、风险低,但对组织整体效率和成本结构的影响有限,难以形成清晰的价值闭环。当前正在发生的积极变化是,AI开始逐步深入行业流程的中后段。下一步,可验证的收益将体现在生产效率提升、客户响应速度加快、营销指标改善、研发生产力提高等方面;未来潜在的深度收益,则来自流程再造、智能体协同、个性化服务、预测决策与供应链智能化等领域。

由此,我们正告别以工时为单位的生产力时代,迈向以决策为单位的创造力时代。当AI应用进一步深入,未来的最小作战单元,可能是“拥有深厚行业Know-how的人类专家+十几个硅基数字员工”的组合,像微型公司一样独立交付结果。当“一个人+N个智能体”成为工作新常态,企业的管理逻辑、绩效考核甚至人才定义,都将面临前所未有的重构:管理对象从“人”转变为“人与机器共同构成的生产系统”,传统以工时、过程、层级为核心的管理逻辑将逐步失效,取而代之的是以结果交付、质量稳定性和风险控制为中心的新范式。

4. AI眼镜有望迎来千万台终端的临界点

在消费电子的历史长河中,1000万台从来不是简单的数字,而是划分“极客玩具”与“大众消费品”的命运分水岭。如今,这一焦点正落在AI眼镜上。随着Meta Ray-Ban等头部产品销量激增,权威机构预测2026年单品牌AI眼镜有望冲击1000万台出货量。值得期待的还有谷歌XR生态,包括三星Galaxy XR、中国XREAL的Project Aura等,将以“安卓+Gemini”的组合拳推进安卓XR生态进化。巴克莱研究分析师预测,AI智能眼镜产业将在不久的将来带来颠覆性变革,2035年销量有望达到6000万副;雷朋眼镜制造商依视路公司也表示,将提前实施年产能1000万件可穿戴设备的生产计划,以满足超出预期的强劲需求。这不仅意味着硬件形态的成熟,更预示着继PC、手机之后,第三次计算平台迁徙有望到来——从“指尖互联”走向“感官互联”。

硬件做减法是这一波AI眼镜成功的关键。过去的AR/VR眼镜陷入“必须有完美屏幕”的误区,导致产品重达数百克、续航仅1-2小时,无法实现全天佩戴。Meta的成功在于精准捕捉当前的市场甜蜜点:放弃高成本的显示模组,将重量控制在接近普通眼镜的50g以内,并结合大模型的多模态能力,让眼镜首先成为合格的穿戴设备和拍照摄像设备,其次才是计算设备。这种“无屏胜有屏”的策略,大幅降低了制造难度和用户购买门槛。

当AI眼镜成为新入口,软件生态将迎来翻天覆地的变化。手机时代的操作逻辑以“应用为中心”,而眼镜时代将转变为以“意图为中心”——用户只需发出指令(如“帮我叫车回家”),眼镜背后的Agent将自动调用底层网约车服务接口完成服务。这意味着,图形用户界面(GUI)将退居二线,自然语言交互和多模态感知将成为主导。“技能商店”可能取代传统应用商店,未来开发者不再需要开发独立App,而是开发一个个技能插件(Skill):例如星巴克无需开发眼镜版App,只需提供点单Skill给通用AI助理调用即可。

AI眼镜的摄像头将产生海量前所未有的数据,用户“看到什么”“关注什么”都能被数字化。这些数据一方面可为机器人和空间智能研发提供海量第一视角训练数据;另一方面,可能催生全新的推荐算法和广告模式(如用户盯着餐厅招牌超过3秒,眼镜便显示大众点评评分标签)。当然,AI眼镜领域的个人隐私保护、数据脱敏,以及相关法律和伦理规范约束,将变得更为重要。

或许借助AI眼镜,我们能告别低头族,将强大的AI算力通过一副轻便的眼镜“戴在身上”。这不仅是硬件形态的革命,更可能是人类生活方式的回归——让科技退居背景,人们重新抬起头关注真实世界,同时拥有更强的感知能力与智能加持。

5. AI安全和负责任成为模型研发和应用必选项

AI能力的提升与AGI目标的日益逼近,让安全问题成为各界关注的焦点——从极端的“AI毁灭人类”担忧,到日常应用中的伦理与价值导向问题,全社会对AI安全的关注度持续上升。墨尔本大学与毕马威联合发布的《人工智能信任度、态度与应用:2025全球研究报告》显示,对47个国家48000人的调研发现:尽管66%的受访者经常使用AI,但超半数(58%)仍认为其不可信赖。相较于2022年ChatGPT发布前在17国开展的同类研究,如今AI普及率显著提升,但公众信任度反而下降,忧虑情绪同步上升。

在此背景下,AI安全技术研发与相关规则建立愈发重要,两个关键词或将勾勒出2026年的重点方向:安全算力与AI治理委员会。

安全算力方面,AI安全相关技术已成为业界热点,预计将有超过10%的算力投入安全领域——这里的“安全”主要涵盖安全评估、对齐实验、红队测试等,与用于纯能力提升的预训练、微调和后训练强化学习等明确区分。两年前,OpenAI曾宣布成立Superalignment团队,计划四年内将20%的算力用于超级智能对齐研究,但山姆·奥特曼未能信守承诺,这也是伊利亚出走的重要原因之一。而伊利亚创办的SSI,核心正是聚焦超人工智能安全研究,两年内已融资30亿美元,估值达320亿美元。不少安全研究者主张,随着AI能力增长,应长期维持恒定且足够高的算力份额投入安全研究、监测与风险缓解,而非“能力上去后再补安全”。美国与欧盟的法规提案,已将高风险模型的系统性测试、评估和监控纳入强制义务,这意味着安全算力将成为刚性成本。此外,随着模型逐步具备长程任务能力,安全评估不再是“跑几个benchmark”,而是需要运行多步agent任务、模拟长期行为等,对算力的需求将呈指数级增长。

AI治理委员会方面,越来越多企业将建立类似AI安全和伦理委员会的机构。这类机构不再是单纯的研究或对外宣传沟通组织,而是深度嵌入从基础大模型到AI产品研发的全流程。诸多大型企业已建立相对完整的安全机制:例如Google DeepMind内部设有专门的Responsibility&Safety团队,参与从模型训练到评估部署的全过程,训练前设定能力边界,评估生物安全、网络攻击等危险能力,训练后开展系统性红队测试和安全评估,达标后方可上线至Gemini、AI搜索等产品;微软早在2017年就成立伦理委员会Aether Committee,涵盖安全、偏见、公平、可靠性、人机交互等领域,其结论被纳入Office、Copilot、Azure AI等微软工程体系的必选流程;Anthropic则建立长期利益信托(LTBT)机制,由5位财务中立成员构成独立机构,确保公司治理始终与“研发并维护先进AI系统,持久造福人类”的使命一致,并致力于推动宪法AI(Constitutional AI),将安全直接嵌入训练数据和奖励模型。

AI安全与负责任,已不再是附加于模型研发和应用之上的道德选项,而是正演变为与算力、算法、数据同等重要的基础性要素。一方面,公众信任度下降与忧虑情绪上升,正反向塑造技术路线和商业决策——缺乏可信安全机制的模型,将难以进入关键行业和主流市场;另一方面,监管框架的逐步成型,正将安全评估、对齐实验和持续监控从“最佳实践”转化为“准入门槛”。在此背景下,安全算力与AI治理委员会并非应对舆论或监管的短期权宜之计,而是大模型时代的长期制度安排。

*特别致谢腾讯研究院产业研究中心多位同学的讨论和启发

作者:杏耀注册登录测速平台




现在致电 8888910 OR 查看更多联系方式 →

COPYRIGHT © 杏耀注册登录测速平台 版权所有