■ 龚梦泽

  随着消费者对于快速充电的需求不断增长,6C超快充技术(即6倍率充电,可在10分钟内完成80%电量补充)正成为新能源汽车产业的核心竞争点。液冷超快充速度、充电桩密度、电网容量构成的“新三角”将会改写新能源汽车的竞争规则,也将重构整个充电能源产业的商业逻辑。

  在材料科学领域,硅碳负极与固态电解质的突破正在化解负极析锂风险,解决快充导致的电池寿命衰减问题;在系统集成层面,全液冷技术通过智能温控将设备寿命延长至10年,运维成本直降40%;在电网侧,光储充一体化电站通过匹配兆瓦级功率和储能系统,有效避免了区域性电力过载。

  具体到C端产品,以华为液冷超充架构为代表的技术突破,将充电峰值功率提升至600千瓦,充电桩散热效率提升50%。与此同时,宁德时代(245.600, -3.54, -1.42%)、特斯拉等头部企业也相继推出适配6C倍率的磷酸铁锂电池和三元锂电池。

  但技术成型并不意味着能够规模化商用。现阶段,虽然有车企在模仿特斯拉的自营超充网络闭环模式,但更多车企还在自营自建与开放共享的战略抉择中摇摆不定,这直接拖慢了充电网络的覆盖速度。

  对于充电运营商来说,单座超充站建设成本高达200万元,是普通快充站的5倍,加之受限于搭载6C超快充技术车辆的渗透率和用户使用频次,投资回报周期可能长达5年至8年。

  好消息是,随着光储充一体化电站的兴起,光伏板、储能电池、超充桩有望组成自给自足的微电网,既能够有效平抑瞬时功率负荷,又能创造出峰谷电价套利空间,就此也会引发更深层次的商业模式变革。

  以深圳试点的V2G(车网互动)项目为例,电动车在夜间低价储电,白天高峰时段向电网返售电力,使得充电站得以增收。这种转换,让充电桩由成本中心转为利润中心。而车企与电网公司共建电力交易平台的探索,更预示着超充站未来可能成为分布式能源交易的关键节点。

  笔者认为,技术革命从来不只是实验室里的突破,而是产业的全面协同。当技术突破与模式创新交汇时,真正的较量转向生态构建能力。我们看到,特斯拉用超充网络绑定用户的策略已见成效;蔚来“换电+超充”的双线布局,则试图覆盖不同场景需求;华为通过大功率液冷超充技术,在促进电动汽车普及和充电基础设施建设方面扮演重要角色。这些实践都在印证一个趋势——单一技术优势已不足以制胜,谁能搭建起“车—桩—网—储”的协同网络,谁就能掌握下一阶段充换电产业的话语权。

 

  对于充换电行业的关键变量也要有清晰认识。一是氢能源补能体系的技术突破可能重塑赛道规则;二是因过度追求充电速度导致的安全事故不仅会动摇投资方的信心,也会严重打击消费者的尝试积极性。速度竞赛固然激动人心,但只有敬畏技术、注重生态的玩家,才能穿越产业周期,助推充换电和新能源汽车产业进入高质量发展的新阶段。

  中国资产吸引力渐升,科技制造投资逻辑焕然一新。长期而言,中国前沿技术的关键突破有望重塑全球科技格局,以DeepSeek成功“出圈”为中国科技创新力量的缩影,国内投资者信心迎来重振,产业向高附加值加速转型。短期来看,恒生科技与纳指估值趋于收敛,全球资金因AI催化与美经济走弱,青睐高性价比的中国科技资产。投资逻辑从短期主题转向中长期产业深耕,科技研发从“负估值”成本转为“正估值”资产,继而引发系统性重估。DeepSeek以卓越性能、低成本和开源生态引领国内科技突破,改变全球对中国科技的预期。产业端,各行业加速AI与传统产业基础结合,解决实际问题并创造经济价值。市场端,科技制造板块春季尽显进攻性,推动资产价值重估。政策端,鼓励央国企科技制造并购,推动产业高质量发展。着眼未来,在新旧动能转换期,应把握中长期投资机遇,聚焦AI+、智能驾驶、人形机器人(20.000, 0.05, 0.25%)、低空经济、商业航天、生物制造、未来能源、半导体先进制程等科技制造领域。

  ▍中国资产吸引力提升,科技制造投资逻辑重塑。

  在外部科技封锁的严峻挑战下,中国前沿技术取得一系列关键突破,正重塑全球科技发展格局。DeepSeek成功“出圈”不仅极大提升了国内投资者的中长期风险偏好,更是对中国产业向高附加值转型升级的有力背书。伴随AI叙事持续催化叠加美国经济走弱,全球资金配置倾向正发生显著变化。中国科技资产凭借其高性价比、业绩预期上修潜力以及坚实的安全边际正成为全球资金青睐的新方向。随着AI等新技术成熟和新商业模式清晰,众多新兴产业迎来从导入期向成长期的关键跨越,推动中国科技投资逻辑从短期主题驱动向中长期产业深耕转型。在此过程中,科技研发支出也从以往的被视为“负估值”的成本项,转变为驱动增长的“正估值”资产。科技创新不仅将重构传统产业的底层运作逻辑,更有望引发组织形态、价值网络乃至社会契约的系统性变革,创造全新的产业发展机遇。

  ▍DeepSeek引领国内科技突破,推动市场风格及情绪积极转变。

  DeepSeek以优异的性能、显著下降的成本、开源生态引发“蝴蝶效应”,成为全球最热门的AI大模型,以一己之力,改变“美国AI断崖式领先”的预期,引发中国AI资产价值重估。我们认为,当前仍处于AI时代早期,以及中国科技资产重估的开端,DeepSeek将带来巨大产业影响:各行业纷纷加速垂类AI 应用探索,带来训练算力需求“脉冲式”增长,推理算力需求、大企业大模型本地部署需求亦高速成长。展望未来,预计美国仍将持续拉高AI的技术上限,中国更大的机遇在于将AI技术与传统产业基础结合,解决实际问题并创造经济价值。当前正值春季躁动窗口,科技板块以其卓越的高成长性与创新性,尽显极致进攻性。这种市场情绪与风格的转变,有望成为推动科技板块及中国底层资产价格重估的强劲动力,引领中国资产在科技制造领域开启价值重估的全新篇章。

  ▍政策赋能央国企科技并购,助力市值管理与科技强国。

  2024年以来,我国并购重组政策持续加码,各级政府纷纷加大支持力度,推动资本市场高质量发展。政策积极鼓励+产业高质量发展背景下,并购重组是满足当下政府、一级市场与二级市场利益的“最大公约数”。央国企凭借资源整合和资金优势积极参与并购重组,推动科技创新和产业升级。实证数据显示,并购重组对科技类央企市值提升具有显著正面效应,未来在政策支持和市场需求的驱动下,A股市场有望迎来新一轮并购潮,进一步推动科技强国战略的实施。

  ▍新质生产力发展提速,着眼中长期产业投资。

  我国正处于新旧动能转换期,产业升级换挡需求强烈,更应着眼于中长期维度的新兴产业突破。AI等新技术成熟和新商业模式清晰催化下,传统产业整合和新质生产力发展双双提速。结合当下国内外科技重点发展领域及我国国情,我们认为值得重点投资及关注的科技制造方向为:

  ①AI+:模型推理和成本不断优化,算力、应用及端侧发展趋势明朗;

  ②智能驾驶:预计2025年NOA加速渗透,比亚迪(396.410, 11.84, 3.08%)引领的智驾平权浪潮仍在继续;

  ③人形机器人:国内外共振的技术突破有望在2025年迎来产业奇点;

  ④低空经济:2025年政策基建加速落地,车链入局打造商业闭环;

  ⑤商业航天:2025卫星发射进入爆发期,中美星座建设竞速升级;

  ⑥生物制造:新质生产力重要一极,预计2025年迎来政策催化;

  ⑦未来能源:多种技术路径持续落地,有望多点开花;

  ⑧半导体先进制程:外部限制倒逼国内厂商积极扩产,自主可控及国产替代逻辑持续强化。

  ▍风险因素:

 

  宏观经济复苏不及预期风险;地缘政治摩擦加剧;产业政策不及预期;各行业内竞争加剧;中美冲突进一步激化;AI等核心技术发展不及预期风险;科技领域政策监管持续收紧风险;宏观经济波动导致企业IT支出不及预期风险;产业安全事故风险;企业AI应用进展不及预期等;国产替代进程不及预期;先进制程技术发展不及预期。

  DeepSeek同时考虑算法精度和系统效率。除了极致的底层优化,协同优化也可能让大模型在利用国产算力时达到甚至超越英伟达GPU的性能。从最顶层的产品应用到底层的基础设施,大模型的每一个层级都已经形成了非常好的生态,每一个层级上都存在着优化空间。

  ·未来推理算力或将有2-3个数量级的提升。训练算力需求仍会有所增长,总体来看,算力需求会激增,成本会更高,但算力成本还有巨大压缩空间,单位算力成本将下降,效率得到提升。

  “原来大家觉得训练模型只需要招一批算法工程师,再融一大笔钱,买一大批卡,这事就能干了。但现在不是了,现在还需要招一批懂系统的人,这是AI行业的一个很大变化。”上海交通大学长聘教轨副教授、无问芯穹首席科学家戴国浩日前在接受澎湃科技采访时表示,DeepSeek使用的训练服务算力并没有随模型尺寸等比例成倍增加,而是通过底层优化释放底层硬件性能、软硬件协同创新“压榨”算力,大模型“炼制”开始追求极致性价比。

  利用2048张H800 GPU,预估不到两个月时间训练DeepSeek V3。H800每小时每卡2美元租赁成本,训练成本550万美元左右,其中不包括前期探索模型架构、消融实验等开销。戴国浩表示,DeepSeek打响生态闭环第一枪,对国产算力优化提出更清晰的路径。总体来看,算力需求会激增,推理算力或将有2-3个数量级的提升,算力成本会更高,但算力成本还有巨大压缩空间,单位算力成本将下降,效率得到提升。

  上海交通大学长聘教轨副教授、无问芯穹首席科学家戴国浩。

  底层优化释放底层硬件性能

  拆解DeepSeek的技术报告,相对于模型架构、预训练方法和后训练方法,DeepSeek着重介绍系统架构。相比之下,国外开源模型的公开技术报告中对于系统架构的介绍篇幅较少。

  戴国浩表示,DeepSeek的极致性价比来自于两大类优化,一是了解硬件细节,实现极致的底层优化;二是打通软件硬件,实现联合协同优化。前者基于确定性的算法模型及底层硬件,开展通信优化、内存优化,这些优化不改变任何程序执行结果。后者如混合精度的量化、对底层硬件的修改,扩大系统的优化空间。

  例如在通信优化上,DeepSeek采用双向流水线机制,让计算和通信将近100%重叠,实现更大的专家并行,使得模型能够像流水线一样“边算边传”,这被认为是使用有限资源训练更大模型的有效手段。在底层优化上,PTX的优化使得系统和模型可以更好地释放底层硬件性能,这也是DeepSeek能够更精细控制底层硬件、实现“边算边传”的重要原因。

  训练一个大模型,首先要有GPU。但开发者并不需要关注底层硬件的模样,只需要通过Python等高层次语言或英伟达CUDA等硬件接口进行编程,最终调用底层的GPU。而能够直接和底层硬件发生交互的PTX一般被隐藏在CUDA的驱动中,PTX是比CUDA更底层的硬件接口编程语言。越接近底层的语言对硬件的利用效率越高,在同样硬件能力下实现更精细的通信任务管理,将最费时的跨界点通信效率提升60%,跑出效果更好的模型。

  PTX编程并非行业机密,但此前几乎所有大模型算法工程师不会接触到这一层语言。因此,如果能够编程和调用PTX,就可以更好地调用底层硬件。不过,戴国浩解释,这并不意味着绕过了英伟达CUDA的垄断。从编程范式来看,DeepSeek在某些代码上绕过了CUDA的编程,但并未完全绕开CUDA生态。

  软硬件协同创新“压榨”算力

  “从最顶层的产品应用到底层的基础设施,大模型的每一个层级都已经形成了非常好的生态,每一个层级上都存在着优化空间。”戴国浩表示,除了极致的底层优化,协同优化也可能让大模型在利用国产算力时达到甚至超越英伟达GPU的性能。“原来的算法架构只考虑算法精度,大家觉得只要算法足够好就行了,但DeepSeek同时考虑算法精度和系统效率。”

  例如英伟达H800集成了FP8计算单元,戴国浩表示,使用更低精度训练,理论上可带来2倍的计算加速和50%的显存降低。但由于低精度训练极易损失模型效果,以及大模型高昂的试错成本,开源社区中尚无项目实现大规模FP8预训练落地。而DeepSeek实现了FP8低比特训练出高质量模型,坚定“榨干”硬件所有潜力。

  DeepSeek采用MLA(隐空间注意力计算机制)架构和MoE(混合专家模型)架构,MLA架构可进一步降低推理消耗的内存。在模型训练过程中,MoE架构采用1个共享专家和256个路由专家,每个token激活8个路由专家。

  据介绍,MoE架构训练超大模型,最大的挑战是负载均衡。DeepSeek引入一个专家偏见(expert bias),保证专家负载均衡,提升集群效率。专家偏见只影响专家路由,不产生任何梯度影响。专家偏见动态调整,如果某个专家过载,就会降低偏见,如果某个专家负载不足,就会增加偏见。DeepSeek采用MoE架构,又在算法和软件层面解决了MoE本身由于专家并行带来的通信开销问题,充分挖掘了算法、软件、硬件协同创新。

  打响国产AI生态闭环第一枪

  “无论是底层优化,还是协同优化,必须要对底层硬件和系统有非常深刻的理解,既要懂算法,又要懂硬件。”戴国浩表示,以PTX编程为例,这需要开发者清晰了解英伟达的硬件是如何制造的,因此门槛高,大模型公司少有对PTX编程。业内拥有系统优化能力的团队懂PTX编程,但模型训练本身投入大,难以持续优化。

  DeepSeek打响了第一枪,对国产算力优化提出了更清晰的路径。降低算力成本是国内发展大模型的核心之一。软硬件协同路径包含模型、系统、芯片等关键因素,在国外,这三者已经形成了完备的闭环生态。戴国浩表示,在以往的认知中,使用国外的芯片预训练、使用国外的模型做微调,得到的模型跟国外的闭源或开源模型相比总存在一定差距,国内的系统、芯片也难以形成闭环生态。但DeepSeek的出现使得国内的模型超越了国外的模型,软硬件协同降低了算力成本,这套方法论可以打破现在的闭环生态瓶颈。

  戴国浩说,DeepSeek在论文中单独用2页文字提出对于未来硬件设计的发展建议,进一步佐证了模型、系统、硬件的闭环路线。国外的闭环AI生态始终是一个同构的AI系统,其核心竞争力就在于CUDA-X的垂直整合能力。因此,他认为,未来国内AI发展要通过调动跨越软硬件和上下游生态,加大模型、芯片、系统协同优化和垂直打通,例如根据新一代模型架构来定义未来芯片的底层电路实现、根据国产AI系统的互联通信方式设计高效的混合专家模型架构。

  “如何将国内的模型、系统和芯片形成自主可控的闭环,这是未来一定会发生的事。”戴国浩表示,DeepSeek的崛起对国产算力的发展是好消息。未来推理算力或将有2-3个数量级的提升。训练算力需求仍会有所增长。总体来看,算力需求会激增,成本会更高,但算力成本还有巨大压缩空间,单位算力成本将下降,效率得到提升。

 

  戴国浩判断,未来大模型的发展趋势,一是继续国产化,二是极致的软硬件协同优化带来成本下降,提升模型训练和应用的极致性价比。性价比越高,算力需求量就越大,算力越吃紧。当前中国算力生态存在供不应求和供过于求的双重矛盾,中国特有的AI基础设施格局是多模型和多芯片,存在大量异构算力,需要把他们变得能用、好用,在使用闭环中形成硬件和算法的正向循环。戴国浩表示,要通过软硬协同和多元异构压榨算力,降低获取强大基座模型的成本,解决算力缺口,以有限算力实现国产模型能力赶超。

  人工智能正在汽车行业掀起一场意义深远的技术革命,从安全功能到生产线,AI技术正在重构整个汽车产业图谱。

  2025年春节过后,凭借高性能、低成本、开源共享等优势横空出世的DeepSeek,搅动着整个汽车行业,截至目前,吉利、岚图、极氪、东风、智己、长城、奇瑞等20余家车企先后宣布与DeepSeek大模型深度融合,提升汽车产品智能座舱语言交互能力。

  但其实,AI的强大技术能力并不局限于智能座舱,还在智能驾驶进化、生产流程优化、供应链优化管理等多方面发挥作用,但同时,也会带来数据隐私、算法偏见、人机权责界定等新问题。

  智能驾驶的进化之路

  AI提速 描绘汽车产业的进化图景

  虚拟测试领域,AI正在构建超越传统安全标准的仿真系统。全球供应商Elektrobit战略产品管理高级总监Moritz Neukirchner指出:生成式AI不仅能打造个性化体验,更在加速开发流程,强化学习技术对ADAS(高级驾驶辅助系统)和自动驾驶的进化尤为关键。

  生成式AI与强化学习的应用已进入产业化阶段。英伟达仿真软件DRIVE Sim,生成的数据用于训练构成自动驾驶汽车感知系统的深度神经网络。其与奔驰联合开发“数字孪生慕尼黑”项目,1:1还原含动态天气与光照变化的城市道路特征,还支持生成中国特有交通场景,将ADAS系统验证周期从18个月压缩至6个月。

  作为融合生成式AI的自动驾驶云服务供应商,华为为赛力斯构建“极端天气数字实验室”,模拟冻雨、团雾等气象条件,生成复杂交通参与者行为模型,包括“中国式过马路”群体运动预测等,将算法迭代速度提升400%,每日虚拟测试里程达500万公里。

  目前,AI正在突破MIL(模型在环)到DIL(驾驶员在环)的全链条验证瓶颈。麦肯锡报告指出,到2026年,虚拟测试将承担90%的自动驾驶验证工作量,推动产品上市周期缩短至传统模式的1/3。这种“数字优先”的研发范式,正在重构汽车安全技术的创新边界。

  同时,AI推动车辆电子架构的集中化转型,为软件定义汽车时代构建安全可靠的技术基座。电子架构集中化不仅是硬件迭代,更是验证方法的革命。通过数字孪生、AI仿真和云原生测试平台的结合,助力车企突破“新旧系统共生”的行业难题。

  制造革命的隐形推手

  真实的物理世界中,AI正在重塑汽车制造的每个环节。长安汽车利用5G+AI视觉重构总装工艺,通过双目摄像机与AI视觉检测技术,实现玻璃底涂、涂胶、装配全流程自动化,机器人定位精度可达±0.1mm,装配节拍缩短30%,同时消除人工操作导致的密封胶不均匀问题;另外,构建在线AI质量监控网络,部署73个AI视觉检测工位,覆盖热成像模具温度监控、螺栓拧紧力矩检测等25类场景,通过实时数据采集(100万点位/秒)与深度学习算法,质量缺陷检出率提升至99.97%。

  工信部2025年智能制造白皮书显示,采用AI优化装配流程的车企,单车型制造成本平均降低18%,新产品导入周期缩短至传统模式的1/3。AI技术从工艺精准化、决策智能化和系统柔性化三个方向推动汽车装配领域的变革。

  智能供应链的升级实践方面,AI技术也在发挥作用。东风汽车建立整车物流智能管理系统,通过条形码实现车辆从生产入库到终端交付的全流程管理。利用AI算法自动生成库位建议,确保同车型同颜色集中存放,空间利用率提升至95%,出库时避免倒车操作,提升40%的出库效率,最终实现存储空间利用率提升80%,整体仓储成本削减18%。东风汽车的技术路径已被纳入《中国汽车智能制造白皮书》推荐方案。

  暗流涌动的技术深水区

  AI提速 描绘汽车产业的进化图景

  尽管AI正在推动汽车行业的各种变革,但AI 集成并非“万能药”。广泛的数据收集对隐私和安全构成了巨大风险,有数据表明,联网汽车每小时产生25GB数据,其中70%涉及用户隐私,欧盟最新法规要求车载数据处理必须满足“隐私设计”原则,这对传统车企的数据架构提出严峻挑战。

 

  此外,算法偏见可能会扭曲安全结果,使某些人群容易受到攻击,对AI的应用也引发了自动驾驶车辆人机权责界定问题。当AI助力汽车从交通工具进化为智能终端,行业不仅需要创新AI技术应用,还要攻克应用技术壁垒,以及构建价值对齐的创新生态。

  OpenAI为期12天的年终“技术盛宴”已结束第二天的直播。从当地时间12月5日发布的“满血版”o1模型和最贵ChatGPT Pro服务,到6日发布的强化微调(Reinforcement Fine-Tuning),无不证明AI世界又将迎来一次全新的产品升级和迭代。

  在AI的狂欢中,其他科技公司也不甘示弱。有着“AI教母”之称的李飞飞创立的World Labs以及谷歌DeepMind团队本周先后发布重磅产品,让用户可以通过单张图片生成交互式3D场景,展示了AI在虚拟世界构建领域的巨大潜力。

  Meta和马斯克的xAI也来凑了个热闹。Meta推出了今年的压轴AI大模型:Llama 3.3 70B,该模型据称能实现和Meta最大Llama 模型——Llama 3.1 405B同样的性能,成本还更低。xAI宣布Grok从今天起全球免费,但有使用限制。免费用户每2小时可以询问最多10个问题,每天最多可分析3张图片和生成4张图片。

  随着各路玩家在AI领域竞赛的深入,AI的竞争焦点也转向了智能体和通用人工智能(AGI)。

  据外媒6日的最新报道,OpenAI正在与微软磋商放弃AGI条款,以释放投资潜力。目前,最终决定尚未做出,OpenAI董事会将决定何时实现AGI。

  清华大学电子工程系长聘教授、清华大学精准医学研究院临床大数据中心共同主任吴及告诉《每日经济新闻》记者,“基于多个大模型的AI智能体或多个智能体的协同,可能是未来AI技术发挥更大作用的一个重要趋势。”

  当地时间12月5日,OpenAI为期12天的圣诞季特别活动开启。

  在第一天的活动上,OpenAI发布了推理大模型o1的“满血版”和进阶模式,以及每月收费高达200美元(约合人民币1450元)的ChatGPT Pro订阅服务。

  “满血版”o1的特征是,在回答用户提问时不是“脱口而出”,而是形成一个类似人类思维方式的内部思维链条。该模型已面向ChatGPT Plus和团队用户开放,企业和教育用户则需要等到下周。

  “满血版”o1比9月发布的预览版更快、更强大、更准确,同时增加了多模态输入(可以上传图片)的能力。OpenAI表示,现在的o1模型“思维已经被训练得更加简洁”(大概快50%),而且在回答困难现实问题时,出现重大错误的概率减少了34%。

  图片来源:X同时发布的ChatGPT Pro服务也引发了外界的广泛关注,每月200美元的订阅费是目前ChatGPT Plus定价的10倍。不过,用户可以无限量地使用o1模型(Plus用户当前有每周50条信息的限制),以及无限量使用o1 mini和高级语音模式,同时也能用上o1 pro模式,该模式“使用更多的计算来为最难的问题提供最佳答案”。

  次日,OpenAI打出活动“第二弹”,推出了强化微调(Reinforcement Fine-Tuning)。阿尔特(13.380, -0.51, -3.67%)曼表示:“强化微调,效果出奇地好;它是我2024年最大的惊喜之一。”

  图片来源:X平台强化微调与标准微调不同,利用强化学习算法,研究者可以强化产生正确答案的思路,抑制产生错误答案的思路,只需要“几十个例子”(a few dozen examples)、甚至12个例子,模型就能以有效的新方式学习特定领域的推理,提升模型在特定领域任务中的推理能力和准确性。

  据介绍,它甚至可以让简易版推理模型o1 mini的效果超过前一天刚发布的“满血版”o1。OpenAI预计将于2025年初公开发布强化微调功能。

  除了OpenAI的首批年末“王炸”外,本周还有诸多AI相关的重磅产品出炉。

  作为AI领域影响力最大的女性和华人之一,斯坦福大学教授李飞飞于当地时间12月2日公布了其首个创业项目World Labs的成果——能用单张静态图片生成3D世界的AI产品。

  在World Labs网站的演示里,由AI生成的场景均通过浏览器实时渲染而成,用户可以使用箭头键或键盘(WASD)键移动,然后单击并拖动鼠标实现交互,从而自由探索场景。World Labs的AI工具配备了可操控的滑块来调节模拟景深(DoF)与模拟推拉变焦(dolly zoom),当使用者将景深效果调至越强时,背景中的物体便会越发模糊,为整个视觉体验增添了更多层次感与真实感。

  图片来源:World Labs推特截图但World Labs目前只向公众发布了关于该技术的博客,外界能够体验的功能极为有限,而且并未放出任何代码和模型。

  在单图生成3D世界领域探索的还有谷歌。北京时间12月5日凌晨,谷歌DeepMind在官网发布了大型基础世界模型Genie 2,可通过单张图片和文字描述生成种类多样的游戏3D世界,标志着AI在虚拟世界生成领域的又一次突破。

  图片来源:谷歌Deepmind官网截图简单来说,给Genie 2一张图片,它可以生成供人类游玩、可实时渲染、可控和可交互的无限3D世界,不需要借助任何游戏引擎。例如,输入“森林中的可爱人形机器人(22.460, 0.03, 0.13%)”,模型便可构建一个包含机器人角色和可探索环境的动态场景。用户可以通过键盘或鼠标操作角色在世界中进行跳跃、游泳等互动。

  和Genie 1相比,Genie 2拥有长期记忆,即使是角色短暂离开画面,在重新进入视野后,依旧能被精准还原出来。

  清华大学电子工程系长聘教授、清华大学精准医学研究院临床大数据中心共同主任吴及在接受《每日经济新闻》记者采访时表示,“从学术研究的角度来看,能否将文本意义上的世界模型与物理意义上的世界模型关联起来,把真正的物理世界进行建模,是AI技术能否取得突破的关键。”

  World Labs和谷歌之后,Meta也来凑了个热闹,于当地时间12月6日推出了今年的压轴AI大模型:Llama 3.3 70B。Meta 生成式AI副总裁 Ahmad Al-Dahle在X发帖表示,纯文本的 Llama 3.3能实现和Meta最大Llama模型——Llama 3.1 405B同样的性能,成本还更低。

  Al-Dahle还附上了一张图表,显示包括针对大模型语言理解能力的测试MMLU在内,Llama 3.3在一系列行业基准测试中表现优于谷歌的Gemini 1.5 Pro、OpenAI 的 GPT-4o和亚马逊本周稍早发布的Nova Pro。

  图片来源:X随着大模型竞赛的深入,AI的风又更多地吹向了智能体和通用人工智能(AGI)。

  吴及告诉每经记者,目前,尽管单个大模型在某些方面表现出色,但也存在诸多不足,例如幻觉和遗忘效应等问题。他强调,“基于多个大模型的AI智能体或多个智能体的协同,可能是未来AI技术发挥更大作用的一个重要趋势。”

  吴及认为,智能体融合将成为AI应用解决特定场景问题的一个重要技术前景或发展方向。

  在《纽约时报》于当地时间12月4日举办的DealBook峰会上,阿尔特曼表示,“智能体是现在每个人都在谈论的话题,我认为这背后是有充分理由的。设想一下,你可以让AI系统完成一项相当复杂的任务,比如需要一位非常聪明的人,花费一段时间,借助各种工具来完成并产出有价值成果的任务。我预计,这样的场景将在明年成为现实。”

  他同时指出,AI行业即将迎来的发展将比预期更具冲击力。他将AI的影响力比作晶体管的发明,认为AI的推理功能未来将走向普及化和商业化。“到2025年,我们可能会首次见到具备AGI能力的系统。这类系统可以像人类一样完成复杂任务,甚至能运用多种工具来解决问题,”他说。

 

  据外媒12月6日最新报道,OpenAI正在与微软磋商放弃AGI条款,以释放投资潜力。根据目前的条款,当OpenAI创建AGI时,微软对这种技术的使用权将失效。目前,最终决定尚未做出,OpenAI董事会将决定何时实现AGI。