首页 > 新房生活 > 新房生活 > 阿联酋开源“最快推理模型”,撞名Kimi,基于阿里Qwen,用上全球最大芯片

阿联酋开源“最快推理模型”,撞名Kimi,基于阿里Qwen,用上全球最大芯片

发布时间:2025-09-13 19:00:33

9月10日消息,今日上午,阿布扎比穆罕默德·本·扎耶德人工智能大学(MBZUAI)联合AI创企G42推出的新低成本推理模型K2 Think,相关论文已arXiv预印本平台发表,昨天下午模型在Hugging Face、GitHub上开源。

K2 Think有320亿个参数,基于阿里巴巴的开源模型Qwen 2.5构建性能超过参数规模是其20倍的OpenAI和DeepSeek旗舰推理模型

复杂数学任务基准测试中,研究人员计算了K2 Think在AIME24、AIME25、HMMT25和OMNI-Math-HARD中的平均得分,超过GPT-OSS、DeepSeek V3.1、Qwen3 235B-A22B等一众开源模型

技术报告中,研究人员提到K2 Think背后有六大技术创新协同,研究人员通过监督微调扩展基础模型的思维链能力,然后通过可验证奖励强化学习(RLVR)增强推理性能、利用推理时间技术增强模型,最后在部署K2-Think时进行两项速度优化,包括推测解码Cerebras的晶圆级芯片,同时使用公开可用的开源数据集训练。

值得一提的是,研究人员将K2-Think部署在Cerebras晶圆级芯片WSE系统,WSE每秒可交付约2000个token,相比在NVIDIA H100/H200 GPU等常规部署环境中观测到的标称每秒200个token,性能提升了10倍

K2-Think背后有两大强力推手:一方是穆罕默德・本・扎耶德人工智能大学(MBZUAI),这是阿拉伯联合酋长国专门设立、聚焦AI研究的机构;另一方是阿布扎比支持的科技集团G42,不仅在2024年拿到微软15亿美元投资,还在阿联酋建造OpenAI、软银等企业联合投资的AI基建 “星际之门”。

该模型的权重、训练数据、部署代码和测试时优化代码已经在Hugging Face、GitHub上开源。

Hugging Face地址:

GitHub地址:

K2 Think主页:

技术报告:

https://arxiv.org/abs/2509.07604

一、数学性能领先OpenAI、DeepSeek旗下开源模型,要为数学、科学提供特定用途服务

MBZUAI校长兼首席AI研究员Eric Xing在接受外媒WIRED采访时透露,K2 Think是使用数千个GPU开发的,最终的训练过程涉及200到300块芯片

K2 Think并非一个完整的大语言模型,是专门用于推理的模型,能够通过模拟推理方式来回答复杂问题,而不是快速综合信息来提供信息输出,Xing提到,他们在未来几个月将K2 Think整合到一个完整的大模型中。

复杂数学领域,K2 Think在AIME 2024、AIME 2025、HMMT 2025 和 Omni-MATH-HARD四个基准测试中的平均得分为67.99分,超过规模更大的DeepSeek V3.1 671B、GPT-OSS 120B模型。

编程能力上,K2-Think在开源代码能力基准LiveCodeBench上获得63.97分,超越了规模相近的同类模型GPT-OSS 20B、Qwen3-30B-A3B。

在用于评估大模型将复杂科学问题转化为可执行代码能力的SciCode基准测试中,K2-Think获得39.2分排名第二,与第一名的Qwen3 235BA22B仅有0.1分之差。

科学推理方面,模型在GPQA-Diamond基准测试中的表现为71.08,表现优于除OpenReasoning-Nemotron-32B、GPT-OSS 120B之外的大多数开源模型。

MBZUAI基础模型研究所所长Hector Liu提到,K2-Think的特别之处在于,他们将其视为一个系统,他们的目标不是构建类似ChatGPT的聊天机器人,而是为数学和科学等领域的特定用途提供服务。

二、六项系统级创新,全训练过程均采用开源数据集

K2-Think的技术报告显示,其背后有六大技术创新,包括思维链监督微调、可验证奖励强化学习(RLVR)、推理前的Agent规划、测试时扩展、推测解码和推理优化硬件、仅使用公开可用的开源数据集训练

基于这种系统化的技术创新,K2-Think通过长链式思维监督微调增强了逻辑深度、可验证奖励的强化学习提高了解决难题的准确率、Agent式规划使模型能够在推理前分解复杂挑战、测试时扩展技术进一步提升了模型的适应性,最终实现性能对标更大参数规模模型。这使得模型能够提供强大的思维链推理能力和近乎即时的响应时间

监督微调阶段,K2-Think使用思维链对基础模型进行监督微调。研究人员采用了现有的AM-Thinking-v1-Distilled数据集,该数据集由CoT推理痕迹和指令/响应对组成,提示来自数学推理、代码生成、科学推理、指令遵循和一般聊天等任务。他们评估发现,SFT模型在各个采样预算下均优于基础模型。

可验证奖励强化学习阶段,可验证奖励强化学习通过直接优化模型生成的正确性,降低了基于人类反馈强化学习(RLHF)基于偏好对齐的复杂性和成本。因此研究人员使用了Guru数据集,该数据集包含数学、编程、科学、逻辑、模拟和表格六个领域任务、近92000个可验证问题。

测试时间改进阶段,为了进一步提升模型性能,研究人员开发了测试时框架,为训练后的推理模型提供结构化输入,包括推理前的Agent规划,即“先计划后思考”,以及使用Best-of-N采样的测试时扩展。

▲模型从输入到最终响应的信息流

从输入到最终响应时,模型会重构提示以概述总体规划、突出相关概念。然后这一增强的提示将通过K2-Think模型生成多个响应,最后对候选响应进行两两比较,最终选出最佳生成结果作为推理系统的最终输出。

第四阶段是部署,在具有挑战性的数学证明或多步骤编码问题中,一个典型复杂推理任务一般会生成32000个token的响应。在NVIDIA H100上,这可以在不到3分钟的时间内完成,在WSE上,同样32000个token的生成任务只需16秒

这是因为GPU必须在每个token生成时不断将权重从高带宽内存传输到GPU核心,而WSE将所有模型权重存储在海量片上内存中,充分利用每秒25PB的片上内存带宽,比最新NVIDIA B200 GPU提供的0.008PB/s高出3000多倍

结语:小参数模型经后期训练,可媲美更大参数模型

K2-Think模型的性能证明,320亿参数规模的模型经过后期训练,能够生成较长的推理思路链,并结合相对较少的测试时间计算,可以实现小模型与参数数量级更大的模型相媲美的能力。

MBZUAI基础模型研究所的总经理Richard Morton认为,人脑的基本推理是所有思维过程的基础,K2-Think的应用,可以缩短研究人员思考特定任务、进行临床试验的时间,从而将先进的AI技术扩大到AI基础设施稀缺的地区。

新房生活更多>>

全力进军C端,阿里千问下场是“姗姗来迟”还是“高手出山”? 科技研发投入“八连增”后,贝壳欲用AI撬动新增长路径 全新起亚Telluride亮相,起亚版揽胜?2.5T混动系统 沃尔沃汽车10月全球销量同比微降2%,电气化车型销量同比微降1% 安世半导体称无法确定中国子公司何时恢复发货 特斯拉第十次召回Cybertruck 本田汽车收购印度OMC Power部分股权,开发清洁能源电池 又一家新势力转向增程了!是来救场的还是来凑热闹的? 房地产啥时候止跌回稳?房地产的最后一跌,拐点将至 绿城中国前10月总合同销售金额2011亿元 其中代建销售807亿元 中海前10月累计销售金额1891.65亿元 同比下降21.3% 今年至少四地宣布将推行现房销售:“所见即所得,从根本上防范交付风险” 房企中报观察:盈利持续承压,经营性业务成增长盘、存量时代新模式隐现 全国房企品牌价值连续四年下降,2025年均值下滑7.6%至333.7亿元 58安居客研究院韦谢:买房需求下降、租赁市场补位,二线城市租售比突破国债收益率 龙岗一商业用地调为住宅用地,将建保障性租赁住房 占地约144亩,总起始价2.3亿元!济宁市任城区4宗土地挂牌出让 拿地半个月,保利置业杨浦定海项目设计方案公布,楼板价近7万/㎡ OpenAI预告“AI浏览器”Atlas未来更新:标签组、广告拦截器等 瑞幸、蜜雪、星巴克:茶咖合流下的千亿市场新战局 康宁CEO披露:若非乔布斯当年一句“威胁”,iPhone或仍是塑料屏 与OpenAI划清界限 微软AI主管:不会为成人内容开发聊天机器人 荣耀CEO李健:MagicOS 10与iOS、鸿蒙、安卓、Windows深度互联 到底是谁在用鸿蒙 体验完鸿蒙6我懂了 带头定义新协同办公的,为什么是WPS 365? 美光疯狂挖三星、SK海力士墙角 2亿韩元工资招芯片人才 前瞻的建筑形态,来自元启的领潮四代宅 条例施行“满月” 住房租赁行业有哪些新变化? 紫京宸园准购房者的难题:稀缺地段与高压线的抉择 又到“金九银十”楼市传统销售旺季。今年国庆中秋假期,在房地产市场总体处于修复过程的大背景之下,一些城市楼市热度提升