news 2026/5/1 22:21:32

AI女王强势归来!前OpenAI CTO的“思考机器”彻底开放!接入KimiK2、千问VL,一个样本让千问VLM识别新物种!

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
AI女王强势归来!前OpenAI CTO的“思考机器”彻底开放!接入KimiK2、千问VL,一个样本让千问VLM识别新物种!

大家还记得Mira Murati吗?那个曾经主导ChatGPT开发的“AI女王”,OpenAI的前CTO,2024年突然离职后,让整个科技圈炸锅!她没闲着,2025年2月就低调创办了Thinking Machines Lab,带着一群OpenAI旧将,直接杀入AI前沿战场。

大家还记得Mira Murati吗?那个曾经主导ChatGPT开发的“AI女王”,OpenAI的前CTO,2024年突然离职后,让整个科技圈炸锅!

她没闲着,2025年2月就低调创办了Thinking Machines Lab,带着一群OpenAI旧将,直接杀入AI前沿战场。

短短几个月,融资20亿美元,估值飙到120亿美元,现在更传出新一轮融资目标直冲500亿美元!这速度,这手笔,简直是AI界的“神话”!而最近的重磅炸弹来了:他们的首款产品Tinker正式全面开放!不再需要等待名单,人人可用!

她在X上发帖:Tinker 已经全面可用,并更新了新模型和新功能,这其中就包括两款国产模型:Kimi K2 Thinking 和 Qwen-VL系列。

前OpenAI CTO盯上了被忽视的“中间层”

离开 OpenAI 之后,Murati 的 Thinking Machines Lab 并没有急着再做一个“更强的模型”。

他们团队选择切入的是一个看起来不性感但又非常关键的位置:模型训练与模型使用之间的断层。

在行业叙事里,大模型微调有一种很简单的说法:“准备数据 → 调几个参数 → 跑一轮训练”。但现实中,大多数团队卡在了这些地方:

  • 训练流程复杂,调参、调度、监控彼此割裂
  • 模型只能“训完再看”,中途几乎无法验证效果
  • 推理接口不统一,训练出来的模型难以直接上线
  • 不同模型、不同框架,迁移成本极高
  • 当然还有一点,GPU 太贵了!

微调不是一项算法能力,而是一整套工程系统能力。这也是为什么,真正把微调用起来的,往往是少数大厂或顶尖研究团队。

Thinking Machines 的联合创创始人Lilian Weng就曾发帖解释了业界研究者微调前沿大模型的困局:

现在GPU 价格昂贵,而且要把整套基础设施搭建好、让 GPU 真正高效地为你工作,本身就非常复杂。这使得研究人员和机器学习从业者在前沿模型上的实验变得困难重重。

因此,提供高质量的研究工具,是提升更广泛社区研究效率最有效的方式之一,而 Tinker API 正是我们朝这个使命迈出的重要一步。

所以,Thinking Machine Labs 要做的就是就是把模型训练这件高度封闭的事情,改造成面向大众选手的、可“边训练、边验证”的工具。

今年10月,Thinking Machine Labs 团队终于发布了产品 Tinker!让开发者们告别了“基础设施烦恼”。

Tinker到底有多牛?

简单说,Tinker是一个超级强大的AI模型微调平台,让开发者、研究者和普通黑客都能轻松定制前沿大模型,而不用自己操心复杂的分布式训练、GPU集群和基础设施。

这就是Tinker的设计理念:让用户能够专注于LLM微调中真正重要的部分——数据和算法,而平台则负责处理分布式训练的繁重工作,比如后台自动处理调度、资源分配、故障恢复等。

在Tinker上,用户只需在自己的CPU机器上编写一个简单的Python训练循环,其中包含数据(或环境)和损失函数。Tinker平台则负责将用户指定的计算任务,高效、精确地运行在大量GPU上。

值得一提的是,在Tinker上切换不同规模的模型非常简单,从一个小型模型换到一个大型模型,只需在代码中更改一个字符串。

更令人叫好的是,Tinker并非一个让微调变简单的黑盒,而是一个清晰的抽象层。它在为用户屏蔽分布式训练复杂性的同时,完整保留了用户对训练循环和所有算法细节的控制权。

在Tinker中,即便模型还在训练,也可以通过标准接口直接调用,查看当前效果。

今天全面开放,三项更新

这次的Tinker已经全面面向公众开放注册,已经无需 waitinglist 的等待。

入口地址:https://thinkingmachines.ai/tinker/

这还没完,今天 Tinker 还推出了三项重磅更新!

第一,新增万亿参数级推理模型:支持Kimi K2 Thinking模型。众所周知,该模型是专为长时长推理和工具调用设计的“怪物级”模型!这也是Tinker目前产品线中最大的模型。用户现在可以在 Tinker 上对 Kimi K2 Thinking 进行微调。

第二,视觉语言模型加持:新增了两款Qwen3-VL系列模型,Qwen3-VL-30B-A3B-Instruct 和 Qwen3-VL-235B-A22B-Instruct。

借助这两款模型,用户可以处理图片、屏幕截图和图表,用于各种应用场景。

用户如果想输入中上传图像,只需将包含图像(以字节形式保存)的图像块与文本块交错排列即可。

model_input=tinker.ModelInput(chunks=[tinker.types.ImageChunk(data=image_data,format="png"),tinker.types.EncodedTextChunk(tokens=tokenizer.encode("What is this?")),])

这意味着,开发者也可以在Tinker上玩转多模态AI了!

第三,兼容OpenAI API:新增了与 OpenAI API 兼容的脚手架功能,用户可以通过指定路径快速从模型中采样,即使模型仍在训练中。这也意味着 Tinker 现在可以即插即用,与任何兼容 OpenAI API 的平台配合使用。

response=openai_client.completions.create(model="tinker://0034d8c9-0a88-52a9-b2b7-bce7cb1e6fef:train:0/sampler_weights/000080",prompt="The capital of France is",max_tokens=20,temperature=0.0,stop=["\n"],)

可以说,本质上做了三件事:

一、让模型在训练过程中就能被调用和验证;二、用 OpenAI API 兼容接口,统一推理使用方式;三、把推理、微调、多模态能力,压进一个工程平台里。

如何用?

1条样本让千问模型学会识别新物种

那么Tinker怎么用呢?官网上还放出了一个非常有意思的实例教程:微调一个视觉语言模型(也就是现在很流行的VLM)图像分类器。

团队发现,即便每个类别只有一个样本,Qwen3-VL-235B-A22B-Instruct 也能取得合理的准确率;随着标注数据的增加,性能还会进一步提升。

在放出的CookBook中,团队用Qwen3-VL模型战胜了常被用作纯计算机视觉任务的骨干网络的 DINOv2 (一个自监督的视觉 Transformer)。

文章中还解释了原因——因为VLM模型天生具备语言知识。

在小样本数据场景下,Qwen3-VL-235-A22B 的表现优于 DINOv2。这不仅因为它模型规模更大,还因为作为 VLM,它天生具备语言知识(例如知道“金毛寻回犬”或“向日葵”是什么)。

正是这种语言与视觉相结合的通用能力,使 Qwen3-VL 能够轻松扩展到分类之外的更多视觉任务。

为什么业界如此看重这家Lab?

首先,毫无疑问是 Mira Murati的个人光环。

她是ChatGPT的核心缔造者之一,离职后直接拉起一支“OpenAI梦之队”,包括John Schulman、Lilian Weng等大牛。她的每一步都牵动AI圈神经!

其次,AI民主化浪潮。当下AI越来越封闭,OpenAI、Google们把顶级模型锁得死死的。Tinker反其道而行,推动开放科学,让更多人参与前沿研究。这不只是工具,更是理念革命!

然后,时机完美。2025年AI竞赛白热化,Tinker一出,直接拉低了自定义模型门槛。想象一下:数学推理、化学建模、法律文书、医疗诊断……无数场景即将爆发新应用!

以前 fine-tuning 大模型是巨头们的专利,需要海量计算资源和工程团队。现在?Tinker 把门槛砸到地板,让中小团队、独立开发者也能玩转前沿AI!

Mira Murati说,这正是他们公司的愿景:让AI更易懂、更可定制、更普惠,让每个人都能探索AI的极限。

让人工智能系统被更广泛地理解、可定制并具有普遍能力,通过坚实的基础、开放的科学和实际的应用,让人工智能变得更有用、更易懂,从而推动人工智能的发展。

接下来,这支梦之队计划如何?很简单又很伟大,只有四个字:全面微调!

期待这台“思考机器”,接下来给世界带来的新产品!

如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!​

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

四、AI大模型商业化落地方案

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/1 22:20:59

别再全量拉表了兄弟:一篇讲透增量数据处理与 CDC 的实战指南

别再全量拉表了兄弟:一篇讲透增量数据处理与 CDC 的实战指南 说个扎心的现实。 很多团队现在的数据链路,看起来挺“现代化”: Kafka、Flink、Spark、数仓、BI,一个不落。 但你要真扒开一看,底层还是在干一件事——每天…

作者头像 李华
网站建设 2026/4/27 19:00:49

什么是 Backtrader?一篇给 Python 量化爱好者的超全说明书

1. 一句话速览 Backtrader “纯 Python 写成的单文件量化生态”: 回测 实盘 可视化,三合一;零依赖编译,pip 即装;策略代码 ≈ 写公式,支持向量化 & 事件驱动双模式;社区活跃,…

作者头像 李华
网站建设 2026/4/20 22:53:08

微信小程序开发实战之 04-微信小程序常用 API(上)

小程序组件与 API 加载提示框 API wx.showLoading 方法用于弹出加载提示框,加载提示框弹出后,不会自动关闭,需要手动调用 wx.hideLoading 方法才能关闭加载提示框。 wx.showLoading 方法的基本选项:名称描述title提示的内容mask是…

作者头像 李华
网站建设 2026/4/23 14:38:00

《高价值付费玩家行为共性深析:从体验锚定到价值共生的实操拆解》

高价值付费玩家的行为核心逻辑,本质是玩家对“体验完整性与独特性”的极致追求,与开发侧价值供给体系的高度适配。这类玩家对付费内容的选择,绝非单纯受数值诱惑,而是围绕“自身核心体验诉求”构建的“试错式付费筛选”链路,往往会通过多轮浅层次付费测试,校验内容与自身…

作者头像 李华
网站建设 2026/4/21 2:06:22

光伏储能虚拟同步发电机Simulink仿真模型探究

光伏储能虚拟同步发电机simulink仿真模型 主电路:三相全桥逆变 直流侧电压800V 光伏模块:光伏板结合Boost电路应用MPPT 储能模块:采用双闭环控制,外环直流母线电容稳压,内环为电池电流环控制 Matlab/simulink 2021b及以…

作者头像 李华
网站建设 2026/4/17 8:04:42

CANFD 总线多节点扩展技术:节点数量限制与突破方案

在工业控制、汽车电子等 CANFD 总线应用场景中,节点数量直接影响系统覆盖范围与数据交互效率。节点数量并非无限制扩展,其受总线特性、硬件设计、协议配置等多重因素约束。本文将深入解析 CANFD 总线节点数量限制的核心原因,提供切实可行的扩…

作者头像 李华