8个缔造AI辉煌的超级大脑,带着谷歌英伟达巨资狂暴入场。他们要让AI自己训练自己,然后把AI研究员这个职业彻底干掉。
没有产品。25个人。
成立不到半年。估值46.5亿美元。
更离谱的是,这家公司的八个联合创始人,全是AI领域最顶尖的研究员。
他们烧着6.5亿美元,赌的是自己这个职业会消失!

这份名单摊开来,几乎就是过去十年AI关键突破的作者列表。
他们的公司叫Recursive Superintelligence,昨天正式从「隐身模式」中走出来。
背后投资阵容非常豪华——GV(Google Ventures)和Greycroft领投,AMD Ventures和英伟达跟投。

Socher几周前说过一句话,现在看来更像是宣战。
神经网络的第三阶段,也许是最后一个阶段。

现在造一个前沿模型,OpenAI、Anthropic、DeepMind这些头部实验室需要几百人忙几个月。数据筛选、训练设计、后训练对齐、研究方向选择,每一步都靠人。
但问题是,全世界能做这件事的人不超过几千个。而且,模型越复杂,人类理解和优化它的能力越接近天花板。
Recursive要做的,就是把上面这整条pipeline自动化。
评估、数据筛选、训练、后训练、研究方向选择,全部交给AI自己来。
整条链路闭环,从头到尾不需要人。
如果这件事成了,它意味着一个反馈循环。AI改进自己 → 改进后的AI更擅长改进自己 → 循环加速。
这就是「递归自我进化」(Recursive Self-Improvement,RSI)。也是这家公司名字的由来。

田渊栋
上海交通大学本硕,CMU机器人研究所博士。
在Meta FAIR工作近十年,最后的职位是研究总监,领导LLM推理、规划和决策方向。2025年10月Meta裁员被波及后离开。
他主导的ELF OpenGo项目用单块GPU就击败了围棋职业选手,还带出了StreamingLLM和GaLore等明星项目。
他也是ICLR 2026递归自我进化Workshop的联合组织者。
扩展阅读:田渊栋被Meta卸磨杀驴,但全网疯狂发offer!OpenAI冲来抢人了

Tim Shi
清华大学计算机科学学士(期间在MIT交换),Stanford AI Lab博士方向研究NLP和强化学习。
2016年作为早期成员加入OpenAI,参与核心模型开发。后来联合创办了AI客服公司Cresta并担任CTO。

Caiming Xiong
纽约州立大学布法罗分校计算机科学博士,UCLA统计学博后。
跟Socher是MetaMind时期的老搭档,一起被Salesforce收购后搭建了整个AI研究体系,做到了AI Research高级副总裁(SVP),管过NLP、计算机视觉、对话AI等多个方向的研究团队。
发表超100篇深度学习研究,拿过ACL 2019杰出论文奖。

Richard Socher
斯坦福计算机科学博士。NLP领域被引用最多的研究者之一,发明了最早一批被广泛使用的词向量和上下文向量,在很多人还不知道prompt engineering这个词之前就在做这件事了。
2014年创办MetaMind,2016年被Salesforce收购后出任首席科学家和执行副总裁,一手搭建了Salesforce的AI研究实验室和产品体系。
离开后创办了AI搜索引擎You.com,估值15亿美元,融了超过2亿。现在他扔下了You.com的一切,去造一个连产品都没有的公司。
他不久前解释过自己为什么做这件事。最近一次招聘,候选人拒绝了offer,理由是「AI研究员这个岗位几年内就会被自动化」。Socher听完,决定亲自去验证这个判断。

Jeff Clune
密歇根大学哲学学士,密歇根州立大学计算机科学博士。现任UBC计算机科学教授、CIFAR AI Chair,也是进化算法和开放式AI系统领域的先驱。
曾在Cornell做博后,后来先后加入Uber AI Labs(创始成员)和OpenAI担任研究管理层。
他在Sakana AI主导的Darwin Gödel Machine研究,第一次证明了AI Agent可以自主重写自己的代码来提升benchmark性能。

Alexey Dosovitskiy
莫斯科国立大学数学博士。先后在Freiburg大学(博后,导师Thomas Brox)、Intel Labs和Google Research做深度学习研究。
他最广为人知的成果是Vision Transformer(ViT),那篇「An Image is Worth 16x16 Words」是过去五年计算机视觉领域被引用最多的研究之一,直接把Transformer架构从NLP搬进了视觉,重塑了整个CV领域的技术路线。

Tim Rocktäschel
柏林洪堡大学计算机科学硕士,UCL博士(获Google博士奖学金和微软研究博士奖学金)。现任UCL人工智能教授。
在牛津做过博后,之后加入Meta FAIR担任研究经理和Area Lead,再到Google DeepMind担任高级研究科学家,参与了Genie世界模型项目。

Josh Tobin
哥伦比亚大学数学学士,UC Berkeley计算机科学博士(导师Pieter Abbeel)。
读博期间同时在OpenAI做了三年研究员,一手搭建了OpenAI的机器人能力,参与了那个著名的AI解魔方机械手项目。
离开后联合创办了ML监控公司Gantry,也创建了Full Stack Deep Learning课程。
他的专长是把研究成果落地成可用的工程系统。

八个人,横跨Meta FAIR、Google DeepMind、OpenAI、Salesforce AI、Uber AI,研究方向覆盖进化算法、世界模型、视觉Transformer、强化学习、机器人、NLP、核心训练,但他们各自独立走到了同一个结论。
AI的下一步,是让AI自己造模型。不是更大,是更自主。
这种「不同路径汇聚到同一个终点」的故事,投资人最爱听。GV和英伟达显然也听进去了。
Recursive的野心不是凭空冒出来的。
过去一年,「AI自我进化」从学术设想一步步变成了可操作的工程方向。
2025年5月,Google DeepMind发布了AlphaEvolve。
这个系统用LLM作为核心引擎,通过进化搜索来设计和优化算法。
AlphaEvolve证明了一件事,AI可以在算法设计这个领域做出人类研究员级别的工作。
扩展阅读:突破300年数学难题!陶哲轩出题,DeepMind通用科学AI智能体一夜屠龙
几乎同一时间,Jeff Clune在Sakana AI发布了Darwin Gödel Machine。
DGM更激进,它让AI Agent自主重写自己的优化函数和代码,然后在benchmark上验证改进效果。
如果改进有效,新代码被保留;如果无效,回滚。这个循环可以无限次运行。
扩展阅读:AI已学会改自己代码,性能提升100%,还会「改绩效」!程序员,还不慌?
再往近看,2026年5月,ICLR在里约热内卢举办了第一个专门研究「AI递归自我进化」的学术Workshop。
一个领域从「有人在做」到「有专门的顶会Workshop」,通常意味着它已经过了概念验证阶段,进入了工程化竞赛。
Jeff Clune:我们就在递归自我进化系统的拐角处。

与之相对的,来自AI2的知名研究员Nathan Lambert今年3月提了一个对立概念「有损自我进化」(Lossy Self-Improvement)。
他的观点是,模型越复杂优化越难,扔越多计算和Agent上去冗余损耗也越大,顶级模型训练成本已经是几十亿美元级别,不会有人让AI在没人盯着的情况下烧这么多钱。
进步会有,但更可能是线性的,不是指数的。

文章地址:https://www.interconnects.ai/p/lossy-self-improvement
这个判断是否正确,Recursive用6.5亿美元和八个顶级大脑押上了另一边的赌注。
Anthropic已经在赚这笔钱了
如果你觉得「AI自己训练AI」还只是实验室里的事,往产品端看一眼。
最近,Claude Code产品负责人Cat Wu也提出了一个三阶段演进。
在她看来,下一个突破口就是「主动性」。Claude理解你在做什么工作,然后主动帮你把这些自动化流程搭建好。
你还没开口,它就已经动手了。
Cat Wu说这话的时候,Anthropic的年化收入刚刚突破300亿美元,80倍年增长。Claude Code的年化收入超过25亿,企业订阅数量从年初到现在翻了四倍。

这些数字和这个态度说明一件事,「AI从被动走向主动」已经在产生真金白银的收入。
实验室端,Recursive在造让AI自己做研究的系统。
产品端,Anthropic在造让AI主动替你干活的工具。
两条线看起来隔着十万八千里,但终点是同一个。AI不再等人类按按钮。
从ASI决赛的视角看,味道完全不一样。
Claude和GPT两强对决,拼的是研究团队、算力储备、企业客户。每一个百分点的进步都是几千人苦干几个月换来的。
Recursive要做的事,如果成了,等于把这个游戏的规则掀掉重写。

GV是谷歌的钱,英伟达是所有人的军火商。
这两家同时下注Recursive,是在对冲一种可能性,如果递归自我进化可行,OpenAI和Anthropic庞大的研究团队可能在一夜之间从核心资产变成沉没成本。
Jeff Clune在一次采访里承认过:「如果有一天机器取代了我作为AI科学家的角色,我可能会有点难过。但回报可能值得。」
这场决赛,双方都在拼命往赛道上加速。
但Recursive想干的事情,是把赛道本身换掉。
参考资料:
https://x.com/jeffclune/status/2054554755955937615?s=20
https://www.nytimes.com/2026/05/13/technology/notable-researchers-join-4-billion-effort-to-build-self-improving-ai.html?searchResultPosition=1
https://x.com/TechCrunch/status/2054645155446284786
文章来自于"新智元",作者 "好困"。
【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。
项目地址:https://github.com/browser-use/browser-use
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。
项目地址:https://github.com/microsoft/graphrag
【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。
项目地址:https://github.com/langgenius/dify
【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。
项目地址:https://github.com/infiniflow/ragflow/tree/main
【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目
项目地址:https://github.com/phidatahq/phidata
【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。
项目地址:https://github.com/TaskingAI/TaskingAI
【开源免费】MindSearch是一个模仿人类思考方式的AI搜索引擎框架,其性能可与 Perplexity和ChatGPT-Web相媲美。
项目地址:https://github.com/InternLM/MindSearch
在线使用:https://mindsearch.openxlab.org.cn/
【开源免费】Morphic是一个由AI驱动的搜索引擎。该项目开源免费,搜索结果包含文本,图片,视频等各种AI搜索所需要的必备功能。相对于其他开源AI搜索项目,测试搜索结果最好。
项目地址:https://github.com/miurla/morphic/tree/main
在线使用:https://www.morphic.sh/
【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。
项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md
在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0