AI News Hub Logo

AI News Hub

Tian Yuandong's AI Startup Valued at 31.5 Billion, Backed by Jensen Huang and Lisa Su, with Yao Class's Shi Tianlin as Partner

36Kr
梦晨

田渊栋AI创业估值315亿,老黄苏妈都投了,姚班施天麟也是合伙人·2026年05月14日 09:238位联创平均每人值0.58个独角兽 离职Meta后的田渊栋,现身独角兽联创名单,成了AI创业合伙人。 Recursive Superintelligence(RSI),不到30人,刚从隐身状态走出来,就拿到6.5亿美元融资(约44亿元人民币),估值46.5亿美元(约316亿元人民币)。 谷歌GV、

田渊栋AI创业估值315亿,老黄苏妈都投了,姚班施天麟也是合伙人·2026年05月14日 09:238位联创平均每人值0.58个独角兽 离职Meta后的田渊栋,现身独角兽联创名单,成了AI创业合伙人。 Recursive Superintelligence(RSI),不到30人,刚从隐身状态走出来,就拿到6.5亿美元融资(约44亿元人民币),估值46.5亿美元(约316亿元人民币)。 谷歌GV、Greycroft联合领投这轮早期融资,英伟达、AMD等也参与其中。 8位联创亮相,阵容豪华。 这些8人里随便挑一个出来,都足以单独撑起一家AI独角兽。 那么,他们聚在一起要做什么? 公司名字就点明了:Recursive Superintelligence,AI自我改进的闭环,直到超级智能。 他们给出的路线图中的第一步,是先训练一个具备“50000名博士”能力的系统,自动化AI科学研究本身。 再把这台”尤里卡机器”指向药物研发、电池材料和核聚变物理。 300亿砸向下一条Scaling Law RSI的成立基于一条核心判断: 预训练Scaling Law仍然重要,但如果只靠更多数据、更多算力、更多参数,边际收益已经没有过去那么陡。 AI行业正在找新的增长曲线。 RSI押的就是其中最激进的一条,recursive self-improvement,递归式自我改进。 这刚好打中了AI行业现在最焦虑的问题,也就是大模型之后,下一次能力跃迁从哪里来? CEO Richard Socher在访谈中给出解释: “AI是代码,而现在AI可以写代码。” 过去,AI研发的循环大体还是人类主导。研究员提出想法,工程师写实验,团队跑训练,评估模型,再根据结果调下一轮方向。 RSI把这个循环的一部分交给AI。 它们设想中的系统,不只是回答问题,也不只是帮人写代码。它要能发现自己的能力短板,设计新的实验,写新的benchmark,然后主动重写自己的代码库,让下一版系统更强。 传统AI优化像是在固定考卷上刷分,考到100分就算到头。RSI要的是另一条路:像生物进化一样,永远不停下来,永远有新发明。 一个AI改进另一个AI;改进后的AI继续改进后面的AI。 Socher自己很清楚这个赌注的分量。 如果你是学术研究者且超前于时代,你最终会被称作远见者。但如果你是创业者且超前于时代,你的公司就死了。 他是NLP领域早期神经网络派代表人物之一。2010年,他试图把一篇神经网络论文投给NLP顶会,结果被拒。审稿人的理由是神经网络没用,你为什么要把这玩意投给NLP会议? 15年后,神经网络不仅主导了NLP,而且Socher就是奠定这一基础的人之一。 那么创办RSI,为什么是现在? Socher判断,AI领域正在触及对数级收益递减。你需要增加一两个数量级的数据,却只得到微小的改进。 RSI不是这条道路上的唯一个。 David Silver的Ineffable Intelligence种子轮拿了11亿美元,估值51亿美元。Ilya Sutskever的SSI,估值未披露。Yann LeCun的AMI Labs,募资10亿美元。 顶级科学家集体出走、资本集体押注,已经成为2025年以来AI领域最明确的结构性浪潮。 8位联创干出顶级独角兽 Recursive能在早期拿到这个估值,一个直接原因就是创始团队人才密度高。 独角兽门槛是10亿美元估值,RSI首轮估值46.5亿美元,相当于8位联创平均每人值0.58个独角兽。 Richard Socher,吴恩达在斯坦福的博士生,ImageNet和Glove作者,谷歌学术引用量超过24万次。在创立Recursive之前,他创办了MetaMind并被Salesforce收购,后来还做出了估值15亿美元的AI搜索引擎You.com。 田渊栋,Meta FAIR前研究科学家总监,长期做强化学习、基础模型效率和神经网络理解。更早之前,他还做过ELF OpenGo,把AlphaZero式训练重新开源实现到围棋场景里;最近几年,他的研究线又转向Llama推理、长序列加速、低成本训练等更贴近大模型系统瓶颈的问题。 施天麟是清华姚班校友,Cresta联合创始人之一,Cresta从斯坦福AI实验室起步,2019年就把Transformer模型用到实时客服Agent Assist里。 Tim Rocktäschel的是开放式智能和安全循环专家。他是UCL人工智能教授,也曾在Google DeepMind担任开放式研究方向负责人,研究重点就是AGI、open-endedness和self-improvement。他和合作者把安全红队问题改写成开放式搜索Rainbow Teaming:不靠人手列完攻击方式,而是让系统持续生成更多样、更有效的对抗提示。现在几乎所有的AI安全团队都在用 Alexey Dosovitskiy是Vision Transformer作者之一,在2020年率先把Transformer直接用到图像patch序列上,证明视觉任务不一定非要卷积网络做底座。 Josh Tobin是OpenAI早期成员,OpenAI Agents Research Team负责人之一; Caiming Xiong曾在Salesforce负责AI Research和Applied AI,和Socher长期共事,也共同署名过CTRL等可控文本生成工作。 Jeff Clune的研究和RSI路线高度重合,他长期研究开放式进化、AI-generating algorithms和AI安全,也是Darwin Gödel Machine论文作者之一。那篇论文讨论的正是让AI系统修改自身代码、再用benchmark验证改进是否有效。 8个人分别对应强化学习和大模型效率、开放式算法、安全红队、视觉Transformer、智能体产品化、企业AI落地、创业组织和自我改进研究。 8位联创,再加少量创始团队,RSI总人数不超过30人,Socher在采访中还特别强调: 我们将尽可能保持团队小而精,最终把很多事情委托给我们的Agent。 参考链接: [1]https://www.recursive.com [2] https://www.gv.com/news/recursive-superintelligence-self-improving-ai 本文来自微信公众号“”,作者:梦晨,36氪经授权发布。 该文观点仅代表作者本人,36氪平台仅提供信息存储空间服务。