深度|对话Cerebras CEO:3-5年后我们对Transformer依赖程度将降低,英伟达市占率将降至50-60%

搜索
AI-TNT
正文
资源拓展
深度|对话Cerebras CEO:3-5年后我们对Transformer依赖程度将降低,英伟达市占率将降至50-60%
2025-04-07 14:35

深度|对话Cerebras CEO:3-5年后我们对Transformer依赖程度将降低,英伟达市占率将降至50-60%


图片来源:20VC with Harry Stebbings


Z Highlights


  • 芯片架构设计的首要原则是明确取舍,决定哪些领域我们不追求卓越。


  • AI运算需要进行海量级的简单计算。真正的难点在于运算结果和中间结果需要频繁转移。


  • 传统芯片尺寸的SRAM根本无法承载完整模型参数,但通过晶圆级集成技术,我们实现了海量SRAM布局,同时获得高速与大容量优势。


  • 我们的策略是:对批处理任务优先成本控制,对交互场景则必须追求极致速度


Andrew Feldman是Cerebras的联合创始人兼首席执行官,Cerebras是世界上最快的人工智能推理+训练平台。


本次访谈为他和20VC主播Harry Stebbings探讨AI时代改变芯片构造需求以及行业趋势。


AI对芯片需求的改变


Harry:见到你真是太高兴了。我期待这次对话很久了。Eric经常向我提起你,一直对你赞不绝口,非常感谢你能接受我的访谈。


Andrew:Harry,谢谢邀请。很荣幸能参与这个对话。


Harry:这一定会是场精彩的对话,感觉今天能跟你学到很多。让我们回到2015年,当时你和团队在AI领域看到了什么机遇,促使你们创立了Cerebras公司?


Andrew:我们看到了一种新兴工作负载的崛起——这对计算机架构师而言堪称梦想成真。


我们发现了一个值得解决的新问题,这意味着或许可以为此打造更适配的硬件系统。2015年时,我的联合创始人Gary、Sean、JP和Michael率先预见了AI的兴起。


这预示着计算机将面临全新挑战,AI软件将对底层芯片处理器提出不同以往的需求。我们逐渐确信能够为此设计更优秀的硬件。


当然,我们的预测并非完全准确,这是我职业生涯中第一次严重低估了市场规模。


但我们正确判断了两点:这个领域将产生巨大影响力,并将对处理器提出全新要求。特别是内存带宽和通信架构将面临严峻考验。


基于这些判断,我们毅然投身其中。这九年来的发展确实超乎想象。


Harry:能否请您解释下,AI时代的到来如何改变了芯片需求标准?作为供应商需要提供怎样的解决方案?这又如何影响了Cerebras的芯片设计理念?


Andrew:芯片的本质功能可归结为两点:执行运算和传输数据——这就是芯片的全部使命,过程中偶尔会涉及数据存储。


AI带来的是一组非常特殊的挑战组合:首先,其基础运算其实非常简单,就是矩阵乘法,任何大二电子工程系学生都能设计出FMAC运算单元。


但关键在于,AI运算需要进行海量级的简单计算。真正的难点在于:运算结果和中间结果需要频繁转移。


这些数据需要在内存间来回搬运,需要被拆分后跨GPU传输。我们当时就预见到:这才是核心难题。


如果能攻克这个问题,我们就能打造出更快更节能的AI计算系统。


Harry:关于技术路线的战略选择,我认为有几个关键维度需要考虑:是专注模型微调?专注训练?还是专注推理?而你们选择了三者兼顾。为什么?


我原以为GPU是专为训练优化的架构,并不适合推理任务。一套统一架构真能同时在这三个领域都做到最优吗?


Andrew:芯片架构设计的首要原则是明确取舍——决定哪些领域我们不追求卓越。训练和微调在计算层面有本质区别吗?


答案是否定的,它们的计算需求基本一致。不过推理与训练确实存在差异化要求,尤其是生成式推理在我提到的通信维度上提出了严峻挑战。


想象一下:生成每个词都需要将全部权重参数从内存搬运到计算单元——


对于一个700亿参数的常规模型(每个参数16位),生成单个词就需要移动140GB数据,这种跨内存的数据搬运量极其惊人,其核心瓶颈就是内存带宽。


GPU采用的HBM存储器虽然是卓越的DRAM技术,但存在速度局限。这种高容量缓存在图形计算时代是理想选择,因为那时不需要频繁内存交互。


而SRAM虽然速度极快却容量有限。传统芯片尺寸的SRAM根本无法承载完整模型参数,


但通过晶圆级集成技术,我们实现了海量SRAM布局,同时获得高速与大容量优势。


试想:如果用传统SRAM芯片运行4000亿参数模型,可能需要4000枚芯片协同;


处理DeepSeek671这类模型甚至需要6000-8000枚芯片,这会造成灾难性的管理复杂度。


而通过晶圆级集成,仅需1-10个晶圆就能获得SRAM的全部性能优势,同时确保足够的参数容量。


深度|对话Cerebras CEO:3-5年后我们对Transformer依赖程度将降低,英伟达市占率将降至50-60%


图片来源:20VC with Harry Stebbings


Cerebras实现技术突破与架构创新


Harry:首先请教个问题:既然HBM存在速度缺陷,为何市场上(包括英伟达40%的推理业务收入)仍普遍采用这种方案?


Andrew:根本原因在于:除非采用晶圆级集成,否则确实没有更好的替代方案。GPU最初是作为图形处理器设计的,这种架构曾是其对抗CPU的优势所在。


但如今专用芯片(如我们的方案)兴起后,昔日的优势反而成了短板——这种市场颠覆往往发生在转瞬之间。 


Harry:以英伟达的市值和黄仁勋的水准,他们肯定清楚这个局限。但他们并不生产存储器。


Andrew:选择确实有限。他们需要采购SK海力士、三星或美光等少数几家存储巨头的产品,这涉及复杂的架构权衡。客观说,这套方案让他们取得了巨大成功。


但相比我们晶圆级集成的方案(目前全球仅我们一家),我们在推理效率上具有显著优势。


Harry:那么LP存储器在这个技术矩阵中处于什么位置?现有方案有HBM、你们的SRAM,以及博通的大规模方案...


Andrew:这个领域本就有多种技术路径。我们的方案与英伟达、TPU或Tranium都不同。


但自8月26日发布推理芯片以来,第三方测试数据显示,我们的方案在多个模型上都保持着最快的推理速度记录。


Harry:关于这种速度优势,您提到晶圆级架构具有唯一性。那么成本方面如何平衡?如此高效的方案是否必然更昂贵?能否说明下成本结构?


Andrew:这并非我们首次应对此类挑战。多年计算机研发经验告诉我们,选择晶圆级方案时必须权衡利弊:


首先我们功耗更低,因为芯片最耗电的环节正是I/O数据传输。频繁的片外数据搬运会大幅增加功耗,而我们的方案能保持数据在硅基片内流动。


其次,晶圆级集成需要攻克业界公认无解的难题,比如良品率。为此我们研发了独创的工艺技术,目前良品率甚至优于制造传统小尺寸芯片的厂商。


Harry:请稍作解释:什么是良品率?为何说它原本无解?


Andrew:晶圆就像12英寸的圆形硅片,芯片如同用饼干模具从中切割出来。但就像烘焙时撒落的巧克力豆——硅片制造中必然存在天然缺陷。


传统做法是:芯片面积越大,碰到缺陷的概率越高,废片率就越大。行业通常采用binning来止损,这被视为不可违背的铁律。


而我们的突破在于:将处理器设计成由数十万个相同tile组成的阵列,配合冗余行列设计。


当某个单元出现缺陷,只需关闭该单元并调用备用单元即可——这种内存制造领域成熟的技术,从未在处理器领域实现过。


正是这种架构创新,让我们成为70年来首个实现完整晶圆交付的企业。要知道,连行业之父Gene Amdahl创立的Trilogy公司都曾在此折戟。


深度|对话Cerebras CEO:3-5年后我们对Transformer依赖程度将降低,英伟达市占率将降至50-60%


图片来源:20VC with Harry Stebbings


Harry:当您提及'最快'这个标签时,客户最看重的究竟是什么?是绝对速度?能效比?还是成本控制?如何权衡这些要素?


Andrew:这需要场景化思考:如果事关癌症诊断,93%和94%准确率有本质区别,人们愿意付出更高成本和时间等待更精确的结果。


但如果是用LLAMA405B模型来优化LLAMA70B,多等几天也无妨。而在即时交互场景——比如搜索引擎或聊天机器人,45秒的响应时间就足以摧毁用户体验。


Google的Urs Holz早已证明:毫秒级的延迟就会导致用户注意力流失。


因此我们的策略是:对批处理任务优先成本控制,对交互场景则必须追求极致速度——


就像网速提升后Netflix从邮寄DVD转型流媒体那样,速度突破将开启全新的可能性。


Harry:Andrew,我看上去年轻,但其实不年轻了。我还记得百视达呢。

Andrew:没错!让我们回顾这段历史:最早我们要开车去百视达租录像带,


后来Netflix开始邮寄DVD,宽带普及后亚马逊直接成了影视制作公司,速度变革彻底重塑了行业。推理速度的提升同样具有这种颠覆性力量。


训练与推理间的资源分配变革


Harry:我们之前交谈时,您提出过一个关于推理的精辟公式,对我理解这个问题帮助很大。那个公式是什么?


Andrew:这个逻辑框架始于一个基本认知:训练创造AI,而推理消费AI。


要理解推理市场的规模,就需要计算三个变量的乘积:使用AI的人数×使用频率×每次调用消耗的算力。


当前我们正处在罕见的'三增长'时期——用户数量、使用频次、单次算力需求都在同步爆发,这就是市场呈现指数级增长的原因。

Harry:展望未来五年,训练与推理之间的资源分配会如何演变?目前大部分资源都集中在训练领域(虽非全部但占主导),这种格局会有怎样的变化?


Andrew:直到2024年中,我们创造的AI更像是一种新奇事物而非实用工具。但到2024年末,情况开始转变。


Harry:转折点是什么?


Andrew:观察模型发展就明白:ChatGPT并非技术突破,而是界面创新。它降低了使用门槛,但初期人们并不知道如何有效利用——就像获得酷炫玩具。


但现在,如果营销团队每人每天不使用几次大语言模型,那就是失职。这种从'有趣'到'日常工作流必备'的转变,正是去年第四季度开始的深刻变化。


AI不再只是硅谷极客的玩物,而是我父亲、兄弟、医生等普通人的生产力工具——当这个群体开始依赖AI,市场就爆发了。


Harry:但您不觉得我们仍处于非常早期阶段吗?按照您的观点,五年后市场规模会达到现在的多少倍?100倍?1000倍?


Andrew:我认为远超100倍。


Harry:这对基础设施意味着什么?AI产业本就是高能耗领域——消耗巨量电力和水资源(虽然正在改善)。


面对如此饥渴的AI需求,我们的能源体系和数据中心能支撑未来的推理需求吗?


Andrew:首先必须承认AI确实是高耗能产业——这个行业正在消耗巨大的电力资源。


正因如此,我们肩负着创造超额价值的责任:既然消耗如此庞大的能源,就必须用AI攻克疾病治疗、解决重大社会问题来回报社会,这是宏观层面的平衡。


关于基础设施准备度:美国面临特殊困境——我们拥有充足电力,但分布极不合理。尼亚加拉瀑布电力充沛,但光纤网络优越的数据中心理想选址却电力短缺。


更棘手的是地方监管壁垒:在硅谷建设数据中心需要应对地方政府和既得利益集团,这种分散决策模式严重阻碍国家级的电力设施和数据中心建设。


相比之下,德州等放宽监管的地区正吸引大量数据中心投资。


Harry:此前与Grok的Jonathan交流时,他提到当前大量新建数据中心存在'游客式建设'问题——许多设施根本不符合标准,资源配置严重不足。您认同这个判断吗?


Andrew:数据中心本质是电力接入+建筑工程+设计优化的综合体。


虽然当前建设热潮中难免存在投机者,但更要看到行业领军者的实力:


早期布局的比特币矿企(如Terawolf、Crusoe等)已在欧洲等地积累了靠近廉价电力的建设经验,如今他们正主导吉瓦级大型项目。


这些绝非'游客',而是极具专业度的建设者。当然,现在全球范围内确实有大量专业团队正在建设吉瓦规模的顶级设施。


Harry:随着推理需求激增,如您所说可能超百倍,其成本将如何下降?价格会相应降低100倍吗?会持续遵循摩尔定律吗?


我们该如何看待推理成本的持续下降曲线?


Andrew:推理成本由多个要素构成:首先是数据中心运营成本(电力与空间消耗),其次是硬件成本——通过提升每代芯片性能来降低单位算力成本。


此外还有算法优化空间:当前AI算法效率极低,GPU执行推理时利用率仅5%-7%,意味着93%-95%算力被浪费。


未来我们可以多管齐下:提升芯片能效比、建设更低PUE的数据中心、开发更高效算法——最终实现用更廉价硬件获得更高利用率,在同等功耗下输出更多token。


深度|对话Cerebras CEO:3-5年后我们对Transformer依赖程度将降低,英伟达市占率将降至50-60%


图片来源:20VC with Harry Stebbings


AI质变的突破点


Harry:您提到算法低效导致芯片利用率低下,这与当前流行的'缩放定律已达极限'论调似乎矛盾?


如果真如您所说存在巨大优化空间,如何理解缩放定律遭遇瓶颈的说法?


Andrew:资深机器学习研究者普遍认同算法存在巨大改进空间。


关于缩放定律是否终结的争议,OpenAI o1项目证明至少在推理领域,增加算力仍能持续提升效果。


当前主流模型已转向MOE,不再对所有token呈现全部参数——这只是优化路径之一。


现有神经网络的全连接架构(所有神经元相互连接)存在大量无效计算,就像为学习某个主题去读50本书,其实只需精读3本核心著作。


我们正在探索稀疏化等技术,Transformer架构绝非终点。


这个快速迭代的行业最令人兴奋之处就在于:算法将不断变得更快速、精准和高效——正因如此我才不愿投身那些九年如一日的传统行业。


Harry:这期对话很特别,多数人认为算力、算法、数据三要素已发展成熟,但您的观点让我看到了令人振奋的新可能。


Andrew:我认为这种观点是错误的。我们远未达到成熟阶段,虽然宣称某个行业仍处早期却基础要素已完备的说法很矛盾。


如果真如他们所说,那未来还能有什么突破?事实上这三要素都处于发展初期。

Harry:让我们逐项分析:五年后用于训练模型的数据中,合成数据与人类生成数据的比例会是多少?合成数据的效用价值能与人类数据媲美吗?


Andrew:以飞行员训练为例:模拟器能生成大量数据,但直线飞行这类简单场景对训练价值有限。


真正需要反复练习的是起降环节,特别是模拟发动机故障等极端情况——这些正是合成数据的价值所在。


无论是自动驾驶还是其他AI领域,我们需要的不是高速公路常规行驶这类易得数据,而是暴雪天气无保护左转这种高危场景的百万种变体。


就像外科医生日常多数是'木工活',但真正体现其专业水准的恰是处理罕见并发症的能力。


合成数据的作用就是填补这些难以获取但至关重要的训练空白,未来其质量还将大幅提升。


Harry:这个观点太棒了,从消费者预期角度完全说得通。如果在算力、算法和数据这三个维度都取得突破,AI体验会发生什么质变?


Andrew:首先是更快更便宜——这是最直接的答案。其次当技术变得更快更便宜时,总会催生新应用场景。


就像计算机发展史:当算力成本下降后,计算机先是装进汽车,然后塞进口袋,现在连洗碗机和电视都内置强大芯片。


三十年前有人说'电视需要计算机?开玩笑吧?'如今这种Diffusion效应正在AI领域重演。


Harry:这正好印证了 “杰文悖论”和“萨提亚的信念”。


Andrew:知道你们风投圈最爱引经据典——虽然我是英国人,但...


Harry:拜托!不让我引用英国哲学家的话,我这主持人还有什么存在感?'哦天哪,这就是杰文悖论啊!'


Andrew:没错。纵观计算产业发展史,过去50年里从未出现过技术变得更便宜更快反而导致市场缩小的案例,市场永远会指数级扩张。


Harry:绝对如此。从架构角度看,您刚才提到Transformer,我们未来会超越这种架构吗?


Andrew:三年或五年后,我们对Transformer的依赖程度绝不会像现在这么深。百分之百确定。它绝非终极解决方案。为什么?会被什么取代?未来会是什么样?


我也不知道,可能是基于状态的模型,也可能是其他类型的架构。但我确信的是:创新永不停止,而Transformer存在诸多人们急需克服的缺陷。


注意力机制存在二次计算问题,还有许多可以改进的地方。不过就现阶段而言,它确实足够出色。


我们始终选择当下最优秀的工具。当它不再是最优解时,我们会毫不犹豫地转向更好的选择。现在的情况正是如此,涌现了大量创新公司设计模型。


DeepSeek向我们证明:不需要五千人团队和数十亿美元设备,两百名精英配合适量算力就能实现突破。


Harry:DeepSeek令您印象深刻吗?最打动您的是什么?


Andrew:我认为是他们的工程聚焦力。他们目标明确,不沉迷于模型理论层面的炫技,也不纠结是否必须开辟全新路径,而是专注打造更优性能。


从发明创造角度看或许略显平淡,但从工程实现角度堪称典范。他们确实构建了一个在多数场景下表现更优的模型,这非常酷。我欣赏这样的精品工程项目。


至于选择在特朗普就职典礼期间发布涉及的政治因素,那是另一个话题了,我们可以稍后讨论。


Harry:知识蒸馏是错误的吗?


Andrew:不,我不认为知识蒸馏是错的。那么文本摘要是错的吗?如果蒸馏算错,那使用受版权保护的数据更是错上加错,问题在于必须保持逻辑一致性。


Harry:Sam Altman多次参与过我们的讨论,希望他再次做客。我个人认为两者都没错,关键是要保持标准统一。


坦率地说,DeepSeek是开源的。他们所有的创新成果,OpenAI同样可以学习借鉴。

Andrew:听着,很少有开源项目能像这个模型一样产生立竿见影的影响。


它在顶尖技术圈层引发了地震级反响——纵观开源软件史,能在如此短时间内造成这种规模冲击的案例屈指可数。


通常投资这类项目需要长期观察:用户从1万增长到10万,再到百万级才考虑商业化。但这个模型直接引爆行业,实在令人惊讶。


AI行业真正的价值与壁垒在哪


Harry:作为风投,我始终在思考:哪里存在持久且可防御的价值?如何早期布局并长期构建?硬件领域得像Eric Vishria这样的顶尖投资人才敢碰硬件。


但就模型领域而言,面对数量庞大且性能相近的竞争者,你认为还存在投资价值吗?


Andrew:要证明长期价值,既需要立竿见影的成效,更需要持续进化的轨迹。问题在于某些行业里,你可能短暂占据领先地位,但很快会被下一代创新者取代。


在软件领域,这就像与竞争对手的发布周期赛跑。如果你只是领先四个月,别人反超六个月,这种优势几乎没有价值。


但若能常年保持头部地位(即便不是第一,只要稳居前10%),而榜首玩家不断更迭,这种持续力就极具价值。


硅谷许多巨头起初技术并非最顶尖,只是率先达到'足够好用'的临界点,就占据了成熟市场。


不过我们离那个阶段还很远——目前仍处早期,正如你准确指出的:数据、算力、算法都还有巨大提升空间。

Harry:你提到算力和硬件才是价值所在。在当前英伟达垄断下,未来五年硬件和计算领域的价值将如何分配?


Andrew:历史上,资本密集度始终是行业壁垒。芯片制造既依赖稀缺资源又需要尖端技术,成本极其高昂,这与软件公司的运营逻辑天然相悖。


展望未来,基础设施科技领域的常青树往往是系统构建者——思科、瞻博网络历久弥新,芯片制造商更是如此。


苹果和英伟达能跻身全球最有价值公司,正因为它们攻克了最难的事。这正是值得挑战的意义所在。如果事情不够艰难、不够宏大,何必以弱者姿态去撼动巨头?


Harry:很多人认为英伟达的CUDA生态构成护城河。这种防御性在推理场景中真的存在吗?完全不存在。


Andrew:在推理领域根本不存在CUDA锁定效应,完全没有。


用户只需敲击十次键盘,就能从英伟达GPU上的OpenAI切换到Cerebras、Firework服务或其他平台如Together、Perplexity。


真正使用AI的人都清楚这一点。早期确实有过瓦解CUDA生态的尝试——先是谷歌通过TensorFlow,后来Meta通过PyTorch。


如今大多数AI代码都用PyTorch编写,理论上应该能编译后在任何硬件运行。英伟达的护城河不在于此:市场主导地位本身就是护城河,默认解决方案也是护城河。


当整个行业都习惯用你的架构思考AI时,这些才是真正的壁垒。软件编译固然困难,但并非不可攻克。


Harry:我完全同意'领导者身份即护城河'的观点,就像现在人人都知道ChatGPT代表OpenAI一样。


Andrew:看看英特尔吧——在Pat Gelsinger上任前的十年间,他们几乎每个决策都是灾难性的,但至今仍占据x86市场75%-80%份额。


AMD折腾十年才爬到25%-30%。这就是护城河的威力:连犯十年错误才丢失20%市场,简直不可思议。


作为挑战者,我们更要清醒认识这种护城河的实质,因为我们需要搭建的桥梁,正是为了跨越这些特性。

Harry:那么五年后的格局会更像Uber一样占据90%垄断,还是AWS云服务多强并立?


Andrew:我认为会介于两者之间。英伟达目前近乎垄断,但五年后市占率可能降至50%-60%。他们在训练领域无可匹敌,在推理市场也绝不会坐以待毙。


这家缔造了企业史上最辉煌十年(市值从2014年100亿飙升至现今规模)的世界级公司,必将保持重要份额。


Harry:芯片供应商的企业价值会远超模型供应商吗?五年维度来看?如果拉长时间线呢?


Andrew:从短期来看,期权定价中的波动性和不确定性反而会提升期权价值——无论是布莱克-斯科尔斯模型还是其他定价模型都印证这一点。


当前市场给予模型公司超高估值,部分正源于这种极端不确定性和剧烈波动。


但长期随着市场成熟,当模型商业价值和净盈利能力逐渐明晰时,巴菲特的名言就会应验:短期市场是投票机,长期是称重机。


最终公开市场会启动价值重估,投资者将判断谁具备持续增长潜力。


Harry:提到公开市场,你们在行业普遍烧钱的情况下实现正向现金流,秘诀是什么?


Andrew:传统上毛利率反映技术差异化程度。若出现毛利率为负,本质上说明你在销售大宗商品,市场未认可创造的价值。


我们的技术优势支撑了同业难以维持的利润水平。


Harry:G42大单占你们收入很大比重,这是优势还是隐患?


Andrew:两者兼具。就像捕获三个大客户要先搞定第一个,培养战略合作能力也需要学习。与G42的合作让我们积累了三大能力:


1)部署了数十百亿亿次算力(规模仅次于AMD/英伟达)


2)软件在全球顶级AI集群完成实战验证


3)经历产能2倍、5倍级跃升的供应链淬炼


这段合作让团队蜕变得能胜任与超大规模企业、主权机构的合作,虽然中东市场的开拓交了不少学费。


Harry:既然如此,为何选择现在上市?私募市场资金明明很充裕。


Andrew:看看Databricks就明白了,它们获得的估值原本只属于公开市场。如今Anthropic、OpenAI等获得的融资规模,历史上也只会出现在IPO阶段。


Harry:谁都能查阅公开信息,我可不想让人看到我的底牌。


Andrew:我们无所隐瞒。


Harry:但竞争对手会获得信息不对称优势。


Andrew:而我们掌握的是技术不对称优势。成为上市公司需要全方位准备:组织流程必须规范,具备预测能力并接受问责——这种透明度是私募企业无需承担的。


我们认为公开上市具有双重价值:


•成为行业首批上市企业


•符合大客户偏好(美国龙头企业历来倾向与上市公司合作)


这些正是我们选择IPO的核心考量。


Harry:未来24个月能拓展多少个G42级别的客户?推进速度如何?G42订单占比87%,具体规模是?


Andrew:签约时业内预估超10亿美元级别。


Harry:厉害!团队应该击掌相庆了吧?


Andrew:兴奋之余更面临现实挑战: 紧急扩充产能:向十大供应商预警大额订单;


供应链协同:硬件与软件的本质差异在于,产能激增需要整个生态链的深度配合。


Harry:坦白说,芯片交付周期过长是否会导致客户不满?等拿到产品时技术可能已过时。


Andrew:这些挑战对我们和同行而言都是机遇。


成为市场领导者本就不易,但当你落后时——就像恶霸摔倒时人人都想补一脚——英特尔垄断时期结束后就遭遇过这种围剿。


英伟达若出现客户不满,确实会给我们这些竞争者创造机会:当客户拿不到货时,自然会转向测试竞品,这就是突破口。

Harry:现在登录Cerebras官网输入优惠码Harry20即可订购芯片!


Andrew:感谢带货,不过风投业最近可不景气,Harry你还要给孩子买鞋呢。


Harry:我那4亿基金的管理费可够花了——虽然我根本没孩子。

Andrew:2%管理费加20%分成的日子不好过啊。


对中国的看法


Harry:关于硬件复杂性,当前出口管制执行到位吗?比如当初DeepSeek崛起时,所有人都质疑'他们肯定偷了芯片'。你怎么看这种技术封锁政策?


Andrew:实际情况是,他们很可能确实使用了新加坡的芯片。我认为需要分几个层面来看:


1.软硬件合规管理的本质差异


2.硬件(如500磅重的服务器)具有物理可追踪性,可通过使馆人员定期查验


3.软件特别是开源技术的Diffusion则难以管控


4.技术封锁政策的蝴蝶效应


上届政府限制中国获取EDA工具的本意,反而促使美国风投资本涌入深圳EDA创业公司。


这种动态博弈就像试图用手捏住水银——你永远预料不到管控措施会从哪个缝隙产生反作用力。


延缓他国技术发展本就是极其复杂的挑战,过去两年我深刻体会到:即便最善意的政策制定者,也难以准确预测管制措施的连锁反应。


Harry:现任政府是否比上届更支持AI发展?


Andrew:答案显而易见。上届政府与科技巨头对立的立场本身就是失误。此外AI发展已进入新阶段:2021年时AI还令人恐惧,如今风险与收益图谱已更清晰 ;


本届政府设立AI事务专员的举措展现前瞻性,这些因素共同促使环境改善。


Harry:我们是否严重低估了中国的能力?


Andrew:百分之百如此。低估对手是最常见也最明显的判断失误。


我们必须清醒认识到:中国基建投资规模惊人,工程师培养效率远超他国,政府为风投背书+培育科技国家队+通过'双保险战略'让第三世界依赖其技术。


深圳等经济特区的设立堪称神来之笔,他们用政策特区突破体制束缚。


美国在疫苗研发时也效仿过这种灵活机制。


但看看我们的现状:加州高铁沦为笑柄,铁轨标准竟有三种,桥梁公路破败不堪......这就像观看冠军球队的进攻战术,我们不该思考:他们的成功要素是什么?


人才结构有何特别?我们该如何借鉴?我在G42合作伙伴身上看到的拼搏精神,在竞争对手展现的创新能力,都是推动我前进的燃料。


道阻且长,不断前进


Harry:真想和你聊上一整天。现在来个快问快答环节准备好了吗?

Andrew:当然。


Harry:你最坚信但周围人都不信的观点是?


Andrew:中东比大众想象的更接近和平。阿联酋、卡塔尔甚至沙特正在经历惊人转型——这些专注商业的温和派阿拉伯国家是25年前不存在的。


他们正以独特方式融入西方体系,我们距离和平可能比想象中更近。


Harry:英伟达市占率面临的最大低估威胁是?


Andrew:GPU外接内存的基础架构并不适合推理计算。虽然他们仍能保持优势,但这个软肋确实存在且可被攻破——他们自己心知肚明。

Harry:你最疯狂的AI预言?(Anthropic的Dario预测人类能活到150岁)


Andrew:我不认同150岁的说法,也不认为今年90%代码会由机器生成。但我坚信未来1-2年内,AI普及度将比肩手机。


Harry:过去12个月你最后悔的决策?


Andrew:错误分两种:主动犯错或抗拒正确。2016年联合创始人JP提出水冷系统方案时,我极力反对——结果大错特错。


谷歌TPU后来采用水冷设计,英伟达现在也只卖水冷产品。JP是对的。


我每天都要做无数决策,看错人是常事,原以为普通的人才后来大放异彩,看好的聪明人却无法落地项目,但是不敢犯错的人,本就不该做决策。


Harry:作为风投,我从不犯错。


Andrew:风投行业十赌九输——但只要押中一次,所有人都会忘记你的失误。


Harry:要不要签份投资意向书留念?


Andrew:你们这行最妙的就是:平均成功率毫无意义。即便常年失误,只要偶尔押中独角兽就能创造神话。


但CEO不同——我们必须保持较高正确率,不过决策越多,错误自然也越多。


Harry:这已是你的第五次创业,是有受虐倾向吗?说真的Andrew,前四次教训还不够?


Andrew:企业类型决定经验价值: 社交网络适合大学生创业,他们与用户画像高度重合,懂约会社交比懂经营管理更重要,


但涉及制造/供应链/管理数百工程师的硬科技领域,没人会说要找'零经验的工程主管' 。


连续创业者真正的优势在于经历过团队从50人到500人的管理阵痛,见识过供应链崩盘的至暗时刻。这些教科书里学不到的实战经验,才是驾驭复杂企业的关键。


Harry:天真在这里反而是优势对吧?


Andrew:这种论调往往来自咨询顾问:'看啊,我的团队完全没有行业经验,所以绝对客观。'但或许有点行业经验会更好?


Harry:当前AI投资热潮集中在哪些领域?整个技术栈都在烧钱,有些细分赛道简直令人费解。


Andrew:部分源于资本配置需求——某些基金募资太多必须投出去,也有人纯粹害怕错过。


不过确实存在被低估的领域:比如传感器旁运行的毫瓦级推理芯片,虽单个体量小但出货量惊人,将成为机器人技术的基石。


虽然我更钟情数据中心大芯片,但这个细分市场潜力巨大。


Harry:畅想十年后的Cerebras?

Andrew:参照英伟达十年百倍增长,我希望:


•3-5年内技术能解决两大社会难题


•开发出针对百万级患者的治疗方案


•为尚未问世的应用提供推理算力


•让欧美民众无感知地使用我们的技术


Harry:为了这期节目我筹备多年,团队整天催我'快邀请Andrew'。最后还是靠推特喊话才促成。


Andrew:结果40多人质问我'为什么躲着Harry!其实直接联系我就好。今天讨论非常尽兴,你的问题充满洞见。


原视频:Andrew Feldman, Cerebras Co-Founder andCEO: The Al Chip Wars & The Plan to Break Nvidia's Dominance.


https://youtu.be/MW9vwF7TUI8?si=9Vo0q3wZ2NHSiLDG


编译:Yuhan Zhang


文章来自于微信公众号 “Z Potentials”,作者 :Yuhan Zhang


深度|对话Cerebras CEO:3-5年后我们对Transformer依赖程度将降低,英伟达市占率将降至50-60%

1
AI工作流

【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。

项目地址:https://github.com/n8n-io/n8n

在线使用:https://n8n.io/(付费)


【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。

项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file



【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。

项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file

在线使用:https://vectorvein.ai/(付费)

2
AI搜索

【开源免费】MindSearch是一个模仿人类思考方式的AI搜索引擎框架,其性能可与 Perplexity和ChatGPT-Web相媲美。

项目地址:https://github.com/InternLM/MindSearch

在线使用:https://mindsearch.openxlab.org.cn/


【开源免费】Morphic是一个由AI驱动的搜索引擎。该项目开源免费,搜索结果包含文本,图片,视频等各种AI搜索所需要的必备功能。相对于其他开源AI搜索项目,测试搜索结果最好。

项目地址:https://github.com/miurla/morphic/tree/main

在线使用:https://www.morphic.sh/

3
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner

IOS下载
安卓下载
微信群
沪ICP备2023015588号