icon

「买多少算力?全部」:OpenAI联创称1100亿美元仍追不上需求,预训练已转向成本联合优化

据 1M AI News 监测,OpenAI 联创 Greg Brockman 在采访中回顾了 2025 年 12 月 AI 编程能力的跳跃式提升。他用自己保留多年的一个测试提示来丈量进步:让 AI 构建一个他当年学编程时花了几个月才完成的网站。2025 年全年,这个任务需要多轮提示和约四个小时才能做好;到了 12 月,一次提示就完成了,而且质量很好。他称新模型让 AI 从「能完成约 20% 的任务」跳到了「约 80%」,这个跨越迫使所有人「必须围绕 AI 重新组织工作流程」。对于 1100 亿美元的融资去向,Brockman 将算力类比为「招聘销售人员」:只要产品有可规模化的销售渠道,招越多的销售人员就能带来越多收入。算力不是成本中心,而是收入中心。他回忆 ChatGPT 发布前夕与团队的对话:「他们问'我们该买多少算力?'我说'全部。'他们说'不不不,认真的,到底该买多少?'我说'无论我们怎么建,都跟不上需求。'」这个判断至今成立,而算力采购需要提前 18 到 24 个月锁定。在如何使用这些算力上,Brockman 透露 OpenAI 已不再一味追求最大规模的预训练,而是把预训练能力和推理成本作为联合优化目标:「你不一定要做到尽可能大,因为你还要考虑下游的大量推理使用场景,你真正想要的是智能乘以成本的最优解。」但他明确反对「预训练不再重要」的说法,认为基础模型越聪明,后续的强化学习和推理阶段效率越高,仍然「绝对需要」英伟达 GPU 来支撑大规模集中训练。
雷電財經提醒:请广大读者理性看待区块链,切实提高风险意识,警惕各类虚拟代币发行与炒作,站内所有内容仅系市场信息或相关方观点,不构成任何形式投资建议。如发现站内内容含敏感信息,可通过 举报 联系我们 ,我们会及时处理。
12:40 , 2026-04-02

「买多少算力?全部」:OpenAI联创称1100亿美元仍追不上需求,预训练已转向成本联合优化