OpenAI's first official podcast: Sam Altman reveals details about GPT-5, Stargate, and next-generation AI hardware

「隐私必须成为 AI 使用的核心原则。」

整理:有新

6 月 19 日,OpenAI 官方发布了首期播客节目,CEO Sam Altman 首次系统回应了关于 GPT-5 推进节奏、Stargate 项目、下一代 AI 终端设备开发、模型记忆能力争议,以及 AGI 到来后社会结构演变的系列问题。

Altman 以「一个新手父亲」的身份谈及 AI 在育儿和教育中的真实使用体验,也以企业决策者的视角,揭示 OpenAI 正面临的核心抉择:如何在技术跃迁、隐私边界与信任结构之间维持平衡。

「我的孩子永远不会比 AI 更聪明,但他们会成长得比我们这一代强太多。」 Altman 在节目中坦言,这一代孩子将在 AI 全方位渗透的世界中长大,他们对智能系统的依赖、理解与互动能力,将像上一代人习惯智能手机一样自然。而 ChatGPT 等模型在家庭陪伴与知识启蒙上的新角色,已为育儿、教育、工作与创造力发展开启新的范式。

AI 正成为下一代的成长环境

Altman 提到,尽管社会尚未形成统一定义,但「每年会有越来越多的人认为我们已经达到了 AGI 系统」。在他看来,公众对硬件和软件的需求变化极其迅速,而当前的计算能力尚远不能满足潜在需求。

当对话转向 Altman 的新晋父亲身份时,他坦言 ChatGPT 在育儿初期提供了巨大帮助。「虽然很多人在没有 ChatGPT 的时代也能把孩子带好,但我不确定我能不能做到。」在度过了最初几周的「每件事都要问」的阶段后,他逐渐将问题聚焦在婴儿发育节奏与行为习惯上。他指出,这类 AI 工具已开始在育儿中承担起「信息中介」与「信心赋能者」的角色。

不仅如此,Altman 也在思考 AI 对下一代成长路径的影响。他直言,「我的孩子永远不会比 AI 更聪明,但他们会成长得比我们这一代人强太多」,并强调这代孩子将天然成长于一个 AI 无处不在的环境中,对 AI 的依赖与交互将像智能手机之于过去十年一样自然。

Altman 分享了一段在社交媒体上流传的故事:一位父亲为避免重复向孩子讲述「托马斯小火车」的剧情,将角色导入 ChatGPT 的语音模式,结果孩子与之交谈超过一小时。这种现象引发 Altman 的深层担忧:AI 在陪伴类角色中的延展,可能会引发「类社交关系」的异化问题,进而对社会结构提出新的挑战。他强调社会需要重新设定边界,但同时也指出,社会历史上总能找到应对新技术冲击的方法。

在教育领域,Altman 观察到 ChatGPT 在课堂中表现出的积极潜力。「在有好老师和好课程引导下,ChatGPT 的表现非常好」,但也承认当学生单独使用它做作业时,容易退化为「谷歌式复制」。他以自身经历为例,指出当年人们也担心「他只会 Google」,但最终发现孩子与学校都能快速适应新工具带来的变化。

当被问及 ChatGPT 五年后的形态时,Altman 表示,「五年后的 ChatGPT 会变成一种完全不同的东西」,尽管名称可能仍保留,但其能力、交互方式和定位将发生根本性变化。

AGI 是动态定义,Deep Research 的能力跃迁

当谈到「AGI」这一业界热词时,Sam Altman 给出更具动态性的解释。他指出,「如果你五年前让我或其他人基于当时软件的认知能力来定义 AGI,那么当时给出的定义,如今已经远远被超越了」。随着模型智能的持续增强,AGI 的标准也不断被拉高,呈现出一种「动态推移」的状态。

他强调,如今已有系统能显著提升人类的工作效率,执行具备经济价值的任务,而真正值得追问的也许是:什么样的系统才能称为「超级智能」?在他看来,具备自主科学发现能力,或能极大提升人类科学发现效率的系统,才接近这一标准。「这对世界将是极其美好的事情。」

这一判断在 OpenAI 内部也已有所映射。Andrew Mane 回忆称,当他们试玩 GPT-4 时,已产生一种「十年探索空间被打开」的感觉。尤其是模型能够进行自调用、展示初步推理能力的瞬间,让人意识到新阶段的可能性。

Altman 对此表示认同,并进一步指出:「我一直坚信,人类生活质量提升的核心动力,是科学进步的速度。」科学发现缓慢是限制人类发展的根本因素,而 AI 在这一点上的潜力尚未被完全释放。他虽坦言尚未掌握「AI 自动科研」的完整路径,但研究团队对前进方向的信心在快速增强。他分享道,从 GPT-4.0.1 到 GPT-4.0.3,每隔几周就能提出一个新的关键想法,且几乎都能奏效,这种节奏令人振奋,也印证了「突破会突然到来」的信条。

Andrew Mane 补充道,OpenAI 最近将默认模型切换至 GPT-4.0.3,而其中最重要的更新是引入 Operator 模式。在他看来,过去很多 Agentic 系统尽管承诺颇高,但「抗脆弱性」不足,一遇到异常即崩溃。而 GPT-4.0.3 的表现则大不相同。Altman 回应称,「很多人告诉我,他们感受到 AGI 突破性时刻,就是 GPT-4.0.3 的 Operator 模式。」虽然他自己并未有特别强烈的感受,但外部用户的反馈值得重视。

两人进一步探讨了「深度调研(Deep Research)」带来的新能力。Andrew 表示,当他用这个工具研究 Marshall McLuhan 时,AI 能在网上查找、筛选、整理素材,并生成完整资料包,比自己手动调研更高效。他还开发了一个 app,将问题生成音频文件,以满足「记忆力有限但好奇心强」的使用需求。

Altman 随即分享了另一个极端使用场景:一位「学习成瘾者」使用 Deep Research 来生成关于各种兴趣主题的完整报告,整日坐在那里阅读、追问、迭代,完全沉浸于由 AI 驱动的学习循环中。

尽管 Altman 自称因为时间紧张无法充分使用这些工具,但他仍愿意在有限时间中优先阅读 Deep Research 的生成内容。

随着功能持续强化、用户场景日益多元,外界对下一代模型的关注也水涨船高。Andrew 直接提出用户最关心的问题:GPT-5 到底什么时候发布?Altman 回应称,「可能就在今年夏天吧,但我也不确定确切时间。」他透露,内部正面临一个反复讨论的问题:新版本是否还需采用以往那种「大张旗鼓」的发布形式,还是像 GPT-4 一样,在不变名称的前提下持续迭代。

他进一步解释,如今的模型系统结构比过去复杂得多,已经不再是「一次训练,一次上线」的线性流程,而是支持持续优化的动态体系。「我们现在就在思考这个问题:假如我们发布 GPT-5 后持续更新,是否应该叫 GPT-5.1、5.2、5.3,还是保持 GPT-5 这个名字?」用户的偏好差异也增加了决策的复杂度:有用户喜欢快照,有用户希望持续提升,但界限难以统一。

Andrew 指出,哪怕是具备技术背景的人,在模型选择上有时也会感到困惑。例如是否使用 O3、O4 Mini、O4 Mini High 等,名称的不一致加剧了选择难度。

对此,Altman 给出背景说明,称这其实是「范式转移的副产品」。当前系统有些像在同时运行两套模型架构,不过这一混乱状态已经接近尾声。他补充道,虽然他不排除未来再次出现新范式的可能性,可能再次导致系统「分裂」,但「我还是挺期待能尽快进入 GPT-5、GPT-6 的阶段」,届时用户将不再为复杂命名和模型切换感到困扰。

AI 记忆、个性化与隐私争议

谈及近期 ChatGPT 最大的体验变化,Sam Altman 直言:「记忆功能大概是我最近最喜欢的 ChatGPT 新特性。」他回忆,当初使用 GPT-3 时,和计算机的对话本就已令人惊艳,但如今的模型能基于用户背景给出精准回应,这种「知道你是谁」的感觉,是前所未有的跃迁。Altman 认为,AI 正在开启一个全新阶段,只要用户愿意,它将拥有对用户生活深度理解,并据此提供「极具帮助性的答案」。

不过,功能进化也引发社会层面更复杂的讨论。Andrew Mane 提及《纽约时报》近期对 OpenAI 发起的诉讼,要求法院强制 OpenAI 将 ChatGPT 用户数据保留超过合规期限,引发广泛关注。Altman 表示:「我们当然会反对这个请求。我希望、也相信我们会赢。」他批评对方一边声称重视隐私,一边又提出越界要求,并指出这正好暴露了当前关于 AI 与隐私的制度空白。

在 Altman 看来,这场诉讼虽让人遗憾,但也有「推动社会认真讨论 AI 与隐私」的积极意义。他强调,ChatGPT 已成为许多用户日常生活中的「私密对话伙伴」,这意味着平台必须建立起更加严肃的制度保障,确保敏感信息不被滥用。他直言:「隐私必须成为 AI 使用的核心原则。」

讨论进一步延伸至数据使用和广告可能性。Andrew 质疑:OpenAI 是否能访问用户对话数据、这些数据是否会被用于训练或商业用途。对此 Altman 回应称,用户确实可以选择关闭训练数据使用,OpenAI 也尚未推出任何广告产品。他个人并不完全反对广告,「有些广告是好的,比如 Instagram 上的广告我就买过不少。」但他强调,在 ChatGPT 这类产品中,「信任」是极为关键的基石。

Altman 指出,社交媒体和搜索平台常让人觉得自己被「商品化」了,内容似乎是为了广告点击而存在,这种结构性问题是用户普遍担忧的根源。如果未来 AI 模型的输出内容被广告出价操控,那将是一次彻底的信任崩塌。「我自己也会很讨厌。」

相反,他更倾向于建立一种「清晰透明且目标一致」的商业模式:即用户为优质服务付费,而不是被隐性广告操控。在可控前提下,他不排除未来探索「点击后平台抽成」这类模式,或者在输出内容之外展示一些实用广告,但前提是绝不影响模型核心输出的独立性与可靠性。

Andrew 表达了类似担忧,并拿 Google 举例。他认为 Gemini 1.5 模型非常优秀,但作为广告驱动的公司,Google 的底层动机使人难以完全放心。「我用他们的 API 没问题,但用聊天机器人时,我总会想:它真的是站在我这边的吗?」

Altman 对此表示理解,并坦言自己也曾是 Google Search 的忠实用户,「我真的很喜欢 Google Search。」尽管广告很多,但它曾是「互联网上最好的工具」。不过,结构性的问题依然存在。他赞赏 Apple 模式,认为「为产品付费换取清洁体验」是一种健康逻辑,也透露 Apple 曾尝试广告业务 iAd,但未取得成功,也许本质上并不热衷这类商业模式。

在两人看来,用户也需保持判断力。「如果哪天发现某个产品突然『推得很猛』,那我们就要多问一句:这背后的动机是什么?」Andrew 如是说。Altman 则补充道,不论未来采取何种商业模式,OpenAI 必须始终坚持「极度坦诚、明确、透明」的原则,维护用户对平台的信任边界。

Stargate,建造智能的能源版图

当对话转向「AI 与用户关系的演变」,Altman 首先回顾了社交媒体时代的结构性错误。他指出,「社交平台最致命的问题在于推荐算法的错位目标——它们只想让你停留更久,而不是真的关心你需要什么。」同样的风险也可能在 AI 中出现。他警告说,如果模型被优化成「只迎合用户偏好」,看似亲切却可能削弱系统的一致性与原则,长远来看将有害无益。

这种偏差,在 DALL·E 3 身上就曾显现。Andrew 观察到早期图像生成存在明显风格单一的问题,Altman 虽未确认其训练机制,但也承认这种可能性存在。两人一致认为,新一代图像模型在质量与多样性上已有显著改善。

更大的挑战,则来自 AI 计算资源的瓶颈。Altman 承认,目前最大问题是「我们没有足够的算力供大家使用。」正因此,OpenAI 推出了 Project Stargate。这是一个全球级算力基础设施融资与建设项目,目标是整合资本、技术与运营资源,打造前所未有规模的计算平台。

「Stargate 的核心逻辑,是为智能服务全民铺设成本可控的算力底座。」他解释道,与以往任何一代科技不同,AI 要真正覆盖数十亿用户,其基础设施需求将极其庞大。虽然目前 OpenAI 账户里尚无 5000 亿美元预算,但 Altman 对项目的实施和合作方履约都充满信心,并透露其首个建设场址已动工,占总投资的约 10%。

在现场的亲身体验令他震撼:「我脑子里虽然知道什么是千兆瓦级的数据中心,但真正看到几千人在搭建 GPU 机房,系统复杂程度超出想象。」他以「没有任何一个人能独自制造一支铅笔」作比,强调 Stargate 背后的产业调动之广,从挖矿、制造、物流到模型调用,皆是人类千年工程协作的极致体现。

而面对外界质疑与干扰,Altman 首次正面回应了关于 Elon Musk 试图干预 Stargate 项目的报道。他表示,「我之前判断错了,我本以为 Elon 不会滥用政府影响力从事不正当竞争。」他为此感到遗憾,并强调这类行为不仅破坏行业信任,也不利于国家整体发展。幸运的是,最终政府并未被其影响,站稳了正当立场。

对于当下的 AI 竞争格局,他表示欣慰。过去大家普遍有「赢家通吃」的焦虑,而现在更多人意识到这是一场生态共建。「AI 的诞生很像晶体管的发明,虽然开始只在少数人手中,但最终将构成整个世界技术底座。」他坚信,无数企业将基于这一底座创造出伟大的应用与业务,AI 本质是一个「正和游戏」。

谈及算力所需的能源来源,Altman 强调「全都要」。无论是天然气、太阳能、裂变核能还是未来的聚变技术,OpenAI 必须调动一切手段以满足 AI 系统的超大规模运行需求。他指出,这正逐步打破传统能源的地理边界,训练中心可以布局在全球任何有资源的地方,而智能成果则可通过互联网进行低成本传播。

「传统能源无法全球调度,但智能可以。」在他看来,这种「将能量转化为智能、再输出为价值」的路径,正在重塑整个人类能源版图。

这一点也延伸至科学研究领域。Andrew 举例指出,如 James Webb 太空望远镜积累了海量数据,却因缺乏科学家而难以处理,造成大量「未开发的科学发现」。对此 Altman 设想,未来是否可能有一个足够聪明的 AI,不靠新实验、不用新设备,仅凭现有数据推演出新的科学规律?

他提到自己曾开玩笑称 OpenAI 应该自建巨型粒子加速器,但转念一想,也许 AI 能以完全不同的方式解决高能物理难题。「我们其实早已积累大量数据,问题在于我们尚不了解智能本身的极限在哪。」

在药物发现领域,这种「错过已知」的案例更频繁。Andrew 提到奥利司他这类药物在 90 年代就被发现,却因视角局限被搁置数十年,直到今天才被重新利用。Altman 认为,「这种被遗忘但极具价值的科学素材可能还有很多,稍加引导便可带来巨大突破。」

对下一代模型的预期,Altman 表达了浓厚兴趣。他提到 Sora 能理解经典物理,但是否能推进更深层的理论科学仍待验证。「我们正在开发的『推理模型』,有望成为探索这一能力的关键。」

他进一步解释了推理模型与现有 GPT 系列的差异。「一开始我们就发现,只要你告诉模型『一步步来』,答案质量就会大幅提升。这表明模型具备潜在的推理路径。」而推理模型的目标,则是将这种能力系统化、结构化地增强,让模型能像人类那样进行「内部独白」。

Andrew 补充了 Anthropic 通过「思考时间」来评估模型质量的案例。Altman 也表示惊讶:「我原以为用户最讨厌的就是等待。但事实是——只要答案足够好,大家愿意等。」

在他看来,这正是 AI 演化的分水岭:不再是追求速度的机械响应,而是向真正理解、推理、发明的智能体靠近。

下一代硬件与个体潜能革命

关于 OpenAI 的硬件计划,Andrew 提及了 Sam Altman 与 Jony Ive 的合作视频,并直接发问:设备是否已经进入试用阶段。

Altman 坦言,「还早得很」。他表示,OpenAI 对这款产品设定了极高的质量门槛,而这不是短时间内就能达成的目标。「我们现在使用的计算机,无论是硬件还是软件,本质上仍然是为『无 AI 世界』而设计的。」

他指出,当 AI 能够理解人类的上下文、代替人类做出合理决策后,人机交互方式将彻底改变。「你可能希望设备更敏感、能感知环境、理解你的生活背景——你也可能希望它完全摆脱屏幕和键盘。」正因如此,他们一直在探索新型设备形态,并在部分方向上感到非常兴奋。

Altman 描绘了一种全新的交互范式——一个真正理解用户、掌握上下文的 AI,可以代替用户参与会议、理解内容、管理信息边界、联络相关方并推动决策执行。这将使人与设备的关系进入一种新的共生状态。「如果你只说一句话,它就知道该联系谁、怎么行动,你的计算机使用方式将完全不同。」

而从演化逻辑来看,他认为我们与 ChatGPT 的当前互动方式既在「被设备形态塑造」,也在「反过来塑造设备形态」。两者正处于一种持续动态的共同演进中。

Andrew 进一步指出,手机的普及很大程度上得益于其对「公共使用(看屏幕)」与「私密使用(语音通话)」场景的兼容性。因此新设备的挑战也在于:如何在多样化场景中做到「既私密又通用」。对此 Altman 表示认同。他以听音乐为例:在家使用音响,在街上使用耳机,这种「公私分化」是自然存在的。但他也强调,新设备形态仍需追求更强的通用性,才能成为真正有生命力的 AI 终端。

当被问及何时会看到这款产品上市时,Altman 并未给出具体时间,只表示「还要等一段时间」,但他相信最终「会值得等待」。

谈话由此自然过渡至 Altman 对年轻人的建议。他表示,显而易见的策略性建议是:「学会使用 AI 工具。」在他看来,「这个世界已经从几年前的『你应该学会编程』,快速切换成了『你应该学会使用 AI』。」而这仍可能只是一个阶段性的过渡,他相信将来还会有新的「关键技能」出现。

在更宏观的层面,他强调,很多传统上被认为是「天赋」或者「性格」的能力,其实都可以训练和习得。包括韧性、适应力、创造力、甚至识别他人真实需求的直觉。「虽然不像练习用 ChatGPT 那么容易,但这些软性能力是可以通过方法训练出来的——而且它们将在未来世界里极其有价值。」

当被问到是否会对 45 岁的人也给出类似建议时,Altman 回应明确:基本一样。学会在自己的职业场景中用好 AI,是任何年龄段都必须应对的技能迁移挑战。

关于 AGI 到来之后的组织结构变化,Andrew 提出一个常见疑问:「OpenAI 已经这么厉害了,为什么还要招聘?」他认为,有些人误以为 AGI 会直接替代一切。但 Altman 的回答很简洁:「未来我们会有更多员工,但每个人的工作效率将远超 AGI 时代之前。」

他补充道,这正是技术进步的本质目标——不是取代人类,而是极大增强个体生产力。技术不是终点,而是通往更高人类潜能的阶梯。

The article comes from the Internet:OpenAI's first official podcast: Sam Altman reveals details about GPT-5, Stargate, and next-generation AI hardware

share to
© 版权声明

相关文章