OpenAI大量内幕曝光,7年“潜伏”调查扒出AI帝国真面目

【来源:虎嗅网】

本文来自微信公众号:APPSO,作者:appso,题图来自:AI生成

回到 2019 年,OpenAI 还只是一个实验室、一个小作坊,Sam Altman 也是 Y Combinator 里的一员,甚至还有一次创业失败的经历。

那时的 OpenAI 是什么样子?前《华尔街日报》记者、现《MIT 技术评论》的人工智能高级编辑 Karen Hao,最有发言权。她在当时就得到机会深入内部,与 Greg Brockman、Ilya Sutskever 等人交流。

她也慢慢发现,这家公司有相当多的“隐雷”。在 Karen Hao 的笔下,Sam Altman 像是一位善于控制叙事的“说书人”,而非一个以一致性和透明度为基础的 CEO。他与马斯克的恩怨,从头到尾都像是 PUA 的一次精彩演绎。

事实证明,这些“隐雷”在后来导致了 OpenAI 一系列的“宫斗”大戏,以及接二连三的人员出走。

她最深的担忧来自于:这样的人,并不直言真相,却能在不撒谎的前提下,取得你全部的信任。

值得一提的是,在 Karen Hao 的这本《Empire of AI》之外,还有几本聚焦 OpenAI 的书即将问世。其中包括由 Ashlee Vance 撰写的一部作品,获得了 OpenAI 极少授予的“幕后访问权限”。Sam Altman 曾在公开回应中表示,虽然没有一本书能百分百准确地还原一切,但这些作者确实花了不少时间,试图贴近事实与复杂性。

相较之下,《Empire of AI》的观察更贴近记者视角,Karen 并未获得同等级别的内部权限,这也使她的书在某些读者看来,可能更具批判性与距离感。

上周,Karen Hao 的新书《Empire of AI》正式出版,这是她近 7 年来为 MIT Technology Review、《华尔街日报》和《大西洋月刊》报道人工智能的结晶。书中基于 300 多次采访,涉及约 260 人,其中包括 90 多名现任和前任 OpenAI 员工的 150 多次采访,以及大量的通信和文件资料。本文为节选,经编译调整,带你走回 2019 年时,一切都还没发生,但已经埋下种子的时刻。

2019 年 8 月 7 日,我来到了 OpenAI 的办公楼。当时 31 岁的 Greg Brockman 是 OpenAI 的首席技术官,不久后他还会成为公司总裁,他从楼梯下来迎接我,脸上带着略显迟疑的微笑,和我握手。

“我们从没让过一个外人这样深入接触公司,”他说。

那时,除了 AI 研究圈内的人,很少有人听说过 OpenAI。而作为 MIT 科技评论专门报道人工智能进展的记者,我一直密切关注着这家公司的动向。

在那之前的几年里,OpenAI 在 AI 研究领域有点像“被抱养的孩子”。它提出了“十年内实现 AGI(通用人工智能)”的大胆设想——许多 AI 专家对此完全不信。

对业界来说,OpenAI 资金充足得有些过分,但方向又不够清晰,把大量钱花在了宣传上,而同行们经常批评他们的研究并不新颖。

有的人对其又爱又恨——作为一个非营利组织,OpenAI 宣称不追求商业化,它曾是一个难得的学术乐园,是“边缘想法”的避难所。

然而,在我到访前的六个月里,OpenAI 接连发生的变化,显示出公司在轨道上正经历一次大转向。首先,是他们“吊胃口”般地宣布却又拒绝开放 GPT-2,引发无数争议。

接着,Sam Altman 突然离开了 YC,出任 OpenAI CEO,并公布了新的“有限利润”结构。我已经安排好到访,OpenAI 随后又宣布与微软达成交易,让后者拥有优先商业化权,并且强制只能使用微软的云平台 Azure。

这些消息带来了新的争议、外界的激烈猜测,以及越来越多的关注,影响开始超越科技圈本身。当我和同事们报道 OpenAI 的发展时,难以体会整个事态的份量。

可以肯定的是,OpenAI 正开始对 AI 研究产生实质影响,并改变政策制定者的认知。公司转型为部分盈利组织的决定,将在业界和政府范围引起连锁效应。

某个深夜,在我编辑的建议下,我写邮件联系了 OpenAI 的政策总监 Jack Clark(之前已采访问过他):我会在旧金山停留两周,现在正是报道 OpenAI 历史的关键时刻,他们愿意接受深度专访吗?Clark 把我转给了公司公关负责人,对方同意了 OpenAI 重新向公众“自我介绍”。他们给了我三天可以采访管理层、进入公司内部的时间。

为什么一定是 AGI ?

Brockman 和我在一间玻璃会议室坐下,OpenAI 的首席科学家 Ilya Sutskever 也在场。他们肩并肩坐在长桌一侧,气氛分明:Brockman 是工程师、实干派,身体前倾,略显紧张,试图留下好印象;而 Sutskever 则是学者兼哲学家,靠在椅背上,悠闲淡定。

我打开笔记本,开始提问。“OpenAI 的使命是确保 AGI 造福人类。为什么要在这个目标上投入数十亿美元,而不做别的事情?”

Brockman 坚决点头,显然很习惯为 OpenAI 辩护。“我们如此关心 AGI,并认为必须建造它,是因为它能帮助解决那些人类自身难以企及的复杂问题。”

他举了两个 AGI 信徒常用的例子:气候变化——“超级复杂的问题,我们怎么解决?”医疗健康——“看看医疗现在在美国多重要,怎么才能让大家获得更好、成本更低的治疗?”

说到这里,他分享了朋友的亲身经历:朋友患有罕见疾病,为了确诊奔波于各类专科医生之间,过程既费力又沮丧。假如有了 AGI,可以集成各领域专长,这样的人不再需要为寻求答案耗费巨大精力和情绪。

为什么非得要 AGI,而不是 AI 就能做到?”我追问。

这个区分很重要。AGI 一词曾经鲜有人提,被视为技术词典中的“冷门条目”。但部分由于 OpenAI 的推动,现在它逐渐变得主流。

OpenAI 的定义是,AGI 是 AI 研究的理论顶点:一种软件,拥有与人类同等的复杂性、灵活性和创造力,大部分(尤其具有经济价值的)任务上能与人类媲美甚至超越。

但这里的关键词是“理论上的”。

数十年来,学界一直争论,基于二进制芯片的软件是否能真正模拟大脑和诸如意识等生物过程,实现“智能”。至今还没有确切证据说明这是可能的。而且,这还没触及“该不该这样做”的伦理问题。

而 AI,是当下流行用来描述现有/近期可以实现的技术,依靠强大的模式识别能力(即机器学习)已经在气候应对与医疗等领域显示出巨大应用潜力。

Sutskever 也加进了讨论。他说,面对这些复杂的全球挑战,“本质的瓶颈在于,人类太多了,但沟通不够快,效率不够高,还总有利益冲突。”而 AGI 不同,“想象一下,一整个智能计算机网络,大家都做医学诊断,结果以极快速度交流。”

听起来,这似乎意味着 AGI 目标就是“取代人类”?事后我与 Brockman 单独聊时,把问题抛给了他。

“不,”Brockman 立刻否认。“这非常关键。技术的目的是什么?为什么我们要创造新技术?人类几千年来一直这么做,是因为技术服务于人。AGI 也是如此——至少我们想象和期望中它应该如此。”

不过,他也承认,任何技术都会造成一些职业消失,同时创造新的岗位。OpenAI 的挑战,就是要打造那种让所有人拥有“经济自由”,能在新世界继续“有意义生活”的 AGI。如果能做到,将是把“生存”从“必须劳动”中解放出来。

“我其实觉得,那会非常美好。”

谈话过程中,Brockman 重申了一个大前提:“其实我们并不是决定 AGI 会不会到来的人。”

这是硅谷常用的论调:“反正别人也会做。” “形势已经不可逆转,我们唯一能影响的是,AGI 出生时的初始条件。”

“OpenAI 是什么?我们的目标是什么?我们究竟在做什么?我们的使命就是确保 AGI 造福全人类。具体做法就是:建造 AGI 并将其经济成果分发出去。

他语气笃定,好像已经完全解答了我的疑问。但其实我们只是绕了一圈,又回到了出发点。

没人知道 AGI 到底长啥样

我们的对话像打转的圈,不知不觉就到了时间。我希望获得更多具体信息:OpenAI 到底在做什么?他们却表示,事物本身就难以明确——他们自己也无法预知。

既然如此,怎么就如此确信 AGI 一定“利大于弊”呢?我换个角度追问,请他们举几个负面影响的例子。毕竟 OpenAI 建所的最初理由之一,就是要比别人先造出“好”的 AGI,防止“坏”的先出现。

Brockman 试着回答:比如 Deepfake 深度伪造技术,“目前来看用它做的事情未必让世界变得更美好。”

我自己补充了气候变化相关的问题:近年来,美国麻省大学阿默斯特分校的一项研究发现,为训练越来越大的 AI 模型,碳排放量惊人且持续上升,AI 自身也是环境负担。

Sutskever 坦言,“这点毋庸置疑”,但他认为回报值得,因为 AGI“其中一个作用就是反过来弥补环境损耗”。不过,他没能给出具体实例。

“数据中心越“绿色”当然越好,”他说。

“毫无疑问。”Brockman 接话。

Sutskever 持续阐述:“数据中心是最大的能源、用电消耗者。”

“全球占比大约 2%。”我补充。

“比特币大约 1%?”Brockman 问。

“哇!”Sutskever 突然情绪激动,但聊到这里已近 40 分钟,这番表现有点像刻意为之。

后来他还在《天才制造者》的采访中对《纽约时报》记者 Cade Metz 说过毫无讽刺地表示,“我觉得,很可能整个地球表面最终都会被数据中心和电站覆盖。”会有一场“计算能力的海啸……像自然灾害一样”。AGI 和它需要的数据中心“太有用了,不可能不被建造”。

我再次质疑:“也就是说,你们在豪赌,AGI 能在它自己带来环境灾难之前解决全球变暖?”

“我不会太钻牛角尖,”Brockman 赶紧打断。“整体来看,我们正站在 AI 进步的坡道上。这已经超出 OpenAI 本身,是整个领域在向前。而社会也实际从中受益。”

“微软那天宣布投资 10 亿美元,市值涨了 100 亿美元。说明资本市场也相信,短期技术都能带来正向回报。”

因此,OpenAI 的策略很简单:跟上 AI 进步的步伐。“这才是我们应当坚持的标准。只要不断向前,我们就没偏离道路。”

当天晚些时候,Brockman 又重申,OpenAI 面临的最大挑战,就是没人知道 AGI 到底长啥样。他和同行们只能边做边摸索,逐步发现这项技术的真正形态。

他的话听起来像那句名言:米开朗基罗雕大卫,确信雕像本就藏在石头里,他要做的只是不断打磨。

原本安排可以在公司食堂与员工共进午餐,但突然变故,让我必须离开大楼——Brockman 特意全程陪同。我们走到街对面的露天咖啡馆,那是 OpenAI 员工最爱去的小据点。

这成了我后续参访的主旋律:很多楼层不让看,会议不让参加,受访者经常偷偷望向负责公关的同事,紧张自己有没有失言。后来我得知,我离开后,Jack Clark 在内部 Slack 上专门警告员工“除非正式安排否则不要私下和我说话”;门卫还收到我的照片,被要求如果未经批准看到我进楼就要特别注意。

这一切显得异常,毕竟 OpenAI 一直标榜“透明”。我开始纳闷:如果研究最终都是公开造福社会的,他们究竟在隐藏什么?

午餐及接下来的时间,我进一步了解 Brockman 为何要创办 OpenAI。他少年时就沉迷于“复制人类智能”的想法,阅读英国数学家图灵那篇经典论文点燃他的激情。

论文开头“模仿游戏”(The Imitation Game)提出“机器能思考吗?”并引出了图灵测试的思想:只要机器和人对话,不被分辨出身份,就已算过关——这是 AI 领域“入门故事”之一。

Brockman 当年为此写了个图灵测试小游戏,上传后有 1500 多次访问,让他觉得“我就想搞这样的事”。

2015 年,AI 取得飞跃进展,Brockman 觉得是时候追回初衷,加入 OpenAI 成为联合创始人。他给自己写下笔记,“只要能推动 AGI 实现,哪怕打扫卫生也愿意做。”

2019 年结婚,他还特地在 OpenAI 的办公室举办仪式,背景是公司六边形 Logo 定制的花墙,Sutskever 亲自主持仪式。实验用的机械手臂充当“伴郎”,拿着戒指守在过道上,颇有末世科幻的画面感。

“我这辈子就想干 AGI 这事,”Brockman 说。

“是什么力量驱动你?”我问。

“你觉得这辈子有多大概率会遇到颠覆文明的新技术?”他反问。

他坚信,自己和团队,有独特条件来推动技术变革。“我真正想参与的,是那种‘如果少了我事情就不会这样展开’的问题。”

事实上,他并不想只做个“打杂的人”,而是真正想做 AGI 的“舵手”。他身上有强烈的渴望——希望有朝一日,自己的故事可以像讲述历史伟大创新者那样被后人传颂。

一年前,他曾在一个小型高端创业者聚会自嘲:“有谁记得著名的 CTO?”现场没人能举出哪个 CTO 的名号。“这就说明问题。”

2022 年,他成为 OpenAI 总裁。

哪种技术真的造福全人类了?

整个采访期间,Brockman 始终强调,OpenAI 结构的调整并不意味着使命变了。新引进的“有限利润”和新投资人反而增强了使命感。“我们找到了真正以使命优先而不是回报优先的投资人,这真是稀有。”

OpenAI 终于有足够的长期资源来扩展模型,领先竞争对手。Brockman 说,这非常关键,否则 OpenAI 的理想就会落空。假如 OpenAI 落后,就没机会引领“人类造福的 AGI”变革。

后来我才意识到,这一假设——“非快不可,否则一切归零”,正推动所有 OpenAI 的关键举措和一切深远后果。每一次研究进展都像倒计时一样,不能以“稳妥”为主,而是必须抢在别人前冲到终点。

这也就成了 OpenAI 消耗巨量资源的理由:算力消耗(不考虑环境代价)、数据搜集(哪怕未经同意,不等法规完善)

Brockman 再次提到微软市值上涨 100 亿美元,“这说明 AI 确实开始给现实世界带来价值。”但他也承认,这些价值现在还是被大企业“集中享用”。所以 OpenAI 的目标是二次分配 AGI 收益,让所有人都能受益。

“历史上有哪种技术真的实现了成果普惠?”我问。

“其实可以看看互联网……”他有点踌躇,然后回答。“当然也有问题对吧?任何颠覆性技术,都很难做到‘利大于弊’、‘弊端最小化’。”

“火也是例子,”他说,又补充,“火有负面影响,所以人类要学会控制,有一致的标准。”

“汽车也是好例子。很多人有车、车子带来好处,但也有很多外部性,对世界未必全是积极。”他语气迟疑地结束。

“我理解我们的愿景,其实和‘互联网的积极面’、‘汽车的积极面’、‘火的积极面’差不多。只是具体技术实现方式天差地别。”

他说到这儿眼睛一亮:“你看,电力设施、水电公司都是高度集中的实体,为所有人低成本高效率地提供生活改善。”这是个不错的比喻。但他似乎仍然不能说清 OpenAI 怎么成“公用事业”。或许是靠普惠基本收入,或许有其他方式。

他最后回到确定的那一点:OpenAI 致力于分配 AGI 红利、让每个人都获得经济自由。“我们说的是真的。”

“到目前为止,技术确实让整个社会进步,但副作用是集中效应更强。”他总结说,“AGI 可能更极端。如果所有价值都被某一方锁死呢?社会已经在朝那个方向走——但我们还没见过那一步。我不希望看到那样的世界,也不愿意成为那个世界的推手。”

一切若只如初见

2020 年 2 月,我在 MIT 科技评论刊发了这篇报道,基于我在公司里的观察、三十多次采访和一些内部资料。

公司的宣传和实际运作之间出现了错位,”我写道。“长久以来,内部的强烈竞争和对资金的渴求逐渐侵蚀了其早期承诺的透明、开放与协作理念。”

几个小时后,Elon Musk 连续发了三条推特回应:

“OpenAI 理应更开放(imo)。”“我对 OpenAI 没有控制权,了解也很有限。对 Dario 负责安全没信心”,他指的是时任研究负责人 Dario Amodei。“所有开发高阶 AI 的组织都应被监管,包括特斯拉。”

随后,Sam Altman 发了一封邮件给全体员工。

“关于 MIT 的报道,我想谈谈我的看法。虽然不算灾难性,但确实是负面报道。”

他坦言,报道确实指出了外界认知与 OpenAI 现实的脱节。对此,公司无需改变日常运作,只要微调对外表述就行。

“我们学会了灵活调整,这是好事,”他说,包括调整组织结构、提升保密级别,“都是为达成使命更好地学习。” 

他建议,暂时不要理会这篇报道,等几周后再集中对外宣讲公司坚守初衷。“正好借 API(应用接口)方案表达我们的开放和红利分配战略。”

“我最在意的是,有人泄露了公司内部文件。”他表示公司已开展调查,会持续通报进展。

他还建议 Amodei 与 Musk 当面沟通,对方“这次批评算温和”,但“也是不好的事”。为避免误解,他写道,Amodei 的工作和 AI 安全极其重要。以后公司也应该找到合适时机,公开为团队辩护(但现在先别成新闻口中交锋的反面对立)

从那以后,OpenAI 三年没有再接受我的采访。

原文地址:https://www.technologyreview.com/2025/05/19/1116614/hao-empire-ai-openai/

本文来自微信公众号:APPSO,作者:appso