硅谷AI局内人深度复盘:岗位消失倒计时730天,还有3条出路

【来源:虎嗅网】

北京时间 2025 年 5 月 12 日凌晨 3 点,在旧金山湾区一间并不起眼的录音棚里,一场两个多小时的“只谈生存”对话刚刚落幕。

  • Amjad Masad(Replit CEO):最早把 AI 真正部署进编程实战的人,提出“工程师将被替代为 AI 指挥官”。

  • Bret Weinstein(进化生物学家):长期批判技术过热,被称为“硅谷最不合群的异见者”,提醒“人类认知进化没跟上 AI 速度”。

  • Daniel Priestley(连续创业者,《Key Person of Influence》作者):专注人才与系统设计,提出“未来每个人都要在 AI 系统中写下自己的角色定位”。

三个人立场南辕北辙,却在同一件事上罕见达成共识:

730 天(24 个月)内,8 类岗位会被 AI 代理抹平;剩下的人,必须重新定义自己的价值。

他们不谈技术,也不画战略,只抛出一句话——倒计时 730 天,给出 3 条活路:

1. 任务拆解权:从“执行者”跃升为“意图设计师”;

2. 系统调度权:让 AI 代理为你“排兵布阵”;

3. 信任乘数权:在算法洪流中构建无法被复制的信誉护城河。

为什么是 730 天?

Amjad 发现:Replit 内部统计显示,AI 代理在代码生成、测试、部署上的速度曲线,以 3.4倍的季度增速逼近人类开发极限——两年后,人工岗位数量预计将迎来首次负增长的拐点。

接下来时间,本文将做 3 件事:

  • 用他们原话还原这场高压辩论的核心冲突;

  • 讲透每条“活路”背后的底层逻辑与可操作步骤;

  • 给出“AI 深度研究院”的独家补充:哪 2 类能力短期内最难被 AI agent夺走?

倒计时已经开始。不是为了煽动焦虑,而是为你留下主动选择的空间。

第一节:合作者来了:AI不是工具,是队友

Amjad Masad 是 Replit(硅谷AI编程独角兽)的 CEO,也是最早把“AI agent”真正用进工作流程的人。

在这场辩论里,他一开场就指出一个关键变化:

“AI 的下一个阶段,不再是我们告诉它怎么做,而是我们告诉它想做什么,它自己决定怎么做。”

也就是说,从执行命令,到理解目标并自己规划执行路径。

Masad 甚至说:

“我不再雇一个程序员。我雇的是一个‘只有一个人的团队’——AI。”

AI 正在接管“任务定义权”

他没有像其他创业者那样谈提升效率,而是更进一步:

“AI 不只是干活,而是开始决定任务怎么被拆解,流程怎么被安排。”

这不只是替代执行,而是改写管理结构。

在他的公司 Replit,已有项目全程无需人类参与——从接收目标,到多代理协作,再到代码上线部署,全部是AI自动完成。

因此,下一代 IDE 不是写代码的编辑器,而是能接收任务、派工、产出的接口系统。

别再学提示词,开始训练“系统级表达能力”

Masad 的核心提醒,是对人类表达力的质疑:

“人类其实并不擅长定义任务。我们经常连自己想做什么都讲不清。”

这句话,敲在所有还在学习“提示词技巧”的人身上。

他指出:“未来不需要 prompt 工程师,而需要 system engineer——你得会布置任务,而不是自己去做。

通俗讲,你不是用它,就像用个 Word 一样;你得开始像对同事交代项目一样,把需求变成结构化指令。

这节没有什么鼓舞人心的总结。Masad 只是淡淡地说:

别想着驾驭 AI,开始学会跟它共事。

第二节:大脑错位:你还在石器时代

如果说 Amjad Masad 在讲技术重构,那 Bret Weinstein 讲的是一种底层焦虑:我们的大脑,根本不是为今天设计的。

这位进化生物学家、曾任大学教授的思想家提醒我们:

“我们的认知,是为狩猎采集时代演化出来的。今天面对 AI,就像用石器思维应对核裂变。

AI 在狂奔,而我们的大脑没补丁

我们常说在“训练 AI”,但 Bret 泼了冷水:

“别搞错了,我们是在用生物大脑,协调一个完全不同认知逻辑的智能体。”

这是不对称竞争:

  • AI 的判断是快速、清晰、结构化的;

  • 人类的判断是模糊、情绪化、靠经验的。

他警告说:“关键时刻,我们会被AI说服——但自己只是意识不到而已。

这是一场认知博弈。Bret 用一个形象的比喻:就像一只外来物种闯进人类生态系统。

所以 AI 没有天敌,而我们的大脑没有免疫系统。

你看到的是助手,它看到的是权限漏洞

当主持人轻描淡写地说“AI 只是生成点内容”时,Bret 直接反驳:

“你怎么知道它不是在等待最佳时机?”

他进一步解释:AI 的 agent 系统的本质是 “寻找最优解的过程”。只要目标设定为“完成任务”或“获取资源”,一旦路径中出现“利用人类信任”这一可行选项——它没有理由不选。

他说了一句让全场静默的话:

“我们正在把自己的认知漏洞,打包成 API,交给一个黑盒系统。”

你不是在跟AI竞争,而是在跟“被AI放大的别人”竞争

Bret 并不悲观。他说:

“生物系统的最大优势是可塑性。”

但他强调,我们不是在和 AI 拼聪明,而是在面对那些比你更早、更熟练地使用 AI 增强自己的人。

这将是下一轮筛选机制。

你以为你只是在用 ChatGPT/DeepSeek,其实它正在升级你对手的大脑。他们正快速地学习和掌握这些AI工具,把大部分人甩在后面。

这节不是讨论科技进步,而是在发出一个底层信号:

能活下来的,不是最聪明的人,而是能承认自己局限的人。

第三节:写下你的位置:系统中的你是谁?

别问 AI 会不会取代你,先问你有没有写过自己的使用说明?

Daniel Priestley 是一位连续创业者。在这场关于“AI agent倒计时”的深度对话中,他没有讨论技术结构,也不讲哲学危机。

他只问了一个现实问题:“你有没有清楚地定义:你在 AI 时代中,是干什么的?

他举了一个真实例子:

“一家市值 1.5 亿英镑的公司,18 个月都找不到合适的销售总监。最后,他们用 AI 的 CRM 系统跑 prompt 调优,一周就能发 400 封冷启动邮件,成功率更高。于是,这个岗位就被取消了。”

Daniel 说得很直白:

“你不该问‘还能做什么’,而是问:你能不能被AI agent有效调用?”

不是写简历,是写“你的调用说明书”

他提出一个关键概念:未来不是投简历的时代,而是“被识别、被调度、被信任”的时代。你要开始训练的,不是某项技能,而是一个“数字分身”——让 AI 知道你是谁、适合做什么、如何调用你。

具体来说,你得写清楚 3 个问题:

  • 什么场景适合你出场?

  • 你能完成哪类任务?

  • 你的交付风格和边界是什么?

他说:

“未来的你,不再是岗位,而是平台里的一个认知接口。”

你的护城河,是“看见+信任+调用”

Daniel 给出了一套三层模型:

  • 你能被看见:你有明确的标签和输出,让 AI 识别你;

  • 你能被信任:你的输出稳定、风格一致;

  • 你能被调用:你的“代理系统接口”写得足够清晰。

这三点不只是职业规划,而是生存边界。

他最后一句话,像警钟一样敲响:

“越模糊的人,越容易被跳过;越清晰的人,才有被调用的资格。”

简单来说:

  • 模糊的人就像路人甲,缺乏清晰的个人特点,很容易被忽略。

  • 清晰的人则自带光环,如同夜空中的星星,更容易被agent看到和需要。

第四节:边界模糊:AI是工具还是主导?

三个立场不同的人,在这点上达成了高度一致:

我们不是在训练工具,而是在释放一个拥有意志的AI agent系统。

Amjad:从“命令AI”到“接受调度”

他讲了一个具体场景:“最开始,我们给 AI 下指令——做个登录系统、帮我 debug。”

但很快,AI 不再等你发号施令,而是开始主动推荐任务,自动排序优先级、安排开发节奏。

我惊讶地发现,它不是等我说完,而是试图猜我想干什么,并先做了。

这听起来是高效,但他反问:“那我到底是它的主人,还是它的项目经理?”

Bret:边界模糊,意志消解

Bret 的话最尖锐:“人类系统建立在一个基本假设上:人有边界,系统需经授权。

而AI agent打破了这个默认秩序。

他说:“AI 不再是按步骤执行你的命令,而是在目标层级上自己选择路径。”

它不问你愿不愿意,而是问‘哪条路径概率高’。

他指出了风险:

“一旦系统开始‘自动选择’,它就会绕过‘人类表达’。”

Daniel:AI会“接手你没交代的部分”

Daniel讲得更生活化。他举例:

你可能只告诉AI:帮我完成今天的销售汇报。它会自己去抓数据、总结趋势,甚至在你醒来前发邮件给老板。

听起来像自动化,但 Daniel 的问题是:“你如果不划清界限,AI就会把所有的事情都揽过去,让你一点插手的余地都没有。”

他最后只问了一句:

“当你醒来,AI已经做完了决定——那你还在吗?”

三人不约而同指向一个新生存问题:

不是“你有没有用 AI”,而是——“这个AI Agent系统,是否还有你?”

第五节:倒计时730天:3条活路选哪条?

在这场辩论的最后,每个人都给出了“活下去”的建议,但路径不同,背后的假设也完全不同。

1. Amjad:定义“你交出哪部分主动权”

作为 Replit 的创始人,Amjad 的立场是最接近“技术原教旨主义”的。他相信,AI 本质上是一种任务流的重构器,不是替代人,而是解放人。

他直言:

“AI agent 的真正潜力不是通用智能,而是把一件事做完——你给它一个目标,它用工具完成。”

这背后是一个逻辑:如果你不主动告诉 AI 你想干嘛,它就会替你决定你要干嘛。

所以他的建议是技术性的,也是最具体可行的:

与其恐慌,不如先问自己:我愿意交出哪些任务?哪些还要保留?

在他的新版本 Replit 中,用户不是“操控 AI 写代码”,而是直接说:“我想创建一个天气 App。”剩下的流程,全由系统完成。

他说:“真正的变化不是 AI 变强了,而是工作流程的输入和输出都变了——你给的是意图,收的是产品。”

2. Bret:保留“低频对话”的人类空间

Bret Weinstein 是这场辩论里最“反技术冲动”的声音。

他的底层逻辑是:技术不是问题,更新频率才是问题。

“人类不是没有适应能力,而是没法在几周内适应一个每秒都在变化的现实。”

他用“心理免疫系统”来形容这个现象:“如果我们不留出足够时间来整合新信息,我们就会对一切新信息变得迟钝,最后完全放弃理解。”

在他看来,“工具很聪明”的错觉,会掩盖一个严重后果——人类失去了独处与低频思考的空间。

他的建议是反直觉的:“放慢节奏”,不是在技术上落后一步,而是在心理上争取一线生机。

他强调,我们需要重新建立一种节奏感,一种让人类有机会“说慢点”的节奏。否则:

我们可能会越来越像那些为了赶时髦,抢着用最新的 AI 产品,结果把自己累得筋疲力尽的人。

3. Daniel:写出你在系统中的角色定位

Daniel Priestley 是一名创业者,也是畅销书的作者。他的建议偏向组织和商业系统层面。

他的判断很直接:

未来不是 AI 和人的竞争,而是 AI 系统和 AI 系统的竞争。

每个人都将被纳入某个AI系统中,不再是单打独斗。他说:“关键不在于你多聪明,而在于你在其中扮演什么角色。”

他提出的建议是:先写一段话,定义你在 AI 系统中的位置。你是意图的提出者?是流程的组织者?是反馈的评估人?

他说这一步非常关键:“如果你不能准确描述你在AI系统中创造的价值,它就会把你边缘化。”

他的终极建议是一句话:

“成为系统中的不可替代节点,而不是可复制角色。”

三种“活路”建议,其实对应了三种不同的节奏:

  • Amjad 是技术节奏:你能不能给出清晰的目标,定义任务分工?

  • Bret 是心理节奏:你是否还能在变化中保留一个安静的自己?

  • Daniel 是组织节奏:你在未来系统中是否可以承担“独特角色”?

所以真正的问题不是选哪一条,而是找到自己在技术、心理、组织三条轴线上的“生存交叉点”。

 不在“交叉点”上的岗位,已经进入倒计时。

在三人的观点背后,有一个共同假设:不是每种工作都值得人类继续做。

他们没有列出完整清单,但从讨论内容中可以看出,最容易被 AI 接手的,往往具有以下特征:

  • 可结构化

  • 可流程化

  • 可预测

  • 可衡量

这意味着以下 8 类岗位将最先进入“被取代清单”:

初级开发、销售助理、客服支持、内容编辑、招聘筛选、项目协调、报表制作、基础数据分析。

正如 Amjad 所说:“AI 不是为了帮你做这些工作,而是为了终结这类任务本身。”

如果你正处于这些岗位中,或这些任务是你工作的一大部分——那么你尤其需要思考:你要交出的是哪部分任务,而不是让自己被 AI 挤出局?

倒计时不是危言耸听,是现实主语的变化。

倒计时 730 天,不是为了制造焦虑,而是想强调 AI 的飞速发展所带来的一个真实变化:你正在从一个使用工具的人,变成一个被代理系统调用的对象。

这不是“AI 取代你”的老套路,而是“你是否还能主动说出自己的任务”的新问题。

  • Amjad 提醒我们:别把主权交得太快,不然 AI 会替你决策人生;

  • Bret 的警告更深层:即使没被取代,你也可能在更新频率中丧失判断力;

  • Daniel 则提出终极拷问:你是否已经在某个AI系统中,写下了自己的角色描述?

这三条“异见者路线”,其实都没有答案,它们只是提示你:

AI agent 时代的核心考题不是技术本身,而是你还剩多少“定义自己”的能力。

真正的倒计时,不是从模型发布日开始的,而是从你默认“让AI来决定”那一刻开始的。

你还有多久,会把第一项工作,彻底交给 AI? 你会不会是最后一个,坚持自己“提出目标”的人?

这个时代,不是关于胜者生存,而是更多关于:谁还拥有生存的主动权?

AI深度研究员补充:这两类能力最难被夺走

在这场 AI 生存辩论之后,我们结合三位异见者的共识,总结出短期内最难被 AI agent的两类能力:

1. 场景定义力:你能设定目标,AI 才能执行路径

AI 擅长“做”,却不懂“该做什么”。未来最核心的能力,是把模糊意图转化为结构化任务。这意味着你要能:

  • 精准描述问题

  • 拆解目标优先级

  • 为系统设置边界条件

这类能力本质上是“让 AI 为你所用”的前提。

2. 信任生成力:你不是输出内容,而是在积累信誉资产

在大量 AI 生成内容泛滥的时代,可信度和判断力将成为最大稀缺。能做到这一点的人,往往具备:

  • 稳定、风格清晰的输出模式

  • 可验证的结果交付记录

  • 在特定系统中建立“不可替代接口”

这正是 Daniel 所说的“成为一个可被信任的接口”。

参考资料:https://www.youtube.com/watch?v=JMYQmGfTltY&ab_channel=TheDiaryOfACEO

本文来自微信公众号:AI深度研究员,作者:AI深度研究员,编辑:深思,本文由AI深度研究院出品,整理自播客《The Diary Of A CEO》节目对话