“死亡互联网理论”刷屏硅谷
【来源:虎嗅网】
当互联网被AI内容淹没,真正由人类创作的内容正在日益缩减。
“如今的互联网,大部分已经死了”,近日Reddit联合创始人Alexis Ohanian一语惊人。
他口中的“互联网死亡”并不是指互联网被关闭了,而是被铺天盖地的AI生成内容所淹没,失去了真实的生命力。
Ohanian所言非虚。
曾经汇聚人类真实思想和交流的网络,如今正被大量AI生成的内容所占据:
你看到的热帖、阅读的文章、甚至与你争论的“网友”,都可能根本不是人类,背后或许早已是算法与AI的“回声”。
AI生成内容的无序扩张,正在蚕食互联网的真实性。
旅行类大V Chris Broad在X平台上表示,“死亡互联网理论”现在已经成为“死亡互联网现实”:
每天都有普通人给我发消息,让我去一些根本不存在的地方,这些地方都是人们在Facebook、Instagram和Twitter相关主题账号或页面中提到的……这些帖子通常包含完全虚假的AI照片,下面还有机器人账号在评论区盲目地称赞照片。
Chris Broad提醒人们要小心自己关注和点击的内容。“要知道,大多数页面、内容以及粉丝数量,都是被严重人为夸大的。”
网友Swarn也提到经常会刷到疑似AI生成的推文,他会通过内容中夹杂的“突然转折、刻意堆砌的词汇、借用的隐喻”来识别“AI味”。
Goddess预测到下一年“死亡互联网理论”会越来越受到关注,所有社交媒体账号并非都是真实的人。
这股热潮,甚至把OpenAI创始人兼CEO Sam Altman也惊动了。
Sam Altman认为“死亡互联网理论”可能有一定的道理。他提到“现在的确存在很多由大模型驱动的Twitter账号”。
这些AI生成内容的泛滥,让Altman再度担心“死亡互联网”理论的影响。
一、不真实,毋宁死:“死亡互联网”理论的起源
“死亡互联网理论”(DIT,Dead Internet Theory),传递出这样一种核心态度:
不真实,毋宁死。
它认为只有真实才是互联网的生命——失去真实性,就等于是宣告了互联网的“死亡”。
2021年,用户IlluminatiPirate在Agora Road论坛发帖提到了“死亡互联网理论”,这位网友对其的定义就是“大多数互联网变得虚假”。
伴随着互联网社会的发展,“死亡互联网理论”思潮在网络论坛和社区中开始逐渐流行,背后的驱动因素正是“真实感”的逐渐丧失:
现代互联网带来了花样百出的玩法,但真实感也被玩丢了。
早期互联网那种有机的、用户驱动的特性一点点消失,取而代之的是越来越依赖计算机生成的内容(数据)以维持活动和参与度。
随着生成式AI的出现,让“死亡互联网理论”获得了更多的“现实支撑”。
因为生成式AI更像人类,它们在社交媒体上被广泛应用于放大点赞、评论和分享数据等。
就连Sam Altman,这位亲手让ChatGPT风靡全球的“AI之父”,也被铺天盖地的“程序味儿”搞破防,他忍不住吐槽Reddit上的AI腔调(LLM-speak),认为这让人际互动“感觉很假”。
从早期互联网,到社交媒体时代,再到生成式AI浪潮,原来那个真实的互联网已逐渐被一个由AI主导的互联网所取代,“技术登月”越来越多,但真实感却越来越少了。
换句话说,“死亡互联网”理论的市场越来越大了。
二、“死亡互联网”的升级版
如今,如火如荼的AI浪潮,正按下“互联网死亡”的加速键,并且还带来了它的升级版本。
据Cloudflare的长期监测显示,机器人流量约占整体应用流量的31%左右,并在部分地区和时段阶段性超越人类访问。
Imperva在2025年版的《Bad Bot Report》中则指出:自动化流量在2024年已达51%,其中从事恶意活动的“坏机器人”占比升至37%。
这里的“坏机器人”在生成式AI时代更为突出,因为它们更善于伪装成人类行为。
它们有时只是在社交媒体上生成一些空洞或胡言乱语的评论,但也可能被恶意使用,比如制造虚假的页面浏览量、用户互动和使用时长,从而造成公司业绩数据的扭曲。
不止活跃于社交媒体,生成式AI还在逐步接管人类表达领域。
Graphite的一项数据记录了这一里程碑时刻:
2024年11月,网络上发表的AI生成文章数量超过了人类撰写的文章数量。
据Graphite观察,自2022年11月ChatGPT推出以来,AI生成文章数量显著增长,但在过去一年中AI生成文章的比例保持相对稳定,这可能是因为早期AI生成文章质量不佳导致的。
但随着AI生成文章质量的提高,再加上AI生成文章的速度之高、成本之低也远非人类可比,可以预见未来AI文章的数量还会稳定增长。
这意味着,AI生成内容的数量增长不仅改变了信息来源的结构,也正在重塑网络生态真实感的“基线”,也可能带来AI时代“互联网死亡”的升级版——模型崩溃。
https://arxiv.org/pdf/2305.17493
这一点在牛津大学等研究机构发表的《递归的诅咒(Curse of Recursion):在AI生成数据上再训练会导致模型遗忘》论文中已经得到了理论上的证实。
AI时代真正的危机是模型崩溃。
在大模型使用生成数据继续训练(continue training)的递归过程中,模型会慢慢“忘记”或偏离原始人类语言分布的某些细节,尤其是那些少见或者边缘的模式。
这样模型会逐渐丢失多样性沦为一切趋于平庸的同质化,最终出现模型崩溃(Model Collapse)。
这就好像把一张照片在上一代复印件的基础上不断复印,其清晰度会逐渐下降,最终变成一张模糊的、缺乏细节的照片。
当越来越多的AI内容成为模型的训练数据,就可能带来模型能力的下降,由此产生更多劣质的AI内容,这些内容再训练出更差的AI模型,最终就是更严重的危机——模型崩溃。
从互联网的“死亡”,到模型的“崩溃”,与技术发展同步的,是“失真”的演进。
三、让互联网更“人”一点,更“真”一点
Google CEO Sundar Pichai认为搜索引擎会被AIGC “深刻改造”,因此AI回答与人类内容的协同将成为主流交互范式。
英伟达CEO黄仁勋,提出应当把AIGC视作时代性通用技术,将无处不在地嵌入创作、工程与组织工作流。
随着AI对于互联网和人类社会的渗透,AI生成的内容将会像Sam Altman预言的那样,会不可避免地越来越多。
这就带来一个难题:如何区分AI和人类生成的内容。
随着人类正越来越多地与AI合作,让这一点变得更加困难。
的确,一个人在工作中利用AI的方式有很多种,比如用它来搜索,整理材料等,因此很难明确地说某项内容是AI生成的还是人类生成的。
实际上很多AI生成的内容,背后是人类在引导、编辑、校正。
用加州大学洛杉矶分校计算机科学教授、亚马逊网络服务副总裁Stefano Soatto的话来说,“二者之间更像是一种共生关系,而不是非此即彼。并非所有AI生成的内容都是垃圾内容。”
在这种共生的关系下,用不用区分AI和人类生成的内容?
Sam Altman认为,“好不好比是不是AI产出更重要”,但他也提出要有“可验证的来源”与治理工具,以识别哪些是AI生成的并提升信任。
Altman认为识别AI生成内容是为了提升对内容的信任度,他曾多次提醒不要过度信任模型,因为AI也会“自信地编造”。
同样,Anthropic CEO Dario Amodei也认为,需要科学的方法和评估体系为此来兜底,他认为虽然模型“胡说”频率可能低于人类,但出错方式更“出其不意”。
Elon Musk也强调要用AI去检测/溯源合成视频与深伪,在平台层面构建“内容鉴别器”。
这点随着AI技术的发展变得尤为重要。
近日,Sora 2上线后短时间内就有大量“以假乱真”的视频在社媒流通,YouTube、Meta正通过出台“贴标”“降权/限变现”等方式,试图限制“AI灌水内容”的扩散。
对于AI生成内容的监管也在多地加码。
比如,美国政府在2025年5月19日正式出台《TAKE IT DOWN 法案》,将故意发布或威胁发布非同意的亲密图像(包括 AI 生成的深度伪造)定为犯罪行为。
欧盟首部关于人工智能的法规《AI法案》明确合成内容必须标识、与用户交互需透明提示。
识别AI内容是为了安全,避免AI噪声,但即便是AI生成的内容优于人类,这种区别仍然是必须的。
因为相比较好坏,真实性永远更为重要。
不仅是互联网,即使是AI时代的数字生命,本质仍然在于“真实”。
在人机共生的时代,我们需要关注的重点不在于人类与AI的区别或者优劣,而是如何让AI服务于人类的真实。
无论未来技术如何演进,人类仍需守住那份“真实”的火种。
参考资料:
https://graphite.io/five-percent/more-articles-are-now-created-by-ai-than-humans%20%20
https://arxiv.org/pdf/2502.00007%20
https://x.com/AskPerplexity/status/1978587411803156942
本文来自微信公众号:新智元,作者:新智元,编辑:元宇