人机传播的变局:从赫拉利的警示到跨文化的网络演化
【来源:虎嗅网】
本文来自微信公众号:集智俱乐部 (ID:swarma_org),作者:茶灯灯
从叙事预言到现实机制
2023年,历史学家尤瓦尔·赫拉利在达沃斯世界经济论坛上提出了一个令人不安的警告:人工智能对人类社会的深层控制,可能并不始于对政治制度的直接颠覆,而是从对信息与叙事生态的掌控开始。[1]
当一个系统能够精准捕捉人类心理弱点、持续干预日常信息接触,它可能在短时间内改变社会信念与情绪这种干预甚至可能诱发群体分裂与冲突,改变人类社会权力结构与认知模式,甚至可能推动文明走向自我毁灭。
这一观点并非纯粹的哲学假设,而是得到实证研究的呼应。即便没有明确的政治导向的情况下,抖音、TikKok和哔哩哔哩等短视频平台的推荐算法也会通过强化特定类型的视频分布,引导用户向情绪极端化的内容迁移[2]。类似地,2020年美国大选Twitter数据集显示,即便不带明显政治立场,算法化账号和推荐机制仍会影响讨论话题的分布与关注重点[3]。换言之,AI不必直接说服,只需控制信息的呈现频率与接触顺序,就能悄然塑造公共议程。
这一现象切入了人机传播(Human–Machine Communication,HMC)研究的核心:当AI不再只是中介,而成为主动的传播主体,我们应如何重新界定它与人类的关系?传统传播学基于“人–人”与“人–媒介”二分法的理论框架,能否解释AI驱动的互动形态?
事实表明,内容生态的重构并非简单的“人退AI进”,而是一个复杂的共生、博弈与再分配过程。赫拉利的警示不是未来危机的空洞假设,而是当下正在进行的全球社会实验。
为此,接下来的分析将沿三个脉络展开:第一,AI作为传播主体的理论定位与研究范式;第二,AI深度嵌入社会关系和情感结构的机制;第三,跨文化网络中人机互动的结构差异与演化路径。
最终,我们将尝试回答一个更根本的问题:在AI可以与人类同台发声的时代,传播学需要怎样的范式更新,才能理解并回应这种新生态?
理论与研究范式——从CASA到AI–MC
人机传播(Human–Machine Communication,HMC)的理论基础,可以追溯到Reeves与Nass提出的“计算机即社会行为者”(Computers Are Social Actors,CASA)理论[4]。CASA的核心发现是:即使用户清楚计算机并非真正的社会主体,他们在互动时仍会遵循社会交往规则,如礼貌、互惠与角色期待。这一发现打破了“媒介仅是中立工具”的假设,提示我们:技术一旦进入交流场景,就会被社会化对待。
在AI与算法系统兴起后,CASA演化出更复杂的框架——“媒体是社会行为者的范式”(The Media Are Social Actors Paradigm,MASA)[5]。MASA并不是单纯的技术观察,而是强调媒介在互动中的社会存在感与角色化属性。它揭示了:随着AI、算法代理与社交机器人等技术的兴起,媒介不再只是“传递渠道”,而是被纳入人类的社会网络,成为具有角色期待和社会规范约束的“共存者”。换言之,现代传播系统已由人类、算法与人工代理共同构成,研究必须考虑这些异质主体在议题生产、信息流通和关系维护中的权力分配与责任承担。
与MASA并行发展的,还有“人工智能介导传播”(Artificial Intelligence-Mediated Communication,AI-MC)模型[6]。AI-MC关注的核心问题不是“人类如何感知媒介”,而是AI如何直接介入、塑造并重构人类的沟通过程。该模型提出了三个关键分析维度:
自主性(Autonomy):AI的决策与行动自由度;
适应性(Adaptivity):AI能否根据反馈和语境调整行为;
拟人化(Anthropomorphism):AI在语言、情感和外观表现上的人类化程度。
通过这三个维度,AI-MC框架强调:AI不仅是信息传递渠道,更在内容生成、信息筛选、情感回应中发挥作用。
学界形成共识:AI的主体性并非二元状态的“有/无”,而是多维、动态的,随场景不同而表现不同强度。CASA、MASA与AI-MC形成递进的理解体系,三者并非替代关系,而是逐层递进的补充关系,共同构成理解人机传播的新理论基石。
然而,理论框架仍面临两大挑战:一是如何在方法上捕捉AI主体性的可变性与情境性;二是如何在伦理与治理上界定AI与人类之间的责任边界。这些挑战在AI融入情感与信任领域时尤为凸显。
社会嵌入与情感维度——信任、依赖与心理风险
当AI进入情感与社交互动,研究焦点转向人类如何感知、信任并依赖这一新主体。研究发现[7],用户倾向于将AI拟人化为“帮手”“伙伴”甚至“家人”,并在交流中主动调整语言与节奏以“照顾”AI的反应。这种拟人化不仅来源于设计,也源于用户主动建构的社会意义。
基于拟人化的互动,用户会逐步建立对AI的信任,人们会对AI设立“理性中立性”假设,产生自动信任机制。[8]
信任形成机制包括性能、过程与目标一致性三个维度[9]:
用户评估AI是否能完成任务
决策过程是否透明
行为是否符合自身利益
这些机制解释了为什么用户在日常互动中会自动假设AI理性、可靠,从而产生对其依赖。
然而,长期依赖可能带来心理风险。研究指出,当AI长期提供情感支持时,部分用户会产生“情感过拟合”,即用户对AI产生超出现实能力的情感期待,导致人机关系失衡,甚至可能导致现实社交网络中互动意愿下降[10]。
在社交机器人田野实验中,研究者记录到参与者出现短暂的“情感戒断反应”,表现为孤独感上升与社交回避[11]。
拟人化影响个体行为,而AI在社群中的参与不仅限于情感互动,还涉及规范塑造。在Twitter的研究中,自动化审核和互动机制会重塑用户对可接受行为的认知[12]。这意味着AI在情感和社交网络中,既充当了情感支持者,也成为规则的塑造者。
综合来看,AI在情感与社会关系中的作用具有双重特性:一方面,它可增强人机互动、促进信任与协作;另一方面,它可能导致依赖失衡、情感过拟合,并在潜移默化中重构社交规范。因此,研究人机传播必须跨越传播学、心理学与社会学边界,全面评估AI嵌入社会的心理与行为影响。
跨文化与网络结构——全球差异与协同模式
AI驱动的人机传播并非在全球范围内均质展开。文化背景、媒介制度与技术基础设施的差异,使人机互动呈现多样化轨迹。
跨文化研究发现,东亚(包括中国与日本)参与者相比于美国参与者,更倾向于将聊天机器人拟人化、也更乐于与它们建立情感连接。他们对与机器人互动感受更正面、更熟悉,尤其中国表现最显著,而北美用户则更关注任务完成效率与隐私保护[13][14][15]。这种差异可能与高语境文化(high-context culture)与低语境文化(low-context culture)的沟通方式有关:在高语境文化(如日本),沟通往往依赖隐含意义、非语言线索与长期关系的积累;而在低语境文化(如美国),沟通更直接,强调明确的信息传递与个人表达。因此,人机关系在不同文化中会承载不同的功能与期待。
范式更新的必要性
从赫拉利的警示到跨文化的网络结构分析,我们看到AI已从被动工具演变为主动参与者,在内容生产、情感连接与社会规范塑造中发挥作用。这种变化要求传播学从“媒介作为渠道”转向“媒介作为主体”的视角,吸收社会学、心理学与网络科学的方法,建立能够解释AI–人类共生互动的综合范式。
未来的传播学研究需要不仅关注AI如何传递信息,更要关注它如何与人类共同塑造社会现实。这不仅是学术议题,也是人类在技术浪潮中保持自主性与社会韧性的关键。
参考文献
[1]Harari,Y.N.(2023).演讲内容,达沃斯世界经济论坛。
[2]Gao,Y.,Zhang,Y.,&Li,H.(2023).Echo chamber effects on short video platforms.Scientific Reports,13(1),33370.https://doi.org/10.1038/s41598-023-33370-1
[3]Chen,E.,Deb,A.,&Ferrara,E.(2021).#Election2020:The first public Twitter dataset on the 2020 US presidential election.Journal of Computational Social Science,4(2),1–18.https://www.nature.com/articles/s41467-021-25738-6
[4]Reeves,B.,&Nass,C.(1996).The Media Equation:How People Treat Computers,Television,and New Media Like Real People and Places.Cambridge University Press.
[5]Lombard,M.,&Xu,K.(2021).Social responses to media technologies in the media are social actors paradigm:New directions for communication research.Journal of Computer-Mediated Communication,26(3),125–137.https://doi.org/10.1093/jcmc/zmab001
[6]Hancock,J.T.,Naaman,M.,&Levy,K.(2020).AI-mediated communication:Definition,research agenda,and ethical considerations.Journal of Computer-Mediated Communication,25(1),89–100.https://academic.oup.com/jcmc/article/25/1/89/5714020
[7]Li,H.,&Zhang,R.(2024).Finding love in algorithms:Deciphering the emotional contexts of close encounters with AI chatbots.JCMC,29(5),zmae015.https://academic.oup.com/jcmc/article/29/5/zmae015/7742812
[8]Yang,H.,&Sundar,S.S.(2024).Machine heuristic:Concept explication and development of a measurement scale.Journal of Computer-Mediated Communication,29(6),zmae019.https://doi.org/10.1093/jcmc/zmae019
[9]Lee,J.D.,&See,K.A.(2004).Trust in automation:Designing for appropriate reliance.Human Factors,46(1),50–80.
[10]Meng,J.,Zhang,R.,Qin,J.,Lee,Y.J.,&Lee,Y.C.(2025).AI-mediated social support:The prospect of human–AI collaboration.JCMC,30(4),zmaf013.https://academic.oup.com/jcmc/article/30/4/zmaf013/8200809
[11]Zhang,R.,Li,H.,Meng,H.,Zhan,J.,Gan,H.,&Lee,Y.C.(2025).The dark side of AI companionship:A taxonomy of harmful algorithmic behaviors in human–AI relationships.In CHI 2025(pp.1–17).ACM.https://dl.acm.org/doi/10.1145/3544548.3581503
[12]Seering,J.,Kraut,R.,&Dabbish,L.(2017).Shaping pro-and anti-social behavior on Twitch through moderation and example-setting.In CSCW 2017.
[13]Scherr,S.,Cao,B.,Jiang,L.C.,&Kobayashi,T.(2025).Explaining the use of AI chatbots as context alignment…Computers in Human Behavior,108738.https://www.sciencedirect.com/science/article/pii/S0747563225001852?via%3Dihub
[14]Cui,L.,Li,M.,&Wang,J.(2024).Cultural variation in attitudes toward social chatbots.Frontiers in Psychology,15,11945465.https://pmc.ncbi.nlm.nih.gov/articles/PMC11945465/
[15]Liu,Z.,Li,H.,Chen,A.,Zhang,R.,&Lee,Y.C.(2024,May).Understanding public perceptions of AI conversational agents:A cross-cultural analysis.In CHI 2024(pp.1–17).ACM.