胡泳:超级能动性:如何将人类潜能提升到新高度

【来源:虎嗅网】

历史已经多次表明,每一次重大经济和技术的变迁,都是企业兴衰更替的关键时刻。40多年前,互联网诞生。从那以后,包括Alphabet(谷歌母公司)、亚马逊、苹果、Meta和微软在内的一些企业成长为市值万亿美元的科技巨头。更重要的是,互联网改变了工作的组织方式与人们信息获取的方式。

如今的AI,正如多年前的互联网一样,仍处于变革的初期。对商业领袖而言,最大的风险不是雄心过大,而是格局太小。

想象一个这样的世界:机器不仅能够从事体力劳动,还能够思考、学习,并自主作出决策。在这个世界中,人类处于技术循环之中,人机协作达到一种“超级能动性”的状态,从而提升个人的生产力与创造力。这正是AI所带来的变革性潜力:它可能带来的影响将超过以往任何重大发明,包括印刷机与汽车。

超级能动性:AI将如何影响人类

经历一项变革性技术的诞生是一种怎样的感受?历史上,这种体验常常令人感到不安。虽然印刷机、动力织布机、电话和汽车等技术最终确实改变了世界,带来了积极影响,但它们刚出现时,悲观主义者却更多关注其潜在的负面后果。比如,印刷机可能助长异端邪说和错误信息的传播,电话曾被视为对面对面人际关系的威胁,而汽车则被认为会诱使男人挥霍无度,把钱花在一辆花哨的新车上,却忽视了为家庭生活储蓄的重要性。

如今,一项强大的新技术——AI,再次引发人们的恐惧,并通过《1984》和《终结者》等反乌托邦叙事引起共鸣。在《AI赋能》一书中,里德·霍夫曼与格雷格·贝亚托合作,试图重塑人们看待新技术那种本能的悲观框架。霍夫曼在书中问道:“如果地球上的每个孩子突然都能拥有一个像达·芬奇一样聪明、像《芝麻街》中的大鸟一样富有同理心的AI导师,那会发生什么呢?”在提醒我们注意历史上变革性技术的发展轨迹时,霍夫曼呼吁我们摆脱悲观的先入之见,去想象“在AI的未来中,有哪些事情可能会变得美好”。

作为著名的科技企业家(领英的联合创始人)和风险投资家,霍夫曼主张适度。他拒绝了末日论者的悲观主义,这些人认为AI的发展是对人类的生存威胁,倾向于支持政府强力干预、国际监管;也拒绝了悲观论者(比如《监控资本主义》的作者肖莎娜·朱布夫)的忧思,他们关注AI可能带来的短期负面影响,包括失业、虚假信息和系统性偏见的加剧。然而,他也不支持乐观论者[技术乌托邦主义者,虽然他并未明说,但风险投资家马克·安德森(Marc Andreesen)给人留下深刻印象,他激进地呼吁放松对AI的限制],这些人希望“拥有一条清晰的跑道和完全的创新自主权”,相信技术本身会带来进步,并倾向于忽视或淡化AI带来的社会、道德或制度性风险。霍夫曼先生将自己描述为繁荣论者——对AI持乐观态度,但足够谨慎,认识到“AI不应以单方面的方式开发和部署”。

霍夫曼认为AI并非“灭绝事件”,而是“能动性的放大器”――能够提升人类的判断力、创造力和决策速度。他以“超级能动性”为核心概念,主张AI不是单一的工具,而是一种力量倍增器,可以将人类的潜能释放到前所未有的高度。

在霍夫曼的语境下,“超级能动性”描述的是这样一种状态:个体借助AI获得赋能,从而极大提升其创造力、生产力以及积极影响力。即使是那些未直接使用AI的人,也将从AI带来的知识扩散、效率提升和创新推动中受益。

AI是继蒸汽机、互联网和智能手机之后,又一个改变世界的超级工具。它们共同的特征是放大人类能力、重塑社会结构。与前几次技术革命类似,AI有望实现知识获取的民主化,并能将大量工作任务予以自动化——前提是人类能够以安全且公平的方式开发并部署这项技术。

在“超级能动性”的愿景中,AI不只能帮助我们完成更多事情,更能激发我们成为更高效、更具创造力和影响力的自己。这不仅是技术进步的希望,也是我们塑造一个人类主导、技术辅助的未来的契机。

智能与推理能力的提升:AI正变得越来越聪明

AI不仅仅是任务的自动化,更进一步,它实现了认知功能的自动化。与此前的任何发明迥异,AI驱动的软件具备适应、规划、引导,甚至自主决策的能力。因此,AI有望成为推动经济增长和社会变革前所未有的催化剂,几乎触及生活的方方面面。它将重塑人类与技术之间的关系,也将改变人类彼此之间的互动方式。

尽管互联网、智能手机和云计算等技术已经极大地改变了我们的生活与工作,但AI的独特之处在于,它提供的不仅是信息的获取渠道,更是具备总结、编程、推理、对话乃至作出选择的能力。AI能够降低技能门槛,帮助更多人用任意语言、在任何时间掌握多领域的专业知识。AI有潜力彻底改变人类获取与使用知识的方式,从而实现更高效、更有效的问题解决,并推动普惠的创新。

在过去两年中,AI取得了飞跃性进展,企业级的采用也因成本下降与能力获取的提升而加速。许多重要的AI创新已然出现。例如,大语言模型(LLMs)的上下文窗口(context window),即其短期记忆容量,已大幅扩展。上下文窗口越大,大语言模型一次性可以处理的信息量就越多。2024年2月,谷歌的Gemini 1.5就已经能够处理100万个词元(token),而到了同年6月,其Gemini 1.5 Pro则能够处理200万个词元。

总体而言,当前有5大AI创新:增强的智能与推理能力、代理式AI(Agentic AI)、多模态功能、硬件和计算能力的提升,以及透明度的提高。

AI正在飞跃式进化,智能和推理能力的提升是当前技术进步的重要标志之一。一个显著的指标,是大语言模型在标准化考试中的表现。OpenAI于2022年发布的ChatGPT-3.5,在美国高中水平测试中表现良好,例如在SAT数学部分达到了第70百分位,在SAT语言部分则达到了第87百分位。即便如此,它在更复杂的推理任务中仍常常表现不足。

仅仅3年过去,如今的大模型已经接近拥有高级学位的人的智能水平。GPT-4不仅能够轻松通过美国统一律师资格考试,其成绩甚至可进入前10%的考生行列;同时,它还可以在美国执业医师资格考试中正确回答90%的问题。这一代AI在推理能力上的突破,是技术发展的下一个重大飞跃。

推理能力使AI具备了复杂决策能力,让模型不再局限于基本的理解和总结,而是可以处理细腻、复杂的语境,实现分步骤的规划和目标导向的任务执行。对于企业而言,这意味着可以将AI模型与特定领域知识深度融合,进行更精准的推理与洞察生成。

例如,OpenAI的o1模型或谷歌的Gemini 2.0中的“闪思模式”(Flash Thinking Mode)能够在回答中展现出类似人类的推理逻辑,为用户提供的不仅是信息检索和综合分析工具,更是一个可以交流思维、制定计划的“类人”思考伙伴。这样的AI不仅提升了人机交互的质量,也预示着AI将从“工具”转变为“合作伙伴”。

代理式AI正在实现自主行动

AI的推理能力日益增强,使得模型不仅能够理解信息,还能够自主采取行动,完成跨流程的复杂任务。这标志着AI迈出了深远的一步。

举例来说,早在2023年,一款AI机器人就能够协助呼叫中心的客服代表,处理大量数据(包括语音留言、文本和技术说明),并据此生成建议回复。而到了2025年,AI智能体(agent)则可以直接与客户对话,并自主规划后续的行动步骤,例如处理付款、核查欺诈行为、完成配送任务等。

这类代理式AI不再是被动响应的工具,而是具备目标导向、自主决策和任务执行能力的系统。它们能在复杂环境中理解上下文、制订计划并采取行动,仿佛成了数字化的员工或合作伙伴。

英伟达CEO黄仁勋宣布AI智能体是一个“万亿美元级别的机会”,并正式宣告“AI智能体时代已经到来”。他对2025年代理式AI的愿景是:“第一拨AI智能体将开始扎根……我们将看到能够理解任务、制订计划并采取行动的数字员工的崛起。”他还作出了一个有趣的预测:所有人力资源部门将在几年内实现自动化——也就是说,以后机器人会负责给你发工资。

这种具备自主能力的AI,不仅提升了生产效率,也彻底改变了我们与技术的关系,它不仅是工具,更可能成为未来社会和经济体系中的关键行动者。

软件公司正在将代理式AI的能力嵌入其核心产品中。例如,Salesforce推出的Agentforce是其现有平台上的一个新层,允许用户轻松构建和部署自主AI智能体,以处理工作流中的复杂任务,比如模拟产品发布和协调营销活动。Salesforce联合创始人、董事长兼首席执行官马克·贝尼奥夫(Marc Benioff)将此形容为“数字劳动力”,在这个新生态中,人类与自动化代理协同工作,以实现客户成果。

多模态性:融合文本、音频与视频

当今的AI模型正朝着更高级、更多样化的数据处理能力发展,涵盖文本、图像、音频和视频等多种模态。过去两年间,各个模态的质量都有了显著提升。例如,谷歌的Gemini Live在音频质量和响应延迟方面有所突破,如今已能进行带有情感色彩和表现力的类人对话。同时,OpenAI的Sora展示了将文本转化为视频的能力。

以前,不同类型的数据通常需要分别处理和理解,而现在的多模态模型能够通过共享表示(shared representation)同时处理多种数据源,提升了跨模态理解的能力。例如,OpenAI的GPT-4和CLIP模型就能够同时处理文本和图像数据,生成图片描述、图像分类以及基于文本生成图像等任务。

自监督学习(self-supervised learning)在多模态模型中得到了广泛应用。自监督学习可以帮助模型在没有标注数据的情况下学习,从而提高其泛化能力和表现。多个任务(如图像到文本、文本到图像等)可以通过自监督学习进行联合训练,从而提升多模态模型的整体表现。例如,OpenAI的DALL·E 2和谷歌的Imagen都采用了类似的自监督学习技术,来生成与文本描述相关的图像。

多模态模型也可以在机器人交互方面大显身手。谷歌的PaLM-E模型可以结合视觉和语言信息来执行机器人操作。这是一个将视觉感知与语言理解结合起来的新尝试,旨在通过自然语言命令来控制机器人。

一些模型已经能够做到在多模态数据中进行推理。例如,Flamingo是DeepMind的一个跨模态模型,可以用少量的示例快速适应新任务,尤其在视觉和语言理解的联合推理上表现优秀。

多模态AI正朝着更高的推理能力、更强的实时交互性和更广泛的应用场景发展。随着模型架构的不断优化和训练策略的持续改进,预计未来的多模态AI将在教育、医疗、自动驾驶、智能制造等领域发挥更大的作用。同时,开源社区的活跃和分布式训练方法的普及,将进一步推动多模态AI技术的普及和应用。

硬件创新正在提升AI性能

硬件创新以及由此带来的计算能力增长,持续推动AI性能的提升。专用芯片使模型运行得更快、更大、更灵活。例如,英伟达的GPU(图形处理器)持续升级,尤其是H100 Tensor Core GPU,被广泛用于训练大型语言模型和多模态模型。2025年,英伟达宣布其Cosmos世界模型将与RTX芯片深度整合,用于支持AI智能体与物理世界的交互。这些处理器通过针对矩阵运算和并行计算的优化,使得神经网络训练和推理速度大大提高。

虽然量子计算仍处于实验阶段,但它有可能为AI的运算带来革命性的提升。量子计算能够在多维空间中进行并行运算,解决传统计算无法高效处理的复杂问题。随着量子技术的成熟,未来可能会推动AI在大规模数据分析和复杂模拟中的性能突破。

此外还有神经形态计算。神经形态芯片模拟大脑神经元和突触的工作原理,能够高效地运行AI模型,尤其是那些需要处理复杂感知任务的模型。通过模拟生物神经网络的工作方式,神经形态计算可以大幅提升AI系统的能效与处理速度。

随着IoT(物联网)设备的增多,边缘计算也在AI中扮演着重要角色。通过将计算推向设备端,减少对云端的依赖,边缘计算能够显著提升AI系统的响应速度和效率,尤其是在实时数据处理和低延迟应用中。

企业如今可采用需要高处理能力的AI解决方案,进而实现实时应用和可扩展性。例如,一家电商公司可以通过使用基于高级图形处理器和张量处理器(TPU)的AI聊天机器人来显著提升客户服务质量。借助分布式云计算,该公司能在流量高峰期间维持系统性能。同时通过集成边缘硬件,该公司可部署模型对损坏商品的照片进行分析,从而更准确地处理保险理赔。

透明度的全面提高

AI正逐渐变得更加安全,但仍然缺乏更高的透明度和可解释性。透明度和可解释性对于提高AI安全性和减少潜在偏见至关重要,这些因素对于企业大规模部署AI来说尤为必要。尽管仍然有很长的路要走,但新模型和迭代版本正迅速改善这一点。斯坦福大学基础模型研究中心(CRFM)报告称,模型性能已取得显著进展。其透明度指数(Transparency Index)使用1到100的评分尺度,显示在2023年10月到2024年5月之间,Anthropic的透明度得分提高了15分,达到了51分,而亚马逊的得分则提高了3倍,达到了41分。

除了大型语言模型,其他形式的AI和机器学习(ML)也在改善可解释性,使得支持重要决策(例如,信用风险评估)的模型输出能够追溯到为其提供数据的来源。通过这种方式,关键系统可以近乎持续地进行测试和监控,识别偏见和其他日常性伤害,尤其是在模型漂移[模型漂移指由于数据变化或者输入变量与输出变量之间的关系发生变化而导致机器学习模型性能下降。]和数据输入发生变化的情况下,类似情形甚至会出现在部署前已经进行过良好校准的系统中。所有这些都有助于检测错误并确保符合相关法规和公司政策。

尽管进展飞快,但要创建能够革命化整个行业并创造变革性价值的AI应用,仍需要更多的努力。制造业中的机器人技术、可再生能源中的预测AI、生命科学中的药物开发,以及教育中的个性化AI辅导——这些都是能够带来最大回报的变革性努力。这些应用并不是从反应性思维中诞生的,而是源于鼓舞人心的领导力、对未来的独特构想以及对变革性影响的承诺。

将人类能动性视为首要目标

毫无疑问,AI提供了一个罕见且巨大的机会。据麦肯锡调查,近90%的企业领导者预期,在未来3年内部署AI将推动企业营业收入增长。但要实现营业收入的增长,需要企业转型,而在这一领域,企业的成功率并不高。近70%的企业转型都以失败告终。为了成为成功的少数企业之一,企业领导者所要求的不仅仅是技术部署,还需要担负起战略性转型的责任。

5大挑战横亘在AI转型的道路上:领导对齐、成本不确定性、劳动力规划、管理供应链依赖性以及满足对更高解释性的需求。

领导对齐:确保企业高层领导者在基于战略的AI路线图上达成共识并非易事。各个部门或业务领域可能有不同的目标和风险承受度,因此必须不断让他们参与定义AI如何创造价值、如何管理相关风险以及如何衡量成功等活动。他们必须共同建立绩效评估和投资调整的指标。建立明确的路线图并对AI在企业中的战略角色达成共识至关重要。为了促进对齐,企业领导者可以考虑任命一名AI价值和风险负责人,或建立企业级领导与协调职能。这些举措有助于促进业务、技术和风险团队之间的协作。尽管具有挑战性,领导对齐仍是确保AI项目不分散、避免责任风险并实现变革性商业成果的关键步骤。

成本不确定性:许多企业仍在犹豫是应该采用现成的AI解决方案,还是开发定制化的方案。虽然现成的解决方案可能在初期成本上更具优势,但根据特定需求定制的AI可能为企业带来更大的差异化竞争力。然而,将AI从试点项目扩展到全面部署是昂贵的,且企业通常很难预测投资回报率(ROI)。企业必须在实施AI的成本与其长期的价值创造之间取得平衡,并作出快速但深思熟虑的决策。

劳动力规划:企业不知道自身将需要多少具备哪些技能的AI专家,这些人才是否存在,以及能够有多快招募到这些人才。并且,在这些需求极大的人才加入后,企业需要保持作为有吸引力雇主的地位。另一方面,企业也不知道AI会多快减少对其他技能的需求,从而需要劳动力重新平衡和再培训。

管理供应链依赖性:脆弱的供应链可能使企业暴露于中断的风险,并面临技术、监管和法律方面的挑战。AI的供应链是全球性的,重要的研发集中在中国、欧洲和北美各国,半导体和硬件制造则集中在东亚和美国。今天的地缘政治格局复杂,瞬息万变。此外,越来越多的模型和应用是在跨越多个国家的开源论坛上创建的。

解释性需求:安全部署AI正变得越来越必要。然而,大多数大语言模型通常是黑盒,它们无法揭示为何或如何得出某个回应,也无法说明使用了什么数据。例如,如果AI模型不能提供明确的解释来说明拒绝某个信用卡申请的原因,它们将无法获得对关键任务的信任。

为了成功部署AI,领导者需要拥抱这些挑战,对齐团队,并致力于对组织进行战略转型。AI的采用不仅仅是技术本身的问题——更是关于建立合适的结构、流程和心态,以确保AI能带来真正的价值。

霍夫曼倡导所谓的“迭代部署”,即通过开发和广泛分享技术,以小步快跑的方式,让人人都成为这个过程中的伙伴,让社会各方逐步适应、共同反馈、共建治理。这种方法将使我们能够在问题出现时进行评估,而不是一开始就由于最坏的担忧而压制这一领域的发展,强行进行过度监管。

企业领导者如果能以对可能性的想象力取代对不确定性的恐惧,就会发现AI的新应用不仅是优化现有工作流程的工具,也是解决更大的业务和人类挑战的催化剂。AI实验的早期阶段侧重于通过狭窄的使用案例来证明技术可行性,如自动化日常任务。现在,视野发生了转变:AI有望开启前所未有的创新,推动系统性变革。

为了迎接这个更加雄心勃勃的时代,领导者和员工必须向自己提出重大问题:领导者应如何确定其战略重点,并在混乱中有效地引导企业?员工如何确保自己为工作场所即将到来的AI转型做好准备?

微软董事长兼首席执行官萨提亚·纳德拉说得好:“在构建下一代AI时,我们做出了一个有意识的设计选择,将人类的能动性视为首要目标,并将其置于产品的中心。”

要把人类的能动性作为首要目标,就需要向自己提出一系列问题。

对企业领导者而言:

你的战略是否足够有野心?你是否希望彻底转型整个企业?你如何将传统的成本中心重新构想为以价值为导向的职能?你如何通过投资AI获得竞争优势?

在你的组织中,成功的AI采用应是什么样子?你将使用哪些成功指标来评估你的投资是否带来了预期的投资回报?AI原生员工(AI-native workforce)应该拥有什么样的技能?你如何为员工创造在工作中发展这些技能的机会?

对员工而言:

掌握AI意味着什么?你能自信地使用AI提升个人生产力吗,比如开展研究、实施规划和头脑风暴?

你计划如何拓展对AI的理解?你可以关注哪些知识来源,以便了解AI快速发展的最新趋势?

你如何重新思考自己的工作?最具创新性的点子往往来自团队内部,而不是由上层下达。你将如何重新设计自己的工作,以推动自下而上的创新?

这些问题都没有简单的答案,但越来越多的企业正在形成共识,并采取实际行动来应对这些挑战。例如,一些企业采用自下而上与自上而下相结合的方式推动AI的采用:自下而上的举措包括通过黑客松(hackathon)和学习交流会等活动,让员工自由尝试AI工具;自上而下的方法则聚焦于召集高管,彻底重新思考AI如何改善主要业务流程,如产品测试和客户体验等。

这些行动对于企业从AI试点阶段走向成熟阶段至关重要。如今,恐怕只有1%的企业领导者才会认为他们的企业已达到AI成熟水平。在接下来的数年里,随着对该技术的投入不断增加,企业领导者必须大幅提升这一比例。他们应最大限度地利用员工对AI的接受度,加快推进AI的实施,同时确保信任、安全与透明性。