为什么“AI 素养”是个错误术语:人类应成为 AI 的管理者,而不仅仅是使用者
“AI素养”一词在教育界和产业界迅速成为热词。它暗示着人们需要学习如何理解和使用AI工具,就像学习读写文本或代码一样。各国政府和机构正推出提升AI素养的举措——例如,白宫启动了相关项目,将培养师生的AI素养技能作为国家战略的一部分。同样,像经合组织(OECD)即将推出的《AI素养框架》,将AI素养定义为一种融合知识、技能和态度的能力,能让学习者负责任且有效地与AI互动。本质上,“具备AI素养”通常意味着了解AI的工作原理、知晓其应用场景,以及安全且批判性地使用它,这与数字素养意味着能熟练使用数字工具类似。
这种对AI素养的推崇,反映出AI已深度渗透我们生活的现实。诚然,在工作场所中,AI技能的价值日益凸显——但这或许并非“素养”一词所暗示的那种方式。近期就业市场数据强调,人类的沟通和领导能力依然至关重要。根据领英2024年的数据,“对专业人士而言,沟通能力——而非编程或AI素养——是最受欢迎的技能”。这意味着,即便在AI驱动的世界里,让个体脱颖而出的不仅是他们的技术知识,还有他们的人际交往能力。这揭示了一个核心观点:与AI打交道,与其说是关乎技术素养,不如说是关乎我们如何与这些系统互动。关键在于,我们不应将AI仅仅视为一种静态工具或一段待解读的文本,而应更多地将其当作一个积极的合作伙伴。简而言之,“AI素养”这一概念或许未能切中要害。
为何“素养”不是恰当的比喻
将与AI打交道的挑战定义为“素养”,听起来就好像掌握AI就像学习一门新语言或阅读操作手册一样。但使用AI并非像读书那样是单向的理解过程。当你阅读时,文本不会因你而改变;而当你使用聊天机器人或生成式模型等AI系统时,它们会与你互动。这种体验更具对话性和动态性。一位教育工作者甚至认为,将其称为“素养”极具误导性——她直言不讳地宣称,“AI素养”在教育中是一种危险的说法,因为使用生成式AI根本不是为了更好地学习沟通,恰恰相反。用她的话说:“使用AI与沟通无关,而是为了避免沟通;是为了不阅读、不写作……是为了把我们的表达能力让渡给数字应用程序”。尽管并非所有人都认同这种极端观点,但它突显了一个关键担忧:“AI素养”这一术语错误地描述了我们依赖AI时的实际情况。
传统的素养意味着被动接收信息(如阅读)或单向输出信息(如写作)。但有效的AI使用是互动性的、迭代性的和关联性的。如果我们把AI当作一本书,可能会专注于如何从中提取信息或如何正确输入查询。知道如何设计提示词或解读AI的答案,这些确实是有用的重要技能。然而,“素养”思维忽视了人类在引导、情境化和回应AI输出方面的关键作用。它也忽略了一个事实:如今的AI系统能生成必须被批判性评估的内容,这与评估人类伙伴的贡献类似。你不能像阅读教科书上的事实那样“阅读”ChatGPT告诉你的内容——你必须参与对话、提出澄清问题、核实主张,若它偏离方向,或许还要重新引导。这更像是与一个人合作,而非使用一本参考书。
此外,素养往往是一种个人技能——你安静地理解文本,或独自进行写作。而与AI打交道是一个协作过程,通常涉及反复交流。因此,它所依赖的技能更接近人际沟通和团队合作。事实上,专家们发现,即便与“人工”伙伴打交道,人际交往能力和情商也至关重要。建立信任、清晰沟通和理解意图的能力——这些人际关系的核心要素——在与AI互动时同样不可或缺。如果说素养是关于理解内容,那么我们在这里需要的技能是关于管理一种关系——人类与AI代理之间的关系。
AI 是同事,而非仅仅是工具
与其将AI系统仅仅视为我们操作的工具,不如将其视为我们共事的同事或助手,这样更有意义。这并非只是一个比喻——微软等公司确实将现代AI程序描述为“AI同事”或团队成员,他们预见的工作场所中,人类将作为管理者管理“AI劳动力”。在微软的愿景中,AI不仅仅是高级计算器或搜索引擎,更是项目中的积极参与者,承担任务并与人类协作以实现共同目标。
微软2025年工作趋势指数报告展望了向“混合式”人机团队的演进:第一阶段,个人使用AI助手;到第二阶段,AI代理成为团队项目中的数字同事;第三阶段,AI代理在人类监督下执行整个工作流程。
将AI视为同事会立即改变人类的角色。如果AI是你的同事,那么你实际上是它的团队领导者或主管,而不仅仅是“终端用户”。这种思维转变具有重要意义,这意味着:
你对最终结果负责,为你的“AI团队成员”所产出的内容承担责任。
换句话说,在人机关系中,人类成为项目经理或老板。就像任何优秀的老板一样,人类需要了解其下属的优缺点。每个AI系统都有特定的能力和局限性,就像人类员工一样。例如,看看当今主流的AI代理:ChatGPT、深度求索(DeepSeek)和 Grok。如果你将它们视为你的数字助手团队,每个都能基于自身优势承担不同“角色”:
Grok(来自xAI的AI助手)可以充当创意策略师或实时专家。它以尖锐的个性和实时网络访问能力而闻名,这意味着它能获取最新信息,甚至能用一点机智回答“棘手”问题。你可能会用Grok收集最新的市场趋势、生成代码,或提出带有幽默感的创新解决方案。本质上,Grok就像团队中那个能带来新视角(或许还有一些笑话)的成员。作为管理者,你要利用Grok的创造力和实时知识,同时确保它的“机智”回答不偏离主题且符合事实。
通过像给员工分配任务那样给这些AI代理分配任务,人类可以统筹复杂项目——就像团队领导者给专业员工分配工作一样。例如,假设你正在协调一场营销活动:你让ChatGPT 起草新闻稿,让深度求索汇编和分析消费者数据以获取市场洞察,用Grok监测和报告实时社交媒体趋势。每个AI代理都能并行处理各自分配的部分。你的角色是为每个AI设定任务、明确目标(例如,告诉ChatGPT新闻稿中要包含的要点,告诉深度求索要用数据回答哪些问题,指示Grok要关注哪些平台或关键词)。然后,关键是你要审查和整合它们的输出——编辑新闻稿、核实深度求索的分析、解读Grok的趋势报告以调整策略。在这个过程中,你正在领导一个AI增强型团队。AI代理处理各自领域的繁重工作,但你要确保工作内容连贯、准确,并与整体目标一致。
作为“代理主管”的人类——领导力而非素养
如果AI代理是同事,那么人类必须成为优秀的老板。这一观点正逐渐得到认可。微软2025年工作趋势指数报告明确提出了“代理主管”一词来描述管理AI助手的员工所扮演的新兴角色。他们预测,人类员工将像如今的管理者监督人类一样监督AI系统。该报告展望,围绕业务目标而非传统部门将形成由人类和AI代理组成的“混合团队”。在这样的团队中,领导力和协调能力变得极为重要。微软甚至建议,领导者需要确定“哪些任务需要多少代理,需要多少人类来指导它们”,将AI视为一种需要管理的新型劳动力。
成为AI的有效主管需要具备哪些能力?有趣的是,许多答案听起来就像经典的管理学基础,只是带有高科技色彩。事实证明,在指导AI时,清晰的沟通、战略性的委派和责任感,与指导人类时同样重要:
- 清晰沟通:与AI互动需要语言的清晰和精准。可以将其视为发出有效指令的艺术。在AI领域,这常被称为提示工程——设计你给AI的问题或命令。这类似于给员工分配明确的任务。模糊的提示(“帮我处理项目”)可能会产生无关或笼统的输出,就像向同事提出模糊的请求会导致混淆一样。精心设计的提示(“总结这三份报告的主要发现,并强调它们如何支持我们项目的X目标”)更有可能产生有用的、针对性的输出。教育工作者指出,编写有效的AI提示“需要清晰思考目标,如同指挥官下达精确命令”。训练学生掌握这项技能可以加深他们对问题的理解以及对如何传达解决方案的认识。简而言之,与AI沟通本身就是一种技能,它融合了技术知识和清晰表达意图的能力。你越能清晰地表达自己的需求,你的AI“同事”就越能更好地交付成果。
- 战略性委派:优秀的管理者知道如何发挥团队成员的优势,这一点也适用于AI。这意味着要了解AI工具擅长和不擅长做什么,并相应地分配任务。当前AI模型能力各异:有的擅长生成自然语言(写作、总结),有的擅长分析数据或图像,还有的擅长编码等任务。“懂AI”与其说是了解每种算法的细节,不如说是知道哪些任务该交给AI,哪些需要人类参与。例如,你可以将日常数据分析或初稿写作委派给AI,但保留那些需要深度判断、同理心或战略决策的任务给自己。将合适任务交给AI,能让你和人类同事专注于更高层次的规划与创造性思考。这正是生产力专家所预见的:AI接管繁重工作并协助处理复杂任务,这样人类就能专注于领导力和战略。其结果是一个人机各展所长、共同取得更大成就的团队。
- 监督与核实:优秀的老板不会把工作交出去后就完全不管了。审查和核实AI的输出是这一过程中必不可少的部分。无论多么先进,现有AI模型都有记录在案的出错倾向,或生成听起来合理但实则错误的信息(在AI术语中通常称为“幻觉”)。例如,聊天机器人可能会自信地生成一个听起来符合事实但完全是编造的陈述,或者可能误解你的指令而偏离主题。作为人类主管,你必须发现这些错误并纠正方向。在实践中,这意味着要核实AI提供的关键事实、测试它编写的代码,并运用人类的判断力评估AI的贡献是否合理。一份关于AI使用的图书馆指南简明地警告,AI“可能给出错误或误导性的答案”,甚至“编造虚假信息”,并且“无法准确提供其主张的来源”。正因如此,负责任的AI管理者必须保持警惕。可以把这想象成指导初级员工:你不能假设他们的第一稿是完美的。你要给出反馈、要求修改,或者把AI的工作作为你后续完善的起点。这种监督并非负担,而是质量控制和道德保障的关键环节。它确保人类对最终输出保持掌控,这对于问责至关重要(毕竟,如果AI助手生成了一份有缺陷的报告,必须为此负责的是人类老板)。
- 同理心与团队合作:有趣的是,成为优秀的AI主管还需要人类具备同理心、耐心和适应性等品质。虽然说对AI有同理心听起来可能有些奇怪,但这实际上意味着保持协作的心态。不要把AI当作笨拙的工具,而要像对待人类团队成员一样给予专业尊重——这种心态实际上会改善你与AI的互动。研究表明,将AI视为合作伙伴的用户往往能更有效地与之沟通,并获得更好的结果。例如,与其愤怒地输入“你错了,现在就改”,精明的AI合作者会采取更冷静的语气:“我不确定这个答案是否正确。我们不妨换一种思路。”这与AI的感受无关(它没有感受),而是关乎人类保持合作的心态,这会带来更清晰的思考和更好的提示。耐心很关键;有时你可能需要与AI进行几次迭代才能得到你需要的结果,就像对待新的人类同事一样。当AI产出有用的内容时,认可这一点(即使只是含蓄地)可以强化这种富有成效的模式——就像对人给予积极反馈一样。简而言之,在管理AI时,礼貌、清晰和耐心等软技能至关重要。它们会形成一个良性循环,让人机互动随着时间的推移变得更加顺畅和有效。
- 所有这些技能——沟通、委派、监督、同理心——都属于领导力和人际交往能力的范畴。这些通常不是我们说“素养”时所想到的内容。你不会把给员工提供清晰反馈或在团队中建立信任称为一种素养;你会称之为管理、沟通或关系智能。随着我们将AI融入工作流程,正是这些以人为本的领导技能决定了成败。事实上,随着日常技术任务的自动化,那些独特的人类能力——指导、激励、道德判断——变得更加重要。有远见的教育工作者和雇主认识到了这一点:正如世界经济论坛最近的一份报告所指出的,除了技术知识之外,“学习者还需要AI无法复制的人类技能——同理心、判断力、道德推理和协作能力”。这些是优秀领导者或合作者所需的技能,而不仅仅是技术娴熟的使用者。
从“AI 素养”到“AI领导力”——一种新思维
将我们的方法从“素养”重新定义为“领导力”,这不仅仅是语义上的调整,更是在AI时代取得成功的路线图。它意味着要训练我们自己以及下一代学生或工作者在使用AI时“像老板一样思考”。这种心态的回报是,人类能更主动、负责任地使用AI,而不是被动地消费AI的输出。
教育与培训:课程不应仅停留在教授算法原理或 AI 软件操作(这些是基础),更应教授如何与AI协作解决问题。这包括基于项目的学习,让学生练习向AI委派任务并整合结果,有效模拟管理者与助手的关系。一些开创性项目已经在这么做,让学生使用AI作为合作者,然后根据他们指导和纠正AI的效果来评分,而不仅仅看最终答案。这样的练习强化了一个观念:知道如何领导AI与知道它如何工作同样重要。学生学会问自己:“我是否清楚地告诉了AI我需要什么?我是否核实了它的输出?当AI给出意想不到的结果时,我是如何处理的?” 这些反思将AI的熟练运用培养成一种社交技能。正如微软的报告所指出的,雇主的需求与员工当前的技能之间存在越来越大的差距,而弥合这一差距需要大量投资于培训人们有效地与AI协作。沟通训练、扮演“AI项目经理”的角色扮演,以及使用AI工具进行跨学科团队合作,都可以成为“AI领导力”课程的一部分。
职场文化:采用AI的企业应该鼓励员工将AI系统视为团队的延伸,让人类员工处于主导地位。管理者不必担忧AI取代岗位,而应思考如何在团队中分配“AI职责”——例如,一个人可能擅长监督生成内容的AI,另一个人擅长利用数据挖掘AI等,这些都在项目负责人的指导下进行。微软、谷歌等公司已经在设立“AI培训师”或“代理专家”等角色,其工作本质上是管理和优化AI代理的输出。这传递的信息是,每个员工都可以成为“代理主管”。在实践中,这可能意味着修改职位描述和绩效评估,将员工在工作中使用 AI的效果纳入考量。他们是否通过向AI适当委派任务来提高生产力?他们在这一过程中是否保持了质量和道德标准?这样的指标将强调,熟练使用AI是一种领导才能。积极的AI整合文化还意味着制定指导方针:就像你不会容忍管理者虐待人类员工一样,组织也应避免员工以发泄情绪或不尊重的方式使用AI工具(如对语音助手吼叫或输入侮辱性内容)。这并非因为AI有权力或感情,而是因为这有助于强化良好的沟通习惯并保持专业心态。正如一位商业技术专家所观察到的,团队成员对待AI的方式可能是其整体专业性的“警示信号”——习惯对AI发号施令的人,往往也缺乏人际礼貌。培养对AI的尊重态度,有助于保持对同事的尊重态度,反之亦然。
伦理与责任:作为AI的“老板”,肩负着伦理责任。如果你监督的AI系统生成了有偏见的输出或有害内容,最终必须由人类来解决和纠正。因此,我们的“AI领导力”模型必须包含强大的伦理成分。AI代理的管理者需要意识到训练数据中的偏见、隐私问题以及部署AI生成的决策所带来的更广泛影响。这类似于人类管理者必须确保其团队的工作符合法律和伦理规范。例如,如果AI助手基于它所习得的模式(可能无意中带有偏见)提出了一个招聘决策,人类领导者必须认识到这个问题,并根据公平和非歧视政策推翻或重新训练AI。有效的AI监督不仅要问“它有效吗?”,还要问“我们应该使用这个结果吗?”以及“后果是什么?”——这很像监护人的角色。虽然“AI素养”课程通常会包含伦理主题,但将其重新思考为领导力,强调了积极的道德能动性:你,作为人类管理者,需为AI的行为负最终责任。一些大学现在要求学生记录他们使用的所有AI辅助,并说明如何审核这些辅助,以培养这种责任感。底线是,AI不会免除人类的责任。相反,它提升了明智的人类领导力的重要性,以引导AI实现良好的结果。
结论:在AI世界中从使用者到领导者
“AI素养”一词作为一个便捷的起点,让人们开始思考AI时代所需的技能。但正如我们所探讨的,如果它让我们将AI视为一个只需学习和理解的静态对象,那它就是错误的术语。更有力且准确的定位是:我们是AI的领导者、管理者与合作者。我们不仅是AI输出的使用者或机器的操作员;我们是协同工作的数字代理的指导者与监督者。
这种重新定位具有深远的意义。它提醒我们,人类的能动性仍然处于核心地位。我们不仅需要知道AI是什么或其技术原理的人,更需要知道如何充分利用AI同时坚持价值观和目标的人。这本质上是一个领导力挑战,与领导多元化人类团队相似,区别在于团队中加入了非人类智能体。好消息是,在人类环境中造就伟大领导者的许多品质——清晰愿景、沟通能力、适应性、道德正直,以及激励和协调他人的能力——正是有效利用AI所需要的。事实上,随着日常任务的自动化,这些人类品质变得更加具有区分度。值得注意的是,在AI快速发展的时代,雇主调查持续强调创造力、团队合作与人际能力是关键,深知单靠AI无法提供这些特质。
因此,与其问“我们如何教每个人AI素养?”,或许我们应该问“我们如何培养AI领导力和协作智能?”这意味着要让人们有信心成为优秀的AI主管——将AI视为需要指导和监督的有能力的同事的人。这意味着要教下一代不仅使用AI,还要深思熟虑地与它合作:倾听AI的说法,但也要挑战它、引导它,并将其整合到更广泛的计划中。这还意味着重新设计工作流程,让人类做自己最擅长的事情(提供方向、创造力和道德判断),而AI伙伴则处理信息处理的繁重工作。
最终,目标是实现人机智能的协同,让人类牢牢掌握主导权。这不是一种消费关系(就像读者消费文本一样),而是一种协作与监督的关系。通过接纳将AI视为同事、将自己视为其负责任的监督者的心态,我们确保自己在 AI 时代不仅具备素养,还能真正拥有力量。我们成为一种新型管弦乐队的指挥,算法演奏乐器,而人类创作并指挥乐曲。这就是为什么从领导力、沟通和战略性委派的角度思考与AI的关系,比“AI素养”的概念有效得多。毕竟,未来将属于那些不仅知道AI如何工作,更知道如何与AI合作——并引导它实现人类目标的人。
本文来自香港理工大学胡祥恩教授