基于人机交互视角的领导力研究

张志鑫1,2,郑晓明1,钟 杰1

(1.清华大学 经济管理学院,北京 100084;2.海关总署研究中心,北京 100073)

摘 要:基于人机交互视角探讨领导者与人工智能(AI)的互动关系以及AI对领导力发展的影响。首先,重点阐述领导者与AI在人机交互下的关系演变,包括命令执行、镜像对称、智能主导、交互共生4个阶段,以及领导者面临的新情境。其次,以决策、共情和创新为维度,探讨领导者与AI在各个维度的角色功能以及两者之间的交互作用。最后,提出实践进路,旨在确保领导者与AI之间的高效交互,包括塑造AI伦理确保算法“向善”、领导者发挥责任主体作用以及数据治理推动组织智能化发展。揭示领导者与AI之间交互作用的动态性,推动人机交互理论发展。同时,分析领导者与AI在决策、共情和创新等维度的交互作用,为领导力变革、角色职能变化和领导力需求等方面的进一步研究奠定基础。

关键词:人机交互;领导力;人工智能;决策协同

Leadership from the Perspective of Human-Computer Interaction

Zhang Zhixin1,2, Zheng Xiaoming1, Zhong Jie1

(1.School of Economics and Management, Tsinghua University,Beijing 100084, China;2.Research Center of the General Administration of Customs of the People's Republic of China,Beijing 100073,China)

Abstract:With the rise of the intelligent revolution, artificial intelligence (AI) came into being. AI refers to the process of simulating and extending human intelligence, enabling computer systems to possess cognitive abilities similar to those of humans. Achieving this goal typically relies on core technologies such as machine learning, deep learning, natural language processing, and pattern recognition. Human-computer interaction (HCI) is a technology that involves the mutual influence and interaction between humans and AI, focusing on the design and implementation of user-friendly interfaces to facilitate interaction between users and computer intelligent systems. HCI encompasses important aspects such as user experience, human-computer interface, and interaction design. The human-computer interaction between leaders and AI refers to the communication process where leaders interact with AI based on common goals.

In the traditional context, leaders play a key role in decision-making and commanding in organizations, and their behavioral characteristics usually reflect subjectivity and personal experience. However, on the basis of data analysis and model training, AI can quickly extract and analyze valuable information, reflecting the objectivity of technology. In contrast, leaders' behavior is limited by personal resources and cognitive bias, while AI's data-driven decision-making provides objective and unbiased analysis results, forming a sharp contrast. Yet, there is a lack of research on the interaction between leaders and AI, so it is necessary to explore it in depth.

First of all, this paper focuses on the evolution of the relationship between leaders and AI under human-computer interaction, including the stages of "command execution", "mirror symmetry", "intelligent leadership" and "interactive symbiosis", as well as the new requirements faced by leaders, including re-examining the leadership role, reshaping leadership skills, adhering to the unique characteristics of human beings, and demonstrating leadership empathy. Secondly, taking decision-making, empathy and innovation as dimensions, this study discusses the role and function of leaders and AI in various dimensions and the interaction between them. In the aspect of decision-making, the differences between leadership decision-making and AI decision-making, the advantages and limitations of AI decision-making, and how to enhance the effect of decision-making between man and machine are discussed. In the aspect of empathy, it discusses whether artificial intelligence is emotional, related theories, and how to establish an emotional connection between man and machine. In terms of innovation, this paper discusses the innovation interaction between man and machine from the generation stage, elaboration stage, defense stage and implementation stage. Finally, this paper proposes corresponding practices, including shaping AI ethics to ensure that algorithms are good, leaders play the role of responsible subjects, and data governance to promote the development of organizational intelligence.

In summary, this study offers theoretical significance in three aspects. Firstly, previous studies have mainly focused on how a particular leadership behavior can use AI to enhance effectiveness or improve the relationship between superiors and subordinates. There is a lack of research on the human-machine interaction between leaders and AI. This study enriches the literature on human-machine interaction and expands the development of leadership research in the context of organizational intelligence, while also providing a new research perspective for the field of human-machine interaction. Secondly, this study utilizes the “leader-follower” research framework to deeply explore the evolution of the relationship between leaders and AI. It applies traditional interpersonal interaction patterns to the field of human-machine interaction, revealing the dynamics of the interaction between leaders and AI, and further promoting the development of human-machine interaction theory. Finally, by analyzing the interactive processes between leaders and AI in decision-making, empathy, and innovation, this study reveals the leadership transformation in the context of organizational intelligence. It analyzes the impact of AI on the roles and functions of leaders, helping the theoretical community to re-examine the new changes in leadership and grasp the leadership needs and development direction in the era of intelligence. This provides a foundation for constructing leadership theories for the intelligent era.

Key WordsHuman-computer Interaction; Leadership; Artificial Intelligence;Collaborative Decision-making

收稿日期:2023-12-19

修回日期:2024-03-17

基金项目:国家自然科学基金项目(72172074);清华大学经济管理学院互动科技产业研究中心“互动科技研究基金”项目(RCITI2022T001)

作者简介:张志鑫(1987-),男,山东济南人,博士,清华大学经济管理学院博士后,海关总署研究中心助理研究员,研究方向为宏观战略、产业经济等;郑晓明(1966-),男,江西上饶人,博士,清华大学经济管理学院教授、博士生导师,研究方向为领导力与组织行为;钟杰(1992-),女,山东聊城人,博士,清华大学经济管理学院博士后,研究方向为领导力、创造力、AI与组织行为等。本文通讯作者:郑晓明。

DOI:10.6049/kjjbydc.2023120795

开放科学(资源服务)标识码(OSID):

中图分类号:F272.91

文献标识码:A

文章编号:1001-7348(2025)10-0116-11

0 引言

随着智能革命的兴起,人工智能(Artificial Intelligence,AI)应运而生。AI是指通过模拟和拓展人类智能的方式,使得计算机系统具备与人类类似的认知能力,实现这一目标通常依赖机器学习、深度学习、自然语言学习和模式识别等核心技术[1]。随着AI在组织内部的延伸,以领导者为中心的管理方式逐步向以算法为特征的智能化方向发展[2]。传统背景下,领导者在组织中扮演决策制定和指挥者的关键角色,其行为特征通常体现主观性和个人经验[3]。然而,AI基于数据分析和模型训练,快速提取、分析有价值的信息,体现技术客观性。相比之下,领导者行为受限于个人资源和认知偏差的影响,而AI的数据驱动决策可提供客观、无偏的分析结果,两者形成鲜明对比。相关研究指出,AI对以领导者为中心的传统观念产生冲击,领导者需建立同AI进行良好交互的领导力模式[4]。然而,目前关于领导者与AI间交互的研究较为匮乏,因此有必要进行深入探索。

本研究理论意义:首先,以往研究虽然将领导者与AI置于同一选题下进行论述,但是更多聚焦某一领导行为如何运用AI提升效能或者改善上下级关系[5],针对领导者与AI人机交互的研究较为匮乏。本研究可以丰富人机交互相关文献,拓展领导力研究在组织智能化情境下的发展,也为人机交互领域提供新的研究视角。其次,本研究借助“领导—跟随”研究框架,深入探讨领导者与AI之间的关系演变,将传统的人际交互模式应用于人机交互领域,揭示领导者与AI交互作用的动态性,进一步推动人机交互理论发展。最后,通过分析领导者与AI之间在决策、共情和创新等方面的交互过程,揭示组织智能化情境下的领导力变革,分析AI对领导者角色、职能产生的影响,有助于理论界重新审视领导力的新变化,把握智能化时代的领导力需求和发展方向,为构建智能化时代的领导力理论奠定基础。

1 领导者与AI的共生发展:人机交互下的关系演变

1.1 人机交互

人机交互是人与AI之间相互影响和相互作用的技术,关注如何设计和实现用户友好界面,推动用户与计算机智能系统之间的交互。人机交互包括用户体验、人机界面和交互设计等重要内容[7]。较为理想状态的人机交互通常具有以下特点:减少认知负荷;清晰的透明度;共情性智能对话;个性化用户模型;智能化决策支持。

领导者与AI的人机交互是指领导者与AI之间基于共同目标相互作用的沟通过程,通过语音指令、文本输入、界面操作等多种方式展开,通常被视为多模态的信息交流和合作过程,双方扮演各自角色功能,共同协作实现组织目标。通常,领导者负责制定宏观战略、业务目标和政策指导[7],将任务需求、预期结果传达给AI,AI则运用其算法模型、学习能力和智能化技术接收、处理与分析信息,并生成相应的输出,如数据分析、决策支持、反馈等。领导者通过与AI的交互获取更多的洞察、推荐和决策支持,以帮助自身作出更明智的决策。AI则可依赖领导者的指导和反馈,不断学习和适应,改进自身表现和提供更有效的技术支持。

1.2 以“领导—跟随”为框架的关系演变过程

“领导—跟随”是典型的关系范式,领导者扮演指导、激励和决策的角色,跟随者遵循领导者指示执行任务[8]。在组织管理研究中,“领导—跟随”通常以人与人之间的交互作为观察点[9],最初以领导者为中心,聚焦领导者特质和行为有效性,分析如何影响下属结果变量的输出[10]。随后逐步转向关系视角,关注领导者和下属间社会交换的二元互动过程[11]。进一步地,研究焦点转向追随者,关注追随者如何感知和理解领导者行为[12]。随着AI蓬勃发展,人与机器的交互成为常态,“领导—跟随”观察视角逐渐涵盖人与机器之间交互的范畴。因此,通过“领导—跟随”视角探讨AI与领导者的交互,有助于揭示传统关系模式在人机交互过程中的演变。同时,将AI引至“领导—跟随”关系中进行探索可以提供人机交互的新视角,深入了解AI在人机交互中如何影响领导者行为和强化领导力的效能。

Tsai[13]通过构建整合框架,探讨AI在人机交互过程中的角色变化遵循“领导—追随”的关系轨迹,在人机交互中的角色逐步从跟随者演变为合作伙伴、领导者,进一步地,AI可在领导者决策过程中发挥主导作用。AI在人机交互中的角色转变并不代表AI本身具备人类领导者的技能和特质,更不意味着AI成为“领导”。需要更加关注AI与领导交互过程中所扮演的角色变化和发挥的作用,尤其是领导与AI的关系建设和协作。因此,领导与AI的关系导向意味着领导力发展的转变,开始关注领导与AI之间的合作和关系建设。本研究从“跟随—领导”视角总结人机交互下领导与AI关系演变过程,将其划分为命令执行阶段、镜像对称阶段、智能主导阶段、交互共生阶段,如图1所示。

图1 “领导—跟随”视角下领导与AI的人机交互演化过程
Fig.1 Evolution of human-computer interaction between leaders and AI from the perspective of "leader-follower"

注:L表示领导者,A表示人工智能

(1)命令执行阶段。“命令执行”符合传统单向、垂直的权力结构,领导独享组织决策的话语权,通过释放指示控制AI的动作。此阶段,AI数字化程度处于低端层面,依赖程序和预设功能执行“规定动作”,领导者通常要具有丰富的知识储备和项目经验,以确保AI准确无误执行命令并呈现预期结果。命令执行阶段存在较多挑战,根据认知负荷理论,领导者与AI进行交互时承担某种程度的认知负荷,包括对AI系统的功能操作、任务分配和故障处理,领导依据自身有限的认知能力和资源来处理,同时确保与AI的交互不能对认知能力形成“超载”。

(2)镜像对称阶段。随着数字技术和算法设计的逐步提升,领导者与AI呈现“对称镜像”关系,从单向指令传达转变为合作伙伴,AI不再只是被动地“使唤”,而是通过人机界面与领导者进行对话,双方相互合作、共同制定任务目标和计划[14]。AI基于大数据和算法提供支持,而领导者根据AI反馈调整自身行为。此阶段,AI面临技术边界的挑战,对于复杂、非结构化或涉及主观经验的问题,领导者仍需独立进行运筹设计。领导者与AI之间还存在权力平衡问题,若领导者无法有效平衡AI的决策能力,则会导致与预期相悖的问题。

(3)智能主导阶段。随着AI认知水平和决策能力的层级跃迁,进入以AI为中心的智能主导阶段。AI借助深度学习能够理解任务需求、情境特征和领导者特定需求,从而在任务执行中扮演主导角色。智能主导阶段,领导者通常面临技术依赖性,一味依赖AI的提醒、建议和决策,过度智能化会造成领导者钝化对关键问题的敏感度和判断力。同时,AI无法具备人类的道德判断、伦理观念和情感认知能力,面对关键决策和复杂问题,领导者仍然发挥独立判断和决策能力。

(4)交互共生阶段。领导者与AI的关系超越“领导—跟随”线性模式,迈向交互共生阶段。领导与AI建立深度互依关系,追求协同工作和价值创造,共同完成组织任务和项目。AI借助大数据分析和机器学习技术,提供数据洞察和预测能力,领导者则根据分析结果执行战略、决策等任务。“交互共生”强调更加协同和可持续的关系以及共同创造更大价值。AI的高速计算能力、海量存储、精准性和无疲劳性与领导者的经验、直觉、伦理判断、情感与创造力相协同,促使任务高质量完成。这种交互关系推动领导者和AI共同发挥各自优势,创造协同价值。

虽然“交互共生”阶段呈现更高阶人机互动关系,但依然存在挑战。例如,伦理道德问题,AI决策有可能与伦理道德和社会期望相悖,引发不公平和歧视性后果;算法偏见问题,算法偏见会引发AI在决策制定、资源分配和绩效考核等方面的不公平等问题;数据安全问题,组织数据遭受未经授权的访问、滥用甚至泄露。

整体而言,引入算法模型、机器学习、交互设计等概念,围绕“跟随—领导”视角总结人机交互下领导与AI关系演变,有利于厘清领导者与AI之间的平衡和协作关系,帮助领导者运用AI创造价值和提高工作效能,推动组织智能化发展。

1.3 人机交互下领导者面临的新情境

(1)重新审视领导角色。领导者需要适应与AI交互协同和共同创造价值的关系,改变传统的威权领导方式。传统上讲,领导者是组织决策源头,通常由领导负责控制进度、协调关系和作出决策。但领导者决策也可能存在封闭性,导致组织内部信息不对称。然而,随着重复性、机械性事务逐渐由AI代替,员工独立自主的工作状态愈加鲜明,这意味着领导者须重新定义领导角色,他们不再是无所不知、无所不能,而要转变为创建共赢、协作和平等工作环境的支持者[15]

(2)重新塑造领导技能。领导者需要重新塑造自身技能,以便适应AI加持的智能工作环境。一方面,技术洞察力需要提升。领导者对人工智能、数字技术、算法设计具有敏锐意识和洞察力,了解其潜在影响和应用场景。同时,领导者与数据工程师、算法工程师等技术人员密切沟通,掌握AI技术最新动态。另一方面,人机交互要求领导者具备AI学科以及跨学科知识整合能力,掌握机器学习、深度学习、自然语言处理、计算机视觉等知识,以便使领导者理解AI工作原理及其在人机交互中的应用。由于人机交互涉及多学科交叉,领导者还需掌握心理学、统计学、人机工程学和人类工效学等跨学科知识,实现人机交互协作。

(3)坚持人类独有特征。虽然AI高效处理能力释放出更多的领导效能和人力资源,但是,领导者依然具有创造性、批判性思维以及解决例外事情的能力[16]。创造性通常涉及非线性思维、灵感直觉、想象力等人类独有特征,尽管AI具有强大迭代模仿和学习能力,但无法完全复制领导者独有特质,领导者需发挥自身优势并与AI相结合,推动原创性产品创新。领导者考虑数据来源、收集方法、采样量、潜在偏见和统计误差的影响,结合组织特征对AI分析结果进行情景化解读。针对AI算法能力难以覆盖的例外事件,领导者要进行人工干预,借助自身经验知识和团队讨论应对复杂变化与不确定性,从而作出针对特定情境的决策[17]

(4)展现领导共情能力。虽然AI可以运用语音、文本、图像等非语言信息识别和理解情感表达,但是,并不能完全了解人类习惯和可预见行为。共情涉及理解个体情感、需求和动机,并对此作出恰当反应,这种共情能力是领导者塑造积极团队氛围、建立信任关系和激发团队创造力的关键所在。同时,共情涉及理解和回应个体差异,包括文化背景、情感状态和身体语言,观察个体差异和微妙之处的能力很难被纯粹依赖算法的AI所掌握。

2 人机交互中的决策、共情与创新:领导者与AI的角色及交互

本研究聚焦决策、共情和创新3个维度,探讨领导者与AI的角色和交互。首先,决策作为组织管理中的关键活动,涉及信息分析处理、结果公平等重要方面。AI可提供更准确、全面的数据分析和预测,提升领导者决策质量和效率。其次,AI逐渐具备对情感的感知和回应能力,分析领导者和AI在同员工进行共情过程中各自发挥的角色功能,有助于组织建立富有情感的人机交互。最后,分析AI在创新过程的应用,可以揭示领导者与AI在不同创新阶段的角色功能。

2.1 领导决策VS AI算法决策

2.1.1 两种决策方式的差异

目前,人机交互中决策问题的探讨主要聚焦AI决策与领导决策的优劣。支持AI决策更优的观点认为,AI决策通常与积极变量相关联,原因在于AI算法具有程序无偏、质量准确等属性。支持领导决策更优的观点认为,领导决策能够综合考虑复杂的组织情境和人类价值观,允许员工在决策过程中参与沟通,员工感知到被重视。因此,领导决策通常更容易被员工所接受。

本研究认为,领导决策和AI决策并非相互排斥,也难以简单地评判何者更优。两者差异反映领导者与AI在决策过程的不同角色和作用,本研究总结两者差异如表1所示。

表1 领导决策与AI决策比较
Table 1 Differences between leadership decision and AI decision

要点领导决策AI决策决策依据主观判断与经验驱动基于大数据、模式识别与机器学习场景类型非结构化、模糊场景结构化、量化场景响应速度长时间思索高度自动化、快速识别信息获取内外部环境、主观见解的宽泛搜索和整合从海量数据中获取所需信息调整修正较为灵活、依据情境修正立足数据和算法、弹性差

对比两种决策方式在决策依据、场景类型、响应速度、信息获取、调整修正等方面的差异,意味着领导者和AI在决策过程中存在交互必要性,应充分协同以提升决策质量。

2.1.2 AI决策的优势与局限性

相对于领导决策,AI可消除主观偏见。首先,公平理论表明个体对决策的接受程度与决策程序客观性密切相关。AI通过数据训练可以避免个体经验、情绪和直觉对决策偏差产生影响。员工普遍认为基于数据事实的决策结果可消除领导主观因素和情感倾向性,表现出较强的客观性。魏昕等[18]研究发现,当决策结果不利于员工时,员工更倾向于接受算法决策,认为AI算法决策比领导决策更加公平,从而减少偏差行为。其次,公平理论表明个体会启动相似比较程序对决策结果进行自我评估。AI决策通常依据固定规则、流程和程序,确保在相同控制变量条件下产生一致结果。因此,AI算法根据一贯逻辑和统一标准对组织内全部员工进行评估,决策结果被视为公平合理。

过分强调AI决策公正无偏也会忽视两个关键问题。第一,从技术层面而言,相关观点过度夸大AI算法的合理化程度,潜在假设是算法具有中立客观和批判性,决策结果完全摆脱人类主观偏见[19]。但是,算法被设定为高深莫测、不易被外人窥探的数字技术,这可能基于组织权力和价值取向,而非程序设计要求[20]。因此,员工个性化意见、提议和想法更加难以融入到标准化、预设和单调重复的机器算法中。有研究表明,员工对基于算法的人事考核持有抵触情绪,他们认为数字画像无法真实刻画情境性线索和定性因素,考核结果公平性也就受到质疑[21]。第二,AI算法将组织生活视为数据运算集合,过度突出数学思维对于组织情境的诠释。AI通过将个体行为简化成数字形式,全部决策分析结果依赖数字符号(董春雨,2023)。然而,无法量化、不易被编码的经验活动通常被AI忽略(任晓明等,2019)。例如,员工工作态度以及处理任务的分析能力和创造性思维等,这些真实存在的定性内容难以被AI程序化。

2.1.3 人机交互增强决策效果

根据“领导—跟随”视角下人机交互共生阶段特点,领导与AI建立互补、可持续的共生关系可以增强决策效果,交互共生在于领导与AI在不同领域专长和应用重点方面发挥各自优势。换言之,人机交互共生增强决策效果是通过领导对非量化因素的判断与AI数据分析能力相结合而实现的。两种决策的适用领域如表2所示,领导决策通常适用于战略管理、组织设计与人力资源管理,原因在于相关决策通常涉及组织文化、价值观、员工特长等非量化因素,领导者借助经验、直觉、洞察力和人际关系作出决策。AI决策则在运营、营销和风险管理等领域具有广泛运用,原因在于相关决策通常涉及供应链管理、库存控制、市场定位、产品定价和风险预测等方面,AI可以充分运用自身数据分析能力进行需求预测和量化管理。

表2 领导决策与AI决策适用领域
Table 2 Fields where leadership decision and AI decision apply

项目领导决策AI决策领域战略制定·分析市场趋势、竞争情报和内部资源·确定组织使命和愿景、业务战略、增长和发展方向等组织设计与人力资源管理·组织结构设计、岗位设置、人才选拔和激励政策运营管理·供应链管理、生产计划和库存控制营销管理·市场细分、定位与定价策略风险管理·建立风险模型,监控风险优点关注大局,灵活性强,根据市场趋势和内部资源作出关键战略决策可进行高精准程度的需求预测、供应优化等,纵向挖掘客户数据并通过算法分析实现个性化推荐及用户行为预测因素市场趋势,竞争情报,内部资源,使命和愿景,业务战略明确方向,考虑员工特长和价值观依赖海量定量数据分析,模式识别

因此,领导与AI的人机交互意味着领导决策和AI决策应依据不同情境及问题发挥不同作用,两者形成共生关系以极大提升决策效果。领导者利用AI提供的数据分析结果支持自身决策,从而更准确地制定战略、设计组织架构和管理人力资源。同时,领导者在决策过程中对AI的输出进行评估和调整,以确保决策符合组织价值观和长远发展目标。总之,两种决策模式充分发挥领导者经验和洞察力,同时借助AI数据分析和算法模型,提高决策准确性和效果,推动组织向预期目标前进。

2.2 领导共情VS AI共情

共情是指理解他人信念、意图、情绪和情感并感同身受的能力,旨在通过体验他人内心世界、理解他人经历并作出情感回应(郑晓明等,2020)。领导共情关注领导者与员工之间的情感连接和理解,关系互动、情感支持是领导展现效能的基础行为[22]。AI共情则反映AI对员工情感需求的感知和回应能力,提供个性化服务,促进沟通和协作,从而增强用户体验。两种共情方式相结合,可以增强组织内部情感交流质量。因此,分析领导共情和AI共情,推动人机关系高质量建设,有助于建立更加紧密、协同和富有情感的人机交互关系。

2.2.1 AI共情“何以为能”

AI共情首先要回答的是“何以为能”的问题,即人工智能是否具有情感性。传统观点认为,情感、情绪和感受等内容通常与领导共情相关。尽管AI在情感探索和情绪识别方面有所进展,但其侧重于使用数字技术解读人类情感,并不意味着AI拥有真实情感体验能力。

情感实践观认为情感劳动依赖身体的具体存在,情感交流需要真实的身体“在场”,感受来自他人肢体的反馈信息[23]。共情一定程度上依赖身体感官刺激的传递,作为真实存在的个体,领导在同员工建立人际关系时,通过身体姿态、面部表情和细微动作表达情绪。因此,“具身性”帮助领导运用肢体语言有效地表达关注、理解和共情。然而,AI是通过算法和程序模拟、执行任务的智能系统,缺乏生物肌体物理形态,缺乏“血肉之躯”,不具备共情能力存在的前提和基础。

然而,根据恐怖谷效应观点,在人类与虚拟人物进行互动时,当虚拟人物外形接近人类时,人们对虚拟人物的情感反应会经历“上升-顶峰-低谷-再上升”的过程[24]。随着虚拟人物的拟人化程度增高,人类会增加对虚拟人物的信任感,产生更加积极的共情和情感连接。在人机交互中,AI通过人机界面和用户设计等方式模拟拥有逼真形象、丰富面部表情和肢体语言的虚拟人物,提高用户对AI的信任感和满意度,促进更深入和有意义的互动,并对AI产生积极情感反应[25]。因此,尽管AI缺乏生物肌体,但通过人机交互中的具身形象和拟人化设计,可以实现与人类的情感共鸣,为AI共情提供可能性。

2.2.2 AI共情“何以为行”

AI共情理论基础回答的是“何以为行”的问题。理由理解论、模拟理论、直接感知理论、镜像神经元理论和共情计算理论通常被研究者用来解释AI共情,具体如表3所示。理由理解论是构建他人情感状态的推理模型[26]。其能结合面部表情识别技术、声音分析和肢体语言信号,增强AI识别员工多种情感信号的能力。模拟理论主张模拟他人经验,感受类似情绪和体验[27]。人机交互过程中,AI通过虚拟现实技术,增强AI视觉、听觉和触觉的模拟效果,提升情感体验真实度和交互性。直接感知理论主张直接感知他人情感状态和欲望感受[28]。在实践中,主要涉及AI对员工非语言信号的准确感知和解读,开发人脸表情识别算法,连接情感智能传感器和可穿戴设备,以捕捉员工情绪状态。镜像神经元理论主张通过理解他人动作进行情绪理解[29]。AI使用传感器和视觉设备识别员工身体姿态,判断其是否处于压力紧张、情绪耗竭等状态。共情计算理论主张情感来自所经历事件的情绪反应[30]。通过情感分析算法检测情感信号并进行记录,在后续人机交互中,AI会将员工以往情感经验与当前对话情境作对比和分析,实现个性化共情。

表3 AI共情作用机制、表现形式、种类与实现路径
Table 3 AI empathy mechanisms, manifestations, types, and implementation pathways

理论AI共情作用机制AI共情表现形式种类实现路径理由理解论(Theory Theory)主张通过推测他人心智状态理解其情感和意图。应用于AI共情,认为AI通过模拟和预测人类心理过程实现共情采用心智模拟方式进行共情认知共情神经科学研究更准确地模拟人类思考过程,让AI理解复杂情绪表达和自然的处理方式。结合深度学习与自然语言处理,进行情感识别模拟理论(Simulation Theory)主张在共情过程中模拟他人经验,从而感受到类似情绪和体验。应用于AI共情,AI通过模拟他人情感和体验产生相似情绪模仿情感和体验情感共情探讨机器学习算法在模仿人类感知、认知和情感反应方面的应用,通过计算机视觉和虚拟现实技术,使AI在特定情境中具有更强交互性和自主性直接感知理论(Direct Perception)主张感知他人行为和非语言信息。应用于AI共情,AI通过观察他人面部表情、姿态变化,直接感知并体验他人情感状态直接感知非言语信号感官共情推动AI理解并识别各种类型数据,构建更强大和全面的感知系统。开发新的算法和技术,优化图像等传感器数据的解码,使得AI更精确、更深入地理解周围环境镜像神经元理论(Mirror Neuron The-ory)主张共情是通过将他人的情感状态反射到自我来实现。应用于AI共情,通过模仿他人动作反映他们的情绪通过符号建立映射关系行为共情学习和映射人类情感模型,通过强化学习持续优化映射关系,使得响应更加符合人类情感表达方式,进行概念抽象和推理,将非结构化的情绪语义转化为结构化的数据模型共情计算理论(Computational Em-pathy Theory)结合认知科学、心理学和计算机科学,利用数据挖掘和机器学习技术识别与解释他人情感。应用于AI共情,AI运用模型来推测和回应他人情感需求通过上下文和语义建立关系语义共情通过采用情景识别和记忆模型,AI理解和记忆用户情感历史,准确地预测和响应用户情绪变化

这些理论为AI共情提供不同解释机制,从心智模拟、模仿情感和体验、直接感知非言语信号、行为反应、语义建立关系等多个维度建立应用。通过运用不同理论,AI模拟、感知和理解人类的情感意图,在组织中实现高质量共情。

2.2.3 AI共情“何以为情”

AI共情要回答“何以为情”的问题,即探究人机之间如何建立情感连接。本研究基于组织管理背景,提出“拟情-移情-共情”的交互过程。拟情(Simulation)是指AI通过熟知组织内部沟通方式,模拟员工情感需求和行为举止。AI通过分析员工语言、面部表情、语气语调等信号,试图模拟类似情感态度和情绪反应。移情(Transference)是指组织员工将自我情绪、情感投射到与其进行人机交互的AI上。员工将情感需求、期许和希望投射到AI,并期待其作出符合场景的回应。员工感受到自己被AI认知、接纳和理解时获得情感支持。共情(Empathy)是指AI感知和理解员工情感,产生与之类似的情感体验,并提供恰当的正面反馈。

共情过程是一个连续动态的交互闭环,其中,拟情、移情和共情相互依存和促进,如图2所示。共情过程通常包含感知觉察、拟情引发移情、移情强化情感联系、共情增强情感共鸣等阶段。感知觉察通过物理技术,使得员工感知AI是人机共情的对象。拟情为移情奠定基础,如果AI具有与人类同质的外观形象、言语和行为等属性,员工就会将AI视为具有感知能力和情感的实体。拟情引发员工对AI的情感投射,为移情创造条件。移情强化情感连接则加深人机共情的联系,员工通过情感投射与AI形成情感联系和互动感知。共情则增强情感共鸣,员工通过观察AI的情感表达,加深对AI情感状态的理解和共享,建立情感联系,形成情感共鸣。整个过程中,拟情启动移情体验和理解,而移情加强人机交互的情感联系,推动共情发展。共情处于末端,增强情感回应和共鸣,表现出与对方一致的欲望、响应和思考,从而回溯到拟情阶段,促进拟情的反馈回路。该交互闭环过程促进人机之间的情感连接,建立更真实、丰满和积极的人机共情。

图2 人机交互下“拟情—移情—共情”的循环过程
Fig.2 Loop of "empathy empathy empathy" in human-computer interaction

2.2.4 领导共情与AI共情的交互协同

领导共情与AI共情的不同之处如表4所示,领导共情依赖于真实情感体验,本质是人际关系互动,离不开领导者敏锐的洞察力、同理心和沟通艺术。AI共情依赖于数字技术模拟和识别人类的情感反应,本质是数字技术驱动,但是,这并不意味AI共情威胁甚至取代领导与员工间真实互动、关怀和情感。根据“领导—跟随”视角下人机交互共生阶段的特点,领导共情与AI共情在组织中共生并存,共同创造情绪价值。换言之,人机交互共生增强共情效果是通过领导真实情感体验的人际关系互动以及AI学习情感反应的技术驱动相结合实现的。

表4 领导共情与AI共情对比
Table 4 Comparison between leadership empathy and AI empathy

项目领导共情AI共情核心真实情感经历,同理心机器学习,海量数据,模拟情感本质人际关系技术实现目的建立信任,增强员工满意和工作积极性,推动团队合作改善员工体验,提供个性化情感支持方式双向沟通,提供资源,建立共同目标,关注个人发展数据分析预测,自然语言处理和图像识别,仿真互动局限受个人的主观影响,或者信息不对称,可能产生判断偏差或忽略、误判员工的情感需求缺乏真实的情感经历,在人际交流维度较为欠缺可持续性通过领导力开发、培训得以提升,但是,学习过程受制于领导认知和心理机制,较为缓慢通过算法改进和海量数据训练增进持续性,具有快速可扩展的学习能力伦理性遵守人际关系中的公序良俗,确保共情行为不侵犯员工隐私和尊严严格遵守数据隐私和信息安全等伦理规范,确保不滥用个人数据员工感受欲将心事付瑶琴,春风化雨共音频机器无情却知音,人型电脑天使心

在“领导—跟随”视角下,AI与领导者、员工形成更加复杂和多元的交互关系。首先,AI作为决策支持系统,帮助领导者理解员工需求和情感状态。AI通过多线程处理海量数据和信息,并从中提取、识别员工心理反应和情绪波动等隐藏信息,提升领导者理解员工情感的准确性。例如,通过分析员工文本信息记录、社交媒体互动以及其它数字足迹信息,搭配AI的情绪检测功能,及时察觉员工满意度是否较低,提醒领导引起关注并采取缓解举措。其次,AI基于技术驱动的反馈结果,可以避免领导共情的主观偏差[31]。例如,在组织推行某项变革时,AI借助情感识别技术分析员工对变革的态度和情感反馈,评估员工是否愿意接受或反对变革。相关分析结果可以减少领导谨慎保守或冒进乐观的主观影响,促进组织变革的实施。最后,借助领导与AI的交互共生关系,领导者优势可以得到全面发挥,领导者与员工之间的共情效果也得以提升。领导者全面了解员工需求和情感状态,可以更好地回应员工情感需求,激发员工潜力和发展空间,提升员工满意度和幸福感,实现高质量的情感建设和关系互动。

2.3 领导创新vs AI创新

基于相关文献,本研究将组织创新过程分为生成阶段、阐述阶段、捍卫阶段、落实阶段[32],如图3所示。这4个阶段囊括从创新想法出现到实际实施和推广的全过程,每个阶段均依赖人机交互的支持,而且全过程循环迭代,AI强大的学习算法和计算能力恰好可以针对反馈进行快速迭代,实现更高效的人机交互与组织创新管理。

图3 领导者与AI在创新过程中的交互
Fig.3 Interaction between leaders and AI in the innovation process

2.3.1 生成阶段:机会识别与创意产生

机会识别和创意产生是创新过程的起点,领导者和AI扮演不同功能角色。领导者主导创新战略定位职责,凭借多年行业经验和洞察力,领导者考量市场趋势、竞争度和用户反馈等因素,初步确定组织创新战略定位[33]。围绕创新战略定位,领导者设定创新目标,引领团队成员聚焦关键问题,通过激励和启发促进创新产生与分享。在此过程中,领导者可调动和配置组织内外资源以支持创新机会识别。然而,领导者通常面临“有限处理能力”与“无限信息膨胀”之间的矛盾,在吸收、加工和处理信息方面相对薄弱,依赖本地搜索程序在现有知识库存中提取相关元素以寻求创新方案。尽管领导者可以通过多样化渠道(行业会议、研讨会、专家咨询)获取更广泛的信息,但是,在信息处理和运用方面依然面临较大挑战。

领导和AI的交互共生关系可以通过多种方式提升创意生成效果。首先,AI可以帮助领导者全面识别潜在创新机会。AI通过处理大规模数据,对文本数据或语音信息进行提取、挖掘和筛选,提供有关行业、技术和市场的精准信息,展示创新机会的优先级排序并通过可视化展示帮助领导者更加直观理解,从而提升创新成功率。其次,AI通过自然语言处理、知识图谱构建等技术手段,帮助领导者和团队成员快速获取海量知识与信息资源,解锁领导者和团队成员的信息处理限制,识别远程搜索领域的知识内容,激发创意灵感。通过生成式设计、智能算法等方式,AI与领导者和团队成员共同参与创意生成和优化过程,提供新颖的创意思路和方案。总体而言,领导者与AI的交互共生可以提高创新机会识别和创意生成效果,推动组织创新能力提升。

2.3.2 阐述阶段:创意评估与选择

领导者负责对创意进行客观评估和筛选,凭借其专业知识和经验对创意进行主观评估,并基于市场因素、技术可行性和商业潜力评价创意方案优先级。同时,领导者评价创意的创新程度及其市场预期,判断创意是否具有显著的市场需求和机遇以及能否提供全新价值和解决实际问题,结合资源储备、成本费用、竞争优势等因素作出选择。

领导与AI的交互共生帮助领导者降低认知偏见和有限知识的主观影响。首先,AI具有强大的信息处理能力,为领导者提供中立信息佐证其选择。AI通过数据分析确定市场趋势、竞争环境和用户行为偏好,帮助领导者了解创意的潜在机会和未来挑战,从而降低主观偏差,提高评估准度和效度[34]。其次,AI通过算法、模型和历史数据的仿真模拟,预测不同创新方案可能的结果,帮助领导者全面了解创意潜力和降低风险。有研究表明人机交互可以实现互助式验证,设计人员和算法工程师对AI进行训练,AI快速生成大量创新,并通过修正设计人员基于经验的偏差,推动创新不断完善和发展(吴小龙等,2023)。总体而言,领导者与AI交互协同能够更加全面、系统地评估创意的潜在价值、市场适应性以及风险程度,从而帮助领导者作出基于数据驱动的创意评估和选择。

2.3.3 捍卫阶段:概念与解决方案开发

领导者通常采用构建—度量—学习循环(Build-Measure-Learn Loop)3个步骤,构建面向市场的即用型解决方案。构建步骤中,领导者引导团队构建原型验证创意概念。原型构建和测试旨在将创意概念转化为具体实物和服务形式,使其更接近商业化需求。度量步骤中,领导者收集数据并洞悉用户反应。领导者将原型置于用户环境、市场环境、技术环境或者生产环境中,以获得真实环境下的数据,验证原型的功能、性能和效果,通过度量原型在实际场景中的优势、挑战和市场反馈,领导者对原型进行优化、调整和改进。学习步骤中,领导者分析原型和评估数据,并得出关键结论。

在概念与解决方案开发过程中,领导与AI交互共生促进解决方案质量和创新水平提升。首先,AI通过模拟仿真、智能优化等手段,与领导者共同参与解决方案设计和优化过程,提供科学、可靠的决策支持。其次,AI通过大数据分析、智能算法等技术手段,在海量数据中识别关键特征,并发现其中相关性,与领导者共同了解行业趋势和市场需求,从而推动概念和解决方案开发。例如,基于机器学习算法的应用程序可以提供丰富的用户选项,有利于领导者理解用户创新需求和期望,并矫正领导者对创新需求的误判。总体而言,领导者和AI交互有利于充分理解用户需求,不断推出符合市场需求的创新产品或解决方案。

2.3.4 落实阶段:商业化启动与实施

落实阶段主要涉及营销、分销、物流和面向用户的活动。领导者主要聚焦营销策略、物流和分销渠道以及用户关系管理,需要选择新市场、确定创新产品定位、制定定价策略和推广活动,同时关注市场需求和竞争环境,以制定有效的营销策略。领导者确保物流和供应链高效运作,构建无障碍的物流和分销网络。领导者主动与供应商、合作伙伴和分销渠道建立良好合作关系,推动新产品或服务快速进入市场。

领导与AI交互共生主要解决商业环境不确定性带来的信息不对称问题。首先,AI可利用强大的运算能力分析海量数据和用户行为,从而预测市场趋势。领导者依托AI技术,结合自身经验和洞察力,把握创新商业机会,充分挖掘新产品市场潜力。其次,AI远程协作可以拓宽信息汇聚渠道、完善信息共享机制。创新产品或服务的商业化过程涉及众多外部渠道,这对领导者沟通和协调带来巨大挑战。领导者运用AI技术进行异构系统和平台的集成与对接,实现有价值文档、动态报告、数据分析结果的实时共享。此外,音视频会议、即时消息、远程屏幕共享、协同编辑等工具可以帮助不同地理位置的利益相关者快速触达重要信息,降低敏捷成本并促进更加高效的商业化合作。

3 实践进路:领导者在人机交互中的责任与引领

3.1 塑造AI伦理确保算法“向善”

算法作为AI底层技术逻辑,被广泛运用于组织管理中,并形成“机器真理”。然而,领导者若一味偏信算法,则会削弱自身和组织成员主体性,导致组织生活坍缩为注重效率、计算、指令的“机械化世界”。如何确保算法“向善”,促进AI最大程度赋能组织健康发展是领导者思考的关键问题。

(1)建立符合社会伦理的价值观。在人机交互环境中,领导者应将社会利益置于首位,杜绝“算法决定道德”的技术决定论观念,以确保AI开发和运用符合社会伦理与道德标准。领导者必须向组织成员明确传达组织伦理原则以确保AI算法决策过程公正公平,避免针对特定群体或个人的算法歧视。

(2)建立AI监管框架。领导者应确立内部审核机制,并组建涵盖伦理学、法务和科技领域专家的算法审核委员会,负责对算法的设计、实施和结果进行审验,以确保其符合伦理准则。建立针对AI算法开发和应用过程的违规追责机制,包括明确责任主体、设立监察部门和制定违规处理措施等。

(3)增强透明度和可解释性。算法运作机制具有“黑盒”属性,不易被外界洞悉,使得AI的输出结果缺乏可解释性,引发组织成员质疑和猜测。领导者要建立透明的数据处理过程并制定标准化的数据管理规范,记录算法运作过程的关键痕迹,如数据、特征、权重等,理解AI算法结果输出的缘由。

3.2 发挥领导者责任主体作用

人机交互中确定责任主体是关键问题。本研究认为,人机交互背景下,领导者对AI的选择、设计、实施和结果承担领导责任,当作出错误决策时,领导者不能将责任归咎于AI。

(1)领导者需具备独立决策判断力。领导者需对AI提供的数据分析和结论报告进行综合审核与评价,结合自身知识和经验与AI决策结果进行对比,避免过度依赖AI分析结果。特别在面临关键任务和重大决策时,领导者可使用不同算法模型并比较结果,同时进行实地调查为决策提供佐证。

(2)领导者应了解AI作用机理和局限性。领导者要理解AI技术原理、基本算法和模型设计,以及它们在特定任务中的局限性。这有助于领导者理解AI如何通过数据分析输出结果,并判断何时可信任AI以及何时要进行人工干预,以提升决策准确性和灵活性。

(3)领导者应全周期介入AI的选择、设计和实施过程。领导者需与算法工程师团队共同评估AI的可靠性,确定最适合组织需求的AI系统。领导者要参与AI设计,确保其符合组织愿景、价值观和长期目标,包括明确算法功能和特性、制定数据隐私和安全策略、拒绝引入与组织价值观相悖的因素。

3.3 推动组织智能化发展

人机交互环境中存在数据安全风险、数据隐私泄露等问题,确保数据的质量、安全和合规性是领导者应持续关注的重要议题。

(1)加强隐私保护。领导者应加强数据安全措施,采用加密技术和访问控制机制,以防止数据泄露、未经授权的访问和恶意攻击。领导者还应采取匿名化数据处理方式,以减少与特定个人相关联的风险。领导者应遵循最小化数据收集原则,围绕组织需求确定所需数据类型和范围,避免不必要的数据收集,从而减少潜在的隐私泄露风险。

(2)确保数据质量。通过组建数据治理团队,建立数据质量保证机制,避免不合规数据被添加至AI系统。当出现错误时,团队成员要及时确定偏差源,特别是模型算法和特征选择方面的问题,然后进行数据记录修改、分类标签更新、数据关联调整等操作。在此过程中,要及时更新数据文档和元数据,包括数据说明、字段定义等,以确保数据可追溯性。

(3)加强数据治理人才培养。提供培训和学习机会,实施数据治理人才培训计划,聚焦隐私保护、法律法规、伦理学等数据知识,提高组织成员数据治理能力。提供实践项目和真实数据集,帮助组织成员了解数据多样性,熟悉常见数据质量问题,推动数据治理人才在真实数字场景中应用其所学的知识和技能。

人工智能已广泛渗透至组织内部,使得组织内部决策过程、交流方式等方面均发生显著变化,提高了组织工作效率,增强了决策科学性,同时也在组织伦理方面带来新挑战。在人机交互过程中,领导者既要充分运用AI技术推动组织智能化发展,又要不断开发和提升自身领导力,展现责任感和使命感,确保组织伦理不受破坏,最终推动组织可持续发展。

参考文献:

[1] 赵宜萱,赵曙明,栾佳锐.基于人工智能的人力资源管理:理论模型与研究展望[J].南京社会科学,2020,34(2):36-43.

[2] KELLOGG K C, VALENTINE M A, CHRISTIN A. Algorithms at work: the new contested terrain of control[J]. Academy of Management Annals,2020,14(1): 366-410.

[3] 祝振兵,王钰涵,许晟.积极追随特质对追随者工作压力的双重影响研究[J].管理学报,2022,19(8):1163-1172.

[4] 夏义堃.论政府首席数据官制度的建立:兼论大数据局模式与运行机制[J].图书情报工作,2020,64(18):21-29.

[5] 李馨,郑银波,刘培,等.数智时代领导力的挑战与进阶[J].清华管理评论,2023,14(9):56-63.

[6] 陈善广,李志忠,葛列众,等.人因工程研究进展及发展建议[J].中国科学基金,2021,35(2):203-212.

[7] 杨典.公司治理与企业绩效——基于中国经验的社会学分析[J].中国社会科学,2013,33(1):72-94.

[8] HAMBLEY L A, ONEILL T A, KLINE T J B. Virtual team leadership: the effects of leadership style and communication medium on team interaction styles and outcomes[J]. Organizational Behavior and Human Decision Processes, 2007,103(1):1-20.

[9] 罗文豪,刘东,章凯.追随研究的演进及其在中国情境下的未来发展方向探索[J].南开管理评论,2021,24(2):214-226.

[10] NORMAN S M, GARDNER D G, PIERCE J L. Leader roles, organization-based self-esteem, and employee outcomes[J].Leadership and Organization Development Journal, 2015,36(3):253-270.

[11] 陶厚永,李薇,陈建安,等.领导—追随行为互动研究:对偶心理定位的视角[J].中国工业经济,2014,41(12):104-117.

[12] CARSTEN M K, UHLBIEN M, WEST B J, et al.Exploring social constructions of followership: a qualitative study[J].The Leadership Quarterly, 2010,21(3):543-562.

[13] TSAI C Y,MARSHALL J D,CHOUDHURY A. Human-robot collaboration: a multilevel and integrated leadership framework[J]. Leadership Quarterly, 2022,33(1):1-18.

[14] LARSON L, DECHURCH L A .Leading teams in the digital age: four perspectives on technology and what they mean for leading teams[J].Leadership Quarterly, 2020, 31(1):1-18.

[15] BOLDEN R, OREGAN N. Digital disruption and the future of leadership: an interview with Rick Haythornthwaite,Chairman of Centrica and MasterCard [J].Journal of Management Inquiry, 2016, 25(4): 438-446.

[16] KAKATKAR C, BILGRAM V, FULLER J. Innovation analytics: leveraging artificial intelligence in the innovation process[J].Business Horizons,2020,63(2):171-181.

[17] ALNUAIMI B K, SINGH S K, REN S, et al.Mastering digital transformation: the nexus between leadership, agility, and digital strategy[J].Journal of Business Research, 2022,145(6):636-648.

[18] 魏昕,黄鸣鹏,李欣悦.算法决策、员工公平感与偏差行为:决策有利性的调节作用[J].外国经济与管理,2021,43(11):56-69.

[19] HAUER T. Society and the second age of machines:algorithms versus ethics[J].Society,2018,55(2):100-106.

[20] 肖红军.算法责任:理论证成、全景画像与治理范式[J].管理世界,2022,38(4):200-226.

[21] NEWMAN D T, FAST N J, HARMON D J. When eliminating bias isn′t fair: algorithmic reductionism and procedural justice in human resource decisions[J]. Organizational Behavior and Human Decision Processes,2020,160(9):149-167.

[22] 张志鑫,郑晓明.数字领导力:结构维度和量表开发[J].经济管理,2023,45(11):152-168.

[23] 崔中良,陈雯.情感劳动:人工智能劳动的限度及风险[J].学习与实践,2023,39(7):30-36.

[24] SEYAMA J, NAGAYAMA R S .The uncanny valley: effect of realism on the impression of artificial human faces[J]. Presence Teleoperators Virtual Environments, 2014, 16(4):337-351.

[25] ABDULAZIZ A, EVA W. You look human, but act like a machine: agent appearance and behavior modulate different aspects of human-robot interaction[J].Frontiers in Psychology, 2017, 8(8):1-12.

[26] 陈巍.读心理论论四十年:从常识心理学到心智化系统[J].西南大学学报(社会科学版),2020,46(3):109-116.

[27] DECETY J. The functional architecture of human empathy[J].Behavioral Cognitive Neuroscience Reviews, 2004, 3(2):71-100.

[28] ZAHAVI D. Beyond empathy phenomenological approaches to intersubjectivity[J].Coactivity Philosophy Communication, 2011, 18(5):151-167.

[29] 温祖满,苏得权.赫布学习、镜像神经元与情绪理解[J].心理研究,2018,11(2):113-118.

[30] 樊岳红.人工智能情感认知推理的计算模型分析[J].上海师范大学学报(哲学社会科学版),2020,49(2):94-103.

[31] JAGO A S, LAURIN K. Assumptions about algorithms′ capacity for discrimination[J].Personality and Social Psychology Bulletin,2022,48(4):582-595.

[32] PERRY S J E, MANNUCCI P V. From creativity to innovation: the social network drivers of the four phases of the idea journey[J].Academy of Management Review, 2017, 42(1):53-79.

[33] 井润田.高校科研团队管理与战略科学家能力建设[J].上海交通大学学报(哲学社会科学版),2022,30(4):43-56.

[34] BERENTE N, GU B, RECKER J. Managing artificial intelligence[J].MIS Quarterly,2021,45(3):1433-1450.

(责任编辑:万贤贤)