人工智能可以成为在工作场所提高效率的绝佳工具,但这始终需要与人工监督相结合。我们不妨将人工智能视为 “足智多谋的助手”。它可以快速处理日常任务,简化您的日常工作量,但如果没有您的指导和输入,它就无法有效运作。虽然人工智能通常比人类更快、更精确,保留和综合数据的能力也更强,但企业仍然需要能够展示出宝贵的、面向未来的人类技能(如创造力、情绪智力、批判性思维和学习敏捷性)的员工。当人工智能与人类协同工作时,人工智能可以通过多种方式让组织及其员工受益,其中包括:
虽然人工智能可以有效提高人力资源团队的效率,但重要的是要战略性地实施人工智能技术,以确保正确使用,并从一开始就减少潜在的负面影响。在开始将人工智能纳入人力资源流程时,请确保您
制定明确的人工智能管理和原则 – 预先制定政策和指导方针至关重要,以便在人力资源流程中合乎道德地适当使用人工智能。这些政策和准则需要考虑人工智能工具的审核、安全性、数据隐私、适当和不适当的使用、遵守法律要求以及人工监督等要素。
促进培训–人力资源专业人员要想有效利用人工智能技术,就必须接受系统管理培训,以增加人力资源领域的人文体验。考虑举办有关情商、批判性思维和管理偏见等关键技能的培训,让您的员工为在人力资源领域利用人工智能的力量做好充分准备。
确定关键决策者–随着人力资源流程中人工参与和人工智能之间的界限变得越来越模糊,关键是要列出谁对最终决策负最终责任,以及如何促进对这些决策的反馈。
注重多样性、公平性和包容性(DEI)–如果没有专家的见解和协助,人工智能模型就有可能强化社会偏见,并且无法解释某些亚群体所面临的独特挑战。这可能会强化现有的差距,甚至使来自边缘化社区的个人处于不利地位,这可能会导致大体上同质化的空间,不支持 “促进可持续发展 “原则。人工智能模型和人才管理流程方面的人类专业知识对于最大限度地减少偏见和不利影响至关重要。
采取整体方法–归根结底,虽然在人力资源领域使用人工智能工具可以在某些方面有所帮助,但重要的是要认识到,我们的工作对象是具有偏好、兴趣和绩效潜力的复杂人类。在做出任何关键决策之前,全面审视流程和结果至关重要。
目前,人力资源部门常用的人工智能工具有三种:
人力资源中的自然语言处理:自然语言处理(NLP)是人工智能的一个分支,侧重于计算机与人类语言之间的交互。它使机器能够理解、解释和生成语言,帮助我们以更直观、更自然的方式与技术交流。NLP 已迅速成为主流,通过聊天机器人和虚拟助理等技术无缝融入我们的日常生活。在人力资源部门,NLP 可用于寻找人才分析中的主题、创建人力资源自助服务计划以及识别招聘信息中的偏见等活动
人力资源中的机器学习:机器学习(ML)是一种人工智能技术,它赋予计算机从经验中学习的能力,而无需明确编程。机器学习模型在数据中寻找模式,然后学习这种模式。下一次,当模型收到类似信息时,它就会利用学到的模式进行预测。机器学习是人力资源领域常用的人工智能工具,可帮助简化各种关键流程,如预测人员流动、提供发展建议和评估打分。
人力资源中的生成式人工智能:生成式人工智能是一种能够根据用户提示创建文本、图像、音频或视频等内容的技术。虽然它的兴起已有数年,但在 2023 年,当 ChatGPT 让世界各地的人们比以往任何时候都更容易在工作场所和家中开始使用这种特定类型的人工智能时,生成式人工智能的使用出现了爆炸性增长。人力资源部门可以使用生成式人工智能工具,通过人力资源聊天机器人提高生产力和效率,并为职位描述、电子学习和其他人力资源相关内容的有效文案创建提供支持。
在人才测评中运用人工智能的机会很多,例如帮助生成测评内容、创建基于聊天机器人的招聘流程或提供更具互动性的工作模拟。作为人才管理专业人士,我们需要始终专注于衡量正确的事情,而不要被闪闪发光的新技术所干扰。这样,我们就能利用人工智能工具在评估方面的巨大潜力,同时对潜在的隐患保持警惕。在采用任何涉及重大决策的新技术时,科学的严谨性、审慎的方法、完全的透明度和沟通都至关重要。在使用人工智能评估工具时,仍然需要人工干预,人力资源专业人员需要运用计算机所不具备的技能,以确保做出有效、公平的评估决策
虽然使用人工智能评估工具有很多潜在的好处,但也有一些风险需要注意并在整个组织内公开:
忽视 “人的因素“:过度依赖自动化可能会导致忽视就业决策中的人性因素,如同理心和预见性。
有偏见的输入会产生有偏见的输出:了解输入人工智能模型的数据至关重要–即使如此,如果不加以密切监控,旨在保持中立的人工智能模型仍可能学习并延续历史数据中存在的社会偏见。
高度复杂性会降低透明度:模型越复杂,就越难理解和解释。
需要大量数据:需要持续收集大量数据来支持人工智能模型,所有数据的收集都要符合道德规范,确保个人和专有信息的隐私和保密性。
侵犯数据隐私:用户需要注意数据隐私以及输入人工智能工具的确切数据,尤其是公开提供的工具,因为在这些工具中,提供商可能会使用数据来训练其模型。
重复使用人工智能流程可能会导致错误:将工作场所中的人工智能从业务的其他部分转换到组织的人才管理解决方案和流程中,需要小心谨慎。
通过在这些领域保持与最佳实践的一致性,您可以让候选人和现有员工放心,人工智能评估工具和相关技术将始终以负责任的方式使用。
人工智能在工作场所的广泛应用为创新带来了许多积极的益处,但与此同时,科学家、立法者、社会正义团体和媒体也发出了警告,指出在人才管理中使用人工智能可能会产生偏见、侵犯隐私或落入不法分子之手以达到邪恶目的。
所有这些都导致了一些人对人工智能在人才测评中的应用产生了不信任,并呼吁为其使用设置警戒线,尤其是当人工智能的自动化和生成能力变得越来越强大的时候。对话的声音越来越大,一个共同的主题是呼吁在人工智能时代合乎道德地使用技术和进行评估。工业与组织 心理学协会(SIOP)和人力资源管理协会(SHRM)最近都发布了基于人工智能的评估建议,强调了道德实践的必要性。
可以肯定地说,人工智能在工作场所以及一般情况下都不会消失,它为劳动力带来的许多好处远远超过了潜在的风险。因此,在我们前进的过程中,人工智能自然可能会在人才评估中保持核心地位。尽管如此,这不可能一蹴而就。在人才测评中使用人工智能是一种特别 “高风险 “的情况,因此必须负责任地使用人工智能,并充分了解可能产生的后果。鉴于人工智能评估工具仍在不断进步,洞察力也在与日俱增,现在我们需要谨慎行事,不要过度承诺使用人工智能驱动的评估。归根结底,人才测评的目的是尽可能准确可靠地预测工作成功与否,在我们能够证明人工智能测评解决方案能够公平地促进这一点之前,我们应该谨慎行事。不过,随着人们对人工智能在工作场所中的应用越来越了解,我们预测人工智能在人才评估中的应用也将继续增长,从而为不需要人员参与的常规任务提高效率。这将使人力资源专业人员能够完全专注于人才评估中始终需要人工参与的部分:对候选人或员工评估结果的理解、解释和应用。
Talogy 组建了一支专家团队,以确保在评估中谨慎使用人工智能,使其发挥更大价值,同时将作弊和法律挑战的风险降至最低。我们的博士级 I/O 心理学家团队的工作理念是,人工智能测评解决方案应用于真正能增加价值的地方,并始终由专家进行监控,以最大限度地减少偏见、不利影响和作弊问题。这样,您就能提高候选人的参与度,提高效率,加快流程,并获得宝贵的数据,从而改善您的人才战略和成果。
Talogy研发团队在数据科学和人工智能评估常用的高级统计技术方面拥有深厚的专业知识,如机器学习和自然语言处理。我们在科学合理的情况下使用这些技术。我们使用的解决方案不涉及 “开放式人工智能”。也就是说,我们不实施允许算法在没有人为干预的情况下随时间变化的解决方案。我们只采用所谓的 “封闭式人工智能 “流程,这些流程不会受到外部输入和调整的影响,从而保持了人工智能模型的纯净以及客户和候选人数据的安全。
我们利用人工智能优化结果的一个很好的解决方案实例是我们的 Mindgage™ 能力测试系列。我们利用机器学习技术来识别测试数据中的特征和模式,这使我们能够建立能够优化预测和降低不利影响风险的评分模型,同时保持测试 的吸引力和快速完成。由于使用了机器学习人工智能来开发我们的评分模型,Mindgage 在某些职位上的工作绩效预测效果已被证明与传统评估相当或更好 亚组差异减少了多达 60%。
Talogy 已经建立了一套明确而健全的人工智能治理流程,旨在促进和监督人工智能技术的有效、安全和道德使用。通过这一流程,我们确立了在人才评估中使用人工智能的核心道德原则:
安保和安全:人工智能应用应受到管理和保护,以防意外风险对个人或组织造成伤害。
隐私:在开发、存储和应用人工智能时,应根据预期用途、同意和适用的法律法规尊重和保护数据隐私。
公平:应以平衡的方式开发和使用人工智能应用程序,减少偏见,避免意外结果,实现公平获取和待遇。
可靠性和准确性:人工智能应用软件在运行和产生结果时,应精确、一致、准确、有效地体现预期目的和用途。
透明度和可解释性:在必要和适当的情况下,应公开人工智能在工作场所的应用,并以可理解、可审计和可适当公开检查的方式解释其使用情况。
人的作用:人工智能应用的开发和使用应尊重尊严并对社会负责,同时适当纳入人工干预。
问责制和管理:人工智能应用应受到政策和流程的管理,以确保与预期用途保持一致,并对人工智能在人才管理和评估中的应用所产生的决定和结果负责。
在 Talogy,我们非常重视人工智能对评估完整性的影响。我们不断研究这一领域,调查在人才测评中不当使用人工智能的影响,以及有助于防止这种情况发生的方法。我们的全球跨职能人工智能研究小组确定了四种方法的组合,以降低人工智能作弊的风险,人工智能作弊可定义为 “违反评估流程的完整性、欺骗或故意歪曲自己的工作“:
设计:我们的评估设计基于可靠的研究,以帮助我们了解不同类型评估的人工智能作弊风险。通过精心策划评估方法组合,我们可以确保针对特定解决方案需求的可靠评估结果
指导:我们建议各组织在其评估流程中明确规定人工智能使用的适当性和不适当性,然后在流程开始时以非常透明的方式向候选人传达这一信息。
监控:我们致力于持续监控测评数据,以确定可能表明作弊行为或考生异常行为增加的趋势。我们还定期审查生成式人工智能对我们现有评估组合的影响。
阻止:为了阻止作弊,我们禁用了许多解决方案的复制和粘贴功能。我们还可以实施所谓的 “诚信合同”,这是一种行之有效的威慑手段,要求测评参与者同意在没有外部支持的情况下诚实地完成测评。