CIO如何解决实施AI过程中面临的伦理问题

简介: CIO如何解决实施AI过程中面临的伦理问题

本文来自 企业网D1net公众号

随着围绕AI使用的伦理考虑越来越多地放在首位,IT领导者正在开发治理框架,建立审查委员会,并接受未来面临着困难的讨论和决策。


AI几乎满足了几乎每个行业组织的胃口。随着AI试点转向实际应用,关于道德AI必要性的讨论也在增加,同时也出现了“公平”、“隐私”、“透明”、“责任”和最大的术语——“偏见”。


随着AI成为人们工作和开展业务的不可或缺的一部分,确保这些措施和其他措施得到考虑是CIO们将努力应对的一项艰巨任务。


对于许多CIO来说,实施可能还处于萌芽阶段,但减轻AI模型中的偏见并平衡创新与伦理考虑已经是他们面临的最大挑战之一,他们发现,在技术进步和确保AI不会导致有害结果之间的界限很窄。


全球咨询企业Egon Zehnder服务和AI实践小组成员Christoph Wollersheim指出了大多数企业在实施AI时需要关注的五个关键领域:准确性、偏见、安全、透明度和社会责任。


Wollersheim最近与人合著了《董事会成员监督AI指南》一书,他说,不幸的是,用AI实现100%的准确率是不可能的。“真正的伦理问题在于企业如何防范错误信息。如果向客户提供虚假数据,或者如果关键决策基于不准确的AI响应,该怎么办?企业的回应既需要一个切实可行的计划,也需要一个透明的沟通策略。”


他指出,当AI根据历史数据进行训练时,偏见可能会在不经意间持续存在。


“执行管理层和董事会都必须确保公平使用AI,并防止歧视。”他说,纠正偏见的研究正在进行中,使用合成数据来处理性别、种族和民族等属性,“但总有必要应用以人为中心的原则。”


Wollersheim说,保护敏感信息的需要对于符合道德的AI部署来说是至关重要的,因为AI对数据的严重依赖增加了入侵和未经授权访问的风险。“企业必须加强防御,防止可能误导AI模型并导致决策失误的攻击。确保敏感信息的安全对于道德上的AI部署是至关重要的。“他说。


至于透明度,这不仅仅与算法有关,还与建立信任有关,他说,“利益相关者需要理解AI是如何做出决策和处理数据的。一个透明的AI框架是道德使用、问责和维护信任的关键。”


企业还必须考虑指导他们的价值观,以及他们在再培训、技能提升和工作保护方面的义务。Wollersheim说:“道德AI是关于为我们的劳动力塑造一个负责任的未来。”


Wollersheim说,为了解决这些问题,建立一个AI审查委员会和实施一个道德的AI框架是至关重要的。“一个道德的AI框架为每个项目的监测和批准提供了明确的指导,无论是内部的还是外部的。由技术和商业专家组成的AI审查委员会确保伦理考虑处于决策的前沿。”


以下是CIO如何在其企业中解决道德AI的问题。


让道德AI成为一项团队运动


PlexusWorldwide是一家使用AI来识别欺诈性账户创建和交易的企业,这家市值5亿美元的全球健康和健康企业的CIO兼首席技术官艾伦·麦金托什说。麦金托什认为,偏见从根本上说是一个数据问题。“我们试图通过利用和验证多个完整的数据源来消除偏见和不正确的结果。”他说。


麦金托什说,PlexusIT还处于在企业的电子商务平台中使用AI的分析阶段,“以获得更好的见解,以预测和优化客户体验,并增强个性化。我们还看到了自动化的机会,可以消除许多传统的人工和重复性任务。”


他说,为了确保遵守符合道德的AI实践,PlexusWorldwide组建了一个由IT、法律和人力资源代表组成的团队,负责AI治理和政策的发展和演变,该团队确定了企业的风险容忍度、可接受的用例和限制以及适用的披露。


麦金托什说,即使有一个专注于AI的团队,识别风险并了解组织打算如何在内部和公开使用AI也是具有挑战性的。他说,团队成员还必须理解并解决AI偏见、错误声明和不正确结果的内在可能性。“根据用例的不同,你的企业和品牌的声誉可能会受到威胁,因此你必须规划有效的治理。”


考虑到这一点,麦金托什说,CIO们“不要急于冲到终点线”是至关重要的。在实施和公开技术之前,企业必须创建一个全面的计划,并专注于开发治理框架和AI政策。麦金托什表示,确定合适的利益相关者,如法律、人力资源、合规和隐私以及IT,是Plexus开始其道德AI过程的地方。


“然后我们制定了一份政策草案,概述了角色和责任、范围、背景、可接受的使用指南、风险容忍度和管理以及治理,”他说,“我们继续迭代和演变我们的政策,但它仍在发展中。我们打算在2024年第一季度实施该计划。”


麦金托什建议寻找第三方资源和主题专业知识。麦金托什解释说:“它将极大地帮助加快你的计划和框架的开发和执行,并且,根据你当前的计划管理实践,为你的AI采用计划提供相同级别或更高级别的严格要求。”


脚步缓慢,这样AI就不会“失控”


CIO Matt Richard表示,代表50多万建筑工人、公共雇员和邮件处理员的北美劳工国际联盟(LIUNA)已经尝试使用AI,主要是为了文件的准确性和澄清,以及撰写合同。


他说,随着LIUNA在2024年扩大AI用例,“这就产生了一个问题,那就是我们如何在伦理上使用AI。”该组织已经开始试行Google Duet,将撰写和谈判承包商协议的过程自动化。


Richard说,目前,工会官员没有使用AI来识别成员的想要和需求,也没有梳理可能敏感的招聘数据,并根据模特的培训方式对人们产生偏见。


“这些都是我感到紧张的地方:当一个模特告诉我一个人的时候,我觉得我们还没有准备好进入这个领域,因为坦率地说,我不相信受过公共培训的模特能让我洞察我想聘用的人。”


尽管如此,Richard预计LIUNA仍将经历一次“自然进化”,即未来LIUNA可能希望利用AI来获得对其成员的洞察,以帮助工会为他们带来更好的利益。他说,就目前而言,“我们希望如何做到这一点,这仍然是一个灰色地带。”


Richard说,该工会还在努力增加其会员人数,其中一部分意味着使用AI来有效地识别潜在成员,“而不是识别相同的同质性人。我们的组织非常努力,在赋予少数族裔和女性权力方面做得很好,我们希望发展这些群体。”


这就是Richard担心AI模型如何使用的地方,因为避免“寻找相同的刻板印象人口的兔子洞”并引入偏见意味着人类必须成为这一过程的一部分。“你不能让模特做所有的工作,”他说,“你知道你今天所处的位置,然后我们停下来说,‘好吧,人类需要介入,看看模型告诉我们什么。’”


“你不能让AI横冲直撞,…没有任何干预。”他补充说,组织不应该在AI领域采取“简单的解决办法”,只研究工具能做什么。“我担心的是,人们会购买并实施一个AI工具,然后放手信任它…,你必须小心,这些工具没有告诉我们我们想要听到的。“他说。


为此,Richard认为AI可以被用作启动器,但IT领导者必须利用团队的直觉,“以确保我们不会落入只相信华而不实的软件工具的陷阱,这些工具不会给我们提供我们需要的数据。”他说。


对AI伦理的个人看法


Group的CIO Jan Cenkr表示,与LIUNA一样,总部位于捷克的全球消费金融提供商Home Credit也处于AI之旅的早期,使用GitHub Copilot进行编码和文档流程。


Cenkr同时也是Home Credit子企业EmbedIT的首席执行官,他说:“它在节省时间方面提供了巨大的优势,这反过来也有有利的成本因素。”从一开始,伦理AI就是Cenkr的首要考虑因素。


“当我们开始推出我们的AI工具试点时,我们也在内部就创建与这项技术的使用相配套的伦理治理结构进行了深入的讨论,这意味着我们有真正的检查措施,以确保我们不会违反我们的行为准则。”


Cenkr补充说,这些代码会定期更新和测试,以确保它们尽可能地健壮。


他补充称,数据隐私是最具挑战性的考虑因素。“我们向我们的AI平台提供的任何信息和数据都必须绝对遵守GDPR规定。”由于Home Credit在多个司法管辖区运营,IT还必须确保所有这些市场的合规性,其中一些市场有不同的法律,这增加了复杂性。


Cenkr说,企业应该“以一种反映你个人对道德的态度的方式”来发展他们的治理结构。“我相信,如果你像在个人和日常生活中应用的道德规范一样用心去发展这些道德结构,这些结构将变得更加安全。”


此外,Cenkr表示,IT应该准备好定期更新其治理政策。“AI技术每天都在进步,要跟上它的发展步伐是一个真正的挑战,无论这可能有多令人兴奋。”


设置护栏


聊天机器人等AI工具在UST已经使用了几年,但GenAI是一个全新的领域。这家数字转型企业的首席战略官兼CIO克里希纳·普拉萨德表示,这从根本上改变了商业模式,并使伦理AI成为讨论的一部分,同时也承认“如今它更具理论性。”


普拉萨德说,在实现考虑中,伦理AI“并不总是出现,但我们确实讨论了…我们需要有负责任的AI和一些能力来获得透明度,并追溯推荐是如何做出的。”


普拉萨德说,UST领导人之间的讨论集中在该企业不想在AI领域做什么,“以及我们希望在今天理解的情况下在哪里划定界限,我们如何在不造成伤害的情况下忠于我们的使命。”


普拉萨德呼应了其他人的观点,他表示,这意味着人类必须成为等式的一部分,因为AI更深地植根于企业内部。


UST提出的一个问题是,如果领导者在机器人监听的情况下就员工表现进行对话,这是否是保密的妥协。普拉萨德说:“类似的事情已经开始涌现,但在这一点上,我们可以放心地使用[微软]Copilot作为一种总结对话的方式。”


另一个考虑因素是如何保护围绕该企业开发的工具的知识产权。“基于今天软件供应商提供的保护,我们仍然认为数据包含在我们自己的环境中,没有证据表明数据在外部丢失,”他说。出于这个原因,普拉萨德说,他和其他领导人对继续使用某些AI工具没有任何顾虑,特别是因为他们看到了生产率的提高。


尽管普拉萨德认为人类需要参与进来,但他也对人类的投入感到担忧。“归根结底,人类天生就有偏见,因为我们所接触的环境的性质、我们的经历以及它是如何形成我们的思维的。”他解释说。


他还担心,当坏人使用客户的数据为自己开发新模型时,他们是否会获得某些AI工具。


普拉萨德说,随着软件变得更加流行,这些都是领导者必须担心的领域。他表示,与此同时,CIO必须带头,展示AI如何被永远利用,以及它将如何影响他们的商业模式,并将领导层聚集在一起,讨论最佳前进道路。


他说:“CIO必须在推动这种对话中发挥作用,因为他们可以打破神话,也可以执行。”他补充说,他们还必须为那些有时变得非常困难的对话做好准备。


例如,如果一个工具提供了某种功能,“我们是希望尽可能地使用它,还是应该因为这是正确的事情而保留它,”普拉萨德说,“这是最难的对话,”但CIO们必须表明,一种工具“可能会超出你的想象”。“对我来说,这一部分仍然有些模糊,那么如何对模型…施加约束呢,在选择提供使用AI的新产品和服务之前。”


相关文章
|
2月前
|
人工智能 自动驾驶 算法
智能时代的伦理困境:AI决策的道德边界
在人工智能技术飞速发展的今天,我们面临着前所未有的伦理挑战。本文探讨了AI决策中的道德边界问题,分析了技术发展与人类价值观之间的冲突,并提出了建立AI伦理框架的必要性和可能路径。通过深入剖析具体案例,揭示了AI技术在医疗、司法等领域的应用中所引发的道德争议,强调了在追求技术进步的同时,必须审慎考虑其对社会伦理的影响,确保科技发展服务于人类的福祉而非成为新的困扰源。
|
23天前
|
人工智能 算法 自动驾驶
AI的伦理困境:我们是否准备好面对?
【10月更文挑战第40天】随着人工智能技术的飞速发展,它已经深入到我们生活的方方面面。然而,随之而来的伦理问题也日益凸显。本文将探讨AI技术中的一些伦理困境,包括数据隐私、算法偏见、自动化失业等,并提供一些可能的解决方案。我们将通过代码示例来展示如何在AI应用中实现这些解决方案。
|
2月前
|
人工智能 自然语言处理 机器人
对话阿里云 CIO 蒋林泉:AI 时代,企业如何做好智能化系统建设?
10 月 18 日, InfoQ《C 位面对面》栏目邀请到阿里云 CIO 及 aliyun.com 负责人蒋林泉(花名:雁杨),就 AI 时代企业 CIO 的角色转变、企业智能化转型路径、AI 落地实践与人才培养等主题展开了讨论。
2072 67
对话阿里云 CIO 蒋林泉:AI 时代,企业如何做好智能化系统建设?
|
16天前
|
机器学习/深度学习 人工智能 监控
探索人工智能的伦理困境:我们如何确保AI的道德发展?
在人工智能(AI)技术飞速发展的今天,其伦理问题也日益凸显。本文将探讨AI伦理的重要性,分析当前面临的主要挑战,并提出相应的解决策略。我们将通过具体案例和代码示例,深入理解如何在设计和开发过程中嵌入伦理原则,以确保AI技术的健康发展。
28 11
|
17天前
|
数据采集 人工智能 机器人
AMD的CIO谈AI驱动转型和IT的未来
AMD的CIO谈AI驱动转型和IT的未来
|
17天前
|
机器学习/深度学习 人工智能 自动驾驶
现在是投资实施Agentic AI的最佳时机吗?
现在是投资实施Agentic AI的最佳时机吗?
|
2月前
|
人工智能 自动驾驶 数据安全/隐私保护
人工智能的伦理困境:我们如何确保AI的道德发展?
【10月更文挑战第21天】随着人工智能(AI)技术的飞速发展,其在各行各业的应用日益广泛,从而引发了关于AI伦理和道德问题的讨论。本文将探讨AI伦理的核心问题,分析当前面临的挑战,并提出确保AI道德发展的建议措施。
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
智能时代的伦理挑战:AI技术的双刃剑效应
【10月更文挑战第20天】 在21世纪的科技浪潮中,人工智能(AI)如同一颗璀璨新星,引领着人类社会迈向前所未有的智能化时代。然而,正如印度圣雄甘地所言:“你必须成为你希望在世界上看到的改变。” AI技术的发展不仅带来了效率与便利的飞跃,也引发了关于隐私侵犯、就业替代、决策透明度等一系列深刻的伦理问题。本文旨在探讨AI技术作为一把双刃剑,如何在推动社会进步的同时,对我们的生活方式、价值观念乃至法律体系提出挑战,并呼吁我们在享受科技成果的同时,不忘审视其背后的伦理责任,共同塑造一个更加公正、透明的智能未来。
42 2
|
2月前
|
数据采集 人工智能 安全
CIO面临更快交付AI成果的压力
CIO面临更快交付AI成果的压力
|
2月前
|
人工智能 运维 安全
AI来袭,IT人的工作还安全吗?来自汽车行业CIO的探讨
AI来袭,IT人的工作还安全吗?来自汽车行业CIO的探讨
AI来袭,IT人的工作还安全吗?来自汽车行业CIO的探讨