提供处理并确保人工智能系统中的合规性

由于公司更多地依赖自动化系统,因此道德问题已成为关键问题。算法越来越多地制定了以前由人们做出的决定,这些系统会影响工作场所,贷款,医疗保健和法律结果。这种权力需要责任。如果没有明确的规则和道德标准,自动化就会加强不公正并造成伤害。

忽略道德会影响真正的人,不仅改变了公众信任的程度。如果没有围栏,床上的系统可以拒绝贷款,就业或医疗保健,自动化可以提高不良解决方案的速度。当系统打电话不正确时,通常很难吸引甚至理解原因,并且缺乏透明度会使小错误变成大问题。

了解AI系统的偏见

自动化的偏见通常来自数据。如果历史数据包括歧视,则受其培训的系统可以重复这些模型。例如,如果他的学习数据反映了过去的偏见,用于验证工作候选人的AI工具可以根据性别,种族或年龄拒绝候选人。还通过设计输入偏差,在该设计中,选择是要测量的,哪些结果是有利的以及数据的标记如何创建变形的结果。

有许多类型的偏见。当数据集不代表所有组时,将发生样本的选择,而标记位移可以从主观人的输入中进行。即使是技术选择,例如优化目标或算法类型,也可以寻找结果。

问题不仅是理论上的。亚马逊在偏爱男性候选人之后,在2018年丢弃了招聘工具的使用,发现某些人识别系统错误地识别了比高加索人更高的有色人种。此类问题会损害信任并增加法律和社会问题。

另一个真正的问题是授权书的偏见。即使没有直接使用诸如种族的安全标志,其他功能,例如高光代码或教育程度,也可以作为权威,这意味着该系统仍然可以区分,即使输入似乎是中性的,例如,基于更丰富或更贫穷的领域。如果没有仔细的测试,就难以检测授权书的位移。 AI位移事件表明系统的设计需要更多关注。

遵守重要的标准

法律正在追赶。 2024年通过的欧盟法律评估了处于风险的AI系统。高风险系统(例如用于招聘或信用评估的系统)必须遵守严格的要求,包括透明度,人类监督和偏见。美国没有单一的AI法律,但是监管机构很活跃。就业委员会(EEC)警告雇主雇用由AI和联邦贸易委员会(FTC)指导的雇用工具的风险,也想到偏见系统可以违反反歧视法律。

白宫已发布了AI权利法案的计划,提供了有关安全和道德使用的指南。尽管这不是法律,但它设定了期望,涵盖了五个关键领域:安全系统,算法歧视保护,数据机密性,通知和解释以及人类替代方案。

公司还必须监视美国州的法律。加利福尼亚州已转向算法决策的法规,如果在视频采访中使用了II,伊利诺伊州要求该公司被告知候选人。无法观察可以带来罚款和审判。

现在,纽约的监管机构需要对用于招聘的AI系统进行审核。审核应显示该系统是否在性别和赛车组中提供公平的结果,并且雇主还应在使用自动化时通知申请人。

合规性不仅仅是避免罚款 – 这还与建立信任有关。可以证明其系统公平且负责的公司更有可能获得用户和监管机构的支持。

如何构建更多公平的系统

自动化中的道德规范并非偶然发生。需要计划,正确的工具和持续关注。偏见和正义应从一开始就内置在过程中,并且不以后附加。这需要设定目标,选择正确的数据以及包括表背后的正确声音。

这样做很好意味着他们遵循几个关键策略:

进行位移评估

克服偏见的第一步是找到它。偏见的估计值应尽早进行,并且通常从开发到部署,以确保系统不会给出不公平的结果。指标可能包括比其他人对一个组更大影响的组或解决方案中的错误。

排量审核应在可能的情况下由第三方进行。内部审查可能会跳过关键问题或没有独立性,并且在客观审计的过程中透明度获得了公众信任。

实施各种数据集

通过包括所有用户组的样本,尤其是那些通常被排除的样本,各种教育数据有助于减少位移。一位主要由男性声音训练的语音助手对女性的工作不佳,并且信用评估的模型在其中没有关于低收入使用者的数据可能会错误地鼓励她们。

各种数据还有助于模型适应真实使用。用户来自不同的背景,系统应反映这一点。地理,文化和语言多样性 – 所有这些都是重要的。

各种数据本身还不够,它们也应该是准确且反射的。垃圾,垃圾仍在使用,因此需要检查团队是否有错误和空白并修复它们。

促进设计包容性

包容性设计包括受伤的人。开发人员应咨询用户,尤其是那些有伤害风险的人(或那些可以使用偏见的AI造成伤害的人),因为这有助于揭示盲点。这可能意味着律师,平民专家或当地社区参与产品评论。这意味着在系统栩栩如生之前,而不是在投诉进入之前聆听。

包容性设计也意味着跨学科团队。从道德,法律和社会科学中吸引投票可以改善决策,因为这些命令更有可能提出不同的问题并确定风险。

团队也应该多样化。拥有各种生活经验的人会设定不同的问题,而同质群体建立的系统可以忽略风险,从而冒着其他人会遇到的风险。

公司做得正确

一些公司和机构正在采取措施消除偏见并提高合规性。

从2005年到2019年,荷兰税和海关管理局错误地指控约有26,000个家庭欺诈性,声称对儿童的照料有好处。欺诈检测系统中使用的算法的目的不成比例地针对具有双重国籍和低收入的家庭。落后导致2021年荷兰政府的公众抗议和辞职。

LinkedIn在其算法中面临着对工作建议的性别偏见的考验。麻省理工学院和其他消息来源的研究表明,男性更有可能与高薪的领导角色进行比较,部分原因是用户如何应用工作的行为模型。作为回应,LinkedIn引入了AI的二级系统,以确保更具代表性的候选人库。

另一个例子是关于自动就业工具的法律(AEDT),该工具于2023年1月1日生效,而执法部门于2023年7月5日开始。透明且公平。

健康保险公司Aetna启动了他的算法概述以批准索赔,发现某些模型导致了低收入患者的延迟延迟。该公司更改了数据的权衡,并增加了更多的监督以减少这一差距。

例子表明,可以决定人工智能的位移,但这需要努力,明确的目标和强大的责任。

我们从这里去哪里

在此保持自动化,但对系统的信心取决于结果的公平性和明确的规则。 AI系统的偏见会损害和法律风险,合规性不是验证的框 – 这是正确事务的一部分。

道德自动化始于意识。这需要强大的数据,常规测试和包容性设计。法律可以提供帮助,但真正的变化也取决于公司和领导力的文化。

(来自Pixabay的照片)

另请参阅:为什么中东是全球技术投资的热门场所

想进一步了解人工智能和行业领导者的大数据吗? 检查在阿姆斯特丹,加利福尼亚和伦敦举行的AI和大数据博览会。全面的活动以及其他领先活动,包括智力自动化会议,Blockx,一周的数字化转型和网络安全以及云博览会。

基于Techforge在此处探索企业技术和网络研讨会的其他事件。

Source link

Scroll to Top