时间:2021-07-14 15:03:31
扩大使用人工智能 (AI) 的支持者通常指出其有刺激经济增长的潜力——以更低的成本提高生产力、提高人均GDP和创造就业机会都被吹捧为可能的好处。通过机器学习促进经济增长的承诺是可以理解的诱人,私人和政府行为者现在经常在经济机会的关键领域使用人工智能,包括教育、住房、就业和信贷,仅举几例。但随着人工智能的采用被视为未来的一项明智的经济投资,重要的是要停下来问问:我们在谈论谁的未来和谁的钱包?
有充分的证据表明人工智能工具可能对已经被边缘化的群体造成歧视性伤害。毕竟,人工智能是由人类构建的,并部署在以根深蒂固的歧视为标志的系统和机构中——从刑事法律系统到住房、工作场所,再到我们的金融系统。偏见通常会被纳入要求 AI 预测的结果中。同样,偏见存在于用于训练 AI 的数据中——这些数据通常对有色人种、女性或其他边缘化群体具有歧视性或不具代表性——并且可以在 AI 的整个设计、开发、实施和使用过程中抬头。科技行业缺乏了解并能够解决这些技术潜在危害的人的代表,只会加剧这个问题。
人工智能可能造成的危害有很多例子。人工智能工具使住房歧视长期存在,例如在租户选择和抵押资格方面,以及在招聘和金融贷款方面的歧视。
例如,用于评估潜在租户的 AI 系统依赖于法庭记录和其他数据集,这些数据集具有反映系统性种族主义、性别歧视和能力歧视的内在偏见,并且众所周知地充满错误。人们经常被拒绝提供住房,尽管他们有能力支付租金,因为租户筛选算法认为他们没有资格或不配。
这些算法使用驱逐和犯罪历史等数据,这些数据反映了长期存在的住房种族差异和歧视边缘化社区的刑事法律制度。由于贷方使用的人工智能工具,寻求贷款购买房屋或再融资的有色人种被多收了数百万元。许多雇主现在使用人工智能驱动的工具来面试和筛选求职者,其中许多对残疾人和其他受保护群体的歧视构成了巨大的风险。人工智能非但没有帮助消除歧视性做法,反而使它们变得更糟——阻碍了长期应对系统性歧视的边缘化群体的经济安全。
这就是为什么今天,美国公民自由联盟、公民权利和人权领导会议、Upturn 和二十多个合作组织呼吁拜登政府采取具体措施,将公民权利和公平置于其人工智能和技术政策的前沿,以及积极致力于解决这些技术的系统性危害。就在两周前,许多相同的团体还联合起来深入回应联邦金融机构关于人工智能使用信息的请求,引发了许多相同的担忧。许多团体还向联邦机构提供了具体的政策建议,以解决技术在招聘、住房和金融服务。
迄今为止,监管使用人工智能的行业的联邦机构尚未采取必要措施来确保人工智能系统对其影响的人负责或遵守民权法。联邦立法和监管工作尚未有条不紊地确保我们的民权法保护弱势群体免受当今技术加剧的伤害。事实上,虽然拜登政府做出了以种族平等为中心的总体承诺在整个联邦决策过程中,政府新兴的人工智能和技术优先事项缺乏对有色人种和其他遭受歧视和偏见的人的公平的必要关注。迄今为止,随着人工智能和技术政策的制定,政府忽视了必要的公民权利和公民自由观点,这有可能进一步延续系统性种族主义和经济不平等。
最重要的是,政府和联邦机构必须优先考虑并解决人工智能和技术可能加剧种族和其他不平等的所有方式,并确保其政策和执法活动带来更公平的结果。数十年的歧视使有色人种,尤其是黑人、妇女和其他边缘化群体在美国处于经济劣势 拜登政府必须努力扭转持续至今的趋势,其中必须强调如何现代数字技术使不平等长期存在。如果政府不这样做,我国的经济和种族鸿沟只会加深。
热门文章
点击排行
财经在线,看财经知天下 粤ICP备2021122624号 联系我们 关于我们 版权申明