加入收藏 | 设为首页 | 会员中心 | 我要投稿 牡丹江站长网 (https://www.0453zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

AI NOW报告:AI领域10大建议

发布时间:2021-07-06 18:23:31 所属栏目:大数据 来源:互联网
导读:2017年11月,AI NOW研究所发布第二份年度研究报告,为人工智能发展提出了10项建议,这些建议反映了AI NOW专家年度研讨会上讨论的观点。自从去年的报告以来,我们看到,早期的AI技术不断渗透到许多日常系统中:从扫描机场安检的面孔,到推荐雇用某人,准许保
  2017年11月,AI NOW研究所发布第二份年度研究报告,为人工智能发展提出了10项建议,这些建议反映了AI NOW专家年度研讨会上讨论的观点。自从去年的报告以来,我们看到,早期的AI技术不断渗透到许多日常系统中:从扫描机场安检的面孔,到推荐雇用某人,准许保释,拒绝某人贷款。
 
  虽然人工智能前景广阔,但是我们看到,将这些系统应用于高厉害(high stake)领域所面临的重大挑战。
 
  在刑事司法方面,ProPublica团队以及多名学者调查发现,法院和执法部门用来预测刑事被告再犯风险的算法是如何给非裔美国人带来重大偏见的。
 
  在医疗保健机构中,匹兹堡大学医学中心的一项研究发现,用于分流肺炎患者的AI系统缺少严重并发症的主要危险因素。
 
  在教育领域,得克萨斯州的教师因为他们的学区以“黑匣子”算法为基础对其进行评估而成功提起诉讼,这个算法暴露了很大的缺陷。
 
  这些例子只是一个开始,还有更多的我们还不知道。部分挑战在于,目前业界缺乏测试和审计AI系统的标准化方法,以确保它们安全并且不会放大偏见。
 
  然而,仍处在早期的AI系统正在多个领域同时引入,包括医疗保健,金融,法律,教育和工作场所。这些系统越来越多地被用来预测从我们对音乐的品味,到我们经历精神疾病的可能性,到适合工作或贷款的一切。
 
  这里的问题不是故意滥用人工智能。人工智能和相关技术的使用没有流程或标准,或没有深入考虑复杂的社会交往。新药上市时,首先要经过严格的科学试验和检测,并继续监测其中期和长期的影响。在这个领域,谨慎和警惕是最重要的,因为如果事情出错了,很多人会受到重大的伤害。AI系统在高厉害领域也是如此。
 
  报告为AI行业,研究人员和政策制定者提供十条建议。这些建议不是解决办法,是进一步工作的起点。虽然AI产品的部署正在迅速发展,但对偏见和公平的研究还处于初级阶段,如果要确保AI系统的部署和管理是负责任的,还有很多工作要做。这将需要共同努力。
 
  建议一
 
  负责刑事司法,医疗保健,福利和教育等“高厉害”领域的核心公共机构不应再使用“黑匣子”AI和算法系统。这包括未经审核或未经过验证的预培训模型,由第三方供应商授权的AI系统,以及内部创建的算法流程。公共机构使用这样的系统会引起严重的正当程序问题,至少这样的系统应该可用于公共审计,测试和审查,并且遵守问责标准。
 
  建议二
 
  在发布AI系统之前,公司应该进行严格的预发布试验,以确保它们不会由于培训数据,算法或系统设计的其他元素的问题而放大偏见和错误。由于这是一个快速变化的领域,进行此类测试的方法和假设以及结果应该公开记录并公开可用,并且有明确的版本以适应更新和新发现。
 
  建议三
 
  发布AI系统后,企业应该继续监控其在不同环境和社区中的使用情况。监测的方法和结果应该通过公开的,学术严谨的过程来界定,并对公众负责。特别是在高厉害的决策背景下,传统上被边缘化的社区的观点和经验应该被优先考虑。
 
  建议四
 
  在工作场所管理和监测(包括招聘和人力资源管理)中使用人工智能系统需要更多的研究和政策制定。这项研究将补充现有的关注点(自动化带来的工人置换)。应该特别注意对劳工权利和做法的潜在影响,尤其应该注重行为操纵的可能性以及意外强化招聘和晋升的偏见。
 
  建议五
 
  制定标准来跟踪培训数据集在其整个生命周期中的来源,开发和使用情况。这对于更好地理解和监测偏见和代表性倾斜的问题是必要的。除了为训练数据集的创建和维护创建更好的记录外,AI偏见研究领域的社会科学家和测量研究人员应该继续检查现有的训练数据集,并努力了解可能已经存在的潜在盲点和偏见。
 
  建议六
 
  扩大人工智能偏见研究和缓解策略,超越狭隘的技术方法。偏见问题是长期的和结构性的,与偏见斗争需要深入的跨学科研究。寻求一次性“修复”公平风险的技术方法过分简化了社会系统的复杂性。在教育,医疗或刑事司法等各个领域,偏见和平等运动的遗产都有自己的历史和实践。如果不借鉴领域专业知识,就不能“解决”遗传的偏见。有意义地处理公平性需要不同学科间的跨学科合作和倾听方法。
 
  建议七
 
  迫切需要强有力的标准来审核、理解AI系统在现实环境中的使用。创建这样的标准将需要不同学科和联盟的观点。制定这些标准的过程应该公开负责,学术严谨,并定期审查和修订。
 
  建议八
 
  人工智能领域的公司,大学,会议和其他利益相关者应该公布有关人工智能研究和开发中妇女,少数群体和其他边缘化群体参与的数据。许多人现在认识到,目前人工智能领域缺乏多样性是一个严重的问题,但问题的范围还缺乏足够细化的数据。除此之外,我们需要对技术行业的职场文化进行更深入的评估,这不仅要求雇用更多的女性和少数民族,还要建立真正具有包容性的工作场所。
 
  建议九
 
  AI行业应聘请计算机科学和工程以外的专家,确保他们具有决策权。随着人工智能进入不同的社会和机构领域,影响越来越高厉害的决策,必须努力将社会科学家,法律学者和其他领域的专业知识整合到一起,从而来指导人工智能的创建和整合以便形成具有既定实践和规范的持续系统。
 
  建议十
 
  旨在指导AI领域的道德守则应伴有强有力的监督和问责机制。如何将高层次的道德原则和最佳实践指南与日常的开发过程,推广和产品发布周期进行实质性连接,需要做更多的工作。

(编辑:牡丹江站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!