实时警报通知:微信告警通知的重要性解析
654
2023-01-25
你对人工智能的偏见担忧吗?
DataRobot可信人工智能副总裁特德•夸特勒表示,尽管许多组织将人工智能视为游戏规则的改变者,但许多组织仍在使用不可信的人工智能系统。他说,“鉴于企业在使用人工智能方面的重大失误,组织必须确保人工智能方法符合其组织价值观。”
DataRobot的报告称,在企业内部管理人工智能驱动的功能可能很有价值,但也可能带来挑战。并非所有人工智能都得到平等对待,如果没有适当的知识或资源,企业可以选择或部署人工智能的方式可能弊大于利。
调查发现,超过三分之一的人工智能专业人员仍然使用黑盒人工智能系统,这意味着他们对如何使用输入到人工智能解决方案中的数据几乎一无所知。DataRobot说,这种缺乏可视性的情况可能会导致受访者对其组织内出现的人工智能偏见感到担忧。
“AI偏见的出现是因为我们正在对熟悉的检索系统中的不完整数据做出决定,”认知计算和内容分析咨询公司CythExIS的总裁费尔德曼说,“算法都对世界和用户的优先级做出假设。这意味着,除非你理解这些假设,否则你仍将盲目飞行。这就是为什么必须使用包括人在内的系统,而不是在真空中做决定的原因。”
如何减少人工智能偏差
Facebook、谷歌、美国银行、MassMutual和美国航天局等机构正在或已经任命人工智能行为鉴证专家,在人工智能模型部署之前,集中精力发现不希望出现的偏见。
如果人工智能要发挥其潜力,增加人们对系统的信任,就必须采取措施,尽量减少偏见。其中包括注意人工智能可以帮助纠正偏见的背景,以及人工智能有可能加剧偏见的背景;建立测试和减轻人工智能系统偏差的过程和实践;参与基于事实的对话,讨论人类决策中的偏见;探索人类和机器如何最佳地协同工作;加大对偏见研究的投入,提供更多的数据,同时限制隐私;以及加大对人工智能领域多样化的投资。
研究发现,虽然美国受访者最关心的是由于用户和系统设计之间的偏差而产生的偏差,但英国受访者更关心的是技术偏差或由技术限制引起的偏差。
研究显示,为了加强人工智能偏见的预防工作,59%的受访者表示,他们计划投资更复杂的白盒系统,54%的受访者表示,他们将聘请内部人员管理人工智能信任,48%的受访者表示,他们打算聘请第三方供应商监督人工智能信任。
组织需要拥有并内化他们的人工智能策略,因为这有助于他们确保人工智能模型符合他们的价值观。对于每个业务环境和行业,需要在部署之前和之后对模型进行评估,以降低风险。
报告显示,除了这些预防人工智能偏差的措施外,大多数全球受访者认为,人工智能监管将有助于界定什么是人工智能偏差,以及应该如何预防。
发表评论
暂时没有评论,来抢沙发吧~