实时警报通知:微信告警通知的重要性解析
779
2023-02-06
影响人工智能发展的因素解析
深度融入社会,AI必须“负起责任”
▲王国豫在论坛报告中提出“发展负责任的AI是一个目标”
针对这一问题,复旦大学应用伦理学研究中心主任王国豫认为,AI产品可以自主地实现一定的功能,类似于某种“角色责任”。但一旦发生问题,AI不可能被问责,也无法承担道德责任和法律责任。至少在现阶段道德责任和法律责任只有人才能承担。因此发展负责任的人工智能是一个目标,它是以负责任的人、负责任的行为为前提的。
“负责任的AI,才是可持续发展的AI。”作为人工智能领域的创业者和技术从业者,旷视科技联合创始人兼首席执行官印奇认为,AI治理对于产业落地的意义非常深远——人工智能就像火之于人类文明,如果善待并加以合理利用,将可推进文明进程;如果运用不当,则可能引发灾难。
▲印奇介绍旷世科技对人工智能治理的探索
去年,旷世科技在企业内部成立了自己的人工智能治理委员会,并提出AI技术要“既问输赢,也问对错”的原则。比如,一种技术无论多么成熟、商业价值有多高,但如果有悖伦理、法律、社会习俗,企业就应选择不去研发,也不将其应用于产品中。
有“良芯”的AI需要技术环境共同驱动
一个AI智能体可能会面临许多责任拷问,比如它究竟对企业负责,还是对社会负责?很显然,人类必须给AI安一颗“良芯”,体现其向善价值。而要解决AI发展带来的道德伦理、隐私保护、安全风险等问题,需要技术与环境的共同努力。
在论坛报告中,从事可信人工智能研究的中国科学院院士何积丰提出,从技术源头建立起规范,让AI算法本身就具备安全、可信的素质,显得尤为重要。从技术角度,他将AI风险总结为数据安全和模型安全两大类问题。然而,现在不少人工智能安全技术还缺乏理论工具的支撑。他希望有更多年轻人投身这一领域,为夯实AI治理的基础贡献智慧。
事实上,AI不仅仅是一个技术系统,而是与人类社会经济系统、政治系统、文化系统等多维度情境结合在一起的。联合国人工智能和机器人中心主任伊拉克里·贝里泽透露,目前,全球执法机构均已将AI应用到各个领域,但在执法过程中会产生许多“边缘案例”。因此,要想真正利用好AI的力量,必须努力确保在遵循原则和国际法律的情况下负责任地使用。
近年来,全球正在就推动人与机器的和谐共生逐步达成共识。在我国,国家新一代人工智能治理专业委员会去年发布了以“发展负责任的人工智能”为主题的治理原则。此次论坛上,上海国家新一代人工智能创新发展试验区专家咨询委员会发布了“协同落实人工智能治理原则的行动建议”。这是国内首次提出的系统落实AI治理原则的综合行动方案,将为进一步推进AI治理提供参考。
发表评论
暂时没有评论,来抢沙发吧~