人工智能的发展会失控吗?

网友投稿 748 2023-01-25

本站部分文章、图片属于网络上可搜索到的公开信息,均用于学习和交流用途,不能代表睿象云的观点、立场或意见。我们接受网民的监督,如发现任何违法内容或侵犯了您的权益,请第一时间联系小编邮箱jiasou666@gmail.com 处理。

人工智能的发展会失控吗?

九三学社中央科技委委员张妍也深以为然。“人工智能发展的脚步无法阻挡,‘安全’就显得尤为重要。”她说,“我们不是杞人忧天,要知道,防范的成本比补救的成本低很多。”

2018年两会期间,九三学社向全国政协十三届一次会议提交了《关于推动人工智能安全发展》的中央提案,提出应着力构建安全发展战略,将人工智能安全发展提升到与人工智能科技研发、成果应用、市场推广同等重要的位置。

没有藩篱,发展或会失控

安全是个宽泛的概念,在九三学社中央科技委委员王仕看来,它指的是“可控性”。 他们提出了“五横一纵”的概念:“五横”指的是法律、伦理、标准、科技创新和产业应用;“一纵”指的是科普。“安全”应该渗透在这经纬网中。

“推荐系统是人工智能的重要应用场景。资讯类APP可以无限制向你推荐你感兴趣的内容,强化你的固有观点,无论对错;电商类APP可以无限制诱导你去‘剁手’,就算超出你的消费能力也无所谓。”王仕举的例子,公众已并不陌生。如果算法只是一味迎合人的需求,没有法律或道德的约束与引导,那么最终结果,很可能并不利于个人或社会的健康发展。

全国人大代表、科大讯飞董事长刘庆峰也认为,“人工智能领域的顶尖科学家和顶尖企业的价值观,对人工智能的未来发展至关重要”。比如,科大讯飞的语音合成技术已经可以逼真合成出不同人的声音,但他们至今不敢随便对外公布这一技术,“就是怕出现各种诈骗”。

当数据成为重要资源,如果对掌握数据的人没有明确约束,对可以自我学习的人工智能没有明确边界,张妍忧虑道,“会不会让坏人更‘坏’?”

有了规矩,前路方是坦途

去年国务院公布《新一代人工智能发展规划》,但并没有将安全作为基本原则之一。九三学社中央建议,应制定《人工智能安全发展纲要》,有序制定人工智能安全发展的法律法规和伦理道德准则。采取“政府主导、专家主体、公众参与、社会协同”方式,深入研究人工智能安全发展战略,针对不同环节和应用场景,明晰不同主体的责任、权利和义务,制定有关的政策、措施和法规、标准,划定人工智能安全发展的边界。

“对人工智能的科研人员,也要进行知识普及,用伦理道德加以约束。”张妍说,“在市场推广和应用环节,还要建立安全评估和市场准入机制。”

在法律方面,刘庆峰也专门从数据角度给出了自己的建议。他指出,应该制定《数据安全保护法》,实行大数据分级安全保护机制,加强对各行业领域大数据安全治理,并规范大数据运营企业的资质要求。“涉及到国计民生的敏感数据,一定要设置严格安全等级。这些数据一旦泄露,对人工智能和大数据产业的发展就是极大的冲击和毁灭。”

除了伦理和法律,九三学社中央还在建议中指出,应该加快科学普及。

神化人工智能,会让公众产生不必要的恐慌;贬低人工智能,又让公众对人工智能不敢信任。做好科普和引导,消除误解,才可让人类与人工智能和谐相处。

“人工智能是造福还是为祸,核心就是要看社会法律体系能否迅速健全,在法律体系框架下,人工智能伦理和人文引导能否到位。”刘庆峰强调。

上一篇:自动化it运维管理平台(搭建自动化运维平台)
下一篇:关于事件通知模板app的信息
相关文章

 发表评论

暂时没有评论,来抢沙发吧~