人工智能发展到一定程度 人工智能需制定策略

网友投稿 652 2023-01-29

本站部分文章、图片属于网络上可搜索到的公开信息,均用于学习和交流用途,不能代表睿象云的观点、立场或意见。我们接受网民的监督,如发现任何违法内容或侵犯了您的权益,请第一时间联系小编邮箱jiasou666@gmail.com 处理。

人工智能发展到一定程度 人工智能需制定策略

在过去几年中,世界各地的公共部门、私营部门、公司、大学和其他组织已经开始处理许多与人工智能相关的政策问题。在公共部门内,人工智能决策不限于国家政府。除多边机构外,各级地方、州/地区和国家政府一直在应对与人工智能相关的挑战,并试图制定应对这些挑战的政策。这表明人工智能已经开始影响人类生存的几乎每个方面。至少在这个领域,政策肯定落后于技术进步。政策制定者现在正急于赶上。

人工智能政策制定是新的领域,并没有一套公认的最佳策略,因此,实践显得尤为重要。加拿大政府在2016年制定了第一个国家人工智能战略。从那时起开始,数十个国家竞相制定自己的人工智能战略和政策,尽管内容、目标、机制和资金水平差异很大。正如一位评论员所说,人工智能策略可以被定义为“最大化人工智能利益,同时最小化其潜在成本和风险的公共政策”。

一、人工智能策略制定的领域

(一)伦理规范

如此多的组织都在努力定义人工智能的伦理用途,这一事实本身就证明了一种恐惧,这种恐惧长期以来一直在激发人们对人工智能的思考,包括它令人难以置信的力量,以及它可能如何被用于有害和不道德的目的。这种恐惧激发了集体想象力,激发了无数科幻书籍和电影。在许多其他领域,如科学、技术、政治和人文等,思想家们依旧对人工智能在我们居住的世界中潜在毁灭性应用持保留态度。从亨利·基辛格到斯蒂芬·霍金等名人都警告说,人工智能总有一天会对人类的生存构成威胁。

这种对机器接管的恐惧围绕着“广义人工智能”的发展,这一术语指的是拥有某种超人智能的人工智能系统。广义人工智能还不存在。真正存在的是“狭义人工智能”,即应用于特定任务的人工智能。区别在于:

对广义人工智能的研究仍处于初级阶段。该领域的研究人员估计,广义人工智能可能在本世纪中叶开发出来,或者需要更长的时间。然而,考虑到广义人工智能开发的风险,一些专家主张从现在开始就要谨慎行事。他们认为,政府应该在人工智能完善之前,就对人工智能的发展进行保护,以避免出现类似终结者的场景。

在某种程度上,为了超越人工智能的说法,世界上最大的科技公司,包括谷歌和微软,一直在高调创建这样的“人工智能伦理”准则。例如,谷歌的人工智能原则列出了责任、安全和保证人工智能系统公正的承诺等内容。这些企业制定AI伦理指南的工作也成为最受关注的部分,主要是因为这些世界上最大的科技公司是以生产人工智能产品而使自己盈利为目标,并希望借此巩固在该领域全球技术领导者的地位。

(二)公平和正义

这一政策领域是人工智能领域中最受关注和争议的领域之一。主要围绕着人工智能系统是否反映、再现、甚至放大了社会问题进行研究。对于如何理解这一挑战,以及如何构建能够对抗、预防或最小化这类问题的人工智能系统,人们展开了一场持续的讨论。当涉及到人类性别特征、社会经济地位、性取向、种族和宗教地位的人工智能系统决策时,这种争论尤其令人担忧。

人工智能系统产生的决策,对很多人来说,可能是非常真实的。例如,这种系统可以决定谁能够获得公共和私人资源和服务,谁受到国家当局的监督,谁在招聘过程中被筛选,给消费者的信用评分是多少,并且可以决定警察和法院如何解释和执行法律。这些决策过程中的每一个都在筛选人们,或者对他们进行排序,正面和负面的影响取决于选择的状态。

(三)隐私、消费者保护和数据可用性

隐私和消费者保护问题也是备受关注的政策领域。人工智能系统可以从收集到的个人数据中分析个人的评价。因此,政府和企业可以获得大量的行为和人物数据,这些数据描述了一个人的过去,然后被基于人工智能的模型用来预测这个人未来的行为。

人工智能为数字隐私政策讨论增加了一个新的层面,涉及到行动者是否有权从个人收集的信息类型和数量以及如何处理这些数据的问题。上文提到的欧盟可信人工智能道德准则包括一个专门针对隐私的准则。该准则称隐私为“基本权利”,称“充分的数据治理”应涵盖所用数据的质量和完整性、与人工智能系统部署领域的相关性、访问协议以及以保护隐私的方式处理数据的能力等。

(四)国家人工智能战略和产业政策

各国政府正在将人工智能的商业发展作为中心目标,制定国家人工智能战略和产业政策。

国家人工智能战略代表了政府试图组织其对人工智能的思考,并因此围绕一系列战略目标调整其政策目标和利益相关者。产业政策并不完全一样。这是一个可延展的概念,但通常指国家对工业发展的直接和间接支持,特别是国家将支持那些被认为对国家经济繁荣和/或国家安全具有战略重要性的目标工业部门。产业政策工具清单可能包括设立技术发展基金、国家指导的集群投资(旨在促进地理“集群”效应)、外国技术转让要求(要求外国公司在某些条件下转让其技术)、对工人技能培训有针对性的支持等。

无论名称如何,各国政府一直在试图组织人工智能的战略方法。一项研究称,截至2019年7月,已有41个国家制定了国家人工智能战略,或表示有兴趣制定此类战略。在已经发布框架文件的19个国家中,大多数州(16个)优先考虑人工智能的研发,其次是人工智能人才的开发(11个)、人工智能作为产业战略的一部分的应用(9个)、道德和法律准则的制定(8个)、人工智能相关基础设施的投资(6个)以及人工智能在政府中的发展。

2019年,美国政府通过行政命令发布了自己的人工智能战略,强调R&D、标准和劳动力发展。这份文件是在奥巴马政府2016年发布R&D战略计划和一系列关注人工智能、社会和经济的报告之后发布的。同样是在2019年,三名美国参议员提出了一项立法,该立法将创建一项国家人工智能战略,更重要的是,为其提供资金。如果获得通过,《人工智能倡议法案》将在五年内拨款20多亿美元,用于资助一系列活动,包括建立人工智能协调办公室、几个研究中心,以及创建强大的人工智能评估标准。

(五)技术标准

根据国际标准化组织,技术标准规定了“材料、产品、过程和服务需要符合的要求、规范、指南或特性”。通过引入通用术语和规范,技术标准为市场繁荣提供了基础。具体而言,技术标准为各种商业活动创造了基础——允许技术之间的互操作,实现更快速的创新,鼓励产品差异化,简化商业合同,降低交易成本。

概括地说,政府有一系列的动机来创建(或鼓励采用)强大的技术标准。在国内,政府有兴趣帮助创造和扩大有希望的国内新技术市场。技术标准有助于促进这样的市场。但是政府显然也有兴趣保护公共利益,而技术标准又可以促进这一目的。例如,公共卫生和安全考虑,从食品到手术到运输,以及许多其他公众关注的领域,是制定技术标准的首要考虑。

(六)创新生态系统

国家和国家以下各级政府都对创新生态系统的创建非常感兴趣。世界领先的技术创新生态系统——如加利福尼亚湾区等城市和地区——不仅产生了世界上大部分的应用技术,而且还为当地居民创造了大量财富,进而为他们所在的国家创造了大量财富。鉴于人工智能相关技术将带来的收益,政策制定者专注于确保他们能够在自己的范围内分享这一财富创造。

在国家和国家以下各级,许多公共部门政策和投资支持(或阻碍)创新生态系统的创建和增长。这种政策和投资可以与支持产业政策的政策和投资类型重叠,尽管公众参与建设创新生态系统通常不被列为产业政策。

(七)赛博空间

在这种情况下,越来越多的关注点是“对抗性ML”(或“对抗性AI”),当攻击者试图破坏、愚弄或窃取ML/AI系统时,就会发生这种情况。对抗性攻击有几种变体,例如,“模型反转”(攻击者获取用于训练系统的训练数据)和“模型窃取”(攻击者试图窃取模型的底层算法)。

“中毒攻击”是另一种常见的对抗性攻击,在机器学习模型中插入输入,诱使系统做出与系统设计参数不同的分类决策(是/否、输入/输出等),在中毒攻击中,不道德的行为体欺诈、欺骗、窃贼、敌对的外国政府,等等,操纵ML模型如何评估输入,以便以有利于攻击者的方式重新配置结果输出。中毒攻击会在模型的训练阶段对输入数据带来微妙的变化,这些变化设计得足够小,可以逃避研究人员的检测,但总体上却显著到足以在程序输出中产生系统偏差。这种“添加少量精心设计的噪音”可能会产生实际后果,例如,医疗领域的“受骗”人工智能系统可能会命令不必要的医疗治疗,构成医疗保险欺诈。

(八)犯罪、执法、欺诈和欺骗

人工智能是一个强有力的新工具,既能打击犯罪活动,又能使之成为可能。在打击方面,联合国区域间犯罪和司法研究所(犯罪司法所)和国际刑事警察组织(国际刑警组织)是全球一级研究这一系列问题的主要多边机构。2019年,他们发布了一份概览报告,认为虽然“许多国家”正在将人工智能应用于执法,但人们普遍对人工智能的效果缺乏了解,执法机构之间的国际协调程度也很低。犯罪司法所和国际刑警组织也正在牵头就这一问题开展全球对话,2019年7月举行了第二次年度执法人工智能全球会议。

(九)公共部门的效能

(十)成本:财务和能源

还有一个很少被注意但很重要的领域,财务和能源领域。由于涉及人工智能研究的高成本,所以既限制了谁可以参与人工智能系统的开发,又限制了进行研究可以使用多少资源。麻省大学的研究人员在2019年6月发表的一篇论文中发现,就这两种资源而言,训练大型人工智能模型的成本都很高。尽管人工智能模型有很多,运行它们所需的资金和能量也有很大差异(主要是云计算需要资金),但研究人员发现这些成本随着模型的复杂性呈指数级增长。

(十一)致命自主武器系统

最后一组政策问题主要在国家安全领域。这些包括人工智能和致命武器,特别是“致命自主武器系统”的发展和它们在战场上的使用。对于世界主要大国的国家安全机构来说,最重要的政策优先事项很简单:在缺乏对自主武器系统具有约束力的情况下,最重要的优先事项是获得足够的资源来开发、测试和部署集成人工智能的系统,以确保优于本国的地缘战略和军事对手。

关于人工智能的使用,他们主要关心的是军事指挥链:谁(或什么)在战场上发布这种杀伤命令,或者至少是指挥链中的谁“决定如何、何时、何地以及为什么使用这种武器”?基辛格认为,鉴于基于人工智能的武器系统的发展缺乏透明度(透明度是所有军备控制的基础),控制基于人工智能的武器系统,包括法律,也许是不可能的。他的言论意在对基于人工智能的武器系统被允许不受限制地发展可能导致的严重后果发出严重警告。

二、建 议

我们现在正处于一个过渡时期,人工智能已经从潜力走向现实,其巨大的力量已经开始颠覆人类的生存,无论好坏。如果政府希望利用人工智能发挥积极的潜力,并避免人工智能带来的负面影响,就需要确定社会优先事项,制定可操作的战略,然后在实际资金支持下实施明智的政策。

(一)伦理规范

(二)战略

说到人工智能,预期治理是至关重要的。尽管人工智能驱动未来的模式还不清楚,但政府还是应该积极面对人工智能带来的重大的、颠覆性的变革。首先,政府需要发展可操作且可行的策略,在积极的方向上塑造未来,同时避免或最小化人工智能领域中不可避免的负面后果。

(三)隐私和数据

由于个人数据通常可能会成为人工智能系统的原始材料,所以隐私问题是大多数政策讨论的核心。从医疗保健、交通运输乃至环境保护等领域人工智能所产生的效益往往更加强大。在保护个人权利和最大限度地发挥人工智能为更广泛的公众带来的潜在利益之间取得平衡,是人工智能决策的核心。

(四)创新生态系统和人力资本

世界各国政府都将人工智能的发展视为建立和加强创新生态系统的机会,即促进一国境内的创业和新经济部门,以获得随后的经济利益。在创建强大的技术创新生态系统的过程中,存在多种政策关联。包括研发支出、知识产权保护、基础设施投资、税收政策、住房政策等等。这种政策上的相互联系对于刺激人工智能相关的创新和其他新兴技术相关的创新同样重要。

(五)致命自主武器系统

上一篇:人工智能将是未来智能电网的核心部分
下一篇:美格智能子公司众格智能获选2022年上海市“专精特新”企业
相关文章

 发表评论

暂时没有评论,来抢沙发吧~