人工智能的忧思

网友投稿 823 2023-01-23

本站部分文章、图片属于网络上可搜索到的公开信息,均用于学习和交流用途,不能代表睿象云的观点、立场或意见。我们接受网民的监督,如发现任何违法内容或侵犯了您的权益,请第一时间联系小编邮箱jiasou666@gmail.com 处理。

人工智能的忧思

Judea Pearl对人工智能的发展贡献良多。在20世纪80年代,在他的努力之下,机器掌握了依据概率进行推理的能力。现在他是该领域最尖锐的批评者之一。在他的新书《The Book of Why: The New Science of Cause and Effect》中,他认为人工智能由于不完全理解智力的本质而陷入瓶颈。

人工智能发展道路上的瓶颈

现年81岁的Pearl在他的新书中阐述了智能机器如何思考的愿景。他认为,关键在于用因果推理来取代关联推理。机器需要的是疟疾引起发烧的原因,而不是仅仅将发烧和疟疾联系起来的能力。一旦这种因果关系框架确立下来,机器就有可能提出反事实的问题——在某种外界干涉条件下因果关系会如何变化——Pearl认为这是科学思想的基石。Pearl还提出了一种正式的语言,让这种想法成为可能——这是21世纪版本的Bayesian框架,允许机器在概率的基础上进行思考。

Pearl认为,因果推理可以使机器拥有人类水平的智力。他解释说,它们能够更有效地与人类交流,甚至可以成为具有自由意志和做恶能力的道德实体。最近,在San Diego的一次会议上,《Quanta Magazine》对Pearl通过电话进行了访谈。以下是经过编辑和精简的对话。

Kevin Hartnett:为什么给你的新书起这么一个名字?

Judea Pearl:它总结了我在过去25年里一直在做的关于因果关系的工作,它是我们如何应对那些内在原因问题的答案。奇怪的是,这些问题已经被科学抛弃了。所以我这么做是为了弥补那些忽视的。

Hartnett:科学已经抛弃了因果关系,听起来非常搞笑,这难道不是科学研究的全部内容吗?

Pearl:当然,但是你俨然已经无法在那些方程式中看到它了。代数的语言是对称的,如果x告诉了我们y,那么y也会告诉我们x,我讲的是确定性关系。例如,风暴即将来临,气压计一定是下降的。

Hartnett:几十年前,你在人工智能领域取得了成功。你不如说一说当时人工智能发展和研究的情况?

Pearl:20世纪80年代初我们遇到的问题属于预测性或诊断性问题。医生会从病人身上观察一系列症状,并希望得出病人患疟疾或其他疾病的可能性。我们想要弄出一套自动化系统以代替专业人员——无论是医生,矿产资源管理人员,还是其他一些付费专家。所以在这一点上,我想到了一个在概率上可行的方法。

不过,麻烦的一点在于,计算标准概率需要指数空间和指数时间,所以我只好想出了一个叫Bayesian网络的方案。

Hartnett:然而,在你的新书中,你把自己描述为当今人工智能社区的一个“反叛者”,这又是什么情况呢?

Pearl:这么说吧,当我们开发出的工具使机器能够以不确定性为基础进行推理时,我就转而去追寻另一项更具挑战性的任务了——因果推理。我的许多同事仍然在研究不确定性推理。有一些研究小组继续研究诊断性问题,而不担心问题的因果关系。他们想要的只是预测和诊断准确。

我可以举个例子——我们今天看到的所有机器学习的工作都是在诊断模型中进行的,比如把物体标记为“猫”或“老虎”。“他们不关心外部情况变化,他们只是想要识别出一个物体并预测它将如何随着时间的推移而变化。

当我开发出了强大的预测工具后,我觉得这只是人类智慧的冰山一角。如果我们想让机器有着更高级别的认识能力,我们就必须加入因果模型,关联模型还不够。

Hartnett:大家都对人工智能抱有兴奋感,但你没有。

Pearl:就像我研究深度学习所做的一样,我发现它们都只停留在关联的层次上。可以说,所有令人印象深刻的深刻学习成就都只是因为曲线拟合,虽然这么说有点亵渎的意味。从数学层次的角度来看,无论你如何巧妙地操作数据,以及在操作的过程中读到了什么数据,哪怕再复杂,也仍然是只是曲线拟合的练习。

曲线拟合和因果关系

Hartnett:看样子你对机器学习并不怎么感冒。

Hartnett:让机器能够跟我们一样有着因果推论能力,这一研究成果未来的前景如何?

Pearl:我们必须给机器匹配一个环境模型,即让它们将周围环境纳入考量范围。如果一台机器无法去识别和依托现实,你就不能指望机器在实际应用中有任何智能的行为。所以人们必须可以将现实的模型进行编程并嵌入机器,这一步大约会在十年之内实现。

下一步将是机器自行假设这些模型,并根据经验证据来验证和完善它们。这一过程有点儿像科学认识进步的轨迹——我们从地心说开始,从行星轨道是远行开始,到最后认识到日心说和行星轨道是椭圆的。

然后机器人们也会相互交流,并将这个假想的世界,这个狂野的世界“转译”为隐喻的模型。

Hartnett:对你你的这种设想,如今的人工智能从业者有什么反馈吗?

Pearl:人工智能界目前四分五裂着。首先,有一些人正陶醉在机器学习和深度学习以及神经网络的成功之中,以为实现了天大的成就。他们不明白我在说什么。他们还想继续沿着曲线拟合的路子走下去。但是,当你和那些除了统计学习以外的人工智能领域从业者交谈时,他们立刻就能明白问题之所在。在过去的两个月里,我看了好几篇关于机器学习的局限性的文章。

Hartnett:你是说机器学习领域其实是有偏离如今进展的新的发展趋势了吗?

Pearl:不不不,不能说是什么趋势,应该说是一种反省吧,一种人真的自我反省,我们需要扪心自问——我们在往何处去?我们下一步该怎么走?

Hartnett:没错,这正是我最不想问你的事。

自由意志和作恶能力

Pearl:你知道吗,我倒是很高兴你没问我关于自由意志的的事儿。

Hartnett:在这种情况下,你认为自由意志是什么?

Pearl:未来有自由意志的机器人一定会出现的,这一点毋庸置疑。我们必须了解如何对它们进行编程,以及从它们那里获得什么。出于某种原因,在进化过程中,这种自由意志被发觉在计算科学层面上是可取的。

Hartnett:哦?这怎么说?

Pearl:这么说吧,你本人是有自由意志的,我们也是在进化中有了使这种感觉的。显然,这种感觉提供了一些计算功能。

Hartnett:当机器人有自由意志的时候,我们能不能立即辨别出来?或者说,它们的自主意愿会不会表现的非常明显?

Pearl:如果说机器人们开始互相交流,并表示说“你本可以做得更好的”,那么这就是自由意志的一个典型例证。如果一组运动机器人——比如说机器人足球队——它们之间开始用这种语言进行交流的时候,我们就会知道他们已经有属于自己的意志存在了,比如说什么,“你当时应该把球传给我的,我都等了你好久了,结果你并没有这么做!”“你本该”这种措辞表明了不管情况多么紧急,你都能掌握住局面,但是实际上你却没有。所以第一个证据是交流用语,第二个证据是一场踢得蛮出色的足球赛。

Hartnett:那既然你都说到了自由意志的问题了,那我还是觉得得问问你关于人工智能有“作恶能力”的问题,我们通常认为这是取决于你做出选择的能力。所以,什么是邪恶?

Pearl:邪恶是一种信念,我们一般认为这个时候你的贪婪或者说不满已经取代了社会的所有行为及道德规范。比如说一个人的思维里可能会有一个小人在耳边说,“你饿了,所以你可以做任何事,只要能填饱肚子就行”,但你的思维里还会有其他的小人,它们在你的耳边不断地提醒你,引导你遵循社会的道德及行为规范,其中的一个小人名叫“同情”。所以,当你把你的贪婪或不满提升到社会标准之上时,那就是邪恶了。

Hartnett:那么,当人工智能有能力去作恶时,我们该怎么知道呢?

Pearl:有一些软件程序——这些程序是我们在过去学习的基础上编制的、用来规范或者期望机器人的行为的——如果我们发现机器人一而再、再而三地忽略或者违反它们时,恐怕就可以判定它们拥有作恶的能力了。

上一篇:Grafana面板(panel):报警功能(alerts),grafana告警配置
下一篇:包含综合性能测试会发出声音吗的词条
相关文章

 发表评论

暂时没有评论,来抢沙发吧~