实时警报通知:微信告警通知的重要性解析
637
2023-02-05
为什么社会各界对人工智能如此关注?
当今的人工智能被正确地称为窄AI(或弱AI),因为它被设计来执行的任务范围狭窄(例如,仅执行面部识别,或只进行互联网搜索,或仅驾驶汽车)。然而,许多研究人员的长期目标是创建普适AI(AGI或强AI)。虽然窄AI能在其特定的任务上超越人类,如下棋或解方程,AGI将在几乎所有认知任务上超越人类。
为什么社会各界对人工智能如此关注?
短期来看,人工智能对社会有益的科研范畴可涵盖诸多领域如经济学、法学,以及验证法、有效性计算、安全性和控制论等技术层面。如果安全保障仅限于防止笔记本电脑被黑客入侵,就算出了问题也只是给你添点小麻烦;但是,倘若AI系统能够控制汽车、飞机、心脏起搏器、自动交易系统或电网, 我们必须保证该系统完全遵照我们的指令,否则后果将不可设想。
从长远来看,一个重要的问题是,如果我们成功创造了能在所有认知功能上超过人类的强AI,将会发生些什么。一个有智慧的AI系统将有潜力自我完善、触发智能爆炸,并远远地超越人类智力。通过发明革命性的新技术,这样的超级智慧可以帮助我们消除战争、疾病和贫困,创造强AI可能是人类历史上最重大的事件。也因此,一些专家担心人类的历史也会随着此类超强大AI的诞生戛然而止,除非我们学会在AI成为超级智慧之前将使其与我们同心所向。
有些人质疑强AI是否会实现, 也有些人坚信创建超智能AI对人类必定是有益的。我们承认这两种情形皆有可能,但我们更应意识到人工智能系统将有意或无意地给人类社会造成巨大危害,我们必须研究如何防患于未然,使得未来人们受益于AI的同时,规避潜在风险隐患。
关于人工智能有哪些认识误区?
关于人工智能的未来以及它对人类意味着什么的对话热烈进行中。当下,AI技术有许多连顶尖专家都无法达到共识的争议,例如:AI对就业市场未来的影响;类人级别的AI是否/何时会被开发;AI开发是否会导致智力爆炸;以及这是我们应该欢迎还是恐惧的事情。但当下也存在着许多由误解或人们各说各话所引起的伪争论。为了帮助我们专注于有意义的争议并解决问题,让我们首先将一些最常见的误传解除掉。
时间推断上的误区
一个常见的误区与时间预期有关:人们认为我们能准确断定机器取代人类智能需要多长的时间。
有观点认为我们肯定能在这个世纪,甚至在几年内制造出强AI。约翰·麦卡锡(“人工智能”一词的创造人),马文·明斯基,纳撒尼尔·罗切斯特和克劳德·香农曾写下个过于乐观的预测:在1956年夏天,他们要在达特茅斯学院组建一个10人人工智能研究小组,用两个月的时间让机器了解怎样使用语言、形式和抽象的概念,能够解决目前只有人类能应对的各种问题,并学会自我提升。他们写道,只要有一组精心挑选的科学家们在一起工作一个夏天,就可以在一个或多个问题上取得重大进展。但他们的预测,并没有成真。
目前,已经有一些调查问卷向AI研究人员询问他们对制造类人AI的时间预测,几乎所有的调查都得出相同的结论, 那就是连世界上领先的专家都无法达到共识。
对强AI风险的误解
“斯蒂芬·霍金警告说,机器人的兴起可能对人类带来灾难”,许多AI研究人员在看到这个标题时都感到不以为然,许多人甚至已经数不清他们看到了多少相似的文章。很多时候,这些文章附着一个邪恶的机器人携带武器的图片,似乎意味着我们应该担心机器人会崛起并屠杀人类,因为他们已经变得有意识并邪恶。但往另一个较为轻松的层面想,这样的文章实际上是相当有意思的,因为他们简洁地总结了AI研究人员不担心的情况。这种情况结合了多达三个单独的,有关于机器意识,邪恶本质和机器人制造的误区。
更多有趣的争议
与其把时间浪费在以上所诉的误传中,我们不如将精力专注在那些真实存在、让专家无法达成共识的有趣争议上。比如说,你想要用人工智能实现什么样的未来?你希望有一个新的职业替代旧时代职业的社会,还是一个每个人都可以享有休闲生活和由机器生产出的财富的无业社会?你希望人类在人工智能时代拥有什么样的意义,而我们又如何导向那个未来呢?... ...如果你也曾深深思考过这些问题,我们诚恳邀请您将想法留言,让我们一起以智慧激发智慧,讨论、探索人工智能的未来!
发表评论
暂时没有评论,来抢沙发吧~