实时警报通知:微信告警通知的重要性解析
669
2023-02-05
人工智能真正的危险在哪里
假冒,算法偏见和其他问题如何影响我们的日常生活。
在过去的几年中,人工智能以惊人的速度提升了我们的技术。 从完全自动化的劳动密集型工作到诊断肺癌,人工智能已经实现了以前认为不可能的壮举。 但是,如果使用不当,算法可能是破坏性武器。 为确保恶意行为者不会对我们的社会造成破坏,我们必须解决几个关键挑战。
1. Deepfake
在我们的现代社会中,信息是无限的。 通过打开浏览器并浏览网络半小时,您遇到的信息比中世纪一生中遇到的普通人要多。 信息就是力量。 您会立即收到有关地球另一端发生的事件的通知,但有一个陷阱:您如何知道该相信什么以及哪些来源可信?
在下面观看此视频。
尽管在我们的生活中不存在深层的假货,但肯定是最具破坏力的假货之一。
2.算法偏差
最好的健身教育网络游戏的生存就是这种现象的绝佳发人深省的例证,值得一试。
此问题影响许多其他应用程序领域,例如信用评分估算,执法等。由于这些因素在涉及人员的生活中产生了巨大影响,因此除非我们可以保证公平性,否则这些决策不应涉及算法。 为此,人们产生了一个新的,非常活跃的研究领域。 除了确保预测不受变量(如性别,种族和受负面偏见影响的相似变量)的独立性之外,关键是要生成不存在这些变量的数据。 为了解决这个问题,需要付出更大的努力。 要从数据中完全消除偏见,我们还需要消除思维中的偏见,因为最终,数据是我们行动的结果。
3.群众监督
那些放弃基本的自由以购买一点临时安全的人,既不应该自由也不应该安全。 - 本杰明·富兰克林
如果将本技术用于错误的目的,则会有其自身的危险。 在中国,它被用于前所未有的大规模监视。 结合最近引入的社会信用系统,您可以对自己的行为进行评分,并且可以通过例如乱穿马路或仅仅参加某些活动来得分,没有什么可以隐藏在天空中。
4.推荐引擎
每次您打开YouTube,Facebook或任何其他社交媒体网站时,他们的目标都是尽可能让您参与其中。 简而言之,在这种情况下,您就是产品:如果偶尔观看广告,则可以免费使用该网站。 因此,目的不是要为用户提供高质量的内容,而是要使他们无限地滚动和自动播放。
鉴于人脑的进化方式,不幸的是,互动是由强烈的情感反应驱动的。 事实证明,例如政治激进的内容特别适合于此。 推荐引擎不仅学会了呈现极端的内容,而且还使每个用户慢慢变得激进,一旦用户的喜好发生变化,它的工作就变得容易。 这被称为激化管道。
有具体的科学依据。 例如,最近的一篇论文研究了YouTube上特定用户的数百万条评论,以显示他们如何逐渐迁移到极端激进的内容。
其影响是如此严重,以至于可以对民主选举产生重大影响。 在2016年美国大选期间,《华尔街日报》对此主题进行了广泛调查。 他们的发现可以在这里找到:蓝色饲料,红色饲料。 从本质上讲,用户有意识地陷入了知识泡沫,从不质疑自己对外部世界的看法。 思考困难,内脏反应容易。
5.隐私权和有针对性的广告
您是否曾经发现自己购买了不需要的东西,之后又后悔呢? 也许进入一家超市,进入收银台时,一捆糖果就引起了您的注意,毫不犹豫地将它们放到了篮子里。 您并不是真的需要它,但是您还是买了它。 这可能使您感到惊讶,但是整个方案都是经过精心设计的,因此您被操纵去执行此操作。 听起来很奇怪,购物实际上需要您的智力资源,这些资源最终将耗尽。 用更少的资源来控制自己的欲望,您更有可能冲动地购买自己知道对自己不利的东西(例如糖果),但无论如何都想要。 但这与AI有什么关系?
超市是通过考虑上述基本心理原理而设计的。 这些设计原则适用于平均水平。 任何设计都无法为其每个用户提供个性化且完美简化的体验。 但是,当市场转移到网上时,情况发生了变化。 虚拟市场不仅可以为您提供量身定制的购物之旅,还可以收集非常具体的数据。 根据您的浏览习惯和社交网络,可以高度准确地预测您的行为。
结论
近年来,基于人工智能的技术无疑改变了我们的生活。 尽管它正在慢慢渗透到我们周围的所有事物中,但其大多数媒体表现都是有偏差的。 无论是通过粉红色的炒作迷雾还是通过天网的可怕异象消灭人类。 他们都不是真实的。 但是,为了确保其应用程序安全,我们必须清楚地看到AI可能带来的实际问题。 这些问题并不神秘,它们已经存在于我们的生活中。 通过适当的认识,准备和社区努力,可以解决这些问题。
发表评论
暂时没有评论,来抢沙发吧~