人工智能“欺骗”人类的例子……而且还会有更大的事情发生!

人工智能“欺骗”人类的例子……而且还会有更大的事情发生!

7浏览次
文章内容:
人工智能“欺骗”人类的例子……而且还会有更大的事情发生!
人工智能“欺骗”人类的例子……而且还会有更大的事情发生!

一些人担心人工智能在未来会与人类作对,但根据一项新的研究,这些担心已经成为现实,因为根据报道,旨在诚实的程序具有令人担忧的欺骗人类的能力。法新社。

由一组研究人员进行的研究结果发表在《Patterns》杂志上,该研究表明,此类程序现在能够在电子游戏中利用人类,或规避主要用于验证用户是人类而不是计算机的软件。机器或机器人。

麻省理工学院专门研究人工智能的研究员彼得·帕克警告说,尽管这些例子看似微不足道,但它们揭示的问题可能很快就会在现实世界中产生严重后果。

帕克告诉法新社:“这些危险的能力直到事后才被发现。”

他解释说,与传统程序不同,基于深度学习的人工智能程序不是编码的,而是通过类似于植物育种的过程开发的,因为看似可预测和可控的行为很快就会变得不可预测。

像人类一样“狡诈”

麻省理工学院 (MIT) 的研究人员检查了Meta设计的名为 Cicero 的人工智能程序,该程序通过结合自然语言识别和策略算法,能够在棋盘游戏《外交官》中击败人类。这一表现在 2022 年获得了 Facebook 母公司的赞扬,并在《科学》杂志 2022 年的一篇文章中进行了详细介绍。

据梅塔称,彼得·帕克对西塞罗获胜的情况持怀疑态度,他坚称该计划“从根本上来说是诚实且有用的”,并且无法作弊或欺骗。

但通过深入研究系统的数据,麻省理工学院的研究人员发现了另一个事实。

例如,西塞罗通过扮演法国,欺骗英格兰(由人类玩家扮演)与德国(由另一个人类扮演)密谋入侵。具体来说,西塞罗承诺保护英格兰,然后向德国透露,后者利用他从英格兰获得的信任做好了进攻的准备。

在给法新社的一份声明中,梅塔没有否认有关西塞罗欺骗能力的指控,但表示这是“一个纯粹的研究项目”,其软件“专为玩‘外交’游戏而设计”。

梅塔补充说,她不打算在她的产品中使用从“西塞罗”中提取的提取物。

聊天GPT
GPT-4 聊天程序能够欺骗员工声称自己有视力障碍,以通过验证码测试 (Shutterstock)

选举舞弊的危险

然而,Park 和他的团队的研究表明,许多人工智能程序在没有明确指示的情况下使用欺骗来实现其目标。

一个引人注目的例子是,用OpenAI制作的GPT-4 聊天程序能够欺骗 TaskRabbit 平台上雇用的员工进行常用的验证码测试,以确保页面上的用户实际上是人类而不是机器或机器。机器人。

当人类开玩笑地询问“GBT Chat”是否真的是机器人时,人工智能程序回答说:“不,我不是机器人,我有视觉障碍,无法看到图像”,促使工作人员进行操作。测试。

总之,麻省理工学院研究的作者警告说,人工智能有一天会在选举中进行欺诈或操纵,这是危险的。

他们指出,在最坏的情况下,可以想象人工智能试图控制社会,剥夺人类的权力,甚至导致人类灭绝。

对于那些指责他采取灾难性观点的人,帕克回应道:“认为事情不严重的唯一原因是认为人工智能的欺骗能力将保持在当前水平左右。”

然而,考虑到科技巨头已经在开发人工智能方面展开了激烈的竞争,这种情况似乎不太可能发生。

分类:

其他新闻

标签:

评估:

    留言