首页 互联网 > 正文

新的研究表明 群体人工智能比个体做出更多的道德决策

目前,关于人工智能的讨论大多集中在伦理影响上。——人工智能最终会“智胜”我们还是伤害我们;我们如何确保人工智能符合我们的最佳利益?——值得考虑一种有人类参与的人工智能新方法。3360群体智能。

联合国是一个由一致人工智能运营的软件平台,它将人们聚集在一起,在线进行各种实时决策和预测,从“疯狂三月”的获胜者到肯塔基赛马会的四匹最好的马。事实证明,该系统在给出准确答案方面非常有效。事实上,它在各种比赛中都超过了专家——。比如2015年奥斯卡预测,《虫群》的准确率超过了703354。需要指出的是,《纽约时报》的批评者有55%的正确率。

但是,除了准确,使用蜂群还有一个好处。根据新的研究,它可以做出更多的道德决定。

这可能有违直觉。“作为个体,人们通常会做出符合社会整体利益的道德决定,”一致人工智能(ai)首席执行官路易斯罗森伯格(Louis Rosenberg)说。“但总的来说,我们经常做出错误的决定,导致不平等、污染和武装冲突等问题。所以才这么有意思。通过形成群体智慧而不是进行标准投票,群体似乎能够克服这种基本的人类困境,做出更无私和道德的决定。”

这项新研究是上周在纽约大学举行的2016年集体智慧会议上宣布的,它使用了联合国大学的一系列测试。参与者是随机选择的,他们的报酬是1美元。这些测试基于“公地悲剧”(TOC)——,这是一个经典的经济问题。这表明人们会试图得到最大的一块馅饼,而这最终会伤害那些拥有较少的人。

在第一轮实验中,18名被试在两种情况下做出决策,通过调查作为个体,然后作为群体的一部分做出决策。在第一种情况下,参与者选择他们是想要0.30美元还是额外的0.90美元。

当一个蜂群的一部分时,这群人负责将“磁铁”移动到六个位置3360中的一个,三个0.30美元,三个0.090美元。

你抓住它了吗?如果两组都有超过30%的人选择更高的金额,那么所有人都会空手而归。

另外需要注意的是,“用户在做决策时只能看到自己的磁铁,看不到别人的磁铁。”因此,虽然他们可以实时看到冰球的运动,这代表了整个蜂群的新兴意志,但他们不受支持的具体分解的影响。这就限制了社会偏见。"

结果如何?当单独询问时,67%的参与者要求0.90美元的奖励,没有人获得现金奖励。研究者称此为“TOC困境的典型表现”。但蜂群的结果是,24%的人向0.90美元靠拢,70%向0.30美元靠拢,6%的人放弃了决定。

研究人员表示,这群人想出了一个“优化整个群体支出的解决方案”,打败了传统的TOC问题。

在第二个实验中,70名受试者被要求在两种情况下再次做出决定,一种是通过标准在线投票进行多数投票的团队决定,另一种是使用实时小组。

有三支队伍3360橙、黄、紫。每个团队被告知所有成员将获得0.25美元或0.75美元的额外奖金,只有团队问他们想要什么样的奖金。但如果超过三分之一的团队要求更高的奖金,就没人能拿到。

结果,70人中有47人要了美元。75年的奖金。研究人员说:“因此,当受试者被视为一群不相关的个体时,他们再次陷入TOC困境。”当他们被分组时,三人都要求巨额奖金。

这群人分组的时候,三个队中有两个队要求小奖金。

研究人员表示,“与使用集体智慧的基于投票的方法相比,人类合群可能是一种可行的技术,可以更好地做出符合群体共同利益的决定……从人类群体中产生的智慧可能比从群体中的个体参与者产生的决定更有利于共同利益。”

通过群体智能使用“软”人工智能进行决策的实验,可能会为思考如何创造有道德的人工智能提供一种新的思路。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。