一项新的研究揭示了人类与机器辩论中一个意想不到的转折:人们更喜欢人工智能的裁决,而不是人类的裁决——至少在金钱问题上做出艰难决定时是这样。但在交出我们财务的钥匙之前,一些严重的危险信号正在飘扬。
周二公布的Marina Chugunova和Wolfgang J.Luhan的研究题为“机器人统治”。科学家发现,超过60%的参与者支持人工智能决策者重新分配收入。为什么?这不是为了避免人类偏见——人们只是认为机器是公平的。
该研究称:“该实验在一种公平的算法(基于数百人持有的公平原则)和一个被要求做出公平决定的人类(决策者)之间做出了选择。”。“在缺乏组成员信息的情况下,该算法在所有选择中占63.25%。”
即使引入了偏见的可能性,这种偏好也保持稳定。
图片:玛丽娜·楚古诺娃和沃尔夫冈·鲁汉
但关键在于:虽然人们喜欢人工智能发号施令的想法,但他们对人类做出的决定评价更高。
研究称:“人们对算法决策不太满意,他们发现这些决策比人类决策更不公平。”。
这项研究的设置很巧妙。参与者在人类和人工智能决策者之间进行选择,以分配来自运气、努力和基于才能的任务的收入。即使每个群体的成员都被揭露,这可能会为歧视打开大门,人们仍然倾向于人工智能。
鲁汉在一份新闻稿中表示:“许多公司已经在使用人工智能进行招聘决策和薪酬规划,公共机构也在警务和假释策略中使用人工智能。”。“我们的研究结果表明,随着算法一致性的提高,公众可能会越来越多地支持算法决策者,即使是在道德上重要的领域。”
这不仅仅是学术上的奇思妙想。随着人工智能逐渐进入生活的更多领域——从人力资源到约会——我们如何看待它的公平性可能会决定公众对人工智能驱动政策的支持。
然而,委婉地说,人工智能在公平性方面的记录参差不齐。
最近的调查和研究揭示了人工智能系统中持续存在的偏见问题。早在2022年,英国信息专员办公室就对人工智能驱动的歧视案件展开了调查,研究人员已经证明,最受欢迎的LLM具有明显的政治偏见。埃隆·马斯克的x.AI的Grok被特别指示避免给出“唤醒”的答案。
更糟糕的是,牛津大学、斯坦福大学和芝加哥大学的研究人员进行的一项研究发现,人工智能模型更有可能建议对说非裔美国人英语的被告判处死刑。
求职AI?研究人员发现,人工智能模型抛弃听起来很黑的名字,偏爱亚洲女性。彭博科技报道称:“与其他种族和民族的简历相比,名字与美国黑人不同的简历最不可能被列为金融分析师职位的最佳候选人。”。
Cass R.Sunstein在他所定义的人工智能驱动的“选择引擎”方面的工作描绘了一幅类似的画面,表明虽然人工智能有可能增强决策,但它也可能放大现有的偏见或被既得利益者操纵。他说:“无论人工智能是否具有家长式作风,它都可能受到自身行为偏见的影响。有证据表明,LLM显示出人类所具有的一些偏见。”。
然而,一些研究人员,如Bo Cowgill和Catherine Tucker,认为人工智能被视为各方的中立立场,这巩固了其在决策方面公平参与者的形象。他们在2020年的一篇研究论文中指出:“算法偏见可能比人类偏见更容易衡量和解决。”。
换句话说,一旦部署,人工智能似乎更具可控性和逻辑性——如果它偏离了预期目标,也更容易调节。这种完全无视中间人的想法是智能合约背后哲学的关键:自动执行的合约可以自主工作,不需要法官、escrow或人工评估。
一些加速论者认为,人工智能政府是全球社会实现公平和效率的可行途径。然而,这可能会导致一种新的“深层国家”形式——一种不是由影子寡头控制的国家,而是由这些人工智能系统的架构师和培训师控制的国家。
由Ryan Ozawa编辑。
热点:人工智能 币界 研究