okx

人工智能专家调查显示,人类灭绝风险的前景并不那么悲观

时间:2024-01-08|浏览:244

据 Decrypt 报道,牛津大学、伯克利大学和波恩大学的研究人员对 2700 多名人工智能专家进行的一项新调查显示,先进人工智能系统对人类的潜在影响并不那么可怕。

虽然只有约 5% 的受访者认为人工智能很可能导致人类灭绝,但 2023 年 8 月的一项民意调查发现,61% 的美国人认为人工智能对人类构成威胁。

这与签署人工智能安全中心信函的行业领导者形成鲜明对比,信函指出减轻人工智能灭绝的风险应该是全球优先事项。

在人工智能能力方面,许多受访者预测人工智能将在 10 年内实现重大的创意里程碑,例如从头开始编写整个支付网站或创作与当今热门歌曲毫无区别的歌曲。

然而,对于诸如数学定理证明之类的挑战,时间线会延长。

高级机器智能 (HLMI) 成为现实的可能性已经提前了 13 年,预计到 2047 年成功的可能性为 50%。劳动完全自动化 (FAOL) 的目标也提前了 48 年,到了 2116 年。

虽然研究人员总体上持谨慎乐观的态度,但约 40% 的人认为先进人工智能导致人类灭绝的可能性很小(不是零)。

这凸显了优先考虑人工智能安全研究的必要性,70% 的受访者对此表示赞同。

对于 2028 年的人工智能是否可以解释自己的推理,人们存在不同的看法,并且对人工智能带来的错误信息、不平等和大规模监控等风险存在很大的担忧。

研究人工智能伦理和安全仍然至关重要。

热点:人工智能

« 上一条| 下一条 »
区块链交流群
数藏交流群

合作伙伴

在区块链世界中,智能合约不仅是代码的信任,更是商业的革命。通过了解其在供应链、版权保护等领域的应用,您将真正体验到智能合约的无限可能性
区块链世界GxPiKaQiu.com ©2020-2024版权所有 桂ICP备16002597号-2