时间:2024-02-17|浏览:269
打击恶意使用人工智能(AI)的唯一方法可能是不断开发更强大的人工智能并将其交到政府手中。
这似乎是一组研究人员在最近发表的一篇题为“计算能力然后人工智能治理”的论文中得出的结论。
来自 OpenAI、剑桥、牛津和其他十几所大学和研究所的科学家进行了这项研究,作为调查管理人工智能使用和开发所涉及的当前和未来潜在挑战的一种手段。
集权
该论文的主要论点围绕这样一个观点:表面上,控制谁有权访问未来最强大的人工智能系统的唯一方法是控制对训练和运行模型所需的硬件的访问。
正如研究人员所说:
“更准确地说,政策制定者可以利用计算来促进人工智能的监管可见性,分配资源以促进有益的结果,并对不负责任或恶意的人工智能开发和使用实施限制。”
在这种情况下,“计算”是指开发人工智能所需的基础硬件,例如 GPU 和 CPU。
从本质上讲,研究人员建议,防止人们使用人工智能造成伤害的最佳方法是从源头上切断它们。这表明政府需要开发系统来监控高级人工智能开发所必需的任何硬件的开发、销售和操作。
人工智能治理
在某些方面,世界各国政府已经在实行“计算治理”。例如,美国限制向中国等国家销售某些通常用于训练人工智能系统的 GPU 模型。
相关:美国官员将英伟达人工智能芯片的出口限制扩大到“一些中东国家”
但是,根据研究,真正限制恶意行为者利用人工智能造成伤害的能力将需要制造商在硬件中构建“终止开关”。这可能使政府有能力进行“远程执法”工作,例如关闭非法人工智能培训中心。
然而,正如研究人员指出的那样,“天真的或范围不明确的计算治理方法在隐私、经济影响和权力集中等领域带来了重大风险。”
例如,监控美国的硬件使用情况可能会违反白宫最近制定“人工智能权利法案蓝图”的指导方针,该蓝图规定公民有权保护自己的数据。
终止开关可能是 DOA
除了这些担忧之外,研究人员还指出,“高效通信”训练的最新进展可能会导致使用去中心化计算来训练、构建和运行模型。
这可能会使政府越来越难以定位、监控和关闭与非法培训活动相关的硬件。
研究人员表示,这可能会让各国政府别无选择,只能对人工智能的非法使用采取军备竞赛立场。 “社会必须及时、明智地使用更强大、更可控的计算,以防御因计算失控而带来的新风险。”
热点:人工智能