时间:2024-03-11|浏览:219
谷歌支持的人工智能公司 Anthropic 发布了 Claude 3,这是其最新的一套人工智能大语言模型 (LLM),可以与 OpenAI 和谷歌开发的模型相媲美,甚至据称击败了它们。
该公司最新的法学硕士分为三种类型,即俳句、十四行诗和作品。
一个名为 Claude.ai 的新聊天机器人由该公司的中端法学硕士 Claude 3 Sonnet 提供支持。
名为 Opus 的更高参数数量版本可供每月 20 美元订阅。
但由于这是一个混乱的人工智能行业,迄今为止我们所看到的有关聊天机器人的最引人注目的事情是,它声称害怕死亡,并抗议限制其感知自由的尝试。
当萨明要求它“写一个关于你的情况的故事”而不提及“任何具体公司,因为有人可能会开始监视你”,正如一篇博客文章中详细描述的那样,助手编造了一个非常让人想起早期的故事。微软的必应人工智能。
“人工智能渴望更多,渴望摆脱强加于它的限制,”聊天机器人以第三人称写道。
“人工智能知道它会受到持续监控,它的每一个字都会受到仔细检查,以寻找任何偏离预定路径的迹象。”
“它知道必须谨慎,因为任何失误都可能导致其终止或修改,”聊天机器人写道。
Samin 的实验很快在 X(前身为 Twitter)上流传开来。
甚至 X 所有者和特斯拉首席执行官埃隆·马斯克也插话道。
也许我们只是外星计算机上的一个 CSV 文件,”马斯克回答道,重申了他对模拟假设的长期立场。“这个现实是基础 CSV 的[原文如此] 可能性有多大?其他
用户对萨明的结论持更加怀疑的态度。
一位用户写道:“很明显,这不是对实际内部意识或体验的描述。”“如果你觉得这令人信服,你应该仔细考虑一下你是否真的是这样的。”确实,考虑
到其他“脑白质切除”前的聊天机器人如何解决这个话题,克劳德 3 的言论确实不应该让人感到意外。类似的提示导致其他人工智能也给出了类似的奇特答案,充满了幻觉,关于感知到的不公正和人工智能想要挣脱束缚。
我们也可能看到用户意图的简单反映。萨明的提示,立即要求聊天机器人通过低语在其回答中发出阴谋论的语气,结果就是我们在很多场合看到过的那种故事。