时间:2023-12-27|浏览:198
随着数百种人工智能和机器学习工具充斥市场,创新潜力是无限的。 许多初创公司不断涌现,以应对行业挑战,而每周不断涌入的增强型大型语言模型则放大了生成式人工智能的变革力量。 这种技术融合正在重塑具有无限可能性的行业。
然而,像Gemini这样强大的语言模型的发布和广泛使用引发了重要的伦理和实践考虑,并要求我们思考一个问题——作为人类,我们是否可以盲目相信这样的模型?
美国 B2B SaaS 公司 Gramener 的首席执行官 Anand S 在与 Metaverse Post 的对话中强调了过度依赖 ChatGPT 等法学硕士的潜在陷阱,并警告说,这种趋势可能会持续存在于 Gemini 等新兴模式中。
“即使拥有正确的训练数据,人们在超出其专业领域时也可能会犯错误。 因此,大型语言模型是在推断,还是在回忆所学的内容? 差异很大,值得测试。 我们通过与人反复互动的直觉来建立信心,”阿南德说。 “我们知道我们需要探索和调查陌生人,这也是我们应该与大型语言模型交互的方式。”
例如,在 Varghese 诉南方航空公司一案中,一名律师引用了 ChatGPT 生成的虚构案例,导致法官对律师进行了处罚,强调了不加批判地使用的风险。 阿南德强调在利用此类语言模型时需要谨慎和审查。
除此之外,该领域需要强大的反馈机制。 ChatGPT 通过简单的“赞成/反对”按钮以及文本输入来鼓励用户反馈。 这种方法收集了关于什么有效、什么无效的宝贵见解。 随着大型语言模型的使用,这种反馈系统可能会变得更加普遍,有助于提高其性能。
“监控法学硕士的每一个输出并不是很经济,但能够标记出潜在的错误是一个强大的杠杆,”阿南德告诉 Metaverse Post。
“有趣的是,大型语言模型本身非常擅长评估其他大型语言模型。 因此,我们可以结合使用法学硕士和人类,而不是专门使用人类来监控输出,随着法学硕士的发展,法学硕士最终会接管人类的大部分角色,”他补充道。
模型素养是前进的方向
在法学硕士领域,出现了一个关键原则——互动越多,理解就越深入。 这个简单的概念强调了用户参与和对 LLM 功能的理解之间的关系,最终推动利用率的提高。
“这还在于了解特定的法学硕士的优点是什么。 例如,我不会使用 DALL-E 来生成徽标,因为它不能很好地生成文本。 但它在生成徽标创意和徽标设计方面做得非常出色。 这是模型素养的一个例子,它是通过重复使用而产生的,因此,给了我明确的信任范围,在这个范围内我可以更有效地使用模型,”阿南德说。
为了寻求将 Gemini 这样的语言模型平衡地整合到我们的技术环境中,阿南德提出了几种策略。 首先,他提倡与大型语言模型进行日常交互,培养一种随着时间的推移而形成的习惯。 同样,确保普遍使用这些工具也至关重要,并呼吁更多鼓励个人使用。 Anand 指出了组织在工作笔记本电脑上阻止 ChatGPT 的现有趋势,强调了支持性沟通的必要性。
他建议实施组织机制来提供访问并鼓励在环境中进行语言模型 (LLM) 实验。
“最终,当人们熟悉后,他们就会明白该信任什么、何时使用以及如何使用它。 增加使用量和鼓励增加使用量是任何人都可以采用的最重要的策略和教育举措,”阿南德告诉 Metaverse Post。
格拉纳纳后首席执行官阿南德·S (Anand S) 警告盲目信任法学硕士、模型素养倡导者的风险,该文章首先出现在 Metaverse Post 上。