提高AI产出质量,OpenAI 发布新的 AI 模型训练方法以解决“AI 幻觉”难题
AI奇点网6月15日报道 | OpenAI 近日宣布了一项旨在解决“AI 幻觉”难题的新的 AI 模型训练方法。所谓“AI 幻觉”指的是聊天机器人使用编造的信息进行回应,给用户一种虚假的自信感。OpenAI 的研究人员发现,即使是最先进的模型在不确定情况下也往往表现出编造事实的倾向,尤其是在需要多步推理的领域。为了解决这个问题,他们提出了一种名为“过程监督”的训练方法。
过程监督方法不仅奖励模型获得正确的最终结论,还奖励模型在推理过程中做出的每个正确的推理步骤。这种方法能够鼓励模型更多地遵循人类的思维方式,提高其输出的可解释性。为了支持这项研究,OpenAI 还发布了一个包含80万个人类标注的数据集,用于训练这种新的模型。
然而,一些专家对这种方法表示怀疑,并认为需要进一步验证和评估。他们指出,仅仅依靠过程监督方法可能不足以显著降低 AI 生成错误信息和不正确结果的问题。同时,他们也担心 OpenAI 是否会将这项研究成果全面应用于产品中,以及潜在的操纵模型向公众发布信息的问题。
此外,一些观察者认为,这项研究的意义更多在于初步观察,而非实际应用。他们指出,大型语言模型的工作方式总体上并不稳定,因此在不同的设置、模型和上下文中,这种方法的效果可能会有所不同。尽管过程监督方法能够解决一部分“AI 幻觉”问题,但仍然需要进一步的研究和验证。
在讨论“AI 幻觉”问题时,还应注意到 OpenAI 在强调聊天机器人的使用责任方面的努力。他们表示,他们正在努力开发更加透明和负责任的 AI 技术,并将用户的反馈和参与视为改进的关键。OpenAI 认识到 AI 技术的潜力和风险,并表示愿意与其他利益相关方合作,共同推动 AI 的发展和应用。
总的来说,OpenAI 发布的新的 AI 模型训练方法“过程监督”旨在解决“AI 幻觉”问题,提高模型输出的可解释性。然而,这项研究仍需要进一步验证和评估,同时也需要更多的努力来确保 AI 技术的负责任应用。