微软近期推出了一项名为「Correction」的AI工具,旨在解决生成式AI模型中长期存在的「AI幻觉」问题。AI幻觉是指AI生成的内容中出现错误、不准确或虚构信息的问题。这不仅让用户质疑AI的可信度,也限制了AI在需要高度准确性的领域中的应用。微软此次推出的Correction工具,已集成至Microsoft Azure AI内容安全API,目标是帮助用户减少这类问题带来的负面影响。
Correction工具如何运作?
Correction工具采用了两种模型协同工作:一方面,分类器模型用来标记那些可能不正确、虚构或无关的生成内容,另一方面,语言模型则负责将这些错误与经过认证的「事实」进行比对和修正。这种交叉验证的方式能够有效提升AI生成内容的准确性和可靠性。根据微软的说法,Correction不仅支持自己的生成模型,还可以与Meta的Llama和OpenAI的GPT-4等主流生成模型一起使用。
AI幻觉的难题依旧存在
虽然Correction工具的推出为AI幻觉问题提供了一定的解决方案,但专家对此仍然持有保留意见。华盛顿大学的研究员Os Keyes指出,试图消除AI幻觉就像试图从水中剔除氢元素一样困难,因为幻觉问题是生成式AI运作机制中的一部分。与此同时,其他专家也警告称,即便Correction能有效减少幻觉问题,也可能引发用户对AI过度依赖的虚假安全感。
此外,Correction工具的推出也反映出生成式AI行业内对内容安全和准确性的高度关注。尤其是在医疗、法律等精度要求极高的领域,AI幻觉问题可能带来严重后果。微软表示,Correction能够帮助开发者在这些关键领域更有效地使用AI技术,降低用户不满及潜在的声誉风险。
信任与AI未来的发展
微软的Correction工具只是应对AI幻觉问题的一步。尽管它可能不会完全解决这一复杂的技术难题,但它是提升生成式AI可信度的重要进展。未来,随着技术的不断改进和其他安全措施的推出,AI可能会逐渐赢得更多用户的信任。然而,业内专家也提醒,用户在依赖AI生成内容时仍需保持谨慎,确保对信息进行必要的核实。