マイクロソフトは最近、「Correction」と呼ばれるAIツールを発表した。このツールは、生成AIモデルにおける「AIの錯覚」という長年の問題に対処することを目的としている。「AIの錯覚」とは、AIが生成したコンテンツにエラーや不正確な情報、架空の情報が含まれる問題を指す。これは、ユーザーにAIの信頼性を疑わせるだけでなく、高い精度が要求される分野でのAIの応用を制限する。Microsoft Azure AI Content Security APIに統合されたマイクロソフトのCorrectionツールは、ユーザーがこのような問題の悪影響を軽減することを目的としている。
修正ツールはどのように機能するのですか?
一方では、分類器モデルが、生成されたコンテンツが不正確であったり、架空であったり、無関係であったりする可能性にフラグを立てるために使用され、他方では、言語モデルが、これらの誤りを認証された「事実」と比較して修正する役割を担っている。この相互検証アプローチは、AIが生成するコンテンツの正確性と信頼性を効果的に向上させることができる。マイクロソフトによると、Correctionは独自の生成モデルをサポートするだけでなく、MetaのLlamaやOpenAIのGPT-4といった主流の生成モデルとも併用できる。
AI幻想の難問は残る
今回の補正ツールの登場は、AIの幻覚問題に対する一定の解決策を提供するものではあるが、専門家たちはまだ懸念を抱いている。ワシントン大学の研究者であるオス・キース氏は、幻覚問題はAIが生成的に動作するメカニズムの一部であるため、AIの幻覚をなくそうとするのは、水から水素を取り除こうとするのと同じくらい難しいと指摘した。一方、他の専門家は、仮にCorrectionが幻覚問題の軽減に有効であったとしても、ユーザーがAIに過度に依存しているという誤った安心感を引き起こす可能性があると警告している。
加えて、Correctionツールのローンチは、コンテンツの安全性と正確性に関するジェネレーティブAI業界内の高い懸念を反映している。特に医療や法律など正確性が求められる分野では、AIの幻覚の問題は深刻な結果をもたらす可能性があります。マイクロソフトは、「Correctionは、開発者がこれらの重要な分野でAI技術をより効果的に使用し、ユーザーの不満や潜在的な風評リスクを軽減するのに役立ちます」と述べている。
信頼とAIの未来
マイクロソフトの補正ツールは、AIの幻覚問題に取り組むための一歩に過ぎない。この複雑な技術的課題を完全に解決することはできないかもしれないが、生成AIの信頼性を高める上で重要な進展である。今後、技術の向上が進み、他のセキュリティ対策が導入されれば、AIは徐々に多くのユーザーの信頼を勝ち得るようになるかもしれない。しかし、業界の専門家も、ユーザーがAIが生成したコンテンツを信頼する際には、依然として慎重さを保ち、必要な情報の検証を確実に行う必要があると注意を促している。