Microsoft hat vor kurzem ein KI-Tool namens "Correction" auf den Markt gebracht, das das seit langem bestehende Problem der "KI-Illusion" in generativen KI-Modellen angehen soll: KI-Illusion bezieht sich auf das Problem von Fehlern, Ungenauigkeiten oder fiktiven Informationen in KI-generierten Inhalten. Dies führt nicht nur dazu, dass die Nutzer die Glaubwürdigkeit von KI in Frage stellen, sondern schränkt auch die Anwendung von KI in Bereichen ein, die ein hohes Maß an Genauigkeit erfordern. Microsofts Korrektur-Tool, das in die Microsoft Azure AI Content Security API integriert ist, soll Nutzern helfen, die negativen Auswirkungen solcher Probleme zu reduzieren.
Wie funktioniert das Korrekturwerkzeug?
Das Korrekturwerkzeug verwendet zwei Modelle, die zusammenarbeiten: Einerseits wird das Klassifizierungsmodell verwendet, um generierte Inhalte zu kennzeichnen, die möglicherweise falsch, fiktiv oder irrelevant sind, während andererseits das Sprachmodell dafür verantwortlich ist, diese Fehler mit zertifizierten "Fakten" zu vergleichen und zu korrigieren. Dieser Ansatz der Kreuzvalidierung kann die Genauigkeit und Zuverlässigkeit von KI-generierten Inhalten effektiv verbessern. Laut Microsoft unterstützt Correction nicht nur die eigenen generativen Modelle, sondern kann auch mit gängigen generativen Modellen wie Meta's Llama und OpenAI's GPT-4 verwendet werden.
Das Rätsel um die KI-Illusion bleibt bestehen
Obwohl die Einführung des Korrekturwerkzeugs eine gewisse Lösung für das Problem der KI-Halluzinationen bietet, haben Experten noch immer Vorbehalte dagegen. Os Keyes, Forscher an der University of Washington, wies darauf hin, dass der Versuch, KI-Halluzinationen zu beseitigen, so schwierig ist wie der Versuch, Wasserstoff aus Wasser zu entfernen, da das Halluzinationsproblem Teil des Mechanismus der generativen KI ist. In der Zwischenzeit haben andere Experten davor gewarnt, dass, selbst wenn die Korrektur das Problem der Halluzinationen wirksam reduziert, sie ein falsches Gefühl der Sicherheit auslösen könnte, dass die Nutzer sich zu sehr auf die KI verlassen.
Darüber hinaus spiegelt die Einführung des Korrektur-Tools die große Besorgnis innerhalb der generativen KI-Branche über die Sicherheit und Genauigkeit von Inhalten wider. Insbesondere in Bereichen wie dem Gesundheitswesen und dem Recht, wo Genauigkeit erforderlich ist, kann das Problem der KI-Halluzinationen schwerwiegende Folgen haben. Correction kann Entwicklern dabei helfen, die KI-Technologie in diesen kritischen Bereichen effektiver einzusetzen und so die Unzufriedenheit der Nutzer und mögliche Reputationsrisiken zu verringern, so Microsoft.
Vertrauen und die Zukunft der KI
Microsofts Korrekturwerkzeug ist nur ein Schritt, um das Problem der KI-Halluzinationen anzugehen. Auch wenn es diese komplexe technische Herausforderung nicht vollständig lösen kann, ist es eine wichtige Entwicklung, um die Glaubwürdigkeit der generativen KI zu stärken. In Zukunft, wenn die Technologie weiter verbessert wird und weitere Sicherheitsmaßnahmen eingeführt werden, könnte die KI nach und nach das Vertrauen von mehr Nutzern gewinnen. Branchenexperten warnen jedoch auch, dass die Nutzer weiterhin vorsichtig sein müssen, wenn sie sich auf KI-generierte Inhalte verlassen, und sicherstellen müssen, dass die Informationen bei Bedarf überprüft werden.