Warum machen KI -Modelle Dinge aus oder halluzinieren? Openai sagt, es hat die Antwort und wie man sie verhindern kann

Openai sagt, sie haben herausgefunden, dass große Sprachmodelle Chatbots für das Raten belohnen.

Laut OpenAI von Artificial Intelligence (KI) belohnen Algorithmen Chatbots, wenn sie erraten, sagte das Unternehmen in einem neuen Forschungsarbeit.

OpenAI bezieht sich auf „Halluzinationen“, wenn die großen Sprachmodelle (LLMs) die Chatbots -Vermutungsantworten verwendet haben, wenn sie sich nicht sicher sind, anstatt zuzugeben, dass sie es nicht wissen.

Die Forscher sagen, dass Halluzinationen aus einem Fehler in der binären Klassifizierung zurückzuführen sind, wenn die LLMs neue Beobachtungen in eine von zwei Kategorien einteilen.

Der Grund, warum Halluzinationen fortgesetzt werden, ist, dass LLMs „optimiert sind, dass sie gute Testteilnehmer sind und erraten, wenn ungewiss (TY) die Testleistung verbessert“, heißt es in dem Bericht.

Die Forscher verglichen es mit Studierenden, die an Multiple-Choice-Prüfungen oder Bluff bei schriftlichen Prüfungen erraten, da das Einreichen einer Antwort mehr Punkte erhalten würde, als den Eingangsabschluss leer zu lassen.

LLMs arbeiten mit einem Punktschema, das sie mit einem Punkt für eine korrekte Antwort und keine für Lücken oder für die Aussage belohnt, dass sie die Antwort nicht kennen.

Das Papier erfolgt einige Wochen, nachdem Openai GPT-5 veröffentlicht hatte. Das Modell, das das Unternehmen sagt, ist „halluzinationssicher“ mit 46 Prozent weniger False als der Vorgänger GPT-4O.

In einer kürzlich durchgeführten Studie des US -Firma Newsguard wurde jedoch herausgefunden, dass ChatGPT -Modelle im Allgemeinen in 40 Prozent ihrer Antworten die Falschheit verbreiten.

Einige Fragen „unbeantwortbar“ von KI

Durch die Voraussetzung und nach dem Training lernen Chatbots, wie das nächste Wort in großen Textmengen vorhergesagt werden.

OpenAIs Artikel stellte fest, dass einige Dinge, wie Rechtsschreibung und Grammatik, sehr klare Regeln und Struktur folgen, es jedoch andere Themen oder Arten von Daten gibt, die für eine KI schwierig oder sogar unmöglich sind, sich zu identifizieren.

Zum Beispiel können Algorithmen Bilder klassifizieren, wenn sie entweder als „Katze oder Hund“ bezeichnet werden. Wenn die Bilder jedoch nach dem Geburtstag des Haustiers gekennzeichnet würden, könnte der Chatbot sie nicht genau kategorisieren.

Diese Art von Aufgabe, die eine KI ausführt, würde „immer Fehler erzeugen, egal wie fortgeschritten der Algorithmus ist“, fand der Bericht.

Einer der wichtigsten Ergebnisse von Forschern des Berichts ist, dass Modelle niemals zu 100 Prozent genau sein werden, da „einige reale Fragen von Natur aus unbeantwortbar sind“.

Um die Halluzinationen einzuschränken, könnten Benutzer die LLM anweisen, mit einem „Ich weiß nicht“ zu antworten, wenn sie die Antwort nicht kennt, und das vorhandene Punktesystem für die Arten von Antworten zu ändern, die es gibt, sagte Openai.