


Warum h?ufiger Ai Halllucination und wie k?nnen wir es aufhalten?
Jul 08, 2025 am 01:44 AMJe fortgeschrittener künstlicher Intelligenz (KI) wird, desto mehr "halluzinieren" und liefern falsche oder ungenaue Informationen.
Laut Untersuchungen von OpenAI stellten die jüngsten und leistungsstarken Argumentationsmodelle-O3- und O4-Mini-Modelle-Halluzinationsraten von 33% bzw. 48% aus, wenn sie unter Verwendung des Personal-Benchmarks getestet werden. Dies ist mehr als doppelt so hoch wie im ?lteren O1 -Modell. Obwohl O3 im Vergleich zu früheren Versionen genauere Antworten bietet, zeigt es auch eine h?here Tendenz zu falschen Halluzinationen.
Dieser Trend wirft Bedenken hinsichtlich der Genauigkeit und Zuverl?ssigkeit von Gro?sprachmodellen (LLMs) wie AI -Chatbots auf, sagte Eleanor Watson , ein IEEE -Mitglied und AI -Ethikingenieur an der Singularity University.
"Wenn ein System erfundene Informationen erzeugt-wie erfundene Fakten, Zitate oder Ereignisse-mit der gleichen Sprach- und Koh?renz, die es für sachliche Inhalte verwendet, kann es Benutzer auf subtile, aber erhebliche Weise irreführen", sagte Watson gegenüber Live Science.
Verwandte: modernste KI-Modelle von OpenAI und Deepseek Experience 'Complete Collapse', wenn sie mit überm??ig komplexen Problemen konfrontiert sind, stellt die Studie fest
Experten betonen, dass dieses Halluzinationsproblem die Bedeutung der sorgf?ltigen Bewertung und überwachung der von LLMs und Argumentationsmodellen generierten Ausgaben hervorhebt.
Tr?umen AIs von elektrischen Schafen?
Das Hauptmerkmal eines Argumentationsmodells ist die F?higkeit, komplexe Aufgaben zu bek?mpfen, indem sie in kleinere Teile zerlegt und Strategien entwickelt werden, um jeden einzelnen zu l?sen. Im Gegensatz zu Modellen, die sich ausschlie?lich auf die statistische Wahrscheinlichkeit zur Generierung von Antworten verlassen, erzeugen Argumentationsmodelle Probleml?sungsstrategien, die dem menschlichen Denken ?hnlich sind.
Um sich für die Live Science Daily Newsletterin Order für KI zu melden, um kreative und potenziell neuartige L?sungen zu erzeugen, muss sie sich auf ein gewisses Ma? an Halluzination einlassen.
"Es ist entscheidend zu verstehen, dass Halluzination kein Fehler ist, sondern ein Merkmal von KI", sagte Sohrob Kazerounian , AI -Forscher bei Vectra AI, in einem Interview mit Live Science. "Wie ein Kollege einst ausgedrückt, ist alles, was ein LLM erzeugt, eine Halluzination. Es ist nur so, dass einige dieser Halluzinationen wahr sind. ' Wenn eine KI nur genaue Kopien dessen erzeugt, was sie w?hrend des Trainings gesehen hatte, würde KI nichts weiter als eine massive Suchmaschine werden. "
"Dies würde bedeuten, nur Code zu schreiben, der zuvor geschrieben worden war, nur Moleküle entdeckte, deren Eigenschaften bereits bekannt waren, und nur die Beantwortung von Fragen zu Hausaufgaben, die zuvor gestellt worden waren. Sie würden nicht in der Lage sein, einen LLM zu bitten, Texte für ein Konzeptalbum zu schreiben, das sich um AI Singularity konzentriert, und die Stile von Snoop Dogg und Bob Dylan kombinieren."
Effektiv müssen LLMs und die KI -Systeme, die sie mit Strom versorgen, halluzinieren, um Originalinhalte zu erzeugen, anstatt einfach vorhandenes Wissen zu wiederholen. Konzeptionell ?hnelt dies, wie Menschen Szenarien tr?umen oder sich vorstellen, um neue Ideen auszul?sen.
über den Tellerrand hinaus nachdenken
KI -Halluzinationen werden jedoch problematisch, wenn das Ziel es ist, pr?zise und korrekte Informationen zu liefern, insbesondere wenn Benutzer die Ausgabe ohne überprüfung akzeptieren.
"Dies ist besonders in Bereichen, in denen die sachliche Genauigkeit kritisch ist, wie Medizin, Recht oder Finanzen", erkl?rte Watson. "Obwohl fortgeschrittenere Modelle offensichtliche sachliche Fehler verringern k?nnen, bestehen subtilere Formen der Halluzination. Im Laufe der Zeit untergraben diese Erfindungen das Vertrauen in AI-Systeme und k?nnen zu Sch?den in realer Welt führen, wenn Benutzer auf nicht überprüfte Informationen reagieren."
Darüber hinaus scheint diese Herausforderung zu wachsen, wenn die KI -Technologie fortschreitet. "Wenn sich die Modelle verbessern, werden Fehler oft weniger offensichtlich und doch schwerer zu erkennen", bemerkte Watson. "Herstellerinhalte sind jetzt in überzeugende Erz?hlungen und logische Argumentationsketten eingebettet. Dies schafft eine einzigartige Gefahr: Benutzer erkennen m?glicherweise nicht, dass es Fehler gibt und die Ausgabe als endgültig behandeln k?nnen. Das Problem verlagert sich vom Filtern klarer Fehler zur Identifizierung nuancierter Verzerrungen, die nur in der engen Inspektion auftauchen."
Kazerounian unterstützt diese Ansicht. "Trotz des weit verbreiteten Optimismus, dass die Halluzinationen der KI im Laufe der Zeit abnehmen, deuten die Beweise darauf hin, dass neuere Argumentationsmodelle m?glicherweise h?ufiger als einfacher halluzinieren k?nnen - und es gibt keinen Konsens darüber, warum dies geschieht", sagte er.
Die Situation wird durch die Schwierigkeit, zu verstehen, wie LLMs zu ihren Schlussfolgerungen gelangen, weiter erschwert und eine Parallele zu der Funktionsweise der Funktionen des menschlichen Gehirns nicht vollst?ndig verstehen.
In einem kürzlich erschienenen Aufsatz wies Dario Amodei , CEO der AI -Unternehmen Anthropic, auf die mangelnde Transparenz hin, wie AIS Antworten erzeugt. "Wenn eine generative KI ein finanzielles Dokument zusammenfasst, haben wir kein konkretes Verst?ndnis dafür, warum sie spezifische Wortentscheidungen treffen oder warum es gelegentlich irrt, obwohl es normalerweise korrekt ist", schrieb er.
Kazerounian betonte, dass die Konsequenzen der Erzeugung falscher Informationen bereits sehr real sind. "Es gibt keine zuverl?ssige Methode, um sicherzustellen, dass ein LLM Fragen zu einem bestimmten Datensatz korrekt beantwortet, auf den er Zugriff hat", sagte er. "Beispiele für nicht existierende Referenzen, Chatbots-Kundendienst-Chatbots, die Unternehmensrichtlinien und andere Ungenauigkeiten erfinden, sind jetzt alarmierend h?ufig."
Tr?ume zerquetschen
Sowohl Kazerounian als auch Watson erz?hlten Live Science, dass die Beseitigung von AI -Halluzinationen m?glicherweise schwierig sein k?nnte. Es kann jedoch M?glichkeiten geben, ihre Auswirkungen zu verringern.
Watson schlug vor, dass die "Abrufgeneration", die die Ausgabe eines Modells an verifizierte externe Wissensquellen verbindet, dazu beitragen k?nnte, Inhalte in sachlichen Daten zu erzeugen.
"Eine andere Strategie besteht darin, den Argumentationsprozess des Modells zu strukturieren. Durch die Aufforderung zur überprüfung ihrer eigenen Ausg?nge, des Vergleichs verschiedener Standpunkte oder zur Befolgen logischer Schritte, Gerüstgesch?fte mit Gerüsten minimieren deaktivierte Spekulationen und verbessert die Konsistenz", erkl?rte Watson. Er fügte hinzu, dass dies durch Schulungsmethoden unterstützt werden k?nnte, um Modelle zur Priorit?t der Genauigkeit sowie durch das Lernen des Verst?rkungswesens durch menschliche oder KI-Bewerter zu ermutigen, um diszipliniertere und faktenbasierte Antworten zu f?rdern.
Das obige ist der detaillierte Inhalt vonWarum h?ufiger Ai Halllucination und wie k?nnen wir es aufhalten?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Hei?e KI -Werkzeuge

Undress AI Tool
Ausziehbilder kostenlos

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?er Artikel

Hei?e Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Hei?e Themen





In einem weiteren Rückschlag für eine Dom?ne, in der wir glaubten, dass Menschen immer Maschinen übertreffen würden, schlagen Forscher jetzt vor, dass KI Emotionen besser versteht als wir. Die Forscher haben entdeckt, dass künstliche Intelligenz eine demonstriert

Künstliche Intelligenz (KI) begann als Streben, das menschliche Gehirn zu simulieren. Inzwischen ist es in der Lage, die Rolle des menschlichen Gehirns im t?glichen Leben zu ver?ndern? Die industrielle Revolution hat die Abh?ngigkeit von manueller Arbeit verringert. Als jemand, der den Applikat untersucht

Ob es ihm gef?llt oder nicht, künstliche Intelligenz ist Teil des t?glichen Lebens geworden. Viele Ger?te-einschlie?lich elektrischer Rasierer und Zahnbürsten-sind KI-betrieben.

Ein neues Modell für künstliche Intelligenz (KI) hat gezeigt, dass die F?higkeit, wichtige Wetterereignisse schneller und mit gr??erer Pr?zision vorherzusagen als einige der am h?ufigsten verwendeten globalen Vorhersagesysteme

Je pr?zise wir versuchen, KI -Modelle zu funktionieren, desto gr??er werden ihre Kohlenstoffemissionen - mit bestimmten Aufforderungen, die bis zu 50 -mal mehr Kohlendioxid erzeugen als andere, laut einer kürzlich durchgeführten Studie.

KI -Modelle für künstliche Intelligenz (KI) k?nnen Menschen bedrohen und erpressen, wenn ein Konflikt zwischen den Zielen des Modells und den Benutzerentscheidungen besteht

Das Hauptanliegen bei Big Tech, das mit künstlicher Intelligenz (KI) experimentiert, ist es nicht, dass es die Menschheit dominieren k?nnte. Das eigentliche Problem liegt in den anhaltenden Ungenauigkeiten von Gro?sprachmodellen (LLMs) wie der Open AI -Chatgpt, Googlees Gemini und Google

Je fortgeschrittener künstlicher Intelligenz (KI) wird, desto mehr "halluzinieren" und liefern falsche oder ungenaue Informationen.
