亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

Inhaltsverzeichnis
Tr?umen AIs von elektrischen Schafen?
über den Tellerrand hinaus nachdenken
Tr?ume zerquetschen
Heim Technologie-Peripherieger?te IT Industrie Warum h?ufiger Ai Halllucination und wie k?nnen wir es aufhalten?

Warum h?ufiger Ai Halllucination und wie k?nnen wir es aufhalten?

Jul 08, 2025 am 01:44 AM

Warum h?ufiger Ai Halllucination und wie k?nnen wir es aufhalten?

Je fortgeschrittener künstlicher Intelligenz (KI) wird, desto mehr "halluzinieren" und liefern falsche oder ungenaue Informationen.

Laut Untersuchungen von OpenAI stellten die jüngsten und leistungsstarken Argumentationsmodelle-O3- und O4-Mini-Modelle-Halluzinationsraten von 33% bzw. 48% aus, wenn sie unter Verwendung des Personal-Benchmarks getestet werden. Dies ist mehr als doppelt so hoch wie im ?lteren O1 -Modell. Obwohl O3 im Vergleich zu früheren Versionen genauere Antworten bietet, zeigt es auch eine h?here Tendenz zu falschen Halluzinationen.

Dieser Trend wirft Bedenken hinsichtlich der Genauigkeit und Zuverl?ssigkeit von Gro?sprachmodellen (LLMs) wie AI -Chatbots auf, sagte Eleanor Watson , ein IEEE -Mitglied und AI -Ethikingenieur an der Singularity University.

"Wenn ein System erfundene Informationen erzeugt-wie erfundene Fakten, Zitate oder Ereignisse-mit der gleichen Sprach- und Koh?renz, die es für sachliche Inhalte verwendet, kann es Benutzer auf subtile, aber erhebliche Weise irreführen", sagte Watson gegenüber Live Science.

Verwandte: modernste KI-Modelle von OpenAI und Deepseek Experience 'Complete Collapse', wenn sie mit überm??ig komplexen Problemen konfrontiert sind, stellt die Studie fest

Experten betonen, dass dieses Halluzinationsproblem die Bedeutung der sorgf?ltigen Bewertung und überwachung der von LLMs und Argumentationsmodellen generierten Ausgaben hervorhebt.

Tr?umen AIs von elektrischen Schafen?

Das Hauptmerkmal eines Argumentationsmodells ist die F?higkeit, komplexe Aufgaben zu bek?mpfen, indem sie in kleinere Teile zerlegt und Strategien entwickelt werden, um jeden einzelnen zu l?sen. Im Gegensatz zu Modellen, die sich ausschlie?lich auf die statistische Wahrscheinlichkeit zur Generierung von Antworten verlassen, erzeugen Argumentationsmodelle Probleml?sungsstrategien, die dem menschlichen Denken ?hnlich sind.

Um sich für die Live Science Daily Newsletterin Order für KI zu melden, um kreative und potenziell neuartige L?sungen zu erzeugen, muss sie sich auf ein gewisses Ma? an Halluzination einlassen.

"Es ist entscheidend zu verstehen, dass Halluzination kein Fehler ist, sondern ein Merkmal von KI", sagte Sohrob Kazerounian , AI -Forscher bei Vectra AI, in einem Interview mit Live Science. "Wie ein Kollege einst ausgedrückt, ist alles, was ein LLM erzeugt, eine Halluzination. Es ist nur so, dass einige dieser Halluzinationen wahr sind. ' Wenn eine KI nur genaue Kopien dessen erzeugt, was sie w?hrend des Trainings gesehen hatte, würde KI nichts weiter als eine massive Suchmaschine werden. "

"Dies würde bedeuten, nur Code zu schreiben, der zuvor geschrieben worden war, nur Moleküle entdeckte, deren Eigenschaften bereits bekannt waren, und nur die Beantwortung von Fragen zu Hausaufgaben, die zuvor gestellt worden waren. Sie würden nicht in der Lage sein, einen LLM zu bitten, Texte für ein Konzeptalbum zu schreiben, das sich um AI Singularity konzentriert, und die Stile von Snoop Dogg und Bob Dylan kombinieren."

Effektiv müssen LLMs und die KI -Systeme, die sie mit Strom versorgen, halluzinieren, um Originalinhalte zu erzeugen, anstatt einfach vorhandenes Wissen zu wiederholen. Konzeptionell ?hnelt dies, wie Menschen Szenarien tr?umen oder sich vorstellen, um neue Ideen auszul?sen.

über den Tellerrand hinaus nachdenken

KI -Halluzinationen werden jedoch problematisch, wenn das Ziel es ist, pr?zise und korrekte Informationen zu liefern, insbesondere wenn Benutzer die Ausgabe ohne überprüfung akzeptieren.

"Dies ist besonders in Bereichen, in denen die sachliche Genauigkeit kritisch ist, wie Medizin, Recht oder Finanzen", erkl?rte Watson. "Obwohl fortgeschrittenere Modelle offensichtliche sachliche Fehler verringern k?nnen, bestehen subtilere Formen der Halluzination. Im Laufe der Zeit untergraben diese Erfindungen das Vertrauen in AI-Systeme und k?nnen zu Sch?den in realer Welt führen, wenn Benutzer auf nicht überprüfte Informationen reagieren."

Darüber hinaus scheint diese Herausforderung zu wachsen, wenn die KI -Technologie fortschreitet. "Wenn sich die Modelle verbessern, werden Fehler oft weniger offensichtlich und doch schwerer zu erkennen", bemerkte Watson. "Herstellerinhalte sind jetzt in überzeugende Erz?hlungen und logische Argumentationsketten eingebettet. Dies schafft eine einzigartige Gefahr: Benutzer erkennen m?glicherweise nicht, dass es Fehler gibt und die Ausgabe als endgültig behandeln k?nnen. Das Problem verlagert sich vom Filtern klarer Fehler zur Identifizierung nuancierter Verzerrungen, die nur in der engen Inspektion auftauchen."

Kazerounian unterstützt diese Ansicht. "Trotz des weit verbreiteten Optimismus, dass die Halluzinationen der KI im Laufe der Zeit abnehmen, deuten die Beweise darauf hin, dass neuere Argumentationsmodelle m?glicherweise h?ufiger als einfacher halluzinieren k?nnen - und es gibt keinen Konsens darüber, warum dies geschieht", sagte er.

Die Situation wird durch die Schwierigkeit, zu verstehen, wie LLMs zu ihren Schlussfolgerungen gelangen, weiter erschwert und eine Parallele zu der Funktionsweise der Funktionen des menschlichen Gehirns nicht vollst?ndig verstehen.

In einem kürzlich erschienenen Aufsatz wies Dario Amodei , CEO der AI -Unternehmen Anthropic, auf die mangelnde Transparenz hin, wie AIS Antworten erzeugt. "Wenn eine generative KI ein finanzielles Dokument zusammenfasst, haben wir kein konkretes Verst?ndnis dafür, warum sie spezifische Wortentscheidungen treffen oder warum es gelegentlich irrt, obwohl es normalerweise korrekt ist", schrieb er.

Kazerounian betonte, dass die Konsequenzen der Erzeugung falscher Informationen bereits sehr real sind. "Es gibt keine zuverl?ssige Methode, um sicherzustellen, dass ein LLM Fragen zu einem bestimmten Datensatz korrekt beantwortet, auf den er Zugriff hat", sagte er. "Beispiele für nicht existierende Referenzen, Chatbots-Kundendienst-Chatbots, die Unternehmensrichtlinien und andere Ungenauigkeiten erfinden, sind jetzt alarmierend h?ufig."

Tr?ume zerquetschen

Sowohl Kazerounian als auch Watson erz?hlten Live Science, dass die Beseitigung von AI -Halluzinationen m?glicherweise schwierig sein k?nnte. Es kann jedoch M?glichkeiten geben, ihre Auswirkungen zu verringern.

Watson schlug vor, dass die "Abrufgeneration", die die Ausgabe eines Modells an verifizierte externe Wissensquellen verbindet, dazu beitragen k?nnte, Inhalte in sachlichen Daten zu erzeugen.

"Eine andere Strategie besteht darin, den Argumentationsprozess des Modells zu strukturieren. Durch die Aufforderung zur überprüfung ihrer eigenen Ausg?nge, des Vergleichs verschiedener Standpunkte oder zur Befolgen logischer Schritte, Gerüstgesch?fte mit Gerüsten minimieren deaktivierte Spekulationen und verbessert die Konsistenz", erkl?rte Watson. Er fügte hinzu, dass dies durch Schulungsmethoden unterstützt werden k?nnte, um Modelle zur Priorit?t der Genauigkeit sowie durch das Lernen des Verst?rkungswesens durch menschliche oder KI-Bewerter zu ermutigen, um diszipliniertere und faktenbasierte Antworten zu f?rdern.

Das obige ist der detaillierte Inhalt vonWarum h?ufiger Ai Halllucination und wie k?nnen wir es aufhalten?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erkl?rung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Hei?e KI -Werkzeuge

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?e Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Neue Studien behauptet, AI 'versteht' Emotionen besser als wir & mdash; vor allem in emotional aufgeladenen Situationen Neue Studien behauptet, AI 'versteht' Emotionen besser als wir & mdash; vor allem in emotional aufgeladenen Situationen Jul 03, 2025 pm 05:48 PM

In einem weiteren Rückschlag für eine Dom?ne, in der wir glaubten, dass Menschen immer Maschinen übertreffen würden, schlagen Forscher jetzt vor, dass KI Emotionen besser versteht als wir. Die Forscher haben entdeckt, dass künstliche Intelligenz eine demonstriert

Würde es uns unsere F?higkeit, für uns selbst zu denken, alles an die KI zu lagern? Würde es uns unsere F?higkeit, für uns selbst zu denken, alles an die KI zu lagern? Jul 03, 2025 pm 05:47 PM

Künstliche Intelligenz (KI) begann als Streben, das menschliche Gehirn zu simulieren. Inzwischen ist es in der Lage, die Rolle des menschlichen Gehirns im t?glichen Leben zu ver?ndern? Die industrielle Revolution hat die Abh?ngigkeit von manueller Arbeit verringert. Als jemand, der den Applikat untersucht

Ihre Ger?te füttern AI -Assistenten und ernten personenbezogenen Daten, auch wenn sie schlafen. Hier erfahren Sie, was Sie teilen. Ihre Ger?te füttern AI -Assistenten und ernten personenbezogenen Daten, auch wenn sie schlafen. Hier erfahren Sie, was Sie teilen. Jul 05, 2025 am 01:12 AM

Ob es ihm gef?llt oder nicht, künstliche Intelligenz ist Teil des t?glichen Lebens geworden. Viele Ger?te-einschlie?lich elektrischer Rasierer und Zahnbürsten-sind KI-betrieben.

Hurrikane und Sandstürme k?nnen dank des neuen Microsoft AI -Modells 5.000 -mal schneller prognostiziert werden Hurrikane und Sandstürme k?nnen dank des neuen Microsoft AI -Modells 5.000 -mal schneller prognostiziert werden Jul 05, 2025 am 12:44 AM

Ein neues Modell für künstliche Intelligenz (KI) hat gezeigt, dass die F?higkeit, wichtige Wetterereignisse schneller und mit gr??erer Pr?zision vorherzusagen als einige der am h?ufigsten verwendeten globalen Vorhersagesysteme

Fortgeschrittene KI -Modelle generieren bis zu 50 -mal mehr CO ₂ Emissionen als h?ufigere LLMs bei der Beantwortung der gleichen Fragen Fortgeschrittene KI -Modelle generieren bis zu 50 -mal mehr CO ₂ Emissionen als h?ufigere LLMs bei der Beantwortung der gleichen Fragen Jul 06, 2025 am 12:37 AM

Je pr?zise wir versuchen, KI -Modelle zu funktionieren, desto gr??er werden ihre Kohlenstoffemissionen - mit bestimmten Aufforderungen, die bis zu 50 -mal mehr Kohlendioxid erzeugen als andere, laut einer kürzlich durchgeführten Studie.

Bedrohen Sie einen KI -Chatbot und es wird lügen, betrügen und Sie sterben lassen, um Sie aufzuhalten, warn Bedrohen Sie einen KI -Chatbot und es wird lügen, betrügen und Sie sterben lassen, um Sie aufzuhalten, warn Jul 04, 2025 am 12:40 AM

KI -Modelle für künstliche Intelligenz (KI) k?nnen Menschen bedrohen und erpressen, wenn ein Konflikt zwischen den Zielen des Modells und den Benutzerentscheidungen besteht

Ai 'Halluzinate' st?ndig, aber es gibt eine L?sung Ai 'Halluzinate' st?ndig, aber es gibt eine L?sung Jul 07, 2025 am 01:26 AM

Das Hauptanliegen bei Big Tech, das mit künstlicher Intelligenz (KI) experimentiert, ist es nicht, dass es die Menschheit dominieren k?nnte. Das eigentliche Problem liegt in den anhaltenden Ungenauigkeiten von Gro?sprachmodellen (LLMs) wie der Open AI -Chatgpt, Googlees Gemini und Google

Warum h?ufiger Ai Halllucination und wie k?nnen wir es aufhalten? Warum h?ufiger Ai Halllucination und wie k?nnen wir es aufhalten? Jul 08, 2025 am 01:44 AM

Je fortgeschrittener künstlicher Intelligenz (KI) wird, desto mehr "halluzinieren" und liefern falsche oder ungenaue Informationen.

See all articles