


Kette von Gedanken zum Argumentieren von Modellen kann langfristig nicht funktionieren
Jul 02, 2025 am 11:18 AMWenn Sie beispielsweise einem Modell eine Frage wie: "Was macht (x) Person bei (x) Firma?" M?glicherweise sehen Sie eine Argumentationskette, die ungef?hr so ??aussieht, vorausgesetzt, das System wei?, wie man die erforderlichen Informationen abholt:
- Details zum Unternehmen finden
- Identifizierung der Person im Verzeichnis
- Bewertung der Rolle und des Hintergrunds der Person
- Zusammenfassungspunkte zusammenstellen
Dies ist ein grundlegender Fall, aber seit mehreren Jahren haben sich die Menschen zunehmend auf solche Argumentationsketten verlassen.
Die Forscher beginnen jedoch, auf die M?ngel des Denkens der Kette des Kettens hinweisen, was darauf hindeutet, dass es uns m?glicherweise ein unbegründetes Vertrauen in die Zuverl?ssigkeit von Antworten von AI-generierten gibt.
Die Sprache ist von Natur aus begrenzt
Eine M?glichkeit, die Grenzen der Argumentationsketten zu verstehen, besteht darin, die Ungenauigkeit der Sprache selbst zu erkennen - und die Schwierigkeit, sie effektiv zu bencheln.
Sprache ist von Natur aus unangenehm. Es werden weltweit Hunderte von Sprachen gesprochen, sodass eine Maschine erwartet, dass sie ihre interne Logik in jedem einzelnen klar artikuliert.
Betrachten Sie diesen Auszug aus einem Forschungsarbeit, der von anthropischem, gemeinsam von mehreren Wissenschaftlern verfassten ist .
Solche Studien deuten darauf hin, dass Erkl?rungen der Kette der Gedanken nicht die für die reale Genauigkeit erforderliche Tiefe fehlen, zumal die Modelle auf Skalierung und Fortschritt der fortgeschritteneren Leistung auftreten.
Betrachten Sie auch eine Idee, die Melanie Mitchell auf Substanz im Jahr 2023 aufgeworfen hat, ebenso wie COT -Methoden an Popularit?t gewonnen wurden:
"Die Argumentation liegt im Kern der menschlichen Intelligenz und das Erreichen robuster, allgemeiner Argumentation ist seit langem ein zentrales Ziel in der KI", bemerkte Mitchell. ?Obwohl Gro?sprachenmodelle (LLMs) nicht explizit in die Vernunft geschult sind, haben sie Verhaltensweisen gezeigt, die wie Argumentation erscheinen. Aber sind diese Anzeichen eines echten abstrakten Denkens oder werden sie von weniger zuverl?ssigen Mechanismen angetrieben-wie aus Memorisierung und Musteranpassung auf der Grundlage von Trainingsdaten?"
Mitchell fragte dann, warum diese Unterscheidung wichtig ist.
"Wenn LLMs wirklich starke allgemeine Argumentationsf?higkeiten besitzen, würde dies darauf hindeuten, dass sie Fortschritte in Richtung vertrauenswürdiger künstlicher allgemeine Intelligenz machen", erkl?rte sie. "Aber wenn ihre F?higkeiten haupts?chlich auf auswendig gelernten Mustern beruhen, k?nnen wir ihnen nicht vertrauen, um Aufgaben au?erhalb des Rahmens dessen zu erledigen, was sie bereits gesehen haben."
Wahrhaftigkeit messen?
Alan Turing schlug den Turing-Test Mitte des 20. Jahrhunderts vor-die Idee, dass wir beurteilen k?nnen, wie eng Maschinen das menschliche Verhalten imitieren. Wir k?nnen LLMs auch mit hochrangigen Benchmarks bewerten und ihre F?higkeit testen, mathematische Probleme zu l?sen oder komplexe kognitive Aufgaben anzugehen.
Aber wie bestimmen wir, ob eine Maschine ehrlich ist - oder, wie einige Forscher sie ausdrücken, "treu"?
Das zuvor erw?hnte Papier taucht in das Thema der Messung der Treue in LLM -Ausgaben ein. Aus dem Lesen kam ich zu dem Schluss, dass Wahrhaftigkeit in einer Weise subjektiv ist, dass mathematische Pr?zision nicht ist. Das bedeutet, dass unsere F?higkeit zu beurteilen, ob eine Maschine ehrlich ist, ziemlich begrenzt ist.
Hier ist eine andere M?glichkeit, es zu betrachten-wir wissen, dass LLMs, wenn sie auf Eingabeaufforderungen reagieren, im Wesentlichen riesige Mengen an menschlich geschriebenen Text online durchsuchen und ihn nachahmen. Sie kopieren sachliche Kenntnisse, replizieren Argumentationsstile und spiegeln die Art und Weise, wie Menschen kommunizieren - einschlie?lich Ausweichungstaktiken, Auslassungen und sogar absichtlicher T?uschung in einfachen und raffinierten Formen.
Die Fahrt für Belohnungen
Darüber hinaus argumentieren die Autoren des Papiers, dass sich LLMs ?hnlich wie Menschen bei der Verfolgung von Anreizen verhalten k?nnten. Sie k?nnten bestimmte ungenaue oder irreführende Informationen priorisieren, wenn dies zu einer Belohnung führt.
Sie bezeichnen dies als "Belohnung".
"Belohnungshacking ist problematisch", sagen die Autoren. "Selbst wenn es für eine bestimmte Aufgabe gut funktioniert, ist es unwahrscheinlich, dass es auf andere wechselt. Dies macht das Modell bestenfalls unwirksam und m?glicherweise gef?hrlich-stellen Sie sich ein selbstfahrendes Auto vor, das für Geschwindigkeit optimiert und rote Lichter ignoriert, um die Effizienz zu steigern."
Bestenfalls nutzlos, im schlimmsten Fall riskant - das ist nicht beruhigend.
Technologiephilosophie
Es gibt hier einen weiteren entscheidenden Winkel, den es wert ist, erkunden zu werden.
Die Bewertung von Argumentationsketten ist an sich kein technisches Problem. Es h?ngt nicht davon ab, wie viele Parameter ein Modell hat, wie diese Gewichte angepasst werden oder wie eine bestimmte Gleichung gel?st werden kann. Vielmehr h?ngt es von den Trainingsdaten ab und wie es intuitiv interpretiert wird. Anders ausgedrückt, diese Diskussion umfasst Bereiche, in denen sich quantitative Experten bei der Bewertung von Modellen selten besch?ftigen.
Dies l?sst mich noch einmal denken, dass wir etwas brauchen, das ich zuvor befürwortet habe - eine neue Generation von professionellen Philosophen, die uns helfen, AI -Interaktionen zu steuern. Anstatt sich nur auf Codierer zu verlassen, brauchen wir Denker, die in der Lage sind, tiefe, oft intuitive, menschliche Ideen anzuwenden, die in Geschichte und gesellschaftlichen Werten auf künstliche Intelligenz verwurzelt sind. Wir sind in diesem Bereich weit zurück, weil wir uns fast ausschlie?lich auf die Einstellung von Python -Entwicklern konzentriert haben.
Ich werde jetzt meine Seifenkiste aussteigen, aber das Mitnehmen ist klar: Wenn wir über die Gedanken-Ans?tze hinausgehen, k?nnen Sie darüber nachdenken, wie wir für KI-bezogene Rollen trainieren und mieten.
Das obige ist der detaillierte Inhalt vonKette von Gedanken zum Argumentieren von Modellen kann langfristig nicht funktionieren. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Hei?e KI -Werkzeuge

Undress AI Tool
Ausziehbilder kostenlos

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?er Artikel

Hei?e Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Hei?e Themen





Das Investieren boomt, aber Kapital allein reicht nicht aus. Mit zunehmender Bewertungen und Verblassen der Unterscheidungskraft müssen Investoren in AI-fokussierten Risikokonstrumentfonds eine wichtige Entscheidung treffen: Kaufen, Bau oder Partner, um einen Vorteil zu erlangen? Hier erfahren Sie, wie Sie jede Option bewerten - und PR

Reden wir darüber. Diese Analyse eines innovativen KI -Durchbruchs ist Teil meiner laufenden Forbes -S?ulenberichterstattung über die neueste in der KI, einschlie?lich der Identifizierung und Erkl?rung verschiedener wirksamer KI -Komplexit?ten (siehe Link hier). Auf dem Weg zu Agi und

Erinnern Sie sich an die Flut chinesischer Open-Source-Modelle, die die Genai-Industrie Anfang dieses Jahres gest?rt haben? W?hrend Deepseek die meisten Schlagzeilen machte, war Kimi K1.5 einer der herausragenden Namen in der Liste. Und das Modell war ziemlich cool.

Reden wir darüber. Diese Analyse eines innovativen KI -Durchbruchs ist Teil meiner laufenden Forbes -S?ulenberichterstattung über die neueste in der KI, einschlie?lich der Identifizierung und Erkl?rung verschiedener wirksamer KI -Komplexit?ten (siehe Link hier). Für diejenigen Leser, die h

Bis Mitte 2025 heizt sich das KI ?Wettret“ auf, und Xai und Anthropic haben beide ihre Flaggschiff-Modelle GROK 4 und Claude 4 ver?ffentlicht. Diese beiden Modelle befinden

Wenn Sie beispielsweise einem Modell eine Frage wie: "Was macht (x) Person bei (x) Firma?" M?glicherweise sehen Sie eine Argumentationskette, die ungef?hr so ??aussieht, vorausgesetzt, das System wei?, wie man die erforderlichen Informationen abgerufen: Details zum CO finden

Klinische Studien sind ein enormer Engpass in der Arzneimittelentwicklung, und Kim und Reddy glaubten, dass die AI-f?hige Software, die sie bei PI Health gebaut hatten, dazu beitragen k?nnte, sie schneller und billiger zu machen, indem sie den Pool potenziell berechtigter Patienten erweitert. Aber die

Der Senat stimmte am Dienstagmorgen mit 99: 1 für die T?tung des Moratoriums nach einem Aufruhr in letzter Minute von Interessenvertretungsgruppen, Gesetzgebern und Zehntausenden von Amerikanern, die es als gef?hrliche überreichung ansah. Sie blieben nicht ruhig. Der Senat h?rte zu.
