


KI verhungert den Kontext und scheitert dort, wo es am wichtigsten ist
Jul 30, 2025 am 11:08 AMEnde 2024 enthüllte der texanische Generalstaatsanwalt Ken Paxton eine wegweisende Siedlung mit Piece Technologies, einem in Dallas ans?ssigen Gesundheits-Tech-Startup, das seinen klinischen Assistenten mit KI-betriebener klinischer Assistent als nahezu fehlerfrei gef?rdert hatte-was eine ?schwere Halluzinationsrate “ unter einem von 100.000 erhielt.
Eine Untersuchung des Staates ergab jedoch, dass die Ansprüche des Unternehmens durch solide Beweise nicht unterstützt wurden. Die Beh?rden stellten fest, dass Stücke Krankenh?user in die Irre geführt hatten, um zu glauben, dass das Tool die Patientenakten mit einer Zuverl?ssigkeit, die es nicht tats?chlich lieferte, genau zusammenfassen k?nnte.
W?hrend keine Patienten verletzt wurden und keine Strafen verh?ngt wurden, stimmten die Stücke klarerer Angaben zu Genauigkeit, Risiken und ordnungsgem??er Verwendung zu-ein erheblicher rechtlicher Pr?zedenzfall, der darauf hindeutet, dass die theoretische Leistung nicht der Wirksamkeit der realen Welt entspricht.
Experten wie Kognitionswissenschaftler und KI -Kritiker Gary Marcus haben lange davor gewarnt, dass aktuelle Gro?sprachenmodelle von Natur aus eingeschr?nkt sind. Wie er es ausdrückt, sind diese Systeme "Ann?herungen des Sprachgebrauchs" , nicht das wahre Sprachverst?ndnis-ein entscheidender Unterschied, der besonders riskant wird, wenn allgemeine Modelle in hochspezialisierten Umgebungen angewendet werden und nicht erfassen, wie sich die tats?chliche Arbeit entfaltet.
Laut Gal Steinberg, Mitbegründer und CEO von Twofold Health , sind die Wurzel vieler AI-M?ngel keine fehlerhaften Algorithmen. Es ist ein Mangel an Kontext. "Weil das 'Modell' nur Muster erkennt, nicht die Absicht", erkl?rte er. "Eine KI kann W?rter oder Klicks mit hoher Pr?zision vorhersagen und dennoch blind für die Vorschriften, Arbeitsabl?ufe und ungeschriebenen Regeln bleiben, die eine Klinik definieren - oder jede Organisation. Wenn die Optimierung diese Realit?ten ignoriert, trifft die KI ihren KPI, verpasst aber den Punkt."
Kontext: Der unsichtbare Framework
Steinberg definiert den Kontext als ?alles, was die Tabelle ausl?sst - Objektive, Grenzen, Jargon, emotionale Ton, Compliance -Anforderungen und Timing“.
Wenn KI -Systeme unterdurchschnittlich sind , ist dies selten auf unzureichende Verarbeitungsleistung, sondern auf unzureichendes Situationsbewusstsein zurückzuführen. Sie fehlen das kulturelle Wissen, dom?nenspezifische Feinheiten oder das zeitkritische Verst?ndnis, dass menschliche Fachleute natürlich absorbieren. Zum Beispiel k?nnten 90 Sekunden Stille in einer Therapiesitzung eine Belastung signalisieren. Für einen AI -Transkriptgenerator ist es nur leerer Raum. Bei finanziellen Audits k?nnte eine fehlende Abkürzung auf T?uschung hinweisen. Für ein Modell, das auf breitem Internettext trainiert wurde, mag es wie ein triviales Akronym erscheinen.
Deshalb stellt das Team bei zweifacher Gesundheit drei grundlegende Fragen: Wer ist beteiligt? Was versuchen sie zu erreichen? Und was sind die Konsequenzen, wenn die KI es falsch macht?
Ein weiteres wichtiges Thema, betonte Steinberg, dass die meisten Organisationen den Kontext als einmalige Einrichtungsaufgabe behandeln. Aber Umgebungen entwickeln sich. Richtlinienverschiebung. Braucht Transformation. "Wenn Sie Ihre Eingabeaufforderungen nicht kontinuierlich verfeinern und Ihre Modelle wiederholen, driftet die KI", sagte er.
Aus diesem Grund sitzen jetzt so viele frühe KI -Initiativen verlassen. Die Rand Corporation berichtet, dass über 80% der KI -Projekte scheitern oder stehen - nicht, weil die Technologie nicht funktioniert, sondern weil der Kontext, in dem sie geschult wurden, die operative Realit?t nicht mehr widerspiegelt. Das Ergebnis? Eine KI, die auf dem Papier korrekt aussieht, aber in der Praxis fehlschl?gt - wie ein Schauspieler, der Linien auf der falschen Phase rezitiert.
Technische Intelligenz in der technischen Intelligenz
Das Fix, argumentiert Steinberg, baut nicht nur intelligentere Modelle, sondern ein, sondern sie in ein tieferes Umweltbewusstsein einbettet. "Es beginnt damit, dass Dom?nenexperten direkt in den KI -Entwicklungsprozess einbezogen werden. In zweifacher Zeit unterrichten Kliniker - keine Ingenieure - kritische Teile der Arbeit. Sie unterrichten die KI über medizinische Sprache, ethische Grenzen und regulatorische Rahmenbedingungen durch gelebte Erfahrung", sagte er.
Dann gibt es die übersehene, unglamorige Arbeit, die selten Schlagzeilen macht: Bestimmen, welche seltenen F?lle wichtig sind, informelle Sprache standardisieren oder erkennen, dass das Layout einer Form wichtiger sein kann als die von ihnen enth?lten Daten. Diese Entscheidungen m?gen geringfügig erscheinen - bis sie in systemische Fehler kassieren.
Frühere Untersuchungen haben gezeigt, dass KI -Modelle, die auf breiten Datens?tzen ausgebildet wurden, h?ufig unvorhersehbar verhalten, wenn sie in Nischenumgebungen platziert werden - eine Herausforderung, die als Dom?nenverschiebung bekannt ist. In einer bekannten Studie stellten Wissenschaftler von Google und Stanford fest, dass moderne Modelle für maschinelles Lernen h?ufig ?unterteilt“ sind, was bedeutet, dass sie interne Tests bestehen, aber unter realen Bedingungen abbrechen.
In Bereichen mit hohen Eins?tzen wie Gesundheitswesen und Finanzen, in denen Entscheidungen rechtliche Verantwortung tragen, sind selbst kleine Ungenauigkeiten inakzeptabel. Diese Lücke ist eine Klage im Erstellen.
Sogar der Chefwissenschaftler von Meta, Yann Lecun, kritisiert den Ansturm offen, massive Modelle einzusetzen, ohne sie in realen Bereichen zu erden. Lecun sprach im April 2025 an der Nationalen Universit?t von Singapur und stellte die weit verbreitete Annahme in Frage, dass gr??ere Modelle intelligentere KI entsprechen : ?Sie k?nnen nicht mehr Daten annehmen und mehr Computerleistung führen automatisch zu intelligenteren Systemen.“
Er betonte, dass die Skalierung bei grundlegenden Aufgaben hilft, die Komplexit?t des wirklichen Lebens nicht l?st - Ambiguit?t, Anpassung und Argumentation. Stattdessen forderte er ?KI -Systeme in der Lage, Umgebungen zu planen, zu argumentieren und zu verstehen, wie es Menschen tun“.
Laut Ciscos KI -Bereitschaftsindex 2024 gaben 98% der Gesch?ftsführer einen erh?hten Druck, KI zu übernehmen - h?ufig ohne klare Metriken, Aufsicht oder Rechenschaftspflicht. In einem solchen Klima ist es keine überraschung, dass der Kontext ein nachtr?glicher Gedanke wird.
Das ist die Gefahr, die Steinberg hervorheben m?chte: Nicht nur, dass KI falsche Informationen erzeugen k?nnte, sondern dass niemand innerhalb der Organisation bereit ist, Verantwortung zu übernehmen, wenn dies der Fall ist. "Wir konzentrieren uns zu sehr auf Pr?zision und zu wenig Eigentum", sagte er. "Der Kontext wei? nicht nur die richtige Antwort - es ist zu wissen, wer auf den Schaden antwortet, wenn die Antwort falsch ist. Stellen Sie zuerst diese Kette der Rechenschaftspflicht fest, und Ihre KI wird vom ersten Tag an eine reichhaltigere, verantwortungsbewusstere Kontextdi?t gefüttert."
KI in der Realit?t verankern
Der Kontext wird nicht erstellt, indem mehr Parameter oder GPU -Leistung hinzugefügt wird. Es kommt aus der Behandlung von KI als dynamisches System, das fortlaufende menschliche Führung erfordert - nicht nur ein erstes Training. Und es kommt von der Platzierung von Menschen - nicht nur auf Angaben - in der Rückkopplungsschleife.
KI ist nicht von Natur aus fehlerhaft. Aber ohne Kontext tut es so, als w?re es so. Die Antwort ist kein blindes Vertrauen. Es ist eine bessere Nahrung, eine regelm??ige überwachung und sicherzustellen, dass immer jemand beobachtet wird, wenn die KI übermütig wird.
"Weil ein Modell, das sein Ziel trifft, aber seinen Zweck verpasst, nicht nur verschwenderisch ist. Es ist gef?hrlich", sagte Steinberg.
Das obige ist der detaillierte Inhalt vonKI verhungert den Kontext und scheitert dort, wo es am wichtigsten ist. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Hei?e KI -Werkzeuge

Undress AI Tool
Ausziehbilder kostenlos

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?er Artikel

Hei?e Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Hei?e Themen





Das Investieren boomt, aber Kapital allein reicht nicht aus. Mit zunehmender Bewertungen und Verblassen der Unterscheidungskraft müssen Investoren in AI-fokussierten Risikokonstrumentfonds eine wichtige Entscheidung treffen: Kaufen, Bau oder Partner, um einen Vorteil zu erlangen? Hier erfahren Sie, wie Sie jede Option bewerten - und PR

Reden wir darüber. Diese Analyse eines innovativen KI -Durchbruchs ist Teil meiner laufenden Forbes -S?ulenberichterstattung über die neueste in der KI, einschlie?lich der Identifizierung und Erkl?rung verschiedener wirksamer KI -Komplexit?ten (siehe Link hier). Auf dem Weg zu Agi und

Erinnern Sie sich an die Flut chinesischer Open-Source-Modelle, die die Genai-Industrie Anfang dieses Jahres gest?rt haben? W?hrend Deepseek die meisten Schlagzeilen machte, war Kimi K1.5 einer der herausragenden Namen in der Liste. Und das Modell war ziemlich cool.

Reden wir darüber. Diese Analyse eines innovativen KI -Durchbruchs ist Teil meiner laufenden Forbes -S?ulenberichterstattung über die neueste in der KI, einschlie?lich der Identifizierung und Erkl?rung verschiedener wirksamer KI -Komplexit?ten (siehe Link hier). Für diejenigen Leser, die h

Bis Mitte 2025 heizt sich das KI ?Wettret“ auf, und Xai und Anthropic haben beide ihre Flaggschiff-Modelle GROK 4 und Claude 4 ver?ffentlicht. Diese beiden Modelle befinden

Wenn Sie beispielsweise einem Modell eine Frage wie: "Was macht (x) Person bei (x) Firma?" M?glicherweise sehen Sie eine Argumentationskette, die ungef?hr so ??aussieht, vorausgesetzt, das System wei?, wie man die erforderlichen Informationen abgerufen: Details zum CO finden

Klinische Studien sind ein enormer Engpass in der Arzneimittelentwicklung, und Kim und Reddy glaubten, dass die AI-f?hige Software, die sie bei PI Health gebaut hatten, dazu beitragen k?nnte, sie schneller und billiger zu machen, indem sie den Pool potenziell berechtigter Patienten erweitert. Aber die

Der Senat stimmte am Dienstagmorgen mit 99: 1 für die T?tung des Moratoriums nach einem Aufruhr in letzter Minute von Interessenvertretungsgruppen, Gesetzgebern und Zehntausenden von Amerikanern, die es als gef?hrliche überreichung ansah. Sie blieben nicht ruhig. Der Senat h?rte zu.
