亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

Inhaltsverzeichnis
Die Politik der H?flichkeit
Inferenzkomplexit?tskalen mit L?nge
Stromlinieneing?nge optimieren
Sprachmodelle gegen Google -Suche
Wenn ich einen AI -Hammer h?tte
Krieg gegen Abfall
Würde es Ihnen schrecklich etwas ausmachen?
Heim Technologie-Peripherieger?te KI Warum müssen wir zu KI ?unh?flich' sein

Warum müssen wir zu KI ?unh?flich' sein

Jul 25, 2025 am 11:15 AM

Benutzer, die mit Chatgpt, Claude von Anthropic, Google Gemini, Microsoft Copilot, Deepseek, Verwirrung, Meta -AI über WhatsApp oder einer der Enterprise -Plattform -AI -Dienste wie Amazon Code Whisperer experimentiert haben, wissen, dass es einen richtigen Weg und einen falschen Weg gibt, um nach Automatisierungsintelligenz zu bitten.

Wenn Sie Ihre Anfragen sehr genau wissen und die Sprache in einer Eingabeaufforderung mit genaueren beschreibenden Begriffen strukturieren, um einen KI -Dienst zu lenken und ihre Optionen einzugrenzen, ist dies im Allgemeinen eine M?glichkeit, ein genaueres Ergebnis zu erzielen. Dann gibt es den H?flichkeitsfaktor.

Die Politik der H?flichkeit

Obwohl eine Analyse dieses Raums und ein gewisses Ma? an Forschung darauf hindeutet, dass ein h?flicher Ansatz am besten ist, wenn sie mit einem KI -Dienst interagieren (es k?nnte schlie?lich dazu beitragen, bessere Menschen zu sein), gibt es ein breiteres Argument, das besagt, dass H?flichkeit nicht tats?chlich erforderlich ist, da das Planeten nicht rechnerisch oder gut für das CO2 -Fu?abdruck des Planeten des Planeten in Anspruch nimmt. Ein Token ist eine Kerneinheit des natürlichen Sprachtextes oder eine Komponente eines Bildes, eines Audioclips oder eines Videos, abh?ngig von der ?Modalit?t“ der KI -Verarbeitung. W?hrend ?Sullen“ ein Token ist, w?re ?Sullenness“ eher zwei Token: insgesamt ?Sullen“ und ?Ness“. All diese bitte, danke und "Du bist einfach gro?artig" Interaktionen, die ein Benutzer mit KI hat, sind nicht unbedingt eine gute Idee.

Fragen wir also Chatgpt, was zu tun ist ...

Warum müssen wir zu KI ?unh?flich“ sein

Inferenzkomplexit?tskalen mit L?nge

Ale? Wilk , Cloud -Software und SEO -Spezialist bei Apify, ein Unternehmen, das für seine Plattform bekannt ist, mit der Entwickler Web -Scrapers, AI -Agenten und Automatisierungstools erstellen, bereitstellen und ver?ffentlichen k?nnen, ist eine Meinung zu diesem Thema nachzudenken.

"Um dieses steigende Gespr?chsthema weiter zu verstehen, müssen wir zun?chst feststellen, dass jeder Token, den ein Benutzer einem AI -Sprachmodell einreicht, eine Einheit darstellt, die an Rechenkosten messbar ist", sagte Wilk. "Diese Modelle arbeiten und stützen sich auf" Transformator-Architekturen ", wo die Komplexit?t der Inferenzkomplexit?t mit Sequenzl?nge skaliert, insbesondere aufgrund der quadratischen Natur von Selbstbek?mpfungsmechanismen. Verwenden nicht funktionierender Sprache wie" Bitte "bitte" oder "Danke" fühlt sich wie ein natürliches Ma? an Gespr?chsdialog oder Aufgabe, ohne dass es zu einer Aufgabe des Konversationsdialogs oder zum Aufsatz von Aufgaben beitr?gt. "

Wenn man dies aus technischer und effizienter Sicht betrachtet, sind dies ein versteckter Kosten. Wilk erkl?rt, dass, wenn wir uns Plattformen wie GPT-4-Turbo ansehen, beispielsweise die Preisgestaltung und der Berechnung tokenbasiert, und die Ausführlichkeit in der schnellen Entwurf direkt erh?ht die Inferenzzeit, den Energieverbrauch und die Betriebsausgaben. Er stellt auch fest, dass empirische Analysen darauf hindeuten, dass 1.000 Token auf einem hochmodernen LLM je nach Modellgr??e, Optimierung und Bereitstellung von 0,5 bis 4 Gramm Co? aussagen k?nnen. In gr??erem Umfang und in Milliarden von t?glichen Eingabeaufforderungen k?nnen unn?tige Token j?hrlich zu Tausenden von Tonnen zus?tzlicher Emissionen beitragen.

“This topic has become widely discussed, as it not only concerns cost, but also sustainability. Looking at GPU-intensive inference environments, longer prompts can drive up power draw, increase cooling requirements and reduce throughput efficiency. Why? Because as AI moves into continuous pipelines, agent frameworks, RAG systems and embedded business operations, for example, the marginal ineffectiveness of prompt padding can aggregate into a big environmental impact,” underlined Wilk.

Stromlinieneing?nge optimieren

Wilk selbst, ein Optimierungsspezialist, bietet eine potenzielle L?sung, indem er sagt, dass ein Begriff ist, dass Entwickler und Datenwissenschaftler ein schnelles Design erstellen k?nnten, das der Art und Weise wie das Schreiben von Leistungscode wie das Entfernen von Redundanz, die Maximierung des funktionalen Nutzens und die Straffung von Benutzereingaben ?hnlich erstellen k?nnen. Auf die gleiche Weise, wie wir Linter und Profiler ( Code-Verbesserungstools ) für Software verwenden, ben?tigen wir Tools, um die Eingabeaufforderungen automatisch zu reinigen und zu optimieren.

Im Moment sagt Wilks, er würde die Benutzer ermutigen, mit ihren Eingaben pr?zise und minimal zu sein. "Sagen Sie" Bitte "und" Danke "an die KI k?nnte sich h?flich fühlen, aber es ist eine h?fliche Verschmutzung in rechnerischen Begriffen", erkl?rte er.

Greg Osuri , Gründer von Akash, einem Unternehmen, das für seine dezentralen Rechenmarktplaceagrees bekannt ist, dass die Umweltauswirkungen von KI nicht mehr nur ein peripheres Problem sind, sondern eine zentrale Designherausforderung. Er verweist auf Berichte, die darauf hindeuten, dass KI -Inferenzkosten zu mehr als 80% des gesamten KI -Energieverbrauchs beitragen. Die Branche hat die letzten Jahre damit verbracht, gr??ere Modelle, eine bessere Leistung und einen schnelleren Einsatz zu dr?ngen, aber KI-Inferenz, der Prozess, in dem ein geschulter LLM-Modell Schlussfolgerungen aus brandneuen Daten zieht, k?nnte derzeit den gr??ten Teil des Schadens verursachen.

Sprachmodelle gegen Google -Suche

?Jeder Benutzer, der nach LLM-Modellen abfragt, verbraucht ungef?hr 10- bis 15-mal mehr Energie als eine Standard-Google-Suche. Hinter jeder Antwort liegt eine ?u?erst energieintensive Infrastruktur. In dieser Herausforderung geht es nicht nur um den Energieverbrauch in abstrakten Begriffen, wir sprechen über eine ganze Lieferkette von Emissionen, die mit einem l?ssigen Aufenthalt und dem Ende von Megawatts, die mit einem Gewinn von Gallonen mit einem Gew?ssern von Megawatt und einem Gew?ssern von Megawatt und einem Gew?sser von Megawatt gegessen wurden.

Er stimmt zu, dass viel über h?fliche Eingabeaufforderungen viel gesagt wird und ob es energieeffizienter ist, unh?flich (oder zumindest direkt und auf den Punkt) gegen AI zu sein. Er sagt jedoch, dass diese Gespr?che den breiteren Punkt fehlen.

?Der gr??te Teil der KI-Architektur ist heute durch Design ineffizient. Als jemand, der jahrelang Software entwickelt und die Infrastruktur unterstützt hat, ist es überraschend, wie wenig wir angewendet werden. In der traditionellen Technik optimieren wir alles. Entfernen Sie alle Redundanzen, verfolgen Sie die Leistung und reduzieren Sie Abfall, wo immer es m?glich ist. Setzen Sie die Schulungsmodelle fort und beschleunigen Sie unsere eigenen Einschr?nkungen weiter “, schloss er.

Diese Diskussion wird unweigerlich dazu kommen, ob die KI selbst gelungen ist, empfindungsf?hig zu werden. In diesem Fall wird KI über genügend Selbstbewusstsein und Bewusstsein verfügen, um bewusste subjektive Gefühle zu haben und so eine Führungsentscheidung für die Verwaltung der H?flichkeit im Vergleich zur Verarbeitung von Machtverh?ltnissen zu treffen. Bis dahin müssen wir uns daran erinnern, dass wir im Grunde nur Sprachmodelle verwenden, um Inhalte zu generieren, sei es Code, W?rter oder Bilder.

Wenn ich einen AI -Hammer h?tte

"H?flich oder unh?flich zu sein ist eine Verschwendung von wertvollem Kontextbereich. Die Benutzer versuchen, die KI dazu zu bringen, die gewünschten Inhalte zu generieren. Je pr?gnanter und direkter wir mit unseren Eingabeaufforderungen sind, desto besser wird die Ausgabe", erkl?rte Brett Smith , Distinguished Software Engineer und Platform Architect bei SAS. "Wir verwenden keine Formalit?ten, wenn wir Code schreiben. Warum sollten wir also Formalit?ten verwenden, wenn wir Eingabeaufforderungen für AI schreiben? Wenn wir LLMs wie ein Werkzeug wie einen Hammer betrachten, sagen wir nicht 'Bitte', wenn wir mit einem Hammer einen Nagel treffen. Wir tun es einfach. Gleiches gilt für KI -Eingabeaufforderungen.

Das Problem ist, Menschen m?gen Empathie. Dies bedeutet, dass, wenn ein KI-Dienst auf gespr?chige und vertraute Weise antwortet, die speziell für die Nachahmung menschlicher Gespr?che gebaut werden, die Menschen eher als Antwort sein m?chten. Die allgemeine Regel ist, je pr?gnanter und direkterer Benutzer Ihre Eingabeaufforderungen haben, desto besser wird die Ausgabe.

"Die KI ist nicht empfindungsf?hig ... und sie muss nicht als solches behandelt werden", erkl?rte Smith. H?ren Sie auf, Berechnungszyklen zu verbrennen, den Strom von Rechenzentrum zu verschwenden und den Planeten mit Ihren h?flichen Eingabeaufforderungen zu erw?rmen. Ich sage nicht, dass wir jede Eingabeaufforderung (ein Begriff, der verwendet wird, um zu definieren, wenn wir einem AI eine Frage stellen oder ihr eine Aufgabe geben, ohne einen Kontext oder Beispiele anzugeben], aber Benutzer k?nnen pr?zise, direkt sein und vielleicht in Betracht ziehen, einige technische Leitf?den zu lesen. Verwenden Sie den Kontextraum für das, wofür er gedacht ist, und generieren Inhalte. Aus Sicht der Software -Engineering ist es eine Ressourcenverschwendung. Schlie?lich geht Ihnen der Kontext aus und das Modell wird vergessen, dass Sie es jemals "bitte" und "Danke" erz?hlt haben. Sie k?nnen jedoch auf lange Sicht als Person profitieren, da Sie h?flicher sind, wenn Sie mit Ihrem LLM sprechen, da dies dazu führen kann, dass Sie in pers?nlichen Interaktionen mit Menschen netter sind. "

Sas 'Smith erinnert uns daran, dass KI -Token nicht frei sind. Er stellt sich auch vor, was er als ?lustige hypothetische Umstand“ bezeichnet, in dem wir bitte und bedanken, dass die Software selbst und die Agenten bei sprechender Agent-zu-Agent Feindlichkeit hinzufügen. Das Ganze dreht sich letztendlich au?er Kontrolle und erh?ht die Geschwindigkeit, die das System mit Token, Kontextraum und Berechnung der Leistung mit zunehmendem Agent-zu-Agent-Kommunikation verschwendet. Zum Glück k?nnen wir meistens gegen diese Realit?t programmieren.

Krieg gegen Abfall

Mustafa Kabul sagt, dass bei der Verwaltung von Unternehmensangebotketten auf breiterer Gesch?ftsebene (nicht nur in Bezug auf Software und Daten) umsichtige Unternehmen Jahrzehnte damit verbracht haben, Abfall aus jedem Prozess zu beseitigen, dh überschüssige Inventar, redundante Berührungen und unn?tige Schritte.

"Die gleiche operative Disziplin muss für unsere KI -Interaktionen gelten", sagte Kabul in seiner Eigenschaft als SVP für Datenwissenschaft, maschinelles Lernen und KI von der Decision Intelligence Company AERA Technology.

?Wenn Sie Agentsteams in der gesamten Skala für Nachfrageplanung, Beschaffung und Logistik orchestrieren, multiplizieren wir, wie ineffizient exponentiell multipliziert. Wir haben im Inneren von Operationen, die wir verwaltet haben, gesehen, wie Agent -Teams komplexe Mehrstufe -Workflows mit mehrstufigen Abschlüssen koordinieren - ein Agentenüberwachungsüberwachung, ein Inventarebenen, ein weiteres Vorhersage, ein Drittel -Erzeugungs -Tempo. Verschwenden Sie nur rechnerische Ressourcen, sondern führt eine Latenz ein, die durch die gesamte Entscheidungskette kaskaden werden kann “, klar, Kabul.

Er sagt, so wie wir (als kollektive Gesch?ftstechnologie-Community) erfahren haben, dass Lean Operations Pr?zision und nicht H?flichkeit erfordern, erfordert eine effektive Koordination der KI-Agenten heute die gleiche ?rücksichtslose Effizienz“. Kabul besteht darauf, dass die Unternehmen, die KI -Interaktionen mit der gleichen operativen Strenge behandeln, die sie für ihre Herstellungsprozesse anwenden, einen ?entscheidenden Vorteil“ sowohl in der Geschwindigkeit als auch in der Nachhaltigkeit haben werden.

Würde es Ihnen schrecklich etwas ausmachen?

Obwohl das Vereinigte K?nigreich für ihre unrichtende H?flichkeit bekannt sein mag, müssen selbst die Briten m?glicherweise lernen, die normalen Luft und Gnaden fallen zu lassen. Normalerweise würden wir einen erforderlichen Teil normaler H?flichkeit und sozialer Verkehr in Betracht ziehen. Der Chatbot macht es nichts aus, wenn Sie bitte nicht sagen ... und wenn Ihre erste AI -Antwort nicht das ist, was Sie wollten, sollten Sie niemals so Englisch und denken Sie, Sie müssen sich auch entschuldigen.

Das obige ist der detaillierte Inhalt vonWarum müssen wir zu KI ?unh?flich' sein. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erkl?rung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Hei?e KI -Werkzeuge

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?e Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

KI -Investor stillte zum Stillstand? 3 Strategische Wege zum Kauf, Bau oder Partner mit KI -Anbietern KI -Investor stillte zum Stillstand? 3 Strategische Wege zum Kauf, Bau oder Partner mit KI -Anbietern Jul 02, 2025 am 11:13 AM

Das Investieren boomt, aber Kapital allein reicht nicht aus. Mit zunehmender Bewertungen und Verblassen der Unterscheidungskraft müssen Investoren in AI-fokussierten Risikokonstrumentfonds eine wichtige Entscheidung treffen: Kaufen, Bau oder Partner, um einen Vorteil zu erlangen? Hier erfahren Sie, wie Sie jede Option bewerten - und PR

Agi und KI -Superintelligenz werden die Annahmesperre der menschlichen Decke stark treffen Agi und KI -Superintelligenz werden die Annahmesperre der menschlichen Decke stark treffen Jul 04, 2025 am 11:10 AM

Reden wir darüber. Diese Analyse eines innovativen KI -Durchbruchs ist Teil meiner laufenden Forbes -S?ulenberichterstattung über die neueste in der KI, einschlie?lich der Identifizierung und Erkl?rung verschiedener wirksamer KI -Komplexit?ten (siehe Link hier). Auf dem Weg zu Agi und

Kimi K2: Das m?chtigste Open-Source-Agentenmodell Kimi K2: Das m?chtigste Open-Source-Agentenmodell Jul 12, 2025 am 09:16 AM

Erinnern Sie sich an die Flut chinesischer Open-Source-Modelle, die die Genai-Industrie Anfang dieses Jahres gest?rt haben? W?hrend Deepseek die meisten Schlagzeilen machte, war Kimi K1.5 einer der herausragenden Namen in der Liste. Und das Modell war ziemlich cool.

Zukünftige Vorhersage einer massiven Intelligenz -Explosion auf dem Weg von AI zu AGI Zukünftige Vorhersage einer massiven Intelligenz -Explosion auf dem Weg von AI zu AGI Jul 02, 2025 am 11:19 AM

Reden wir darüber. Diese Analyse eines innovativen KI -Durchbruchs ist Teil meiner laufenden Forbes -S?ulenberichterstattung über die neueste in der KI, einschlie?lich der Identifizierung und Erkl?rung verschiedener wirksamer KI -Komplexit?ten (siehe Link hier). Für diejenigen Leser, die h

Grok 4 gegen Claude 4: Was ist besser? Grok 4 gegen Claude 4: Was ist besser? Jul 12, 2025 am 09:37 AM

Bis Mitte 2025 heizt sich das KI ?Wettret“ auf, und Xai und Anthropic haben beide ihre Flaggschiff-Modelle GROK 4 und Claude 4 ver?ffentlicht. Diese beiden Modelle befinden

Kette von Gedanken zum Argumentieren von Modellen kann langfristig nicht funktionieren Kette von Gedanken zum Argumentieren von Modellen kann langfristig nicht funktionieren Jul 02, 2025 am 11:18 AM

Wenn Sie beispielsweise einem Modell eine Frage wie: "Was macht (x) Person bei (x) Firma?" M?glicherweise sehen Sie eine Argumentationskette, die ungef?hr so ??aussieht, vorausgesetzt, das System wei?, wie man die erforderlichen Informationen abgerufen: Details zum CO finden

Dieses Startup baute ein Krankenhaus in Indien, um seine KI -Software zu testen Dieses Startup baute ein Krankenhaus in Indien, um seine KI -Software zu testen Jul 02, 2025 am 11:14 AM

Klinische Studien sind ein enormer Engpass in der Arzneimittelentwicklung, und Kim und Reddy glaubten, dass die AI-f?hige Software, die sie bei PI Health gebaut hatten, dazu beitragen k?nnte, sie schneller und billiger zu machen, indem sie den Pool potenziell berechtigter Patienten erweitert. Aber die

Der Senat t?tet 10-j?hriges KI-Verbot auf Trumps Haushaltsrechnung auf Landesebene. Der Senat t?tet 10-j?hriges KI-Verbot auf Trumps Haushaltsrechnung auf Landesebene. Jul 02, 2025 am 11:16 AM

Der Senat stimmte am Dienstagmorgen mit 99: 1 für die T?tung des Moratoriums nach einem Aufruhr in letzter Minute von Interessenvertretungsgruppen, Gesetzgebern und Zehntausenden von Amerikanern, die es als gef?hrliche überreichung ansah. Sie blieben nicht ruhig. Der Senat h?rte zu.

See all articles