亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

Heim Web-Frontend js-Tutorial Eine vollst?ndige Anleitung zu Langchain in JavaScript

Eine vollst?ndige Anleitung zu Langchain in JavaScript

Feb 08, 2025 am 10:24 AM

Langchainjs: Ein leistungsstarker Rahmen für den Aufbau von AI-gesteuerten JavaScript-Sprachmodellen und -agenten

A Complete Guide to LangChain in JavaScript

Kernpunkte:

  • Langchainjs ist ein leistungsstarkes JavaScript-Framework, mit dem Entwickler mit KI-gesteuerten Sprachmodellen und Agenten, die nahtlos in Webanwendungen integriert sind, erstellen und experimentieren k?nnen.
  • Dieses Framework erm?glicht die Erstellung von Agenten, die verschiedene Tools und Datenquellen nutzen k?nnen, um komplexe Sprachaufgaben wie Internetsuche und mathematische Berechnungen auszuführen, wodurch die Genauigkeit und Relevanz von Antworten verbessert wird.
  • Langchain unterstützt eine Vielzahl von Modellen, darunter Sprachmodelle für einfache Textausgabe, Chat -Modelle für interaktive Gespr?che und eingebettete Modelle zum Konvertieren von Text in numerische Vektoren, wodurch die Entwicklung verschiedener NLP -Anwendungen erleichtert wird.
  • Textdaten k?nnen durch anpassbare Chunking -Methoden effizient verwaltet und verarbeitet werden, um eine optimale Leistung und kontextbezogene Relevanz bei der Verarbeitung gro?er Text sicherzustellen.
  • Zus?tzlich zur Verwendung des OpenAI -Modells ist Langchain mit anderen gro?sprachigen Modellen (LLMs) und KI -Diensten kompatibel und bietet Entwicklern, die die Integration verschiedener AIs in ihren Projekten untersuchen, Flexibilit?ts- und Erweiterungsfunktionen.

Dieser Leitfaden taucht in die Schlüsselkomponenten von Langchain ein und zeigt, wie sie ihre Leistung in JavaScript nutzen k?nnen. Langchainjs ist ein gemeinsames JavaScript -Framework, mit dem Entwickler und Forscher Sprachmodelle und -agenten erstellen, experimentieren und analysieren k?nnen. Es bietet Enthusiasten für natürliche Sprachverarbeitung (NLP) mit einer Fülle von F?higkeiten, vom Erstellen benutzerdefinierter Modelle bis hin zum effizienten Manipulieren von Textdaten. Als JavaScript -Framework k?nnen Entwickler ihre KI -Anwendungen einfach in Webanwendungen integrieren.

Voraussetzungen:

Um diesen Artikel zu erfahren, erstellen Sie einen neuen Ordner und installieren Sie das Langchain NPM -Paket:

npm install -S langchain

Verwenden Sie nach dem Erstellen eines neuen Ordners das Suffix .mjs, um eine neue JS -Moduldatei zu erstellen (z. B. test1.mjs).

Agenten:

In Langchain ist ein Agent eine Entit?t, die Text verstehen und generieren kann. Diese Agenten k?nnen bestimmte Verhaltensweisen und Datenquellen konfigurieren und sind geschult, um verschiedene sprachbezogene Aufgaben auszuführen, wodurch sie zu einem multifunktionalen Tool für eine Vielzahl von Anwendungen sind.

Erstellen Sie Langchain -Agent:

Agenturen k?nnen so konfiguriert werden, dass "Tools" verwendet werden, um die erforderlichen Daten zu sammeln und eine gute Antwort zu entwickeln. Bitte beachten Sie das Beispiel unten. Es verwendet die SERP -API (eine Internet -Such -API), um nach Informationen zu suchen, die sich auf eine Frage oder Eingabe beziehen und darauf reagieren. Es verwendet auch das llm-math -Tool, um mathematische Operationen auszuführen - zum Beispiel um Konvertieren von Einheiten oder das Finden einer prozentualen ?nderung zwischen zwei Werten:

npm install -S langchain

Nach dem Erstellen von Modellvariablen mit modelName: "gpt-3.5-turbo" und temperature: 0 erstellen wir einen Executor, der das erstellte Modell mit den angegebenen Tools (SerpAPI und Taschenrechner) kombiniert. In der Eingabe habe ich LLM gebeten, das Internet (unter Verwendung von Serpapi) zu durchsuchen und herauszufinden, welcher Künstler seit 2010 mehr Alben ver?ffentlicht hat - NAS oder Boldy James - und den prozentualen Unterschied (unter Verwendung von Taschenrechner) zeigen.

In diesem Beispiel muss ich LLM explizit sagen, dass es "über die Suche nach dem Internet ..." dazu gebracht wird, das Internet bis heute Daten zu erhalten, anstatt nur OpenAI -Standard für 2021 zu verwenden.

Die Ausgabe ist wie folgt:

import { initializeAgentExecutorWithOptions } from "langchain/agents";
import { ChatOpenAI } from "langchain/chat_models/openai";
import { SerpAPI } from "langchain/tools";
import { Calculator } from "langchain/tools/calculator";

process.env["OPENAI_API_KEY"] = "YOUR_OPENAI_KEY"
process.env["SERPAPI_API_KEY"] = "YOUR_SERPAPI_KEY"

const tools = [new Calculator(), new SerpAPI()];
const model = new ChatOpenAI({ modelName: "gpt-3.5-turbo", temperature: 0 });

const executor = await initializeAgentExecutorWithOptions(tools, model, {
  agentType: "openai-functions",
  verbose: false,
});

const result = await executor.run("通過搜索互聯(lián)網(wǎng),查找Boldy James自2010年以來發(fā)行了多少張專輯,以及Nas自2010年以來發(fā)行了多少張專輯?找出誰發(fā)行了更多專輯,并顯示百分比差異。");
console.log(result);

Modelle (Modelle):

Es gibt drei Arten von Modellen in Langchain: LLM, Chat -Modell und Texteinbettungsmodell. Erforschen wir jeden Modelltyp mit einigen Beispielen.

Sprachmodell:

Langchain bietet eine M?glichkeit, Sprachmodelle in JavaScript zu verwenden, um die Textausgabe basierend auf der Texteingabe zu generieren. Es ist nicht so komplex wie das Chat-Modell und eignet sich am besten für einfache Sprachaufgaben in Eingabe-Output. Hier ist ein Beispiel mit OpenAI:

<code>// 輸出將取決于互聯(lián)網(wǎng)搜索結果</code>

Wie Sie sehen k?nnen, wird das Modell gpt-3.5-turbo Modell verwendet, um alle roten Beeren aufzulisten. In diesem Beispiel habe ich die Temperatur auf 0 gesetzt, um die LLM de facto -Genauigkeit zu geben.

Ausgabe:

import { OpenAI } from "langchain/llms/openai";

const llm = new OpenAI({
  openAIApiKey: "YOUR_OPENAI_KEY",
  model: "gpt-3.5-turbo",
  temperature: 0
});

const res = await llm.call("列出所有紅色的漿果");

console.log(res);

Chat -Modell:

Wenn Sie komplexere Antworten und Gespr?che wünschen, müssen Sie das Chat -Modell verwenden. Wie unterscheidet sich das Chat -Modell technisch von einem Sprachmodell? In den Worten der Langchain -Dokumentation:

Chat -Modell ist eine Variante des Sprachmodells. Obwohl Chat -Modelle Sprachmodelle im Hintergrund verwenden, verwenden sie leicht unterschiedliche Schnittstellen. Anstatt die API "Texteingabe, Textausgabe" zu verwenden, verwenden sie die "Chat -Nachricht" als Schnittstelle für Eingabe und Ausgabe.

Dies ist ein einfaches (ziemlich nutzloses, aber interessantes) JavaScript -Chat -Modellskript:

<code>// 輸出將列出紅色的漿果</code>

Wie Sie sehen, sendet der Code zun?chst eine Systemnachricht und fordert den Chatbot an, ein poetischer Assistent zu werden, der immer mit Reimen antwortet, und dann sendet er eine menschliche Nachricht, die dem Chatbot sagt, dass er mir mitteilt, wer der bessere Tennisspieler ist: De Jokovic, Federer oder Nadal. Wenn Sie dieses Chatbot -Modell ausführen, sehen Sie so etwas:

import { ChatOpenAI } from "langchain/chat_models/openai";
import { PromptTemplate } from "langchain/prompts";

const chat = new ChatOpenAI({
  openAIApiKey: "YOUR_OPENAI_KEY",
  model: "gpt-3.5-turbo",
  temperature: 0
});
const prompt = PromptTemplate.fromTemplate(`你是一個詩意的助手,總是用押韻來回答:{question}`);
const runnable = prompt.pipe(chat);
const response = await runnable.invoke({ question: "誰更好,德約科維奇、費德勒還是納達爾?" });
console.log(response);

Einbettungen:

Einbingmodell bietet eine M?glichkeit, W?rter und Zahlen in Text in Vektoren umzuwandeln, die dann mit anderen W?rtern oder Zahlen zugeordnet werden k?nnen. Dies mag abstrakt klingen. Schauen wir uns also ein Beispiel an:

<code>// 輸出將是一個用押韻回答的問題</code>

Dies gibt eine lange Liste von schwimmenden Punktnummern zurück:

import { OpenAIEmbeddings } from "langchain/embeddings/openai";

process.env["OPENAI_API_KEY"] = "YOUR_OPENAI_KEY"

const embeddings = new OpenAIEmbeddings();
const res = await embeddings.embedQuery("誰創(chuàng)造了萬維網(wǎng)?");
console.log(res)

So sieht ein Einbettung aus. Es gibt so viele schwimmende Punktzahlen in nur sechs W?rtern!

Diese Einbettung kann dann verwendet werden, um den Eingabetxt mit potenziellen Antworten, zugeh?rigen Text, Namen usw. zu assoziieren.

Schauen wir uns jetzt einen Anwendungsfall für eingebettete Modelle an ...

Dies ist ein Skript, das Einbettungen verwendet, um die Frage "Was ist das schwerste Tier?"

npm install -S langchain

Stücke:

Langchain -Modelle k?nnen keine gro?en Texte verarbeiten und sie verwenden, um Antworten zu generieren. Hier kommen die Segmentierung von Chunking und Text ins Spiel. Lassen Sie mich Ihnen zwei einfache M?glichkeiten zeigen, um Textdaten in Stücke aufzuteilen, bevor Sie sie an Langchain füttern.

Segment nach Zeichen:

Um pl?tzliche Unterbrechungen beim Knacken zu vermeiden, k?nnen Sie den Text per Absatz aufteilen, indem Sie jedes Auftreten eines neuen Zeilenzeichens teilen:

import { initializeAgentExecutorWithOptions } from "langchain/agents";
import { ChatOpenAI } from "langchain/chat_models/openai";
import { SerpAPI } from "langchain/tools";
import { Calculator } from "langchain/tools/calculator";

process.env["OPENAI_API_KEY"] = "YOUR_OPENAI_KEY"
process.env["SERPAPI_API_KEY"] = "YOUR_SERPAPI_KEY"

const tools = [new Calculator(), new SerpAPI()];
const model = new ChatOpenAI({ modelName: "gpt-3.5-turbo", temperature: 0 });

const executor = await initializeAgentExecutorWithOptions(tools, model, {
  agentType: "openai-functions",
  verbose: false,
});

const result = await executor.run("通過搜索互聯(lián)網(wǎng),查找Boldy James自2010年以來發(fā)行了多少張專輯,以及Nas自2010年以來發(fā)行了多少張專輯?找出誰發(fā)行了更多專輯,并顯示百分比差異。");
console.log(result);
Dies ist eine nützliche M?glichkeit, Text zu teilen. Sie k?nnen jedoch einen beliebigen Charakter als Chunking -Separator verwenden, nicht nur

. n

rekursives Segmenting -Chunking:

Wenn Sie den Text durch Zeichen einer bestimmten L?nge streng teilen m?chten, k?nnen Sie

: RecursiveCharacterTextSplitter verwenden

<code>// 輸出將取決于互聯(lián)網(wǎng)搜索結果</code>
In diesem Beispiel wird der Text alle 100 Zeichen geteilt und die Stücke überlappen sich auf 15 Zeichen.

Blockgr??e und überlappung:

Wenn Sie sich diese Beispiele ansehen, haben Sie sich m?glicherweise gefragt, was die Gr??e und die überlappenden Parameter bedeuten und wie sie die Leistung beeinflussen. Ok, lassen Sie mich kurz zwei Dinge erkl?ren.

    Die Chunk -Gr??e bestimmt die Anzahl der Zeichen in jedem Chunk. Je gr??er die Chunk -Gr??e ist, desto mehr Daten sind es im Chunk, desto l?nger dauert es Langchain, um sie zu verarbeiten und die Ausgabe zu generieren und umgekehrt.
  • Blocküberlappung ist der Inhalt, der Informationen zwischen den Bl?cken aufgibt, damit sie einen Kontext teilen. Je h?her die Chunk -überlappung, desto redundanter sind Ihre Stücke. In der Regel betr?gt eine gute Chunking -überlappung etwa 10% bis 20% der Chunking -Gr??e, obwohl die gewünschte Chunking -überlappung je nach Texttypen und Anwendungsf?llen variiert.

Ketten:

Kapitel sind im Grunde mehrfache LLM-Funktionen, die zusammengefügt werden, um komplexere Aufgaben auszuführen, da es ansonsten nicht durch einfache LLM-Eingabe- und GT-Ausgabe erfolgen kann. Schauen wir uns ein cooles Beispiel an:

import { OpenAI } from "langchain/llms/openai";

const llm = new OpenAI({
  openAIApiKey: "YOUR_OPENAI_KEY",
  model: "gpt-3.5-turbo",
  temperature: 0
});

const res = await llm.call("列出所有紅色的漿果");

console.log(res);

Beyond OpenAI:

Auch wenn ich das OpenAI -Modell als Beispiel für verschiedene Funktionen von Langchain verwendet habe, ist es nicht auf das OpenAI -Modell beschr?nkt. Sie k?nnen Langchain mit zahlreichen anderen LLM- und KI -Diensten verwenden. In ihrer Dokumentation finden Sie eine vollst?ndige Liste von Langchain- und JavaScript -integrierten LLMs.

Zum Beispiel k?nnen Sie Cohere mit Langchain verwenden. Nach der Installation von Cohere und mit

k?nnen Sie mithilfe von Langchain und Cohere einen einfachen Q & A -Code erstellen, wie unten gezeigt: npm install cohere-ai

<code>// 輸出將列出紅色的漿果</code>
Ausgabe:

import { ChatOpenAI } from "langchain/chat_models/openai";
import { PromptTemplate } from "langchain/prompts";

const chat = new ChatOpenAI({
  openAIApiKey: "YOUR_OPENAI_KEY",
  model: "gpt-3.5-turbo",
  temperature: 0
});
const prompt = PromptTemplate.fromTemplate(`你是一個詩意的助手,總是用押韻來回答:{question}`);
const runnable = prompt.pipe(chat);
const response = await runnable.invoke({ question: "誰更好,德約科維奇、費德勒還是納達爾?" });
console.log(response);

Schlussfolgerung:

In diesem Leitfaden haben Sie in JavaScript verschiedene Aspekte und Funktionen von Langchain gesehen. Mit Langchain und Experiment mit LLM k?nnen Sie problemlos KI-betriebene Webanwendungen in JavaScript entwickeln. Weitere Informationen zu bestimmten Funktionen finden Sie in der Langchainjs -Dokumentation.

Ich wünsche Ihnen ein frohes Codieren und Experimentieren mit Langchain in JavaScript! Wenn Ihnen dieser Artikel gef?llt, m?chten Sie m?glicherweise auch Artikel über die Verwendung von Langchain mit Python lesen.

Das obige ist der detaillierte Inhalt vonEine vollst?ndige Anleitung zu Langchain in JavaScript. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erkl?rung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Hei?e KI -Werkzeuge

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?e Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Hei?e Themen

PHP-Tutorial
1488
72
Wie stelle ich eine HTTP -Anforderung in node.js? Wie stelle ich eine HTTP -Anforderung in node.js? Jul 13, 2025 am 02:18 AM

Es gibt drei g?ngige M?glichkeiten, HTTP-Anforderungen in Node.js zu initiieren: Verwenden Sie integrierte Module, Axios und Knotenfetch. 1. Verwenden Sie das integrierte HTTP/HTTPS-Modul ohne Abh?ngigkeiten, das für grundlegende Szenarien geeignet ist, jedoch eine manuelle Verarbeitung von Datengen?hten und Fehlerüberwachung erfordert, z. 2.Axios ist eine auf Versprechen basierende Bibliothek von Drittanbietern. Es verfügt über eine kurze Syntax und leistungsstarke Funktionen, unterstützt Async/Auseait, automatische JSON -Konvertierung, Interceptor usw. Es wird empfohlen, asynchrone Anforderungsvorg?nge zu vereinfachen. 3.Node-Fetch bietet einen Stil ?hnlich dem Browser-Abruf, basierend auf Versprechen und einfacher Syntax

JavaScript -Datentypen: Primitive VS -Referenz JavaScript -Datentypen: Primitive VS -Referenz Jul 13, 2025 am 02:43 AM

JavaScript -Datentypen sind in primitive Typen und Referenztypen unterteilt. Zu den primitiven Typen geh?ren String, Anzahl, Boolesche, Null, undefiniertes und Symbol. Die Werte sind unver?nderlich und Kopien werden bei der Zuweisung von Werten kopiert, sodass sie sich nicht gegenseitig beeinflussen. Referenztypen wie Objekte, Arrays und Funktionen speichern Speicheradressen, und Variablen, die auf dasselbe Objekt zeigen, wirkt sich gegenseitig aus. Typeof und Instanz k?nnen verwendet werden, um die Typen zu bestimmen, aber auf die historischen Probleme der TypeOfnull zu achten. Das Verst?ndnis dieser beiden Arten von Unterschieden kann dazu beitragen, einen stabileren und zuverl?ssigeren Code zu schreiben.

React vs Angular vs Vue: Welches JS -Framework ist am besten? React vs Angular vs Vue: Welches JS -Framework ist am besten? Jul 05, 2025 am 02:24 AM

Welches JavaScript -Framework ist die beste Wahl? Die Antwort besteht darin, die am besten geeigneten nach Ihren Bedürfnissen zu w?hlen. 1.React ist flexibel und kostenlos und für mittlere und gro?e Projekte geeignet, für die hohe Anpassungs- und Teamarchitekturf?higkeiten erforderlich sind. 2. Angular bietet vollst?ndige L?sungen, die für Anwendungen auf Unternehmensebene und langfristige Wartung geeignet sind. 3.. Vue ist einfach zu bedienen, geeignet für kleine und mittlere Projekte oder schnelle Entwicklung. Unabh?ngig davon, ob es einen technologischen Stack, die Teamgr??e, der Projektlebenszyklus gibt und ob SSR erforderlich ist, sind auch wichtige Faktoren für die Auswahl eines Rahmens. Kurz gesagt, es gibt keinen absolut besten Rahmen, die beste Wahl ist die, die Ihren Bedürfnissen entspricht.

JavaScript Time Object, jemand erstellt eine EACTEXE, schnellere Website auf Google Chrome usw. JavaScript Time Object, jemand erstellt eine EACTEXE, schnellere Website auf Google Chrome usw. Jul 08, 2025 pm 02:27 PM

Hallo, JavaScript -Entwickler! Willkommen in den JavaScript -Nachrichten dieser Woche! Diese Woche konzentrieren wir uns auf: Oracas Markenstreit mit Deno, neue JavaScript -Zeitobjekte werden von Browsern, Google Chrome -Updates und einigen leistungsstarken Entwickler -Tools unterstützt. Fangen wir an! Der Markenstreit von Oracle mit dem Versuch von Deno Oracle, ein "JavaScript" -Marke zu registrieren, hat Kontroversen verursacht. Ryan Dahl, der Sch?pfer von Node.js und Deno, hat eine Petition zur Absage der Marke eingereicht, und er glaubt, dass JavaScript ein offener Standard ist und nicht von Oracle verwendet werden sollte

Was ist die Cache -API und wie wird sie bei Dienstangestellten verwendet? Was ist die Cache -API und wie wird sie bei Dienstangestellten verwendet? Jul 08, 2025 am 02:43 AM

Cacheapi ist ein Tool, das der Browser zur Cache -Netzwerkanfragen bereitstellt, das h?ufig in Verbindung mit dem Servicearbeiter verwendet wird, um die Leistung der Website und die Offline -Erfahrung zu verbessern. 1. Es erm?glicht Entwicklern, Ressourcen wie Skripte, Stilbl?tter, Bilder usw. Zu speichern; 2. Es kann die Cache -Antworten entsprechend den Anfragen übereinstimmen. 3. Es unterstützt das L?schen bestimmter Caches oder das L?schen des gesamten Cache. 4.. Es kann Cache -Priorit?ts- oder Netzwerkpriorit?tsstrategien durch Servicearbeiter implementieren, die sich auf Fetch -Ereignisse anh?ren. 5. Es wird h?ufig für die Offline -Unterstützung verwendet, die wiederholte Zugriffsgeschwindigkeit, die Vorspannungs -Schlüsselressourcen und den Inhalt des Hintergrundaktualisierungss beschleunigen. 6. Wenn Sie es verwenden, müssen Sie auf die Cache -Versionskontrolle, Speicherbeschr?nkungen und den Unterschied zum HTTP -Caching -Mechanismus achten.

Handlingversprechen: Verkettung, Fehlerbehandlung und Versprechenkombinatoren in JavaScript Handlingversprechen: Verkettung, Fehlerbehandlung und Versprechenkombinatoren in JavaScript Jul 08, 2025 am 02:40 AM

Versprechen ist der Kernmechanismus für den Umgang mit asynchronen Operationen in JavaScript. Das Verst?ndnis von Kettenanrufen, Fehlerbehebung und Kombination ist der Schlüssel zum Beherrschen ihrer Anwendungen. 1. Der Kettenaufruf gibt ein neues Versprechen durch .then () zurück, um asynchrone Prozessverkampferung zu realisieren. Jeder. Dann () erh?lt das vorherige Ergebnis und kann einen Wert oder ein Versprechen zurückgeben; 2. Die Fehlerbehandlung sollte .Catch () verwenden, um Ausnahmen zu fangen, um stille Ausf?lle zu vermeiden, und den Standardwert im Fang zurückgeben, um den Prozess fortzusetzen. 3. Combinatoren wie Promise.All () (erfolgreich erfolgreich erfolgreich nach allen Erfolg), Versprechen.Race () (Die erste Fertigstellung wird zurückgegeben) und Versprechen.Allsettled () (Warten auf alle Fertigstellungen)

Nutzung von Array.Prototyp -Methoden zur Datenmanipulation in JavaScript Nutzung von Array.Prototyp -Methoden zur Datenmanipulation in JavaScript Jul 06, 2025 am 02:36 AM

JavaScript-Array-integrierte Methoden wie .Map (), .filter () und .Reduce () k?nnen die Datenverarbeitung vereinfachen. 1) .Map () wird verwendet, um Elemente eins in eins um Neuarrays zu konvertieren; 2) .Filter () wird verwendet, um Elemente durch Bedingung zu filtern; 3) .Reduce () wird verwendet, um Daten als einzelner Wert zu aggregieren; Missbrauch sollte bei der Verwendung vermieden werden, was zu Nebenwirkungen oder Leistungsproblemen führt.

JS Roundup: Ein tiefes Eintauchen in die JavaScript -Ereignisschleife JS Roundup: Ein tiefes Eintauchen in die JavaScript -Ereignisschleife Jul 08, 2025 am 02:24 AM

Die Ereignisschleife von JavaScript verwaltet asynchrone Vorg?nge, indem sie Call -Stapel, Webapis und Task -Warteschlangen koordinieren. 1. Der Anrufstack führt synchronen Code aus, und wenn er auf asynchrone Aufgaben begegnet, wird er zur Verarbeitung an Webapi übergeben. 2. Nachdem das Webapi die Aufgabe im Hintergrund abgeschlossen hat, wird der Rückruf in die entsprechende Warteschlange (Makroaufgabe oder Micro -Aufgabe) eingebaut. 3. Die Ereignisschleife prüft, ob der Anrufstapel leer ist. Wenn es leer ist, wird der Rückruf aus der Warteschlange herausgenommen und zur Ausführung in den Anrufstapel geschoben. V. 5. Das Verst?ndnis der Ereignisschleife hilft zu vermeiden, den Haupt -Thread zu blockieren und die Codeausführungsreihenfolge zu optimieren.

See all articles