


PydanticAI: Ein umfassender Leitfaden zum Erstellen produktionsbereiter KI-Anwendungen
Dec 30, 2024 am 08:54 AMPydanticAI ist ein leistungsstarkes Python-Framework, das entwickelt wurde, um die Entwicklung von Anwendungen in Produktionsqualit?t mithilfe generativer KI zu optimieren. Es wurde von demselben Team entwickelt, das hinter Pydantic, einer weit verbreiteten Datenvalidierungsbibliothek, steht, und zielt darauf ab, das innovative und ergonomische Design von FastAPI in den Bereich der KI-Anwendungsentwicklung zu bringen. PydanticAI konzentriert sich auf Typsicherheit, Modularit?t und nahtlose Integration mit anderen Python-Tools.
Kernkonzepte
PydanticAI dreht sich um mehrere Schlüsselkonzepte:
Agenten
Agenten sind die prim?re Schnittstelle für die Interaktion mit Large Language Models (LLMs). Ein Agent fungiert als Container für verschiedene Komponenten, darunter:
- Systemaufforderungen: Anweisungen für das LLM, definiert als statische Zeichenfolgen oder dynamische Funktionen.
- Funktionstools: Funktionen, die das LLM aufrufen kann, um zus?tzliche Informationen zu erhalten oder Aktionen auszuführen.
- Strukturierte Ergebnistypen: Datentypen, die das LLM am Ende eines Laufs zurückgeben muss.
- Abh?ngigkeitstypen: Daten oder Dienste, die Systemaufforderungsfunktionen, Tools und Ergebnisvalidatoren verwenden k?nnen.
- LLM-Modelle: Das LLM, das der Agent verwenden wird, kann bei der Agentenerstellung oder zur Laufzeit festgelegt werden.
Agenten sind auf Wiederverwendbarkeit ausgelegt und werden normalerweise einmal instanziiert und in einer Anwendung wiederverwendet.
Systemaufforderungen
Systemaufforderungen sind Anweisungen, die der Entwickler dem LLM zur Verfügung stellt. Sie k?nnen sein:
- Statische Systemaufforderungen: Definiert, wenn der Agent erstellt wird, unter Verwendung des system_prompt-Parameters des Agent-Konstruktors.
- Dynamische Systemaufforderungen: Definiert durch Funktionen, die mit @agent.system_prompt dekoriert sind. Diese k?nnen über das RunContext-Objekt auf Laufzeitinformationen, wie z. B. Abh?ngigkeiten, zugreifen.
Ein einzelner Agent kann sowohl statische als auch dynamische Systemaufforderungen verwenden, die in der Reihenfolge angeh?ngt werden, in der sie zur Laufzeit definiert werden.
from pydantic_ai import Agent, RunContext from datetime import date agent = Agent( 'openai:gpt-4o', deps_type=str, system_prompt="Use the customer's name while replying to them.", ) @agent.system_prompt def add_the_users_name(ctx: RunContext[str]) -> str: return f"The user's name is {ctx.deps}." @agent.system_prompt def add_the_date() -> str: return f'The date is {date.today()}.' result = agent.run_sync('What is the date?', deps='Frank') print(result.data) #> Hello Frank, the date today is 2032-01-02.
Funktionstools
Funktionstools erm?glichen es LLMs, auf externe Informationen zuzugreifen oder Aktionen auszuführen, die in der Systemeingabeaufforderung selbst nicht verfügbar sind. Werkzeuge k?nnen auf verschiedene Arten registriert werden:
- @agent.tool decorator: Für Tools, die über RunContext Zugriff auf den Kontext des Agenten ben?tigen.
- @agent.tool_plain decorator: Für Tools, die keinen Zugriff auf den Kontext des Agenten ben?tigen.
- tools-Schlüsselwortargument im Agent-Konstruktor: Kann einfache Funktionen oder Instanzen der Tool-Klasse annehmen und bietet so mehr Kontrolle über Tool-Definitionen.
from pydantic_ai import Agent, RunContext from datetime import date agent = Agent( 'openai:gpt-4o', deps_type=str, system_prompt="Use the customer's name while replying to them.", ) @agent.system_prompt def add_the_users_name(ctx: RunContext[str]) -> str: return f"The user's name is {ctx.deps}." @agent.system_prompt def add_the_date() -> str: return f'The date is {date.today()}.' result = agent.run_sync('What is the date?', deps='Frank') print(result.data) #> Hello Frank, the date today is 2032-01-02.
Tool-Parameter werden aus der Funktionssignatur extrahiert und zum Erstellen des JSON-Schemas des Tools verwendet. Die Dokumentzeichenfolgen der Funktionen werden verwendet, um die Beschreibungen des Tools und die Parameterbeschreibungen innerhalb des Schemas zu generieren.
Abh?ngigkeiten
Abh?ngigkeiten stellen über ein Abh?ngigkeitsinjektionssystem Daten und Dienste für die Systemaufforderungen, Tools und Ergebnisvalidatoren des Agenten bereit. Der Zugriff auf Abh?ngigkeiten erfolgt über das RunContext-Objekt. Sie k?nnen ein beliebiger Python-Typ sein, aber Datenklassen sind eine bequeme M?glichkeit, mehrere Abh?ngigkeiten zu verwalten.
import random from pydantic_ai import Agent, RunContext agent = Agent( 'gemini-1.5-flash', deps_type=str, system_prompt=( "You're a dice game, you should roll the die and see if the number " "you get back matches the user's guess. If so, tell them they're a winner. " "Use the player's name in the response." ), ) @agent.tool_plain def roll_die() -> str: """Roll a six-sided die and return the result.""" return str(random.randint(1, 6)) @agent.tool def get_player_name(ctx: RunContext[str]) -> str: """Get the player's name.""" return ctx.deps dice_result = agent.run_sync('My guess is 4', deps='Anne') print(dice_result.data) #> Congratulations Anne, you guessed correctly! You're a winner!
Ergebnisse
Ergebnisse sind die endgültigen Werte, die von einer Agentenausführung zurückgegeben werden. Sie sind in RunResult (für synchrone und asynchrone Ausführungen) oder StreamedRunResult (für gestreamte Ausführungen) eingeschlossen und bieten Zugriff auf Nutzungsdaten und den Nachrichtenverlauf. Die Ergebnisse k?nnen reiner Text oder strukturierte Daten sein und werden mit Pydantic validiert.
from dataclasses import dataclass import httpx from pydantic_ai import Agent, RunContext @dataclass class MyDeps: api_key: str http_client: httpx.AsyncClient agent = Agent( 'openai:gpt-4o', deps_type=MyDeps, ) @agent.system_prompt async def get_system_prompt(ctx: RunContext[MyDeps]) -> str: response = await ctx.deps.http_client.get( 'https://example.com', headers={'Authorization': f'Bearer {ctx.deps.api_key}'}, ) response.raise_for_status() return f'Prompt: {response.text}' async def main(): async with httpx.AsyncClient() as client: deps = MyDeps('foobar', client) result = await agent.run('Tell me a joke.', deps=deps) print(result.data) #> Did you hear about the toothpaste scandal? They called it Colgate.
Ergebnisvalidatoren, die über den Dekorator @agent.result_validator hinzugefügt werden, bieten eine M?glichkeit, weitere Validierungslogik hinzuzufügen, insbesondere wenn die Validierung E/A erfordert und asynchron ist.
Hauptmerkmale
PydanticAI verfügt über mehrere Schlüsselfunktionen, die es zu einer überzeugenden Wahl für die Entwicklung von KI-Anwendungen machen:
- Modellunabh?ngig: PydanticAI unterstützt eine Vielzahl von LLMs, darunter OpenAI, Anthropic, Gemini, Ollama, Groq und Mistral. Es bietet auch eine einfache Schnittstelle zur Implementierung der Unterstützung für andere Modelle.
- Typsicherheit: Entwickelt für die nahtlose Zusammenarbeit mit statischen Typprüfern wie mypy und pyright. Es erm?glicht die Typprüfung von Abh?ngigkeiten und Ergebnistypen.
- Python-zentriertes Design: Nutzt den vertrauten Python-Kontrollfluss und die Agentenzusammensetzung, um KI-Projekte zu erstellen, wodurch die Anwendung standardm??iger Python-Praktiken vereinfacht wird.
- Strukturierte Antworten: Verwendet Pydantic, um Modellausgaben zu validieren und zu strukturieren und so konsistente Antworten sicherzustellen.
- Abh?ngigkeitsinjektionssystem: Bietet ein Abh?ngigkeitsinjektionssystem, um Daten und Dienste für die Komponenten eines Agenten bereitzustellen und so die Testbarkeit und iterative Entwicklung zu verbessern.
- Gestreamte Antworten: Unterstützt das Streaming von LLM-Ausgaben mit sofortiger Validierung und erm?glicht so schnelle und genaue Ergebnisse.
Arbeiten mit Agenten
Laufende Agenten
Agenten k?nnen auf verschiedene Arten ausgeführt werden:
- run_sync(): Für synchrone Ausführung.
- run(): Für asynchrone Ausführung.
- run_stream(): Für Streaming-Antworten.
from pydantic_ai import Agent, RunContext from datetime import date agent = Agent( 'openai:gpt-4o', deps_type=str, system_prompt="Use the customer's name while replying to them.", ) @agent.system_prompt def add_the_users_name(ctx: RunContext[str]) -> str: return f"The user's name is {ctx.deps}." @agent.system_prompt def add_the_date() -> str: return f'The date is {date.today()}.' result = agent.run_sync('What is the date?', deps='Frank') print(result.data) #> Hello Frank, the date today is 2032-01-02.
Gespr?che
Eine Agentenausführung kann eine ganze Konversation darstellen, aber Konversationen k?nnen auch aus mehreren Durchl?ufen bestehen, insbesondere wenn der Status zwischen Interaktionen beibehalten wird. Sie k?nnen Nachrichten aus früheren L?ufen mit dem Argument message_history übergeben, um eine Konversation fortzusetzen.
import random from pydantic_ai import Agent, RunContext agent = Agent( 'gemini-1.5-flash', deps_type=str, system_prompt=( "You're a dice game, you should roll the die and see if the number " "you get back matches the user's guess. If so, tell them they're a winner. " "Use the player's name in the response." ), ) @agent.tool_plain def roll_die() -> str: """Roll a six-sided die and return the result.""" return str(random.randint(1, 6)) @agent.tool def get_player_name(ctx: RunContext[str]) -> str: """Get the player's name.""" return ctx.deps dice_result = agent.run_sync('My guess is 4', deps='Anne') print(dice_result.data) #> Congratulations Anne, you guessed correctly! You're a winner!
Nutzungsbeschr?nkungen
PydanticAI bietet eine Settings.UsageLimits-Struktur, um die Anzahl der Token und Anfragen zu begrenzen. Sie k?nnen diese Einstellungen über das Argument ?usage_limits“ auf die Ausführungsfunktionen anwenden.
from dataclasses import dataclass import httpx from pydantic_ai import Agent, RunContext @dataclass class MyDeps: api_key: str http_client: httpx.AsyncClient agent = Agent( 'openai:gpt-4o', deps_type=MyDeps, ) @agent.system_prompt async def get_system_prompt(ctx: RunContext[MyDeps]) -> str: response = await ctx.deps.http_client.get( 'https://example.com', headers={'Authorization': f'Bearer {ctx.deps.api_key}'}, ) response.raise_for_status() return f'Prompt: {response.text}' async def main(): async with httpx.AsyncClient() as client: deps = MyDeps('foobar', client) result = await agent.run('Tell me a joke.', deps=deps) print(result.data) #> Did you hear about the toothpaste scandal? They called it Colgate.
Modelleinstellungen
Die Struktur ?settings.ModelSettings“ erm?glicht Ihnen die Feinabstimmung des Modellverhaltens durch Parameter wie Temperatur, max_tokens und Timeout. Sie k?nnen diese über das Argument model_settings in den Ausführungsfunktionen anwenden.
from pydantic import BaseModel from pydantic_ai import Agent class CityLocation(BaseModel): city: str country: str agent = Agent('gemini-1.5-flash', result_type=CityLocation) result = agent.run_sync('Where were the olympics held in 2012?') print(result.data) #> city='London' country='United Kingdom'
Funktionstools im Detail
Werkzeugregistrierung
Tools k?nnen mit dem @agent.tool-Dekorator (für Tools, die Kontext ben?tigen), dem @agent.tool_plain-Dekorator (für Tools ohne Kontext) oder über das Tools-Argument im Agent-Konstruktor registriert werden.
from pydantic_ai import Agent agent = Agent('openai:gpt-4o') # Synchronous run result_sync = agent.run_sync('What is the capital of Italy?') print(result_sync.data) #> Rome # Asynchronous run async def main(): result = await agent.run('What is the capital of France?') print(result.data) #> Paris async with agent.run_stream('What is the capital of the UK?') as response: print(await response.get_data()) #> London
Werkzeugschema
Parameterbeschreibungen werden aus Dokumentzeichenfolgen extrahiert und dem JSON-Schema des Tools hinzugefügt. Wenn ein Tool über einen einzelnen Parameter verfügt, der als Objekt im JSON-Schema dargestellt werden kann, wird das Schema so vereinfacht, dass es nur dieses Objekt darstellt.
from pydantic_ai import Agent agent = Agent('openai:gpt-4o', system_prompt='Be a helpful assistant.') result1 = agent.run_sync('Tell me a joke.') print(result1.data) #> Did you hear about the toothpaste scandal? They called it Colgate. result2 = agent.run_sync('Explain?', message_history=result1.new_messages()) print(result2.data) #> This is an excellent joke invent by Samuel Colvin, it needs no explanation.
Dynamische Werkzeuge
Werkzeuge k?nnen mit einer Vorbereitungsfunktion angepasst werden, die bei jedem Schritt aufgerufen wird, um die Werkzeugdefinition zu ?ndern oder das Werkzeug aus diesem Schritt wegzulassen.
from pydantic_ai import Agent from pydantic_ai.settings import UsageLimits from pydantic_ai.exceptions import UsageLimitExceeded agent = Agent('claude-3-5-sonnet-latest') try: result_sync = agent.run_sync( 'What is the capital of Italy? Answer with a paragraph.', usage_limits=UsageLimits(response_tokens_limit=10), ) except UsageLimitExceeded as e: print(e) #> Exceeded the response_tokens_limit of 10 (response_tokens=32)
Nachrichten und Chat-Verlauf
Auf Nachrichten zugreifen
Auf Nachrichten, die w?hrend einer Agentenausführung ausgetauscht werden, kann über die Methoden all_messages() und new_messages() der Objekte RunResult und StreamedRunResult zugegriffen werden.
from pydantic_ai import Agent agent = Agent('openai:gpt-4o') result_sync = agent.run_sync( 'What is the capital of Italy?', model_settings={'temperature': 0.0}, ) print(result_sync.data) #> Rome
Wiederverwendung von Nachrichten
Nachrichten k?nnen an den Parameter message_history übergeben werden, um Konversationen über mehrere Agentenl?ufe hinweg fortzusetzen. Wenn ein message_history festgelegt und nicht leer ist, wird keine neue Systemaufforderung generiert.
Nachrichtenformat
Das Nachrichtenformat ist modellunabh?ngig, sodass Nachrichten in verschiedenen Agenten oder mit demselben Agenten unter Verwendung verschiedener Modelle verwendet werden k?nnen.
Debuggen und überwachen
Pydantisches Holzfeuer
PydanticAI l?sst sich in Pydantic Logfire integrieren, einer Observability-Plattform, mit der Sie Ihre gesamte Anwendung überwachen und debuggen k?nnen. Holzfeuer kann verwendet werden für:
- Echtzeit-Debugging: Um in Echtzeit zu sehen, was in Ihrer Anwendung passiert.
- überwachung der Anwendungsleistung: Verwendung von SQL-Abfragen und Dashboards.
Um PydanticAI mit Logfire zu verwenden, installieren Sie es mit der optionalen Logfire-Gruppe: pip install 'pydantic-ai[logfire]'. Anschlie?end müssen Sie ein Logfire-Projekt konfigurieren und Ihre Umgebung authentifizieren.
Installation und Einrichtung
Installation
PydanticAI kann mit pip:
installiert werden
from pydantic_ai import Agent, RunContext from datetime import date agent = Agent( 'openai:gpt-4o', deps_type=str, system_prompt="Use the customer's name while replying to them.", ) @agent.system_prompt def add_the_users_name(ctx: RunContext[str]) -> str: return f"The user's name is {ctx.deps}." @agent.system_prompt def add_the_date() -> str: return f'The date is {date.today()}.' result = agent.run_sync('What is the date?', deps='Frank') print(result.data) #> Hello Frank, the date today is 2032-01-02.
Eine schlanke Installation ist auch verfügbar, um bestimmte Modelle zu verwenden, zum Beispiel:
import random from pydantic_ai import Agent, RunContext agent = Agent( 'gemini-1.5-flash', deps_type=str, system_prompt=( "You're a dice game, you should roll the die and see if the number " "you get back matches the user's guess. If so, tell them they're a winner. " "Use the player's name in the response." ), ) @agent.tool_plain def roll_die() -> str: """Roll a six-sided die and return the result.""" return str(random.randint(1, 6)) @agent.tool def get_player_name(ctx: RunContext[str]) -> str: """Get the player's name.""" return ctx.deps dice_result = agent.run_sync('My guess is 4', deps='Anne') print(dice_result.data) #> Congratulations Anne, you guessed correctly! You're a winner!
Logfire-Integration
Um PydanticAI mit Logfire zu verwenden, installieren Sie es mit der optionalen Logfire-Gruppe:
from dataclasses import dataclass import httpx from pydantic_ai import Agent, RunContext @dataclass class MyDeps: api_key: str http_client: httpx.AsyncClient agent = Agent( 'openai:gpt-4o', deps_type=MyDeps, ) @agent.system_prompt async def get_system_prompt(ctx: RunContext[MyDeps]) -> str: response = await ctx.deps.http_client.get( 'https://example.com', headers={'Authorization': f'Bearer {ctx.deps.api_key}'}, ) response.raise_for_status() return f'Prompt: {response.text}' async def main(): async with httpx.AsyncClient() as client: deps = MyDeps('foobar', client) result = await agent.run('Tell me a joke.', deps=deps) print(result.data) #> Did you hear about the toothpaste scandal? They called it Colgate.
Beispiele
Beispiele sind als separates Paket erh?ltlich:
from pydantic import BaseModel from pydantic_ai import Agent class CityLocation(BaseModel): city: str country: str agent = Agent('gemini-1.5-flash', result_type=CityLocation) result = agent.run_sync('Where were the olympics held in 2012?') print(result.data) #> city='London' country='United Kingdom'
Prüfung und Bewertung
Unit-Tests
Unit-Tests überprüfen, ob sich Ihr Anwendungscode wie erwartet verh?lt. Befolgen Sie für PydanticAI diese Strategien:
- Verwenden Sie pytest als Testumgebung.
- Verwenden Sie TestModel oder FunctionModel anstelle Ihres tats?chlichen Modells.
- Verwenden Sie Agent.override, um Ihr Modell innerhalb Ihrer Anwendungslogik zu ersetzen.
- Legen Sie ALLOW_MODEL_REQUESTS=False global fest, um versehentliche Aufrufe von Nicht-Testmodellen zu verhindern.
from pydantic_ai import Agent agent = Agent('openai:gpt-4o') # Synchronous run result_sync = agent.run_sync('What is the capital of Italy?') print(result_sync.data) #> Rome # Asynchronous run async def main(): result = await agent.run('What is the capital of France?') print(result.data) #> Paris async with agent.run_stream('What is the capital of the UK?') as response: print(await response.get_data()) #> London
Bewertungen
Bewertungen werden verwendet, um die Leistung des LLM zu messen und ?hneln eher Benchmarks als Unit-Tests. Evals konzentrieren sich auf die Messung der Leistung des LLM für eine bestimmte Anwendung. Dies kann durch End-to-End-Tests, synthetische eigenst?ndige Tests, die Verwendung von LLMs zur Bewertung von LLMs oder durch die Messung der Agentenleistung in der Produktion erfolgen.
Beispielanwendungsf?lle
PydanticAI kann in einer Vielzahl von Anwendungsf?llen eingesetzt werden:
- Roulette-Rad: Simulation eines Roulette-Rades unter Verwendung eines Agenten mit einer ganzzahligen Abh?ngigkeit und einem booleschen Ergebnis.
- Chat-Anwendung: Erstellen einer Chat-Anwendung mit mehreren Durchl?ufen, Weitergabe früherer Nachrichten mithilfe von message_history.
- Bank-Support-Agent: Aufbau eines Support-Agenten für eine Bank mithilfe von Tools, Abh?ngigkeitsinjektion und strukturierten Antworten.
- Wettervorhersage: Erstellen einer Anwendung, die mithilfe von Funktionstools und Abh?ngigkeiten eine Wettervorhersage basierend auf Ort und Datum zurückgibt.
- SQL-Generierung: Generieren von SQL-Abfragen aus Benutzereingaben, mit Validierung mithilfe des Ergebnisvalidators.
Abschluss
PydanticAI bietet ein robustes und flexibles Framework für die Entwicklung von KI-Anwendungen mit einem starken Schwerpunkt auf Typsicherheit und Modularit?t. Die Verwendung von Pydantic zur Datenvalidierung und -strukturierung in Verbindung mit seinem Abh?ngigkeitsinjektionssystem macht es zu einem idealen Werkzeug für die Erstellung zuverl?ssiger und wartbarer KI-Anwendungen. Mit seiner breiten LLM-Unterstützung und der nahtlosen Integration mit Tools wie Pydantic Logfire erm?glicht PydanticAI Entwicklern, leistungsstarke, produktionsreife KI-gesteuerte Projekte effizient zu erstellen.
Das obige ist der detaillierte Inhalt vonPydanticAI: Ein umfassender Leitfaden zum Erstellen produktionsbereiter KI-Anwendungen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Hei?e KI -Werkzeuge

Undress AI Tool
Ausziehbilder kostenlos

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem v?llig kostenlosen KI-Gesichtstausch-Tool aus!

Hei?er Artikel

Hei?e Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Der Polymorphismus ist ein Kernkonzept in der objektorientierten Programmierung von Python-Objekte und bezieht sich auf "eine Schnittstelle, mehrere Implementierungen" und erm?glicht eine einheitliche Verarbeitung verschiedener Arten von Objekten. 1. Polymorphismus wird durch Umschreiben durch Methode implementiert. Unterklassen k?nnen übergeordnete Klassenmethoden neu definieren. Zum Beispiel hat die Spoke () -Methode der Tierklasse unterschiedliche Implementierungen in Hunde- und Katzenunterklassen. 2. Die praktischen Verwendungen des Polymorphismus umfassen die Vereinfachung der Codestruktur und die Verbesserung der Skalierbarkeit, z. 3. Die Python -Implementierungspolymorphismus muss erfüllen: Die übergeordnete Klasse definiert eine Methode, und die untergeordnete Klasse überschreibt die Methode, erfordert jedoch keine Vererbung derselben übergeordneten Klasse. Solange das Objekt dieselbe Methode implementiert, wird dies als "Ententyp" bezeichnet. 4. Zu beachten ist die Wartung

Iteratoren sind Objekte, die __iter __ () und __next __ () Methoden implementieren. Der Generator ist eine vereinfachte Version von Iteratoren, die diese Methoden automatisch über das Keyword für Rendite implementiert. 1. Der Iterator gibt jedes Mal, wenn er als n?chstes anruft, ein Element zurück und wirft eine Ausnahme in der Stopperation aus, wenn es keine Elemente mehr gibt. 2. Der Generator verwendet Funktionsdefinition, um Daten auf Bedarf zu generieren, Speicher zu speichern und unendliche Sequenzen zu unterstützen. 3. Verwenden Sie Iteratoren, wenn Sie vorhandene S?tze verarbeiten, und verwenden Sie einen Generator, wenn Sie dynamisch Big Data oder faule Bewertung generieren, z. B. das Laden von Zeilen nach Zeile beim Lesen gro?er Dateien. Hinweis: Iterbare Objekte wie Listen sind keine Iteratoren. Sie müssen nach dem Erreichen des Iterators nach seinem Ende nachgebaut werden, und der Generator kann ihn nur einmal durchqueren.

Der Schlüssel zum Umgang mit der API -Authentifizierung besteht darin, die Authentifizierungsmethode korrekt zu verstehen und zu verwenden. 1. Apikey ist die einfachste Authentifizierungsmethode, die normalerweise in den Anforderungsheader- oder URL -Parametern platziert ist. 2. BasicAuth verwendet Benutzername und Kennwort für die Basis64 -Codierungsübertragung, die für interne Systeme geeignet ist. 3.. OAuth2 muss das Token zuerst über Client_id und Client_secret erhalten und dann das BearerToken in den Anforderungsheader bringen. V. Kurz gesagt, die Auswahl der entsprechenden Methode gem?? dem Dokument und das sichere Speichern der Schlüsselinformationen ist der Schlüssel.

Assert ist ein Inssertion -Tool, das in Python zum Debuggen verwendet wird, und wirft einen Assertionerror aus, wenn der Zustand nicht erfüllt ist. Die Syntax ist eine geltende Bedingung sowie optionale Fehlerinformationen, die für die interne Logiküberprüfung geeignet sind, z. B. Parameterprüfung, Statusbest?tigung usw., k?nnen jedoch nicht für die Sicherheits- oder Benutzereingabeprüfung verwendet werden und sollten in Verbindung mit klaren Eingabeaufforderungen verwendet werden. Es ist nur zum Hilfsdebuggen in der Entwicklungsphase verfügbar, anstatt die Ausnahmebehandlung zu ersetzen.

Eine gemeinsame Methode, um zwei Listen gleichzeitig in Python zu durchqueren, besteht darin, die Funktion ZIP () zu verwenden, die mehrere Listen in der Reihenfolge und die kürzeste ist. Wenn die Listenl?nge inkonsistent ist, k?nnen Sie iTertools.zip_longest () verwenden, um die l?ngste zu sein und die fehlenden Werte auszufüllen. In Kombination mit Enumerate () k?nnen Sie den Index gleichzeitig erhalten. 1.zip () ist pr?gnant und praktisch, geeignet für die Iteration gepaarte Daten; 2.zip_longest () kann den Standardwert beim Umgang mit inkonsistenten L?ngen einfüllen. 3.Enumerate (ZIP ()) kann w?hrend des Durchlaufens Indizes erhalten und die Bedürfnisse einer Vielzahl komplexer Szenarien erfüllen.

INPYTHON, ITERATORATORSAROBJECTSHATALWOULOUPING ThroughCollections Byimplementing__iter __ () und __Next __ (). 1) IteratorsworkviATheiterProtocol, verwendete __iter __ () toreturn thiteratorand__Next __ () torethentexteemtemuntemuntilstoperationSaised.2) und

TypHintsinpythonsolvetheProblemofAmbiguityAndpotentialbugsindynamicalpedCodeByAllowingDevelopstospecifyexpectypes

Um moderne und effiziente APIs mit Python zu schaffen, wird Fastapi empfohlen. Es basiert auf Eingabeaufforderungen an Standardpython -Typ und kann automatisch Dokumente mit ausgezeichneter Leistung generieren. Nach der Installation von Fastapi und ASGI Server Uvicorn k?nnen Sie Schnittstellencode schreiben. Durch das Definieren von Routen, das Schreiben von Verarbeitungsfunktionen und die Rückgabe von Daten kann schnell APIs erstellt werden. Fastapi unterstützt eine Vielzahl von HTTP -Methoden und bietet automatisch generierte Swaggerui- und Redoc -Dokumentationssysteme. URL -Parameter k?nnen durch Pfaddefinition erfasst werden, w?hrend Abfrageparameter durch Einstellen von Standardwerten für Funktionsparameter implementiert werden k?nnen. Der rationale Einsatz pydantischer Modelle kann dazu beitragen, die Entwicklungseffizienz und Genauigkeit zu verbessern.
