Les modèles de grands langues (LLM) ont augmenté en popularité, la fonctionnalité d'appel à l'outil élargissant considérablement leurs capacités au-delà de la génération de texte simple. Désormais, les LLM peuvent gérer des taches d'automatisation complexes telles que la création d'interface utilisateur dynamique et les actions autonomes. Formés sur des ensembles de données massifs, ces modèles excellent dans la compréhension et la production de données structurées, ce qui les rend idéales pour des applications précises d'outils. Cela a alimenté leur adoption généralisée dans le développement de logiciels dirigés par l'IA, où l'appel à outils - des fonctions de base aux agents sophistiqués - est désormais central. Cet article explore les principes fondamentaux de l'appel d'outils LLM et montre comment le mettre en ?uvre à l'aide d'outils open-source pour créer des agents puissants.
Objectifs d'apprentissage clés
- Saisissez le concept des outils LLM.
- Comprendre les principes fondamentaux des appels à outils et ses applications.
- Explorez les implémentations d'appel d'outils dans OpenAI (API ChatCompletions, API Assistants, appels à outils parallèles et sortie structurée), modèles anthropiques et Langchain.
- Apprenez à construire des agents d'IA efficaces à l'aide de ressources open source.
* Cet article fait partie du *** Data Science Blogathon.
Table des matières
- Que sont les outils?
- Qu'est-ce que l'appel à l'outil?
- Comment fonctionne l'appel à outil?
- Exemple de cas d'utilisation
- Appel d'outil avec des modèles OpenAI
- Utilisation de l'API assistant
- Fonction parallèle appelle
- Sortie structurée
- Appel d'outil avec Claude anthropique
- Appel d'outil avec Langchain
- Définition du schéma avec pydance
- Construire des agents avec appel d'outils
- Présentation du composio
- Construire un agent GitHub
- Questions fréquemment posées
Que sont les outils?
Les outils sont des mécanismes permettant aux LLM d'interagir avec les systèmes externes. Ces outils sont des fonctions accessibles au LLM, exécutées indépendamment lorsque le LLM juge leur utilisation nécessaire. Une définition d'outil typique comprend:
- Nom: une fonction descriptive / nom d'outil.
- Description: Une explication d'outil détaillée.
- Paramètres: un schéma JSON définissant les paramètres de fonction / outil.
Qu'est-ce que l'appel à l'outil?
L'appel d'outil permet au modèle de générer des réponses correspondant à un schéma de fonction défini par l'utilisateur. Lorsque le LLM décide qu'un outil est nécessaire, il produit une sortie structurée se conformant au schéma d'argument de l'outil. Par exemple, étant donné un schéma de fonction get_weather
, une requête sur la météo d'une ville rendrait un schéma formaté d'arguments de fonction, permettant à l'exécution de récupérer les données météorologiques. Surtout, le LLM n'exécute pas l'outil; Il génère l'entrée structurée pour l'exécution externe.
Comment fonctionne l'appel à outil?
Des entreprises comme OpenAI et anthropic ont formé des modèles pour sélectionner des outils appropriés en fonction du contexte. Chaque fournisseur gère différemment l'invocation et les réponses de l'outil. En général:
- Définissez des outils et fournissez une invite: définissez des outils avec des noms, des descriptions et des schémas structurés, ainsi que l'invite de l'utilisateur (par exemple, "Quelle est la météo à Londres?").
- Sélection de l'outil LLM: le LLM évalue la nécessité de l'outil. Si c'est le cas, il arrête la génération de texte et génère une réponse format JSON avec des valeurs de paramètres d'outil.
- Extraire, exécuter et retourner: extraire les paramètres, exécuter la fonction et retourner les sorties vers le LLM.
- Génération de réponses: le LLM utilise des sorties d'outils pour formuler la réponse finale.
Exemple de cas d'utilisation
- Activation d'action: connectez LLMS aux applications (Gmail, GitHub, Discord) pour automatiser les actions (envoyer des e-mails, créer des demandes de traction, envoyer des messages).
- Provision de données: récupérer les données des bases de connaissances (Web, Wikipedia, API) pour fournir des informations spécifiques aux LLM.
- UIS dynamique: Mettez à jour les internes internes d'application en fonction de l'entrée utilisateur.
Les sections suivantes détaillent les approches d'appel d'outils dans Openai, anthropic et Langchain. Les modèles open source (comme LLAMA 3) et les fournisseurs d'inférence (comme GROQ) prennent également en charge l'appel d'outils.
(Le reste de l'article se poursuivrait avec des explications détaillées de l'appel d'outils dans Openai, Anthropic, Langchain, Building Agents, Composio et un exemple d'agent GitHub, reflétant la structure et le contenu de l'entrée d'origine mais avec des phrases et un vocabulaire reformulés.)
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undress AI Tool
Images de déshabillage gratuites

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
échangez les visages dans n'importe quelle vidéo sans effort grace à notre outil d'échange de visage AI entièrement gratuit?!

Article chaud

Outils chauds

Bloc-notes++7.3.1
éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

L'investissement est en plein essor, mais le capital seul ne suffit pas. Avec la montée et la décoloration des évaluations, les investisseurs dans les fonds de capital-risque axés sur l'IA doivent prendre une décision clé: acheter, construire ou partenaire pour gagner un avantage? Voici comment évaluer chaque option et PR

Parlons-en. Cette analyse d'une percée innovante de l'IA fait partie de ma couverture de colonne Forbes en cours sur les dernières personnes en IA, notamment en identifiant et en expliquant diverses complexités d'IA percutantes (voir le lien ici). Se dirigeant vers Agi et

Rappelez-vous le flot de modèles chinois open source qui a perturbé l'industrie du Genai plus t?t cette année? Alors que Deepseek a fait la majeure partie des titres, Kimi K1.5 était l'un des noms importants de la liste. Et le modèle était assez cool.

Parlons-en. Cette analyse d'une percée innovante de l'IA fait partie de ma couverture de colonne Forbes en cours sur les dernières personnes en IA, notamment en identifiant et en expliquant diverses complexités d'IA percutantes (voir le lien ici). Pour ces lecteurs qui h

à la mi-2025, l'AI ?Arme Race? se réchauffe, et Xai et Anthropic ont tous deux publié leurs modèles phares, Grok 4 et Claude 4.

Par exemple, si vous posez une question à un modèle comme: "Que fait (x) personne à (x) l'entreprise?" Vous pouvez voir une cha?ne de raisonnement qui ressemble à quelque chose comme ceci, en supposant que le système sait comment récupérer les informations nécessaires: localiser les détails sur le CO

Le Sénat a voté le 99-1 mardi matin pour tuer le moratoire après un tumulte de dernière minute de groupes de défense des groupes de défense, des législateurs et des dizaines de milliers d'Américains qui l'ont vu comme une dangereuse dépassement. Ils ne sont pas restés silencieux. Le Sénat écouté.

Les essais cliniques sont un énorme goulot d'étranglement du développement de médicaments, et Kim et Reddy pensaient que le logiciel compatible AI qu'ils avait construit chez PI Health pourrait les aider à les faire plus rapidement et moins cher en élargissant le bassin de patients potentiellement éligibles. Mais le
