Les modèles de langage OLMO 2 révolutionnaires d'Ai2 sont entièrement open-source, définissant une nouvelle référence pour les performances et la transparence dans le domaine des modèles de grande langue (LLM). Ces modèles autorégressifs offrent une formation optimisée, des mélanges de données innovants et des techniques de réglage des instructions avancées. Plongeons dans les détails.
"Tout le monde veut des modèles de langue open source, mais personne ne veut soulever ces poids lourds." - Nathan Lambert (@natolambert)
Ce tweet résume parfaitement le défi que l'AI2 a surmonté. Leur papier "2 Olmo 2 Furious" détaille leur succès.
Table des matières
- 2 olmo 2 furieux: une plongée profonde
- Caractéristiques clés de OLMO 2
- Stabilité de la formation robuste
- Mélanges de données optimisées
- Améliorations architecturales
- Raffinements post-entra?nement
- Infrastructure: un ingrédient clé
- OLMO 2 Benchmarked: Performance comparée
- Vivre olmo 2
- Accéder à OLMO 2: Liens clés
- Conclusion
2 olmo 2 furieux: une plongée profonde
Olmo 2, disponible en tailles de paramètres 7b et 13b, se distingue par une transparence complète. AI2 a publié publiquement les données de formation, le code, les recettes et même les points de contr?le intermédiaires, la promotion de la collaboration et l'accélération de la recherche. Ces modèles offrent des performances comparables à des leaders de l'industrie comme LLAMA 3.1 et QWEN 2.5, mais avec une efficacité considérablement améliorée.
Le document de recherche "2 Olmo 2 Furious" fournit des détails complets.
Caractéristiques clés de OLMO 2
Stabilité de la formation robuste
OLMO 2 s'attaque aux instabilités de formation courantes (pics de perte) en utilisant:
- Raffinement des données: filtrage des N-grammes redondants.
- Initialisation améliorée: un schéma d'initialisation standardisé.
- Regularisation: utilisation de la perte Z pour stabiliser les logits de sortie.
Ces améliorations permettent une formation plus fluide et une gestion efficace des ensembles de données plus importants.
Mélanges de données optimisées
Olmo 2 utilise une approche de pré-formation en deux étapes:
- Pré-formation initiale: tirant parti de 5 billions de jetons de données Web de haute qualité.
- Amélioration de la formation à mi-entra?nement: intégration de données spécifiques au domaine (mathématiques, STEM), illustrées par l'ensemble de données Dolmino Mix 1124.
Améliorations architecturales
L'architecture d'Olmo 2 incorpore:
- RMSNorm: pour une normalisation d'activation stable.
- Norme de couche réorganisée: améliorer la stabilité en normalisant l'attention et les sorties de couche à action directe.
- Encodage de position à haute résolution: intégres de position rotatif avec une résolution accrue.
Ces choix architecturaux contribuent à l'évolutivité et à l'efficacité.
Raffinements post-entra?nement
Le post-formation d'Olmo 2 exploite la recette de Tülu 3, en se concentrant sur:
- Affinement fin supervisé (SFT): Affinage des capacités de suivi des instructions.
- Apprentissage par renforcement avec récompenses vérifiables (RLVR): optimisation des performances sur des taches spécifiques (mathématiques, raisonnement factuel).
Il en résulte des modèles d'Olmo 2-instruments qui excellent dans des repères comme GSM8K et MMLU.
Infrastructure: un ingrédient clé
L'infrastructure avancée de l'AI2 est cruciale pour le succès d'Olmo 2:
- Clueurs informatiques hautes performances: utilisation des GPU NVIDIA H100 dans plusieurs centres de données.
- Gestion de la charge de travail Beaker: pour une distribution et une surveillance efficaces de la charge de travail.
Cette infrastructure robuste minimise les interruptions de formation et maximise l'utilisation des ressources.
OLMO 2 Benchmarked: Performance comparée
Olmo 2 surpasse fréquemment Qwen 2.5 et LLAMA 3.1 sur des taches spécifiques, en particulier avec l'inclusion du mélange de Dolmino 1124. Il démontre également une efficacité remarquable, obtenant des résultats comparables ou supérieurs avec jusqu'à 20% de flops moins.
Vivre olmo 2
Accédez au modèle et essayez-le vous-même! Des instructions à usage local sont également disponibles.
Accéder à OLMO 2: Liens clés
- Papier: http://ipnx.cn/link/cb14acf78723becd7023f4f56027cece
- Blog: http://ipnx.cn/link/96b0548661234c39ac2a02872f8cfcb2
- Demo: http://ipnx.cn/link/3eebaed369eb3ae36a90f310fc33638c
- Collection: http://ipnx.cn/link/ae3b166c302150f4def9a8176fd36460
Conclusion
OLMO 2 représente un progrès significatif de l'IA open source, priorisant la transparence et l'innovation. En partageant ouvertement ses ressources, AI2 favorise la collaboration et accélère les progrès dans le domaine, ce qui stimule l'avenir des applications d'IA.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undress AI Tool
Images de déshabillage gratuites

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
échangez les visages dans n'importe quelle vidéo sans effort grace à notre outil d'échange de visage AI entièrement gratuit?!

Article chaud

Outils chauds

Bloc-notes++7.3.1
éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Rappelez-vous le flot de modèles chinois open source qui a perturbé l'industrie du Genai plus t?t cette année? Alors que Deepseek a fait la majeure partie des titres, Kimi K1.5 était l'un des noms importants de la liste. Et le modèle était assez cool.

à la mi-2025, l'AI ?Arme Race? se réchauffe, et Xai et Anthropic ont tous deux publié leurs modèles phares, Grok 4 et Claude 4.

Mais nous n'aurons probablement pas à attendre même 10 ans pour en voir un. En fait, ce qui pourrait être considéré comme la première vague de machines vraiment utiles, de type humain, est déjà là. Les dernières années ont vu un certain nombre de prototypes et de modèles de production sortant de T

Jusqu'à l'année précédente, l'ingénierie rapide était considérée comme une compétence cruciale pour interagir avec les modèles de langage grand (LLM). Récemment, cependant, les LLM ont considérablement progressé dans leurs capacités de raisonnement et de compréhension. Naturellement, nos attentes

Je suis s?r que vous devez conna?tre l'agent général de l'IA, Manus. Il a été lancé il y a quelques mois, et au cours des mois, ils ont ajouté plusieurs nouvelles fonctionnalités à leur système. Maintenant, vous pouvez générer des vidéos, créer des sites Web et faire beaucoup de MO

De nombreuses personnes ont frappé le gymnase avec passion et croient qu'ils sont sur le bon chemin pour atteindre leurs objectifs de fitness. Mais les résultats ne sont pas là en raison d'une mauvaise planification de la régime alimentaire et d'un manque de direction. Embaucher un entra?neur personnel al

Construit sur le moteur de profondeur neuronale propriétaire de Leia, l'application traite des images fixes et ajoute de la profondeur naturelle avec un mouvement simulé - comme les casseroles, les zooms et les effets de parallaxe - pour créer de courts bobines vidéo qui donnent l'impression de pénétrer dans le SCE

Une nouvelle étude de chercheurs du King’s College de Londres et de l’Université d’Oxford partage les résultats de ce qui s'est passé lorsque Openai, Google et Anthropic ont été jetés ensemble dans un concours fardé basé sur le dilemme du prisonnier itéré. Ce n'était pas
