亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

Maison Périphériques technologiques IA L'IA inspirée de Quantum peut-elle rivaliser avec les modèles de langage actuels d'aujourd'hui?

L'IA inspirée de Quantum peut-elle rivaliser avec les modèles de langage actuels d'aujourd'hui?

Apr 20, 2025 am 11:18 AM

L'IA inspirée de Quantum peut-elle rivaliser avec les modèles de langage actuels d'aujourd'hui?

Dynex, une entreprise de Liechtenstein, a récemment lancé son modèle de grande diffusion quantique (QDLLM) lors de sa finale du SXSW 2025 Innovation Award, devenant un développement convaincant. La société affirme que son QDLLM est en mesure de générer une sortie généative d'IA plus rapidement et plus efficacement que les systèmes traditionnels basés sur les transformateurs qui reposent sur l'infrastructure technologique actuelle.

Comment cela se compare-t-il aux autres approches émergentes? Qu'est-ce que cela signifie pour l'avenir plus large de l'IA?

La signification de l'informatique quantique à l'IA

La différence de base de l'informatique quantique est qu'il utilise des qubits, qui peuvent exister dans plusieurs états en même temps en raison de la superposition quantique. Cela permet aux ordinateurs quantiques d'évaluer un grand nombre de solutions potentielles en parallèle, ce qui peut avoir des avantages dans des taches telles que l'optimisation, la simulation ou la reconnaissance de modèle à grande échelle.

Dans le domaine de l'IA, les chercheurs ont exploré comment les fonctionnalités quantiques peuvent améliorer les taches telles que le traitement du langage naturel, l'optimisation de l'apprentissage automatique et l'efficacité de la formation des modèles. Cependant, la plupart de ces efforts en sont encore à leurs débuts. Par exemple, IBM et MIT ont étudié comment les modèles classiques quantiques hybrides réduisent le temps de formation pour des taches spécifiques d'apprentissage en profondeur, tandis que les startups telles que Zapata AI expérimentent des modèles d'amélioration quantique pour l'analyse et la prédiction des sentiments.

Dans ce contexte, l'approche de Dynex introduit une nouvelle architecture qui utilise des algorithmes heuristiques quantiques pour exécuter LLM plus efficacement grace à un matériel décentralisé.

QDLLM de Dynex: une approche parallèle basée sur la diffusion

Contrairement aux modèles basés sur les transformateurs qui utilisent des techniques d'autorégression pour générer une balise à la fois, le QDLLM de Dynex est construit sur un modèle de diffusion qui crée des balises de sortie en parallèle. Selon Dynex, cette approche est plus efficace en calcul et produit une meilleure cohérence contextuelle.

"Des modèles traditionnels comme GPT-4 ou Deepseek travaillent séquentiellement, mot après mot", a déclaré Daniela Herrmann, co-fondatrice de Dynex et chef de tache chez Dynex Moonshots. "QDLLM fonctionne en parallèle. Il pense plus comme le cerveau humain, traitant tous les modèles à la fois. C'est la puissance du quantum."

Plusieurs projets académiques tels que l'Université de Stanford et Google Deepmind, ainsi que des initiatives des principaux fournisseurs de technologies d'IA, ont récemment commencé à explorer le transformateur basé sur la diffusion.

Dynex se différencie encore en intégrant le recuit quantique, une forme d'optimisation quantique, pour améliorer la sélection des marques pendant la génération de texte. Cela augmente la cohérence et réduit les frais généraux de calcul par rapport aux LLM traditionnels, affirme la société.

Matériel quantique décentralisé et analogique

Une caractéristique unique du modèle Dynex est qu'elle s'appuie sur un réseau GPU décentralisé qui simule le comportement quantique plut?t que de nécessiter un accès au matériel quantique réel. Cette conception permet au système de s'étendre jusqu'à un million de qubits algorithmiques décrits par Dynex.

"Tout algorithme quantique, tel que QDLLM, est calculé sur le réseau décentralisé du GPU, qui simule efficacement l'informatique quantique", a expliqué Herrmann.

Ce type de simulation a des similitudes avec le travail de TensorFlow Quantum (Google et X) qui simule également les circuits quantiques sur le matériel classique pour créer des prototypes d'algorithme. De même, de nombreuses startups et fournisseurs technologiques développent des plates-formes pour simuler la logique quantique à grande échelle avant que le matériel physique ne soit prêt.

En plus du logiciel, Dynex prévoit de lancer son propre apollo de puce quantique neuromorphique en 2025. Contrairement aux puces quantiques supraconductrices qui nécessitent un refroidissement à basse température, Apollo est con?u pour fonctionner à température ambiante et prend en charge l'intégration dans les périphériques.

"L'utilisation de circuits neuromorphes permet à Dynex de simuler l'informatique quantique à grande échelle, jusqu'à 1 million de qubits algorithmiques", a expliqué Herrmann. "Dynex commencera à produire des puces quantiques réelles qui sont également basées sur des paradigmes neuromorphes."

Impact quantique sur l'efficacité de l'IA et l'impact environnemental

Dynex dit que QDLLM atteint 90% de tailles de modèles plus petites, 10 fois plus rapidement et n'utilise que 10% des ressources GPU généralement utilisées pour des taches équivalentes. Ce sont des déclarations importantes, en particulier compte tenu de la préoccupation croissante concernant la consommation d'énergie de l'IA.

"L'efficacité et le parallélisme des algorithmes quantiques réduisent la consommation d'énergie car il est 10 fois plus rapide et ne nécessite que 10% du nombre de GPU", a déclaré Herrmann.

Bien que la vérification indépendante soit toujours requise, l'approche de Dynex fait écho aux efforts des systèmes Cerebras, qui a créé des puces au niveau des versées qui utilisent moins d'énergie pour la formation des taches. Un autre exemple est Graphcore, dont l'unité de traitement intelligente (IPU) est con?ue pour réduire l'empreinte énergétique des charges de travail de l'IA via une architecture parallèle dédiée.

Dynex rapporte que QDLLM fonctionne fortement dans les repères nécessitant une forte inférence, surpassant les principaux modèles, y compris Chatgpt et Grok. Bien que les données de référence publiques n'étaient pas encore publiées, la société a déclaré qu'elle publierait une étude comparative car elle est plus proche du lancement du marché 2025. Les affirmations de performances de Dynex restent anecdotiques, mais intéressantes jusqu'à ce qu'elle soit fournie avec des repères évalués par les pairs.

"Nous publions régulièrement des repères QDLLM et avons prouvé que certaines questions qui nécessitent un raisonnement fort ne peuvent pas être répondues correctement par Chatgpt, Grok ou Deepseek", a noté Herrmann.

Une image plus grande: comment Quantum affectera-t-il l'IA?

à long terme, Dynex estime que l'informatique quantique deviendra le noyau du champ d'IA.

"Nous pensons que Quantum dominera l'IA pour les cinq prochaines années", a déclaré Herrmann.

Cette prédiction reste spéculative, mais non sans précédent. Les analystes de McKinsey, Boston Consulting Group et Gartner soulignent tous que l'informatique quantique peut améliorer considérablement les taches d'optimisation et de simulation, mais pour la plupart des cas d'utilisation, il peut ne pas être possible qu'après 2030. Une vision plus prudente suggère que la modélisation du risque financière ou la cybersecury.

Actuellement, Dynex est dans un domaine croissant qui expérimente l'augmentation quantique ou les méthodes d'IA heuristique quantique. Il reste à voir si leur QDLLM décentralisé basé sur la diffusion peut dépasser les repères, mais son émergence suggère que la recherche de nouvelles fondations de l'IA est loin d'être terminée.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefa?on, veuillez contacter admin@php.cn

Outils d'IA chauds

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

échangez les visages dans n'importe quelle vidéo sans effort grace à notre outil d'échange de visage AI entièrement gratuit?!

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Tutoriel PHP
1488
72
Kimi K2: le modèle agentique open source le plus puissant Kimi K2: le modèle agentique open source le plus puissant Jul 12, 2025 am 09:16 AM

Rappelez-vous le flot de modèles chinois open source qui a perturbé l'industrie du Genai plus t?t cette année? Alors que Deepseek a fait la majeure partie des titres, Kimi K1.5 était l'un des noms importants de la liste. Et le modèle était assez cool.

Grok 4 vs Claude 4: Quel est le meilleur? Grok 4 vs Claude 4: Quel est le meilleur? Jul 12, 2025 am 09:37 AM

à la mi-2025, l'AI ?Arme Race? se réchauffe, et Xai et Anthropic ont tous deux publié leurs modèles phares, Grok 4 et Claude 4.

10 robots humano?des incroyables qui marchent déjà parmi nous aujourd'hui 10 robots humano?des incroyables qui marchent déjà parmi nous aujourd'hui Jul 16, 2025 am 11:12 AM

Mais nous n'aurons probablement pas à attendre même 10 ans pour en voir un. En fait, ce qui pourrait être considéré comme la première vague de machines vraiment utiles, de type humain, est déjà là. Les dernières années ont vu un certain nombre de prototypes et de modèles de production sortant de T

L'ingénierie contextuelle est la & # 039; New & # 039; Ingénierie rapide L'ingénierie contextuelle est la & # 039; New & # 039; Ingénierie rapide Jul 12, 2025 am 09:33 AM

Jusqu'à l'année précédente, l'ingénierie rapide était considérée comme une compétence cruciale pour interagir avec les modèles de langage grand (LLM). Récemment, cependant, les LLM ont considérablement progressé dans leurs capacités de raisonnement et de compréhension. Naturellement, nos attentes

6 taches manus ai peut faire en quelques minutes 6 taches manus ai peut faire en quelques minutes Jul 06, 2025 am 09:29 AM

Je suis s?r que vous devez conna?tre l'agent général de l'IA, Manus. Il a été lancé il y a quelques mois, et au cours des mois, ils ont ajouté plusieurs nouvelles fonctionnalités à leur système. Maintenant, vous pouvez générer des vidéos, créer des sites Web et faire beaucoup de MO

Construisez un coach de fitness Langchain: votre entra?neur personnel AI Construisez un coach de fitness Langchain: votre entra?neur personnel AI Jul 05, 2025 am 09:06 AM

De nombreuses personnes ont frappé le gymnase avec passion et croient qu'ils sont sur le bon chemin pour atteindre leurs objectifs de fitness. Mais les résultats ne sont pas là en raison d'une mauvaise planification de la régime alimentaire et d'un manque de direction. Embaucher un entra?neur personnel al

L'application mobile d'immersité de Leia apporte une profondeur 3D aux photos de tous les jours L'application mobile d'immersité de Leia apporte une profondeur 3D aux photos de tous les jours Jul 09, 2025 am 11:17 AM

Construit sur le moteur de profondeur neuronale propriétaire de Leia, l'application traite des images fixes et ajoute de la profondeur naturelle avec un mouvement simulé - comme les casseroles, les zooms et les effets de parallaxe - pour créer de courts bobines vidéo qui donnent l'impression de pénétrer dans le SCE

Ces modèles d'IA n'ont pas appris la langue, ils ont appris la stratégie Ces modèles d'IA n'ont pas appris la langue, ils ont appris la stratégie Jul 09, 2025 am 11:16 AM

Une nouvelle étude de chercheurs du King’s College de Londres et de l’Université d’Oxford partage les résultats de ce qui s'est passé lorsque Openai, Google et Anthropic ont été jetés ensemble dans un concours fardé basé sur le dilemme du prisonnier itéré. Ce n'était pas

See all articles