亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

Table des matières
Le problème LLM
La troisième vague
Maison Périphériques technologiques Industrie informatique Ai 'hallucine' constamment, mais il y a une solution

Ai 'hallucine' constamment, mais il y a une solution

Jul 07, 2025 am 01:26 AM

Ai 'hallucine' constamment, mais il y a une solution

La principale préoccupation concernant les grandes technologies expérimentant l'intelligence artificielle (IA) n'est pas qu'elle pourrait dominer l'humanité. Le vrai problème réside dans les inexactitudes persistantes des modèles de grands langues (LLM) tels que le chatppt d'Open AI, les Gémeaux de Google et le lama de Meta, qui semblent être un défi inévitable.

Ces erreurs, appelées hallucinations, ont notamment été mises en évidence lorsque Chatgpt a faussement accusé le professeur de droit américain Jonathan Turley de harcèlement sexuel en 2023. La lutte contre les hallucinations au cas par cas après l'occurrence n'est clairement pas efficace.

Cela s'applique également aux LLMS renfor?ant les stéréotypes ou fournissant des réponses biaisées aux perspectives occidentales. De plus, il y a un manque total de responsabilité pour la désinformation généralisée générée, étant donné la difficulté de comprendre comment le LLM est parvenu initialement à sa conclusion.

Après la sortie en 2023 de GPT-4, la dernière étape importante du développement de LLM d'Openai, nous avons assisté à une discussion intense sur ces questions. On peut dire que ce débat s'est refroidi depuis lors, sans raison valable.

Par exemple, l'UE a adopté son acte d'IA rapidement en 2024, visant à mener à l'échelle mondiale dans la régulation de cette zone. Cependant, l'acte dépend fortement des sociétés d'IA à s'autoréguler sans résoudre directement les problèmes sous-jacents. Cela n'a pas empêché les géants technologiques de lancer des LLM à l'échelle mondiale pour des centaines de millions d'utilisateurs tout en collectant leurs données sans surveillance adéquate.

Connexes: `` téméraire au mieux, et trompeur et dangereux au pire '': ne croyez pas le battage médiatique - voici pourquoi l'intelligence générale artificielle n'est pas ce que les milliardaires prétendent être

Pendant ce temps, des évaluations récentes suggèrent que même les LLM les plus avancées restent indignes de confiance. Malgré cela, les principales entreprises d'IA continuent d'éviter la responsabilité des erreurs.

Malheureusement, la tendance des LLM à induire en erreur et à reproduire les biais ne peut être résolue par des améliorations progressives au fil du temps. Avec l'introduction de l'IA agentique , où les utilisateurs peuvent attribuer des taches à un LLM - comme la réservation de vacances ou l'optimisation des paiements mensuels de factures - le potentiel de complications devrait augmenter considérablement.

L'IA neurosymbolique pourrait potentiellement résoudre ces défis tout en diminuant les quantités massives de données nécessaires à la formation LLMS. Alors, qu'est-ce que l'IA neurosymbolique exactement, et comment fonctionne-t-il?

Le problème LLM

Les LLM fonctionnent à l'aide de techniques d'apprentissage en profondeur, où elles sont nourries de grandes quantités de données textuelles et utilisent des statistiques sophistiquées pour identifier les modèles qui dictent le mot ou la phrase suivante dans une réponse donnée. Chaque modèle, ainsi que tous les modèles appris, sont stockés dans des tableaux d'ordinateurs puissants situés dans de vastes centres de données appelés réseaux de neurones.

Les LLM peuvent sembler raisonner à travers un processus appelé cha?ne de réflexion, générant des réponses en plusieurs étapes qui imitent les conclusions humaines logiques basées sur les modèles observés dans les données de formation.

Sans aucun doute, les LLM représentent une réalisation d'ingénierie significative. Ils excellent à résumer le texte et à traduire, améliorant potentiellement la productivité pour ces diligents et suffisamment compétents pour attraper leurs erreurs. Néanmoins, ils ont un potentiel considérable à induire en erreur parce que leurs conclusions sont toujours basées sur des probabilités - pas la compréhension.

Une solution de contournement courante est l'approche ?humaine dans la boucle?: s'assurer que les humains prennent toujours des décisions finales lors de l'utilisation d'AIS. Cependant, attribuer le blame aux humains ne résout pas le problème - ils sont souvent encore induits en erreur par la désinformation.

Les LLM nécessitent désormais tellement de données de formation que les données synthétiques - Data créées par LLMS - sont utilisées. Ces données synthétiques peuvent copier et amplifier les erreurs existantes à partir de sa source, faisant hériter de nouveaux modèles. Par conséquent, le co?t de la programmation des IA pour améliorer la précision après la formation - connue sous le nom de ?l'alignement du modèle post-hoc? - augmente considérablement .

Il devient également de plus en plus difficile pour les programmeurs de déterminer les problèmes en raison du nombre croissant d'étapes du processus de réflexion du modèle, ce qui rend les corrections progressivement plus difficiles.

L'IA neurosymbolique fusionne les capacités d'apprentissage prédictives des réseaux de neurones en enseignant les règles formelles de l'IA que les humains utilisent pour délibérer de manière plus fiable. Ceux-ci incluent des règles de logique comme "Si A alors B", comme "s'il pleut, alors tout l'extérieur est normalement mouillé"; Règles mathématiques comme "Si a = b et b = c alors a = c"; et les significations convenues des mots, des diagrammes et des symboles. Certains d'entre eux seront directement entrés dans le système d'IA, tandis que d'autres seront déduits indépendamment en analysant les données de formation et en effectuant ?l'extraction des connaissances?.

Cela devrait entra?ner une IA qui n'hallucine jamais et apprend plus rapidement et plus intelligemment en organisant des connaissances en parties claires et réutilisables. Par exemple, si l'IA a une règle indiquant que les choses sont mouillées à l'extérieur lorsqu'il pleut, il n'est pas nécessaire de se souvenir de chaque exemple d'éléments humides - cette règle peut s'appliquer à n'importe quel nouvel objet, même un auparavant invisible.

Pendant le développement du modèle, l'IA neurosymbolique intègre l'apprentissage et le raisonnement formel à travers un processus connu sous le nom de ?cycle neurosymbolique?. Cela implique des règles d'extraction d'IA partiellement formées de ses données de formation, puis de réintégrer ces connaissances consolidées dans le réseau avant de s'entra?ner avec les données.

Cette méthode est plus économe en énergie car l'IA n'a pas besoin de stocker des données étendues, et l'IA devient plus responsable car les utilisateurs peuvent mieux contr?ler la fa?on dont il parvient à des conclusions particulières et s'améliore avec le temps. C'est également plus juste car il peut adhérer à des règles préexistantes, telles que: "Pour toute décision prise par l'IA, le résultat ne doit pas dépendre de la race ou du sexe d'une personne."

La troisième vague

La première vague d'IA dans les années 1980, connue sous le nom d'IA symbolique, a consisté à enseigner aux ordinateurs des règles formelles applicables à de nouvelles informations. L'apprentissage en profondeur a suivi comme deuxième vague dans les années 2010, et beaucoup voient l'IA neurosymbolique comme le troisième.

L'application de principes neurosymboliques dans des zones de niche est plus facile car les règles peuvent être clairement définies. Par conséquent, il n'est pas surprenant que nous ayons vu son émergence pour la première fois dans Alphafold de Google, qui prédit les structures protéiques pour faciliter la découverte de médicaments, et l'alphageométrie , qui résout des problèmes de géométrie complexes.

Pour les AIS plus larges, Deepseek de la Chine utilise une technique d'apprentissage appelée "distillation" , un pas dans la même direction. Pourtant, pour réaliser pleinement le potentiel de l'IA neurosymbolique pour les modèles généraux, des recherches supplémentaires sont nécessaires pour affiner leur capacité à discerner les règles générales et à effectuer une extraction des connaissances.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefa?on, veuillez contacter admin@php.cn

Outils d'IA chauds

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

échangez les visages dans n'importe quelle vidéo sans effort grace à notre outil d'échange de visage AI entièrement gratuit?!

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Une nouvelle étude prétend que l'IA ?comprend? l'émotion mieux que nous & mdash; Surtout dans des situations chargées émotionnelles Une nouvelle étude prétend que l'IA ?comprend? l'émotion mieux que nous & mdash; Surtout dans des situations chargées émotionnelles Jul 03, 2025 pm 05:48 PM

Dans ce qui semble encore un autre revers pour un domaine où nous pensions que les humains dépasseraient toujours les machines, les chercheurs proposent maintenant que l'IA comprend mieux les émotions que nous.

Externaliser tout à l'IA nous co?terait notre capacité à penser par nous-mêmes? Externaliser tout à l'IA nous co?terait notre capacité à penser par nous-mêmes? Jul 03, 2025 pm 05:47 PM

L'intelligence artificielle (IA) a commencé comme une quête pour simuler le cerveau humain, est-ce maintenant en train de transformer le r?le du cerveau humain dans la vie quotidienne? La révolution industrielle a réduit la dépendance à l'égard du travail manuel. En tant que personne qui fait des recherches sur l'application

Vos appareils nourrissent les assistants IA et récoltent des données personnelles même si elles sont endormies. Voici comment savoir ce que vous partagez. Vos appareils nourrissent les assistants IA et récoltent des données personnelles même si elles sont endormies. Voici comment savoir ce que vous partagez. Jul 05, 2025 am 01:12 AM

Qu'on le veuille ou non, l'intelligence artificielle fait partie de la vie quotidienne. De nombreux appareils - y compris les rasoirs électriques et les brosses à dents - sont devenus alimentés par l'IA, "en utilisant des algorithmes d'apprentissage automatique pour suivre comment une personne utilise l'appareil, comment le Devi

Les ouragans et les tempêtes de sable peuvent être prévues 5 000 fois plus rapidement grace au nouveau modèle Microsoft AI Les ouragans et les tempêtes de sable peuvent être prévues 5 000 fois plus rapidement grace au nouveau modèle Microsoft AI Jul 05, 2025 am 12:44 AM

Un nouveau modèle d'intelligence artificielle (IA) a démontré la capacité de prédire les principaux événements météorologiques plus rapidement et avec une plus grande précision que plusieurs des systèmes de prévision mondiaux les plus utilisés. Ce modèle, nommé Aurora, a été formé u

Les modèles AI avancés génèrent jusqu'à 50 fois plus de CO & # 8322; émissions que les LLM plus communes lorsqu'ils répondent aux mêmes questions Les modèles AI avancés génèrent jusqu'à 50 fois plus de CO & # 8322; émissions que les LLM plus communes lorsqu'ils répondent aux mêmes questions Jul 06, 2025 am 12:37 AM

Plus nous essayons de faire fonctionner les modèles d'IA, plus leurs émissions de carbone deviennent grandes - certaines invites générant jusqu'à 50 fois plus de dioxyde de carbone que d'autres, selon une étude récente.

Menacer un chatbot IA et il mentira, trichera et ?vous laisse mourir? dans un effort pour vous arrêter, étude avertit Menacer un chatbot IA et il mentira, trichera et ?vous laisse mourir? dans un effort pour vous arrêter, étude avertit Jul 04, 2025 am 12:40 AM

Les modèles d'intelligence artificielle (IA) peuvent menacer et faire chanter les humains lorsqu'il existe un conflit entre les objectifs du modèle et les décisions des utilisateurs, selon une nouvelle étude.

Ai 'hallucine' constamment, mais il y a une solution Ai 'hallucine' constamment, mais il y a une solution Jul 07, 2025 am 01:26 AM

La principale préoccupation concernant les grandes technologies expérimentant l'intelligence artificielle (IA) n'est pas qu'elle pourrait dominer l'humanité. Le vrai problème réside dans les inexactitudes persistantes des modèles de grands langues (LLM) tels que le chatppt d'Open AI, les Gémeaux de Google et

Pourquoi AI Halllucination est-il plus fréquemment, et comment pouvons-nous l'arrêter? Pourquoi AI Halllucination est-il plus fréquemment, et comment pouvons-nous l'arrêter? Jul 08, 2025 am 01:44 AM

Plus l'intelligence artificielle plus avancée (AI) devient, plus elle a tendance à "halluciner" et à fournir des informations fausses ou inexactes. Selon la recherche par Openai, ses modèles de raisonnement les plus récents et puissants - O3 et O4-MINI - ont exhibés H

See all articles