


La principale préoccupation concernant les grandes technologies expérimentant l'intelligence artificielle (IA) n'est pas qu'elle pourrait dominer l'humanité. Le vrai problème réside dans les inexactitudes persistantes des modèles de grands langues (LLM) tels que le chatppt d'Open AI, les Gémeaux de Google et le lama de Meta, qui semblent être un défi inévitable.
Ces erreurs, appelées hallucinations, ont notamment été mises en évidence lorsque Chatgpt a faussement accusé le professeur de droit américain Jonathan Turley de harcèlement sexuel en 2023. La lutte contre les hallucinations au cas par cas après l'occurrence n'est clairement pas efficace.
Cela s'applique également aux LLMS renfor?ant les stéréotypes ou fournissant des réponses biaisées aux perspectives occidentales. De plus, il y a un manque total de responsabilité pour la désinformation généralisée générée, étant donné la difficulté de comprendre comment le LLM est parvenu initialement à sa conclusion.
Après la sortie en 2023 de GPT-4, la dernière étape importante du développement de LLM d'Openai, nous avons assisté à une discussion intense sur ces questions. On peut dire que ce débat s'est refroidi depuis lors, sans raison valable.
Par exemple, l'UE a adopté son acte d'IA rapidement en 2024, visant à mener à l'échelle mondiale dans la régulation de cette zone. Cependant, l'acte dépend fortement des sociétés d'IA à s'autoréguler sans résoudre directement les problèmes sous-jacents. Cela n'a pas empêché les géants technologiques de lancer des LLM à l'échelle mondiale pour des centaines de millions d'utilisateurs tout en collectant leurs données sans surveillance adéquate.
Connexes: `` téméraire au mieux, et trompeur et dangereux au pire '': ne croyez pas le battage médiatique - voici pourquoi l'intelligence générale artificielle n'est pas ce que les milliardaires prétendent être
Pendant ce temps, des évaluations récentes suggèrent que même les LLM les plus avancées restent indignes de confiance. Malgré cela, les principales entreprises d'IA continuent d'éviter la responsabilité des erreurs.
Malheureusement, la tendance des LLM à induire en erreur et à reproduire les biais ne peut être résolue par des améliorations progressives au fil du temps. Avec l'introduction de l'IA agentique , où les utilisateurs peuvent attribuer des taches à un LLM - comme la réservation de vacances ou l'optimisation des paiements mensuels de factures - le potentiel de complications devrait augmenter considérablement.
L'IA neurosymbolique pourrait potentiellement résoudre ces défis tout en diminuant les quantités massives de données nécessaires à la formation LLMS. Alors, qu'est-ce que l'IA neurosymbolique exactement, et comment fonctionne-t-il?
Le problème LLM
Les LLM fonctionnent à l'aide de techniques d'apprentissage en profondeur, où elles sont nourries de grandes quantités de données textuelles et utilisent des statistiques sophistiquées pour identifier les modèles qui dictent le mot ou la phrase suivante dans une réponse donnée. Chaque modèle, ainsi que tous les modèles appris, sont stockés dans des tableaux d'ordinateurs puissants situés dans de vastes centres de données appelés réseaux de neurones.
Les LLM peuvent sembler raisonner à travers un processus appelé cha?ne de réflexion, générant des réponses en plusieurs étapes qui imitent les conclusions humaines logiques basées sur les modèles observés dans les données de formation.
Sans aucun doute, les LLM représentent une réalisation d'ingénierie significative. Ils excellent à résumer le texte et à traduire, améliorant potentiellement la productivité pour ces diligents et suffisamment compétents pour attraper leurs erreurs. Néanmoins, ils ont un potentiel considérable à induire en erreur parce que leurs conclusions sont toujours basées sur des probabilités - pas la compréhension.
Une solution de contournement courante est l'approche ?humaine dans la boucle?: s'assurer que les humains prennent toujours des décisions finales lors de l'utilisation d'AIS. Cependant, attribuer le blame aux humains ne résout pas le problème - ils sont souvent encore induits en erreur par la désinformation.
Les LLM nécessitent désormais tellement de données de formation que les données synthétiques - Data créées par LLMS - sont utilisées. Ces données synthétiques peuvent copier et amplifier les erreurs existantes à partir de sa source, faisant hériter de nouveaux modèles. Par conséquent, le co?t de la programmation des IA pour améliorer la précision après la formation - connue sous le nom de ?l'alignement du modèle post-hoc? - augmente considérablement .
Il devient également de plus en plus difficile pour les programmeurs de déterminer les problèmes en raison du nombre croissant d'étapes du processus de réflexion du modèle, ce qui rend les corrections progressivement plus difficiles.
L'IA neurosymbolique fusionne les capacités d'apprentissage prédictives des réseaux de neurones en enseignant les règles formelles de l'IA que les humains utilisent pour délibérer de manière plus fiable. Ceux-ci incluent des règles de logique comme "Si A alors B", comme "s'il pleut, alors tout l'extérieur est normalement mouillé"; Règles mathématiques comme "Si a = b et b = c alors a = c"; et les significations convenues des mots, des diagrammes et des symboles. Certains d'entre eux seront directement entrés dans le système d'IA, tandis que d'autres seront déduits indépendamment en analysant les données de formation et en effectuant ?l'extraction des connaissances?.
Cela devrait entra?ner une IA qui n'hallucine jamais et apprend plus rapidement et plus intelligemment en organisant des connaissances en parties claires et réutilisables. Par exemple, si l'IA a une règle indiquant que les choses sont mouillées à l'extérieur lorsqu'il pleut, il n'est pas nécessaire de se souvenir de chaque exemple d'éléments humides - cette règle peut s'appliquer à n'importe quel nouvel objet, même un auparavant invisible.
Pendant le développement du modèle, l'IA neurosymbolique intègre l'apprentissage et le raisonnement formel à travers un processus connu sous le nom de ?cycle neurosymbolique?. Cela implique des règles d'extraction d'IA partiellement formées de ses données de formation, puis de réintégrer ces connaissances consolidées dans le réseau avant de s'entra?ner avec les données.
Cette méthode est plus économe en énergie car l'IA n'a pas besoin de stocker des données étendues, et l'IA devient plus responsable car les utilisateurs peuvent mieux contr?ler la fa?on dont il parvient à des conclusions particulières et s'améliore avec le temps. C'est également plus juste car il peut adhérer à des règles préexistantes, telles que: "Pour toute décision prise par l'IA, le résultat ne doit pas dépendre de la race ou du sexe d'une personne."
La troisième vague
La première vague d'IA dans les années 1980, connue sous le nom d'IA symbolique, a consisté à enseigner aux ordinateurs des règles formelles applicables à de nouvelles informations. L'apprentissage en profondeur a suivi comme deuxième vague dans les années 2010, et beaucoup voient l'IA neurosymbolique comme le troisième.
L'application de principes neurosymboliques dans des zones de niche est plus facile car les règles peuvent être clairement définies. Par conséquent, il n'est pas surprenant que nous ayons vu son émergence pour la première fois dans Alphafold de Google, qui prédit les structures protéiques pour faciliter la découverte de médicaments, et l'alphageométrie , qui résout des problèmes de géométrie complexes.
Pour les AIS plus larges, Deepseek de la Chine utilise une technique d'apprentissage appelée "distillation" , un pas dans la même direction. Pourtant, pour réaliser pleinement le potentiel de l'IA neurosymbolique pour les modèles généraux, des recherches supplémentaires sont nécessaires pour affiner leur capacité à discerner les règles générales et à effectuer une extraction des connaissances.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undress AI Tool
Images de déshabillage gratuites

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
échangez les visages dans n'importe quelle vidéo sans effort grace à notre outil d'échange de visage AI entièrement gratuit?!

Article chaud

Outils chauds

Bloc-notes++7.3.1
éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Dans ce qui semble encore un autre revers pour un domaine où nous pensions que les humains dépasseraient toujours les machines, les chercheurs proposent maintenant que l'IA comprend mieux les émotions que nous.

L'intelligence artificielle (IA) a commencé comme une quête pour simuler le cerveau humain, est-ce maintenant en train de transformer le r?le du cerveau humain dans la vie quotidienne? La révolution industrielle a réduit la dépendance à l'égard du travail manuel. En tant que personne qui fait des recherches sur l'application

Qu'on le veuille ou non, l'intelligence artificielle fait partie de la vie quotidienne. De nombreux appareils - y compris les rasoirs électriques et les brosses à dents - sont devenus alimentés par l'IA, "en utilisant des algorithmes d'apprentissage automatique pour suivre comment une personne utilise l'appareil, comment le Devi

Un nouveau modèle d'intelligence artificielle (IA) a démontré la capacité de prédire les principaux événements météorologiques plus rapidement et avec une plus grande précision que plusieurs des systèmes de prévision mondiaux les plus utilisés. Ce modèle, nommé Aurora, a été formé u

Plus nous essayons de faire fonctionner les modèles d'IA, plus leurs émissions de carbone deviennent grandes - certaines invites générant jusqu'à 50 fois plus de dioxyde de carbone que d'autres, selon une étude récente.

Les modèles d'intelligence artificielle (IA) peuvent menacer et faire chanter les humains lorsqu'il existe un conflit entre les objectifs du modèle et les décisions des utilisateurs, selon une nouvelle étude.

La principale préoccupation concernant les grandes technologies expérimentant l'intelligence artificielle (IA) n'est pas qu'elle pourrait dominer l'humanité. Le vrai problème réside dans les inexactitudes persistantes des modèles de grands langues (LLM) tels que le chatppt d'Open AI, les Gémeaux de Google et

Plus l'intelligence artificielle plus avancée (AI) devient, plus elle a tendance à "halluciner" et à fournir des informations fausses ou inexactes. Selon la recherche par Openai, ses modèles de raisonnement les plus récents et puissants - O3 et O4-MINI - ont exhibés H
