亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

Table des matières
Se dirigeant vers AGI et ASI
L'intellect humain comme un baton de mesure
La ligne dans le sable
Twists et tourne à gogo
La recherche sur l'IA prenant des positions
Mystère de l'intelligence surhumaine
Se dirigeant vers l'inconnu
Maison Périphériques technologiques IA AGI et AI Superintelligence vont fortement frapper la barrière d'hypothèse du plafond humain

AGI et AI Superintelligence vont fortement frapper la barrière d'hypothèse du plafond humain

Jul 04, 2025 am 11:10 AM

AGI et AI Superintelligence vont fortement frapper la barrière d'hypothèse du plafond humain

Parlons-en.

Cette analyse d'une percée d'IA innovante fait partie de ma couverture de colonne Forbes en cours sur les dernières personnes en IA, notamment en identifiant et en expliquant diverses complexités d'IA percutantes (voir le lien ici).

Se dirigeant vers AGI et ASI

Premièrement, certains principes fondamentaux sont tenus de préparer le terrain pour cette discussion lourde.

Il y a beaucoup de recherches en cours pour faire progresser l'IA. L'objectif général est d'atteindre l'intelligence générale artificielle (AGI) ou peut-être même la possibilité tendue de réaliser une superintelligence artificielle (ASI).

AGI est AI qui est considéré comme à égalité avec l'intellect humain et qui peut correspondre apparemment à notre intelligence. L'ASI est une IA qui est allée au-delà de l'intellect humain et serait supérieure à beaucoup sinon toutes les manières possibles. L'idée est que l'ASI serait en mesure de faire des cercles autour des humains en nous éteignant à chaque tournant. Pour plus de détails sur la nature de l'IA conventionnelle contre AGI et ASI, consultez mon analyse sur le lien ici.

Nous n'avons pas encore atteint AGI.

En fait, on ne sait pas si nous atteindrons AGI, ou que peut-être AGI sera réalisable dans des décennies ou peut-être dans des siècles. Les dates de réalisation de l'AGI qui flottent sont très variables et extrêmement non étayées par toute preuve crédible ou logique à ferr. L'ASI est encore plus au-delà du pale en ce qui concerne l'endroit où nous sommes actuellement avec une IA conventionnelle.

L'intellect humain comme un baton de mesure

Avez-vous déjà réfléchi à l'énigme classique qui demande à quelle hauteur est en hausse?

Je suis s?r que vous l'avez.

Les enfants posent cette question épineuse de leurs parents. La réponse habituelle est que UP va au bord extérieur de l'atmosphère de la Terre. Après avoir frappé ce seuil, Up continue vers l'espace. UP est soit un concept borné basé sur notre atmosphère, soit c'est une notion presque infinie qui va jusqu'à la pointe de notre univers en expansion.

J'apporte cette énigme à votre attention car elle reflète quelque peu une question similaire sur la nature de l'intelligence humaine:

  • à quelle hauteur l'intelligence humaine peut-elle aller?

En d'autres termes, l'intelligence que nous présentons actuellement n'est probablement pas notre limite supérieure. Si vous comparez notre intelligence avec celle des générations passées, il semble certainement relativement évident que nous continuons à augmenter l'intelligence sur une base générationnelle. Les nés en 2100 seront-ils plus intelligents que nous ne le sommes maintenant? Qu'en est-il de la naissance en 2200? Dans l'ensemble, la plupart des gens supposaient que oui, l'intelligence de ces générations futures sera plus grande que l'intelligence dominante pour le moment.

Si vous adhérez à cette logique, l'aspect lié à la hausse se dresse sa tête épineuse. Pensez-y de cette fa?on. La capacité de l'intelligence humaine va continuer d'augmenter de manière générationnelle. à un moment donné, une génération existera-t-elle qui a été couronnée? La génération future représente la plus haute que l'intellect humain puisse jamais aller. Les générations suivantes seront soit d'intellect humain égal, ou moins et pas plus.

La raison pour laquelle nous voulons avoir une réponse à cette question est qu'il existe un besoin pressant à temps présent de savoir s'il y a une limite ou non. Je viens de souligner plus t?t que AGI sera à égalité avec l'intellect humain, tandis que l'ASI sera l'intelligence surhumaine. Où AGI est-il en plein essor, de sorte que nous pouvons alors tracer une ligne et dire que c'est tout? Tout ce qui est au-dessus de cette ligne va être interprété comme surhumain ou superintelligence.

à l'heure actuelle, l'utilisation de l'intellect humain comme baton de mesure est floue parce que nous ne savons pas combien de temps cette ligne est. Peut-être que la ligne se termine à un moment donné, ou peut-être qu'il continue à l'infini.

Donnez cette pensée lourde à réfléchir à la conscience.

La ligne dans le sable

Vous pourriez être tenté de supposer qu'il doit y avoir une limite supérieure à l'intelligence humaine. Cela se sent intuitivement bien. Nous ne sommes pas encore à cette limite (donc il semble!). On espère que l'humanité vivra un jour assez longtemps pour atteindre cette atmosphère extérieure.

étant donné que nous irons avec l'hypothèse de l'intelligence humaine comme ayant un point de garniture, ce qui le faisait pour une discussion, nous pouvons maintenant déclarer qu'Agi doit également avoir un point de garniture. La base de cette réclamation est certainement défendable. Si AGI consiste à imiter ou à montrer une intelligence humaine en quelque sorte, et si l'intelligence humaine rencontre un maximum, AGI rencontrera également inévitablement ce même maximum. C'est une supposition de définition.

Certes, nous ne savons pas nécessairement encore quel est le point maximum. Pas de soucis, au moins nous avons atterri sur une croyance stable qu'il y a un maximum. Nous pouvons ensuite attirer notre attention sur la détermination de l'endroit où réside ce maximum. Plus besoin d'être souligné par les aspects infinis.

Twists et tourne à gogo

L'IA est embourbée dans une controverse associée à l'énigme non résolue sous-jacente à un plafond à l'intelligence humaine. Explorons trois possibilités notables.

Premièrement, s'il y a un plafond à l'intelligence humaine, cela implique peut-être qu'il ne peut pas y avoir d'intelligence surhumaine.

Tu peux répéter s'il te plait?

?a va comme ?a. Une fois que nous avons frappé le sommet de l'intelligence humaine, Bam, c'est tout, plus de place pour aller plus haut. Tout ce qui est jusqu'à ce point a été l'intelligence humaine conventionnelle. Nous aurions peut-être faussement pensé qu'il y avait une intelligence surhumaine, mais ce n'était vraiment que l'intelligence légèrement en avance sur l'intelligence conventionnelle. Il n'y a pas d'intelligence surhumaine en soi. Tout est limité à l'intelligence conventionnelle. Ainsi, toute IA que nous faisons ne sera finalement pas plus grande que l'intelligence humaine.

Réfléchir à ?a.

Deuxièmement, eh bien, s'il y a un plafond à l'intelligence humaine, peut-être via l'IA, nous pouvons aller au-delà de ce plafond et concevoir l'intelligence surhumaine.

Cela semble plus simple. L'essence est que les humains sont en plein essor, mais cela ne signifie pas que l'IA doit également compléter. Via l'IA, nous pourrions être en mesure de dépasser l'intelligence humaine, c'est-à-dire dépasser la limite maximale de l'intelligence humaine. Bon.

Troisièmement, s'il n'y a pas de plafond à l'intelligence humaine, nous devons probablement dire que l'intelligence surhumaine est incluse dans cette possibilité infinie. Par conséquent, la distinction entre AGI et ASI est un mensonge. Il s'agit d'une ligne arbitrairement tracée.

Yikes, c'est un dilemme tout à fait plié.

Sans un atterrissage fixe sur la question de savoir s'il y a un capuchon d'intelligence humaine, les chances de clouer AGI et ASI restent à l'écart. Nous ne connaissons pas la réponse à cette proposition de plafond; Ainsi, la recherche sur l'IA doit faire différentes hypothèses de base sur le sujet non résolu.

La recherche sur l'IA prenant des positions

Les chercheurs d'IA prennent souvent la position selon laquelle il doit y avoir un niveau maximum associé à l'intellect humain. Ils acceptent généralement qu'il y a un maximum même si nous ne pouvons pas le prouver. La limite tout à fait inconnue, mais considérée comme existante, devient la ligne de démarcation entre AGI et ASI. Une fois que l'IA a dépassé la limite intellectuelle humaine, nous nous retrouvons dans le territoire surhumain.

Dans un article récemment publié intitulé ?Une approche de la sécurité et de la sécurité techniques de l'AGI? par Google Deepmind Researchers Rohin Shah, Alex Irpan, Alexander Matt Turner, Anna Wang, Arthur Conmy, David Lindner, Jonah Brown-Cohen, Lewis Ho, Neel Nanda, Raluca Ada Popa, Ristian Jain, Rory Greig, Samuel Albanie, Scott Emmons, Ristian, Rory Greig, Samuel Albanie, Scott Emmons, Ristian, Rory Greig, Samuel Albanie, Scot Farquhar, Sébastien Krier, Senthooran Rajamanoharan, Sophie Bridgers, Tobi Ijitoye, Tom Everitt, Victoria Krakovna, Vikrant Varma, Vladimir Mikulik, Zachary Kenton, Dave Orr, Shane Legg, Noah Goodman, Allan Dafoe, Four Flynn, and Anca Dragan, arXiv , April 2, 2025, ils ont fait ces points saillants (extraits):

  • ?L'hypothèse sans plafond humain: les capacités de l'IA ne cesseront pas d'avancer une fois qu'ils auront atteint la parité avec les humains les plus capables.?
  • ?Notre première affirmation est que la performance surhumaine a été démontrée de manière convaincante dans plusieurs taches. Cela fournit une? preuve de concept ?qu'il existe des taches concrètes et clairement définies pour lesquelles la capacité humaine ne représente pas un plafond significatif pour l'IA.?
  • ?Notre deuxième affirmation est que le développement de l'IA présente une tendance vers des systèmes plus généralistes et flexibles. Par conséquent, nous nous attendons à ce que la capacité surhumaine émerge à travers un nombre de taches de plus en plus important à l'avenir.?
  • ?Notre troisième affirmation est simplement que nous n'observons aucun argument de principe pourquoi la capacité de l'IA cessera de s'améliorer lors de la parté du parité avec les humains les plus capables.?

Vous pouvez voir sur ces points clés que les chercheurs ont essayé de faire preuve de cas convaincant qu'il existe une chose telle que l'intellect surhumain. Le surhumain est constitué de ce qui va au-delà du plafond humain. De plus, l'IA ne restera pas coincée au plafond intellect humain. L'IA dépassera le plafond humain et procédera dans le domaine de l'intellect surhumain.

Mystère de l'intelligence surhumaine

Supposons qu'il y ait un plafond à l'intelligence humaine. Si c'est vrai, l'intelligence surhumaine serait-elle quelque chose de complètement différent de la nature de l'intelligence humaine? En d'autres termes, nous disons que l'intelligence humaine ne peut pas atteindre l'intelligence surhumaine. Mais l'IA que nous concevons semble généralement être fa?onné autour de la nature globale de l'intelligence humaine.

Comment alors l'IA qui est fa?onnée autour de l'intelligence humaine peut-il atteindre la superintelligence lorsque l'intelligence humaine ne peut apparemment pas le faire?

Deux des réponses les plus fréquemment exprimées sont ces possibilités:

  • (1) C'est une question de dimensionnement ou d'échelle.
  • (2) C'est une question de différenciation.

La première réponse habituelle à l'énigme exaspérant est que cette taille pourrait faire la différence.

Le cerveau humain a environ trois livres de poids et est entièrement confiné à la taille de nos cranes, permettant à peu près au cerveau d'être d'environ 5,5 pouces par 6,5 pouces par 3,6 pouces dans les dimensions respectives. Le cerveau humain se compose d'environ 86 milliards de neurones et peut-être de 1 000 billions de synapses. L'intelligence humaine est apparemment collée à tout ce qui peut arriver dans ces contraintes de dimensionnement.

L'IA est un logiciel et des données qui se déroulent sur des milliers ou des millions de serveurs informatiques et d'unités de traitement. Nous pouvons toujours en ajouter plus. La limite de taille n'est pas aussi contraignante qu'un cerveau qui est logé dans nos têtes.

L'essentiel est que la raison pour laquelle nous pourrions avoir une IA qui présente l'intelligence surhumaine est due à dépasser les limitations de taille physique des cerveaux humains. Les progrès du matériel nous permettraient de remplacer les processeurs plus rapides et plus de processeurs pour continuer à pousser l'IA vers l'intelligence surhumaine.

La deuxième réponse est que l'IA n'a pas nécessairement besoin de se conformer aux compositions biochimiques qui donnent naissance à l'intelligence humaine. L'intelligence surhumaine pourrait ne pas être réalisable avec les humains car le cerveau est biochimiquement préfabriqué. L'IA peut facilement être con?ue et révisée pour exploiter toutes sortes de nouveaux types d'algorithmes et de matériel qui différencient les capacités d'IA des capacités humaines.

Se dirigeant vers l'inconnu

Ces deux considérations de taille et de différenciation pourraient également fonctionner de concert. Il se pourrait que l'IA devienne surhumaine intellectuellement en raison des aspects de mise à l'échelle et de la différenciation de la fa?on dont l'IA imite ou représente l'intelligence.

Hogwash, un peu exhort. L'IA est con?ue par les humains. Par conséquent, l'IA ne peut pas faire mieux que les humains. L'IA atteindra un jour le maximum de l'intellect humain et n'ira pas plus loin. Période, fin de l'histoire.

Whoa, vient la réplique. Pensez à l'humanité de trouver comment voler. Nous ne tournons pas les bras comme le font les oiseaux. Au lieu de cela, nous avons con?u des avions. Les avions volent. Les humains font des avions. Ergo, les humains peuvent décidément dépasser leurs propres limites.

La même chose s'appliquera à l'IA. Les humains feront l'IA. L'IA présentera l'intelligence humaine et atteindra à un moment donné les limites supérieures de l'intelligence humaine. L'IA sera ensuite plus avancée dans l'intelligence surhumaine, allant au-delà des limites de l'intelligence humaine. Vous pourriez dire que les humains peuvent faire de l'IA qui vole même si les humains ne peuvent pas le faire.

Une dernière pensée pour l'instant sur ce sujet séduisant. Albert Einstein a dit ceci: "Seules deux choses sont infinies, l'univers et la stupidité humaine, et je ne suis pas s?r de la première." Un commentaire assez effronté. Allez-y et donnez la question de l'IA de devenir AGI et peut-être une délibération sérieuse, mais restez sobrement réfléchi, car toute l'humanité pourrait dépendre de la réponse.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefa?on, veuillez contacter admin@php.cn

Outils d'IA chauds

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

échangez les visages dans n'importe quelle vidéo sans effort grace à notre outil d'échange de visage AI entièrement gratuit?!

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

L'investisseur de l'IA est resté à l'arrêt? 3 chemins stratégiques pour acheter, construire ou s'associer avec les fournisseurs d'IA L'investisseur de l'IA est resté à l'arrêt? 3 chemins stratégiques pour acheter, construire ou s'associer avec les fournisseurs d'IA Jul 02, 2025 am 11:13 AM

L'investissement est en plein essor, mais le capital seul ne suffit pas. Avec la montée et la décoloration des évaluations, les investisseurs dans les fonds de capital-risque axés sur l'IA doivent prendre une décision clé: acheter, construire ou partenaire pour gagner un avantage? Voici comment évaluer chaque option et PR

AGI et AI Superintelligence vont fortement frapper la barrière d'hypothèse du plafond humain AGI et AI Superintelligence vont fortement frapper la barrière d'hypothèse du plafond humain Jul 04, 2025 am 11:10 AM

Parlons-en. Cette analyse d'une percée innovante de l'IA fait partie de ma couverture de colonne Forbes en cours sur les dernières personnes en IA, notamment en identifiant et en expliquant diverses complexités d'IA percutantes (voir le lien ici). Se dirigeant vers Agi et

Kimi K2: le modèle agentique open source le plus puissant Kimi K2: le modèle agentique open source le plus puissant Jul 12, 2025 am 09:16 AM

Rappelez-vous le flot de modèles chinois open source qui a perturbé l'industrie du Genai plus t?t cette année? Alors que Deepseek a fait la majeure partie des titres, Kimi K1.5 était l'un des noms importants de la liste. Et le modèle était assez cool.

Prévision future d'une explosion de renseignement massive sur la voie de l'IA à AGI Prévision future d'une explosion de renseignement massive sur la voie de l'IA à AGI Jul 02, 2025 am 11:19 AM

Parlons-en. Cette analyse d'une percée innovante de l'IA fait partie de ma couverture de colonne Forbes en cours sur les dernières personnes en IA, notamment en identifiant et en expliquant diverses complexités d'IA percutantes (voir le lien ici). Pour ces lecteurs qui h

Grok 4 vs Claude 4: Quel est le meilleur? Grok 4 vs Claude 4: Quel est le meilleur? Jul 12, 2025 am 09:37 AM

à la mi-2025, l'AI ?Arme Race? se réchauffe, et Xai et Anthropic ont tous deux publié leurs modèles phares, Grok 4 et Claude 4.

Cha?ne de pensée pour le raisonnement Les modèles peuvent ne pas fonctionner à long terme Cha?ne de pensée pour le raisonnement Les modèles peuvent ne pas fonctionner à long terme Jul 02, 2025 am 11:18 AM

Par exemple, si vous posez une question à un modèle comme: "Que fait (x) personne à (x) l'entreprise?" Vous pouvez voir une cha?ne de raisonnement qui ressemble à quelque chose comme ceci, en supposant que le système sait comment récupérer les informations nécessaires: localiser les détails sur le CO

Le Sénat tue l'interdiction de l'IA au niveau de l'état à 10 ans niché dans le projet de loi budgétaire de Trump Le Sénat tue l'interdiction de l'IA au niveau de l'état à 10 ans niché dans le projet de loi budgétaire de Trump Jul 02, 2025 am 11:16 AM

Le Sénat a voté le 99-1 mardi matin pour tuer le moratoire après un tumulte de dernière minute de groupes de défense des groupes de défense, des législateurs et des dizaines de milliers d'Américains qui l'ont vu comme une dangereuse dépassement. Ils ne sont pas restés silencieux. Le Sénat écouté.

Cette startup a construit un h?pital en Inde pour tester son logiciel AI Cette startup a construit un h?pital en Inde pour tester son logiciel AI Jul 02, 2025 am 11:14 AM

Les essais cliniques sont un énorme goulot d'étranglement du développement de médicaments, et Kim et Reddy pensaient que le logiciel compatible AI qu'ils avait construit chez PI Health pourrait les aider à les faire plus rapidement et moins cher en élargissant le bassin de patients potentiellement éligibles. Mais le

See all articles