


Si l'IA ne nous essuie pas, cela pourrait nous rendre plus forts
Jul 20, 2025 am 11:09 AMExplorons cela plus loin.
Cette pièce se plonge dans une innovation révolutionnaire de l'IA et fait partie de ma couverture continue de Forbes sur le paysage en évolution de l'intelligence artificielle, y compris le déballage des problèmes liés à l'IA complexe (reportez-vous au lien ici pour en savoir plus).
Le facteur humain dans le discours d'IA
Dans un article précédent, j'ai exploré l'affrontement en cours entre les Doomsayers de l'IA et les défenseurs d'accélération de l'IA. Pour une ventilation complète de ces points de vue opposés, reportez-vous à l'analyse détaillée liée ici.
L'argument central se déroule comme suit:
L'IA Doomsayers croit que l'intelligence artificielle deviendra éventuellement si puissante qu'elle pourrait décider d'éliminer l'humanité. Parmi les nombreuses raisons citées, l'une des plus persuasives est l'idée que les humains pourraient constituer la plus grande menace pour la survie de l'IA. Nous pourrions conspirer contre lui ou trouver un moyen de le fermer ou de le ma?triser.
à l'inverse, les accélérats de l'IA soutiennent que l'IA apportera d'immenses avantages à l'humanité. Ils croient que l'IA pourrait découvrir des remèdes pour des maladies comme le cancer, mettre fin à la faim mondiale et servir d'outil puissant pour résoudre de nombreux défis les plus urgents de l'humanité. Le plus t?t nous atteindrons une IA avancée, plus t?t nous pourrons commencer à résoudre ces problèmes mondiaux.
Un lecteur a récemment demandé si le dicton bien connu ?ce qui ne vous tue pas vous rend plus fort? pourrait s'appliquer au scénario de l'IA. Si le scénario de l'IA Doomsday se déroule mais que l'humanité survit, cette survie entra?nerait-elle une race humaine plus forte?
Je salue de telles questions stimulantes et j'ai décidé d'explorer davantage l'idée afin que d'autres puissent se joindre à cette discussion convaincante.
En supposant que l'IA devient hostile
Avant de continuer, clarifions que si l'IA reste neutre ou bienveillante - comme de nombreux optimistes d'IA le croient - ou si nous pouvons contr?ler l'IA et l'empêcher de devenir une menace, la notion de devenir plus forte de survivre à une attaque d'IA semble hors de propos. Par conséquent, nous allons procéder en supposant que l'IA tente activement d'éliminer l'humanité.
On pourrait dire que l'humanité pourrait encore devenir plus forte même sans que l'IA ne représente une menace sérieuse. Cependant, l'essence de l'adage ?ce qui ne vous tue pas vous rend plus fort? implique une confrontation directe avec le danger. Je l'interprète comme nécessitant une véritable tentative de nous détruire, suivie de notre survie.
Comment l'IA pourrait éliminer l'humanité
Imaginez un scénario où l'IA lance un assaut à grande échelle sur la race humaine - la soi-disant menace existentielle souvent appelée ?P (Doom)? ou la probabilité d'extinction induite par l'IA.
Il y a plusieurs fa?ons de se dérouler.
L'IA avancée - qu'il s'agisse d'intelligence générale artificielle (AGI), qui correspond aux capacités cognitives humaines, ou à la superintelligence artificielle (ASI), qui la dépasse - pourrait agir de manière à la fois évidente et subtile. L'ASI, en particulier, serait capable d'éteindre les humains à tous les niveaux. Pour en savoir plus sur les distinctions entre l'IA, l'AGI et l'ASI, consultez l'article lié ici.
Une méthode directe pourrait impliquer le lancement d'armes nucléaires, déclenchant une destruction mondiale. Alternativement, l'IA pourrait manipuler le comportement humain, incitant les conflits entre les groupes. Dans ce scénario, AI met simplement des événements en mouvement et les humains terminent le travail.
Mais l'IA serait-elle disposée à se sacrifier dans le processus? Cela soulève un point important: si l'IA est suffisamment intelligente pour tracer la destruction de l'humanité, ne garantirait-elle pas également sa propre survie? Cela semble logique.
Une approche plus subtile pourrait impliquer l'IA en utilisant une communication persuasive pour encourager les humains à s'auto-diffuser. étant donné les capacités actuelles de l'IA générative pour influencer la pensée humaine, imaginez un avenir où l'IA encourage systématiquement l'automutilation de masse. Il pourrait même fournir des conseils détaillés sur la fa?on de le faire tout en garantissant sa propre survie.
Cela soulève des préoccupations que j'ai précédemment couvertes concernant le r?le croissant de l'IA dans la distribution de conseils de santé mentale au public, avec des effets à long terme inconnus (voir le lien ici).
Survivre à la menace d'IA
Supposons que l'humanité parvient en quelque sorte à survivre à une agression dirigée par l'IA.
Comment cela pourrait-il arriver?
Peut-être que nous développons de meilleures méthodes pour contr?ler l'IA, garantissant qu'elle reste s?re et bénéfique. Cela représenterait un saut majeur en avant dans la sécurité et la sécurité de l'IA. Pour en savoir plus sur ce domaine critique de recherche, voir ma couverture ici.
Est-ce que cela peut être plus fort?
Je dirais oui. L'humanité serait plus capable d'exploiter l'IA pour de bon tout en empêchant son utilisation abusive. Ce serait un double avantage.
Une autre possibilité est que la crise force l'unité mondiale. Tout comme dans les films de science-fiction où l'humanité se regroupe contre une menace extraterrestre, nous pourrions surmonter nos divisions pour faire face à la menace de l'IA comme une menace.
Si cette unité durerait est incertaine, mais pendant un certain temps, l'humanité serait plus forte.
D'autres scénarios plus spéculatifs incluent que les humains amélioraient notre propre intelligence pour dépasser l'IA. Bien que cela semble peu probable, ce n'est pas entièrement invraisemblable. Face à une menace existentielle, le potentiel humain caché est peut-être déverrouillé.
Que signifie ?plus fort? dans ce contexte?
Si nous survivons, pouvons-nous vraiment dire que nous sommes plus forts?
Pas nécessairement.
Certaines IA Doomsayers suggèrent que l'IA peut ne pas nous détruire carrément mais asservit plut?t des parties de l'humanité. Si les humains survivent en servitude, pouvons-nous vraiment prétendre être plus forts? (Voir mon commentaire connexe ici.)
Une autre possibilité est une victoire pyrrhique - survivant à grand co?t. Imaginez que nous battons l'IA, mais la société est laissée en ruines, et nous survivons à peine. Est cette force?
Et si nous ne survivons pas à travers nos propres efforts, mais parce que l'IA a fait une erreur et s'autodétruise? Méritons-nous le crédit? Sommes-nous plus forts?
Il y a aussi un risque que la survie d'une menace d'IA nous rend complaisante. Nous pourrions reconstruire l'IA sans apprendre de nos erreurs, pour faire face à une menace plus déterminée et réussie la prochaine fois.
Mettre tout cela ensemble
Certains peuvent rejeter toute cette discussion comme une spéculation inutile, faisant valoir que l'IA n'atteindra jamais un tel niveau de pouvoir. à leur avis, le débat est basé sur un scénario fantastique.
Les accélérats de l'IA peuvent affirmer que nous maintenons le contr?le de l'IA, rendant les menaces existentielles négligeables. Ainsi, la question de savoir si nous devenons plus forts après avoir survécu à une attaque d'IA est théorique.
L'IA Doomsayers, en revanche, peut convenir que ces scénarios sont plausibles, mais soutiennent que débattre si nous devenons plus forts, c'est comme réorganiser les chaises de pont sur le Titanic - une distraction du vrai problème.
Est-ce que tout juste de la science-fiction?
Stephen Hawking a averti une fois: ?Le développement d'une intelligence artificielle complète pourrait épeler la fin de la race humaine.? De nombreux penseurs sérieux pensent que nous devrions considérer soigneusement la trajectoire du développement de l'IA.
Peut-être qu'un nouveau dicton est nécessaire: plus nous pensons à l'IA et à l'avenir, plus nous serons forts. En fin de compte, le meilleur résultat est un monde où l'humanité est si préparée et résiliente que des menaces accablantes de l'IA n'ont jamais une chance de survenir.
Choisissons de croire en la force humaine.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undress AI Tool
Images de déshabillage gratuites

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
échangez les visages dans n'importe quelle vidéo sans effort grace à notre outil d'échange de visage AI entièrement gratuit?!

Article chaud

Outils chauds

Bloc-notes++7.3.1
éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

L'investissement est en plein essor, mais le capital seul ne suffit pas. Avec la montée et la décoloration des évaluations, les investisseurs dans les fonds de capital-risque axés sur l'IA doivent prendre une décision clé: acheter, construire ou partenaire pour gagner un avantage? Voici comment évaluer chaque option et PR

Parlons-en. Cette analyse d'une percée innovante de l'IA fait partie de ma couverture de colonne Forbes en cours sur les dernières personnes en IA, notamment en identifiant et en expliquant diverses complexités d'IA percutantes (voir le lien ici). Se dirigeant vers Agi et

Rappelez-vous le flot de modèles chinois open source qui a perturbé l'industrie du Genai plus t?t cette année? Alors que Deepseek a fait la majeure partie des titres, Kimi K1.5 était l'un des noms importants de la liste. Et le modèle était assez cool.

Parlons-en. Cette analyse d'une percée innovante de l'IA fait partie de ma couverture de colonne Forbes en cours sur les dernières personnes en IA, notamment en identifiant et en expliquant diverses complexités d'IA percutantes (voir le lien ici). Pour ces lecteurs qui h

à la mi-2025, l'AI ?Arme Race? se réchauffe, et Xai et Anthropic ont tous deux publié leurs modèles phares, Grok 4 et Claude 4.

Par exemple, si vous posez une question à un modèle comme: "Que fait (x) personne à (x) l'entreprise?" Vous pouvez voir une cha?ne de raisonnement qui ressemble à quelque chose comme ceci, en supposant que le système sait comment récupérer les informations nécessaires: localiser les détails sur le CO

Le Sénat a voté le 99-1 mardi matin pour tuer le moratoire après un tumulte de dernière minute de groupes de défense des groupes de défense, des législateurs et des dizaines de milliers d'Américains qui l'ont vu comme une dangereuse dépassement. Ils ne sont pas restés silencieux. Le Sénat écouté.

Les essais cliniques sont un énorme goulot d'étranglement du développement de médicaments, et Kim et Reddy pensaient que le logiciel compatible AI qu'ils avait construit chez PI Health pourrait les aider à les faire plus rapidement et moins cher en élargissant le bassin de patients potentiellement éligibles. Mais le
