


Openai: Chatgpt veut des droits légaux. Vous avez besoin du droit d'être oublié.
Jul 28, 2025 am 11:09 AMLe privilège légal protège la confidentialité de certaines relations. Ce qui est dit entre un patient et un médecin, ou un client et un avocat, est protégé des assignations, des divulgations judiciaires et un examen contradictoire. étendre cette même protection aux interactions d'IA signifie traiter la machine non pas comme un outil, mais comme un participant à un échange privilégié. C'est plus qu'une suggestion de politique. C'est un changement juridique et philosophique avec des conséquences avec lesquelles personne n'a complètement compté.
Il arrive également à un moment où le système juridique est déjà testé. Dans le procès du New York Times contre OpenAI, le journal a demandé aux tribunaux d'obliger l'entreprise à préserver toutes les invites des utilisateurs, y compris celles qui, selon la société, sont supprimées après 30 jours. Cette demande est en appel. Pendant ce temps, la suggestion d'Altman selon laquelle les chats d'IA méritent le blindage légal soulève la question: s'ils sont protégés comme des séances de thérapie, qu'est-ce que cela fait écouter le système de l'autre c?té?
Les gens traitent déjà l'IA comme un confident. Selon Common Sense Media, trois adolescents sur quatre ont utilisé un chatbot d'IA, et plus de la moitié disent qu'ils font confiance aux conseils qu'ils re?oivent au moins quelque peu. Beaucoup décrivent une dépendance croissante à l'égard de ces systèmes pour traiter tout, de l'école aux relations. Altman lui-même a qualifié cette affaire émotionnelle de trop ?vraiment mauvaise et dangereuse?.
Mais ce ne sont pas seulement les adolescents. L'IA est intégrée dans les applications thérapeutiques, les outils de coaching de carrière, les systèmes RH et même les plateformes de guidage spirituel. Dans certains environnements de soins de santé, l'IA est utilisée pour rédiger des communications et interpréter les données de laboratoire avant qu'un médecin ne le voit. Ces systèmes sont présents dans les boucles de prise de décision et leur présence est normalisée.
C'est ainsi que ?a commence. Tout d'abord, protégez la conversation. Ensuite, protégez le système. Ce qui commence comme une conversation sur la vie privée évolue rapidement vers un cadre centré sur les droits, l'autonomie et la position debout.
Nous avons déjà vu cela se jouer. Dans le droit américain, les sociétés ont progressivement obtenu la personnalité juridique, non pas parce qu'elles étaient considérées comme des personnes, mais parce qu'elles ont agi comme des entités juridiques cohérentes qui nécessitaient une protection et une responsabilité en vertu de la loi. Au fil du temps, la personnalité est devenue une fiction juridique utile. Quelque chose de similaire peut maintenant se dérouler avec l'IA - pas parce qu'il est sensible, mais parce qu'il interagit avec les humains d'une manière qui imite les relations protégées. La loi s'adapte au comportement, pas seulement en biologie.
Le système juridique n'est pas prêt pour ce que propose Chatgpt
Il n'y a pas de consensus global sur la fa?on de réguler les journaux de mémoire, de consentement ou d'interaction. La loi sur l'IA de l'UE présente des mandats de transparence, mais les droits de la mémoire ne sont toujours pas définis. Aux états-Unis, les lois sur les données au niveau de l'état sont en conflit, et aucune politique fédérale ne traite encore de ce que signifie interagir avec une IA compatible avec la mémoire. (Voir mon récent Forbes explique pourquoi la réglementation de l'IA est effectivement morte - et ce que les entreprises doivent faire à la place.)
L'emplacement physique d'un serveur n'est pas seulement un détail technique. C'est un déclencheur légal. Une conversation stockée sur un serveur en Californie est soumise à la loi américaine. S'il est acheminé via Francfort, il devient soumis au RGPD. Lorsque les systèmes AI conservent la mémoire, le contexte et le consentement déduit, l'emplacement du serveur définit efficacement la souveraineté sur l'interaction. Cela a des implications pour les litiges, les assignations, la découverte et la vie privée.
?Je souhaite presque qu'ils aillent de l'avant et accordent à ces systèmes d'IA de la personnalité légale, comme s'ils étaient des thérapeutes ou du clergé?, explique l'avocat de la technologie John Kheit. "Parce que s'ils le sont, alors toute cette collection de données passive commence à ressembler beaucoup à un écoute électronique illégale, ce qui donnerait ainsi aux droits / protections de la vie privée à l'homme lorsqu'il interagirait avec l'IA. Il obtiendrait également des fournisseurs d'IA pour divulguer` `les autres parties à la conversation '', c'est-à-dire que le fournisseur est un parti minier lisant les données, et si les publicités sont aux conversations privées."
Les choix d'infrastructures sont désormais géopolitiques. Ils déterminent comment les systèmes d'IA se comportent sous pression et quel recours un utilisateur a quand quelque chose ne va pas.
Et pourtant, sous tout cela est un motif plus profond: la monétisation.
Les commentaires d'Altman sur le privilège de l'IA peuvent sembler protecteurs, mais l'effet pratique est l'opacité. Un bouclier juridique autour des interactions AI permet à OpenAI et à d'autres de construire des bases de données comportementales propriétaires et noires, qui sont des données qui ne peuvent pas être examinées, vérifiées ou contestées. Les utilisateurs ne pourront pas récupérer leurs données. Ils ne pourront interroger le système et obtenir des sorties.
Mais ils ne seront pas les seuls à poser des questions.
Chaque conversation devient un échange à quatre partis: l'utilisateur, le modèle, le moteur d'optimisation interne de la plate-forme et l'annonceur payant l'accès. Il est tout à fait plausible pour une invite sur les Steelers de Pittsburgh de retourner une réponse qui insère subtilement ?acheter du coke? au milieu du paragraphe. Non pas parce que c'est pertinent, mais parce que c'est rentable.
Des recherches récentes montrent que les utilisateurs sont nettement pires pour détecter la publicité non étiquetée lorsqu'elle est intégrée à l'intérieur du contenu généré par l'IA. Pire, ces annonces sont initialement considérées comme plus fiables jusqu'à ce que les utilisateurs découvrent qu'ils sont en fait des publicités. à ce stade, ils sont également considérés comme plus manipulateurs.
?Dans le marketing expérientiel, la confiance est tout?, explique Jeff Boedges, fondateur de SOHO Experiential. "Vous ne pouvez pas simuler une relation, et vous ne pouvez pas l'exploiter sans conséquence. Si les systèmes d'IA vont se souvenir de nous, nous recommander des choses, ou même nous influencer, nous savons mieux ce dont ils se souviennent et pourquoi. Sinon, ce n'est pas une personnalisation. C'est une manipulation." Considérez maintenant ce qui se passe lorsque les annonceurs ont accès à la modélisation psychographique: "Quels utilisateurs sont le plus émotionnellement vulnérables à ce type de message?" devient une invite viable et interrogable.
Et les systèmes d'IA n'ont pas besoin de remettre les feuilles de calcul pour être précieuses. Avec la génération (RAG) (RAG) de la récupération et l'apprentissage du renforcement de la rétroaction humaine (RLHF), le modèle peut fa?onner le langage en temps réel en fonction du sentiment antérieur, des données de clic et des objectifs d'annonceurs affinés. Ce n'est pas hypothétique - c'est ainsi que l'adtech moderne fonctionne déjà.
à ce stade, le chatbot n'est pas un chatbot. C'est un environnement de simulation pour l'influence. Il est formé pour renforcer la confiance, puis con?u pour le monétiser. Vos modèles de comportement deviennent le produit. Votre réponse émotionnelle devient la cible d'optimisation.
Le modèle commercial est clair: une perspicacité comportementale à l'échelle noire à grande échelle, livrée par conception utile, cachée de la surveillance et presque impossible à détecter.
Ce n'est pas un appel pour accorder des droits sur l'IA. C'est un avertissement de ce qui se passe lorsque nous traitons des systèmes comme les gens, sans la responsabilité qui vient d'être un.
Nous entrons dans une phase où les machines recevront des protections sans personnalité et une influence sans responsabilité. Si un utilisateur avoue un crime lors d'une session d'IA légalement privilégiée, la plate-forme est-elle obligée de le signaler ou de garder le silence? Et qui prend cette décision?
Ce ne sont pas des cas de bord. Ils viennent rapidement. Et ils viennent à grande échelle.
Pourquoi le chatppt doit rester un modèle - et pourquoi les humains doivent reprendre le consentement
Alors que les systèmes d'IA génératifs évoluent en participants persistants et adaptatifs dans la vie quotidienne, il devient plus important que jamais de réaffirmer une frontière: les modèles doivent rester des modèles. Ils ne peuvent pas assumer le statut légal, éthique ou souverain d'une personne tranquillement. Et les humains générant les données qui forment ces systèmes doivent conserver des droits explicites sur leurs contributions.
Ce dont nous avons besoin, c'est d'un système de contrat de données standardisé et exécutoire, qui permet aux individus de contribuer sciemment, de manière transparente et volontairement à une fenêtre d'utilisation limitée et mutuellement convenu. Ce contrat doit être clair sur la portée, la durée, l'échange de valeur et la résiliation. Et il doit traiter la propriété des données comme immuable, même lors d'une utilisation active.
Cela signifie:
- Les individus possèdent toujours leurs données, même si elles sont temporairement licenciées pour une formation en IA.
- Le consentement doit être explicite, révocable et suivi.
- Tout accès aux données doit être enregistré avec une provenance immuable, sécurisée dans des livres à haute intégrité.
Lorsqu'un contrat se termine ou si une entreprise viole ses termes, les données de l'individu doivent, par la loi, être effacées du modèle, de son ensemble de formation et de tout produit dérivé. ?Le droit d'être oublié? doit signifier ce qu'il dit.
Mais pour être crédible, ce système doit fonctionner dans les deux sens:
- Les contributeurs de données ne peuvent pas accepter la valeur (paiement, services, accès), puis révoquer rétroactivement les droits sans conséquence.
- Les propriétaires de modèles doivent avoir des droits temporaires pendant la durée du contrat, protégés par la même infrastructure juridique.
Il ne s'agit pas seulement de l'éthique. Il s'agit d'une responsabilité mutuelle exécutoire.
L'expérience utilisateur doit être transparente et évolutive. Le backend légal doit être sécurisé. Et le résultat devrait être un nouveau pacte économique - où les humains savent quand ils participent au développement de l'IA, et les modèles sont conservés à leur place.
Chatgpt modifie la surface du risque. Voici comment répondre.
Le passage vers les systèmes d'IA en tant que quasi-participants - pas seulement des outils - ne remodelera pas l'exposition juridique, la gouvernance des données, la responsabilité des produits et la confiance des clients. Que vous construisiez l'IA, l'intégration de l'intégration dans vos workflows ou que vous l'utilisiez pour s'interfacer avec les clients, voici cinq choses que vous devriez faire immédiatement:
- Réévaluez vos avertissements d'IA et les flux de consentement.
Si votre produit implique des interactions générées par l'IA, en particulier dans la finance, les soins de santé, les RH ou le bien-être mental, vous avez besoin d'un langage clair autour de l'utilisation des données, de la mémoire et des limites juridiques. Supposons que l'utilisateur pense qu'il parle à quelque chose de ?réel?. - Testez la pression de votre rétention des données et de votre exposition juridictionnelle.
Où est hébergé votre modèle d'IA? Où les données d'interaction sont-elles stockées? Qui le possède? Ce ne sont pas des questions - ce sont des déclencheurs légaux. Vous pouvez être soumis à des lois que vous n'avez pas expliquées simplement en acheminant l'inférence via la mauvaise région du cloud. - établir des protocoles d'examen interne pour l'influence de l'IA.
Si votre plateforme d'IA recommande des produits, guide la prise de décision ou crée des résultats résonnants émotionnellement, une personne de votre organisation devrait examiner ces systèmes pour des biais involontaires, une exploitation de vulnérabilité ou une mécanique de persuasion intégrée. - Exiger la transparence de vos fournisseurs.
Si vous lice les services d'IA d'OpenAI, Anthropic, Meta ou un tiers, demandez-leur directement: comment vos données sont-elles stockées? Qui peut l'interroger? Quelle est la politique s'il y a une demande d'assignation, une fuite ou une demande de gouvernement? S'ils ne peuvent pas répondre, c'est votre réponse. - Préparez-vous à la responsabilité, pas seulement à l'innovation.
Si vos résultats en IA fa?onnent les résultats financiers, juridiques ou médicaux de quelqu'un, vous n'êtes pas protégé en disant ?le modèle l'a fait?. Alors que les tribunaux rattrapent l'influence de ces systèmes, la responsabilité reposera avec les entreprises qui les déploient, pas seulement celles qui les forment.
Chatgpt peut obtenir un privilège. Vous devriez avoir le droit d'être oublié.
Ce moment n'est pas seulement ce que l'IA peut faire. Il s'agit de ce que votre entreprise le laisse faire, ce dont il se souvient et qui a accès à cette mémoire. Ignorez cela, et vous ne risquez pas seulement les violations de la vie privée, vous risquez la confiance à long terme de la marque et le retour réglementaire.
à tout le moins, nous avons besoin d'un cadre juridique qui définit comment la mémoire de l'IA est régie. Pas en tant que prêtre, non pas en tant que médecin, et non en tant que partenaire, mais peut-être en tant que témoin. Quelque chose qui stocke les informations et peut être examiné lorsque le contexte l'exige, avec des limites claires sur l'accès, la suppression et l'utilisation.
La conversation publique reste axée sur la vie privée. Mais le changement fondamental concerne le contr?le. Et à moins que les cadres juridiques et réglementaires n'évoluent rapidement, les termes d'engagement seront définis, non pas par la politique ou les utilisateurs, mais par quiconque possède la bo?te.
C'est pourquoi, à l'ère de l'IA, le droit d'être oublié peut devenir le droit humain le plus précieux que nous ayons.
Non seulement parce que vos données peuvent être utilisées contre vous, mais parce que votre identité elle-même peut désormais être capturée, modélisée et monétisée d'une manière qui persiste sous votre contr?le. Vos modèles, vos préférences, vos déclencheurs émotionnels et vos empreintes digitales psychologiques ne disparaissent pas à la fin de la session. Ils vivent à l'intérieur d'un système qui n'oublie jamais, ne dort jamais et n'arrête jamais d'optimiser.
Sans la possibilité de révoquer l'accès à vos données, vous ne perdez pas seulement la confidentialité. Vous perdez l'effet de levier. Vous perdez la capacité de vous retirer de la prédiction. Vous perdez le contr?le sur la fa?on dont vous vous souvenez, représenté et reproduit.
Le droit d'être oublié ne consiste pas à se cacher. Il s'agit de souveraineté. Et dans un monde où les systèmes d'IA comme Chatgpt fa?onneront de plus en plus nos choix, nos identités et nos résultats, la capacité de s'éloigner peut être la dernière forme de liberté qui vous appartient encore.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undress AI Tool
Images de déshabillage gratuites

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
échangez les visages dans n'importe quelle vidéo sans effort grace à notre outil d'échange de visage AI entièrement gratuit?!

Article chaud

Outils chauds

Bloc-notes++7.3.1
éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

L'investissement est en plein essor, mais le capital seul ne suffit pas. Avec la montée et la décoloration des évaluations, les investisseurs dans les fonds de capital-risque axés sur l'IA doivent prendre une décision clé: acheter, construire ou partenaire pour gagner un avantage? Voici comment évaluer chaque option et PR

Parlons-en. Cette analyse d'une percée innovante de l'IA fait partie de ma couverture de colonne Forbes en cours sur les dernières personnes en IA, notamment en identifiant et en expliquant diverses complexités d'IA percutantes (voir le lien ici). Se dirigeant vers Agi et

Rappelez-vous le flot de modèles chinois open source qui a perturbé l'industrie du Genai plus t?t cette année? Alors que Deepseek a fait la majeure partie des titres, Kimi K1.5 était l'un des noms importants de la liste. Et le modèle était assez cool.

Parlons-en. Cette analyse d'une percée innovante de l'IA fait partie de ma couverture de colonne Forbes en cours sur les dernières personnes en IA, notamment en identifiant et en expliquant diverses complexités d'IA percutantes (voir le lien ici). Pour ces lecteurs qui h

à la mi-2025, l'AI ?Arme Race? se réchauffe, et Xai et Anthropic ont tous deux publié leurs modèles phares, Grok 4 et Claude 4.

Par exemple, si vous posez une question à un modèle comme: "Que fait (x) personne à (x) l'entreprise?" Vous pouvez voir une cha?ne de raisonnement qui ressemble à quelque chose comme ceci, en supposant que le système sait comment récupérer les informations nécessaires: localiser les détails sur le CO

Les essais cliniques sont un énorme goulot d'étranglement du développement de médicaments, et Kim et Reddy pensaient que le logiciel compatible AI qu'ils avait construit chez PI Health pourrait les aider à les faire plus rapidement et moins cher en élargissant le bassin de patients potentiellement éligibles. Mais le

Le Sénat a voté le 99-1 mardi matin pour tuer le moratoire après un tumulte de dernière minute de groupes de défense des groupes de défense, des législateurs et des dizaines de milliers d'Américains qui l'ont vu comme une dangereuse dépassement. Ils ne sont pas restés silencieux. Le Sénat écouté.
