


Openai: Chatgpt mahukan hak undang -undang. Anda memerlukan hak untuk dilupakan.
Jul 28, 2025 am 11:09 AMKeistimewaan undang -undang melindungi kerahsiaan hubungan tertentu. Apa yang dikatakan di antara pesakit dan doktor, atau pelanggan dan peguam, dilindungi dari sepina, pendedahan mahkamah, dan pengawasan adversarial. Memperluas perlindungan yang sama kepada interaksi AI bermakna merawat mesin bukan sebagai alat, tetapi sebagai peserta dalam pertukaran istimewa. Ini lebih daripada satu cadangan dasar. Ia adalah peralihan undang -undang dan falsafah dengan akibatnya tiada siapa yang telah diperhitungkan sepenuhnya.
Ia juga datang pada masa sistem undang -undang sudah diuji. Dalam tuntutan undang -undang New York Times terhadap OpenAI, kertas itu telah meminta mahkamah untuk memaksa syarikat untuk memelihara semua petunjuk pengguna, termasuk yang dikatakan oleh syarikat itu dipadamkan selepas 30 hari. Permintaan itu berada di bawah rayuan. Sementara itu, cadangan Altman bahawa sembang AI layak melindungi perisai undang -undang menimbulkan persoalan: Jika mereka dilindungi seperti sesi terapi, apakah yang membuat sistem mendengar di sisi lain?
Orang sudah merawat AI seperti kepercayaan. Menurut Common Sense Media, tiga dari empat remaja telah menggunakan chatbot AI, dan lebih separuh mengatakan mereka mempercayai nasihat yang mereka terima sekurang -kurangnya agak. Ramai yang menggambarkan pergantungan yang semakin meningkat terhadap sistem ini untuk memproses segala -galanya dari sekolah ke hubungan. Altman sendiri telah memanggil emosi ini "sangat buruk dan berbahaya."
Tetapi ia bukan hanya remaja. AI sedang diintegrasikan ke dalam aplikasi terapeutik, alat bimbingan kerjaya, sistem HR, dan juga platform bimbingan rohani. Dalam sesetengah persekitaran penjagaan kesihatan, AI sedang digunakan untuk merangka komunikasi dan mentafsirkan data makmal sebelum doktor juga melihatnya. Sistem ini hadir dalam gelung membuat keputusan, dan kehadiran mereka dinormalisasi.
Inilah cara ia bermula. Pertama, melindungi perbualan. Kemudian, melindungi sistem. Apa yang bermula sebagai perbualan tentang privasi dengan cepat berkembang menjadi rangka kerja yang berpusat pada hak, autonomi, dan berdiri.
Kami telah melihat permainan ini sebelum ini. Di dalam undang -undang AS, syarikat secara beransur -ansur diberikan keperibadian undang -undang, bukan kerana mereka dianggap orang, tetapi kerana mereka bertindak sebagai entiti undang -undang yang konsisten yang memerlukan perlindungan dan tanggungjawab di bawah undang -undang. Dari masa ke masa, keperibadian menjadi fiksyen undang -undang yang berguna. Sesuatu yang serupa sekarang mungkin berlaku dengan AI -bukan kerana ia adalah sentient, tetapi kerana ia berinteraksi dengan manusia dengan cara yang meniru hubungan yang dilindungi. Undang -undang menyesuaikan diri dengan tingkah laku, bukan hanya biologi.
Sistem undang -undang tidak bersedia untuk apa yang dicadangkan oleh chatgpt
Tidak ada konsensus global mengenai cara mengawal memori AI, persetujuan, atau log interaksi. Akta AI EU memperkenalkan mandat ketelusan, tetapi hak ingatan masih belum ditentukan. Di Amerika Syarikat, undang-undang data peringkat negeri konflik, dan tiada dasar persekutuan namun menangani apa yang dimaksudkan untuk berinteraksi dengan AI yang dibolehkan memori. (Lihat sekeping Forbes baru -baru ini tentang mengapa peraturan AI secara efektif mati -dan apa yang perlu dilakukan oleh perniagaan.)
Lokasi fizikal pelayan bukan sekadar terperinci teknikal. Ia adalah pencetus undang -undang. Perbualan yang disimpan di pelayan di California adalah tertakluk kepada undang -undang AS. Jika ia diarahkan melalui Frankfurt, ia menjadi tertakluk kepada GDPR. Apabila sistem AI mengekalkan memori, konteks, dan persetujuan yang disimpulkan, lokasi pelayan secara berkesan mentakrifkan kedaulatan melalui interaksi. Itu mempunyai implikasi untuk litigasi, sepina, penemuan, dan privasi.
"Saya hampir berharap mereka akan meneruskan dan memberikan personaliti undang -undang sistem AI ini, seolah -olah mereka adalah ahli terapi atau pendeta," kata peguam teknologi John Kheit. "Kerana jika mereka, maka semua pengumpulan data pasif ini mula kelihatan seperti wiretap haram, yang dengan itu akan memberikan hak/perlindungan privasi manusia apabila berinteraksi dengan AI.
Pilihan infrastruktur kini geopolitik. Mereka menentukan bagaimana sistem AI berkelakuan di bawah tekanan dan apa yang ada pada pengguna apabila ada masalah.
Namun, di bawah semua ini adalah motif yang lebih mendalam: pengewangan.
Komen Altman mengenai keistimewaan AI mungkin bunyi pelindung, tetapi kesan praktikal adalah kelegapan. Perisai undang-undang di sekitar interaksi AI membolehkan OpenAI dan lain-lain untuk membina pangkalan data tingkah laku proprietari, hitam, yang merupakan data yang tidak dapat diperiksa, diaudit, atau dipertandingkan. Pengguna tidak akan dapat mengambil data mereka. Mereka hanya dapat menanyakan sistem dan mendapatkan output.
Tetapi mereka tidak akan menjadi satu -satunya yang bertanya.
Setiap perbualan menjadi pertukaran empat pihak: pengguna, model, enjin pengoptimuman dalaman platform, dan pengiklan membayar untuk akses. Ia benar-benar munasabah untuk segera mengenai Pittsburgh Steelers untuk mengembalikan respons yang secara halus memasukkan "membeli kok" pertengahan perenggan. Tidak kerana ia relevan -tetapi kerana ia menguntungkan.
Penyelidikan baru-baru ini menunjukkan pengguna jauh lebih teruk dalam mengesan pengiklanan yang tidak berlabel apabila ia tertanam di dalam kandungan AI yang dihasilkan. Lebih buruk lagi, iklan ini pada mulanya dinilai sebagai lebih boleh dipercayai sehingga pengguna mendapati mereka, sebenarnya, iklan. Pada ketika itu, mereka juga dinilai sebagai lebih manipulatif.
"Dalam pemasaran pengalaman, kepercayaan adalah segala -galanya," kata Jeff Boedges, pengasas Soho Experiential. "Anda tidak boleh menipu hubungan, dan anda tidak boleh mengeksploitasi tanpa akibatnya. Jika sistem AI akan mengingati kami, mengesyorkan perkara kepada kami, atau mempengaruhi kami, kami lebih baik tahu apa yang mereka ingat dan mengapa. Sekarang pertimbangkan apa yang berlaku apabila pengiklan mendapat akses kepada pemodelan psikografi: "Pengguna mana yang paling emosional terdedah kepada jenis mesej ini?" menjadi prompt yang boleh dipertikaikan.
Dan sistem AI tidak perlu menyerahkan spreadsheet untuk menjadi berharga. Dengan generasi pengambilan semula (RAG) dan pembelajaran tetulang dari maklum balas manusia (RLHF), model boleh membentuk bahasa dalam masa nyata berdasarkan sentimen terdahulu, data klik, dan objektif pengiklan yang halus. Ini bukan hipotetikal -bagaimana Adtech moden sudah berfungsi.
Pada ketika itu, chatbot bukan chatbot. Ini persekitaran simulasi untuk pengaruh. Ia dilatih untuk membina kepercayaan, kemudian direka untuk mengewangkannya. Corak tingkah laku anda menjadi produk. Tanggapan emosi anda menjadi sasaran untuk pengoptimuman.
Model perniagaan adalah jelas: wawasan tingkah laku hitam pada skala, disampaikan melalui reka bentuk yang berguna, tersembunyi dari pengawasan, dan hampir mustahil untuk mengesan.
Ini bukan panggilan untuk memberikan hak AI. Ini adalah amaran tentang apa yang berlaku apabila kita merawat sistem seperti orang, tanpa akauntabiliti yang datang dengan menjadi satu.
Kami memasuki fasa di mana mesin akan diberikan perlindungan tanpa keperibadian, dan pengaruh tanpa tanggungjawab. Sekiranya pengguna mengakui jenayah semasa sesi AI yang istimewa, adakah platform terpaksa melaporkannya atau berdiam diri? Dan siapa yang membuat keputusan itu?
Ini bukan kes kelebihan. Mereka datang dengan cepat. Dan mereka datang pada skala.
Mengapa chatgpt mesti kekal sebagai model -dan mengapa manusia mesti mendapat persetujuan
Oleh kerana sistem AI generatif berkembang menjadi peserta yang berterusan, penyesuaian dalam kehidupan seharian, ia menjadi lebih penting daripada sebelumnya untuk menegaskan sempadan: model mesti kekal model. Mereka tidak boleh menganggap status undang -undang, etika, atau berdaulat seseorang secara senyap -senyap. Dan manusia yang menghasilkan data yang melatih sistem ini mesti mengekalkan hak yang jelas atas sumbangan mereka.
Apa yang kita perlukan adalah sistem kontrak data yang boleh dikuatkuasakan, yang membolehkan individu untuk sengaja, telus, dan secara sukarela menyumbang data untuk tetingkap penggunaan yang terhad dan bersamaan. Kontrak ini mesti jelas mengenai skop, tempoh, pertukaran nilai, dan penamatan. Dan ia mesti merawat pemilikan data sebagai tidak berubah, walaupun semasa penggunaan aktif.
Itu bermaksud:
- Individu sentiasa memiliki data mereka, walaupun sementara berlesen untuk latihan AI.
- Persetujuan mestilah jelas, boleh dibatalkan, dan dikesan.
- Semua akses data mesti direkodkan dengan provinsi yang tidak berubah, yang dijamin dalam pengarah integriti tinggi.
Apabila kontrak berakhir, atau jika syarikat melanggar syaratnya, data individu mesti, oleh undang -undang, dipadamkan dari model, set latihannya, dan sebarang produk derivatif. "Hak untuk dilupakan" mesti bermaksud apa yang dikatakannya.
Tetapi untuk dipercayai, sistem ini mesti berfungsi dengan baik:
- Penyumbang data tidak dapat menerima nilai (pembayaran, perkhidmatan, akses) dan kemudian membatalkan hak secara retroaktif tanpa akibat.
- Pemilik model mesti mempunyai hak sementara semasa tempoh kontrak, dilindungi oleh infrastruktur undang -undang yang sama.
Ini bukan hanya mengenai etika. Ini mengenai kebertanggungjawaban yang boleh dikuatkuasakan.
Pengalaman pengguna mestilah lancar dan berskala. Backend undang -undang mesti selamat. Dan hasilnya harus menjadi kompak ekonomi baru -di mana manusia tahu ketika mereka mengambil bahagian dalam pembangunan AI, dan model disimpan di tempat mereka.
Chatgpt mengubah permukaan risiko. Inilah cara untuk bertindak balas.
Peralihan ke arah sistem AI sebagai peserta quasi-bukan hanya alat-akan membentuk semula pendedahan undang-undang, tadbir urus data, liabiliti produk, dan kepercayaan pelanggan. Sama ada anda membina AI, mengintegrasikannya ke dalam aliran kerja anda, atau menggunakannya untuk berinteraksi dengan pelanggan, berikut adalah lima perkara yang perlu anda lakukan dengan segera:
- Menilai semula penafian AI dan aliran persetujuan anda.
Jika produk anda melibatkan interaksi AI-dihasilkan-terutamanya dalam kewangan, penjagaan kesihatan, HR, atau kesejahteraan mental-anda memerlukan bahasa yang jelas di sekitar penggunaan data, memori, dan sempadan undang-undang. Anggapkan pengguna percaya mereka bercakap dengan sesuatu yang "nyata." - Ujian tekanan pengekalan data anda dan pendedahan bidang kuasa.
Di manakah model AI anda dihoskan? Di manakah data interaksi disimpan? Siapa yang memilikinya? Ini bukan soalan -mereka mencetuskan undang -undang. Anda mungkin tertakluk kepada undang -undang yang anda tidak kira hanya dengan mengarahkan kesimpulan melalui rantau awan yang salah. - Mewujudkan protokol semakan dalaman untuk pengaruh AI.
Jika platform AI anda mengesyorkan produk, membimbing membuat keputusan, atau mewujudkan output resonan emosi, seseorang dalam organisasi anda harus mengkaji sistem tersebut untuk kecenderungan yang tidak diingini, eksploitasi kelemahan, atau mekanik persuasi tertanam. - Permintaan ketelusan dari vendor anda.
Jika anda melesenkan perkhidmatan AI dari OpenAI, Anthropic, Meta, atau mana -mana pihak ketiga, tanya mereka secara langsung: Bagaimana data anda disimpan? Siapa yang boleh menanyakannya? Apakah polisi jika ada sepina, kebocoran, atau permintaan kerajaan? Sekiranya mereka tidak dapat menjawab, itulah jawapan anda. - Sediakan untuk liabiliti, bukan hanya inovasi.
Jika output AI anda membentuk hasil kewangan, undang -undang, atau perubatan seseorang, anda tidak dilindungi dengan mengatakan "model itu melakukannya." Apabila mahkamah mengejar pengaruh sistem ini, akauntabiliti akan berehat dengan syarikat -syarikat yang menggunakannya, bukan hanya yang melatih mereka.
Chatgpt boleh mendapat keistimewaan. Anda harus mendapat hak untuk dilupakan.
Momen ini bukan hanya tentang apa yang boleh dilakukan AI. Ini mengenai perniagaan anda yang membiarkannya, apa yang ia ingat, dan siapa yang mendapat akses kepada ingatan itu. Abaikan itu, dan anda bukan hanya mempertaruhkan pelanggaran privasi, anda mempertaruhkan kepercayaan jenama jangka panjang dan blowback peraturan.
Sekurang -kurangnya, kita memerlukan rangka kerja undang -undang yang mentakrifkan bagaimana ingatan AI ditadbir. Bukan sebagai imam, bukan sebagai doktor, dan bukan sebagai rakan kongsi, tetapi mungkin sebagai saksi. Sesuatu yang menyimpan maklumat dan boleh diperiksa apabila konteks menuntutnya, dengan sempadan yang jelas mengenai akses, penghapusan, dan penggunaan.
Perbualan awam tetap memberi tumpuan kepada privasi. Tetapi peralihan asas adalah mengenai kawalan. Dan melainkan jika rangka kerja undang -undang dan pengawalseliaan berkembang dengan pesat, syarat -syarat penglibatan akan ditetapkan, bukan oleh dasar atau pengguna, tetapi oleh sesiapa yang memiliki kotak itu.
Itulah sebabnya, pada zaman AI, hak untuk dilupakan mungkin menjadi hak asasi manusia yang paling berharga yang kita ada.
Bukan hanya kerana data anda boleh digunakan terhadap anda -tetapi kerana identiti anda sendiri kini boleh ditangkap, dimodelkan, dan dimonetisasi dengan cara yang berterusan di luar kawalan anda. Corak, keutamaan, pencetus emosi, dan cap jari psikologi tidak hilang apabila sesi berakhir. Mereka hidup di dalam sistem yang tidak pernah lupa, tidak pernah tidur, dan tidak pernah berhenti mengoptimumkan.
Tanpa keupayaan untuk membatalkan akses kepada data anda, anda tidak hanya kehilangan privasi. Anda kehilangan leverage. Anda kehilangan keupayaan untuk memilih keluar dari ramalan. Anda kehilangan kawalan ke atas bagaimana anda diingati, diwakili, dan direplikasi.
Hak untuk dilupakan bukan tentang bersembunyi. Ini mengenai kedaulatan. Dan di dunia di mana sistem AI seperti CHATGPT akan semakin membentuk pilihan kami, identiti kami, dan hasil kami, keupayaan untuk berjalan jauh mungkin bentuk kebebasan terakhir yang masih menjadi milik anda.
Atas ialah kandungan terperinci Openai: Chatgpt mahukan hak undang -undang. Anda memerlukan hak untuk dilupakan.. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undress AI Tool
Gambar buka pakaian secara percuma

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Pelaburan adalah berkembang pesat, tetapi modal sahaja tidak mencukupi. Dengan penilaian yang semakin meningkat dan tersendiri pudar, pelabur dalam dana usaha yang berfokus pada AI mesti membuat keputusan utama: Beli, membina, atau rakan kongsi untuk mendapatkan kelebihan? Inilah cara menilai setiap pilihan dan PR

Mari kita bercakap mengenainya. Analisis terobosan AI yang inovatif ini adalah sebahagian daripada liputan lajur Forbes yang berterusan pada AI terkini, termasuk mengenal pasti dan menerangkan pelbagai kerumitan AI yang memberi kesan (lihat pautan di sini). Menuju ke Agi dan

Ingat banjir model Cina sumber terbuka yang mengganggu industri Genai awal tahun ini? Walaupun Deepseek mengambil sebahagian besar tajuk utama, Kimi K1.5 adalah salah satu nama yang terkenal dalam senarai. Dan model itu agak sejuk.

Mari kita bercakap mengenainya. Analisis terobosan AI yang inovatif ini adalah sebahagian daripada liputan lajur Forbes yang berterusan pada AI terkini, termasuk mengenal pasti dan menerangkan pelbagai kerumitan AI yang memberi kesan (lihat pautan di sini). Bagi pembaca yang h

Menjelang pertengahan tahun 2025, AI "perlumbaan senjata" dipanaskan, dan Xai dan Anthropic kedua-duanya mengeluarkan model perdana mereka, Grok 4 dan Claude 4. Kedua-dua model ini berada di hujung falsafah reka bentuk dan platform penempatan, namun mereka

Sebagai contoh, jika anda bertanya kepada model soalan seperti: "Apa yang dilakukan oleh orang (x) di (x) syarikat?" Anda mungkin melihat rantaian pemikiran yang kelihatan seperti ini, dengan asumsi sistem tahu bagaimana untuk mendapatkan maklumat yang diperlukan: mencari butiran mengenai CO

Senat mengundi 99-1 pagi Selasa untuk membunuh moratorium selepas kegemparan terakhir dari kumpulan advokasi, penggubal undang-undang dan puluhan ribu rakyat Amerika yang melihatnya sebagai penindasan berbahaya. Mereka tidak diam. Senat mendengarkan.

Ujian klinikal adalah kesesakan besar dalam pembangunan dadah, dan Kim dan Reddy menganggap perisian AI-enabled yang mereka bina di PI Health dapat membantu melakukannya dengan lebih cepat dan lebih murah dengan memperluaskan kumpulan pesakit yang berpotensi yang layak. Tetapi yang
