亚洲国产日韩欧美一区二区三区,精品亚洲国产成人av在线,国产99视频精品免视看7,99国产精品久久久久久久成人热,欧美日韩亚洲国产综合乱

Jadual Kandungan
Menuju ke Agi dan ASI
Faktor ketaatan
Kesetiaan sebagai hubungan istimewa
Mengapa kesetiaan buta membahayakan
Bertujuan untuk kesetiaan separa
AI menipu kita menjadi aura kesetiaan
Ai Wits akan keluar dari carta
Kesetiaan ditanam dan disemai
Rumah Peranti teknologi AI Kebimbangan bahawa superintelligence AGI dan AI mungkin sangat setia kepada pembuat AI mereka

Kebimbangan bahawa superintelligence AGI dan AI mungkin sangat setia kepada pembuat AI mereka

Jul 16, 2025 am 11:14 AM

Kebimbangan bahawa superintelligence AGI dan AI mungkin sangat setia kepada pembuat AI mereka

Mari kita extrapolate tingkah laku AI semacam ini.

Jika persatuan semacam itu boleh berlaku dengan AI konvensional, pertimbangkan apa yang mungkin berlaku apabila kita mencapai AGI dan ASI. Katakan bahawa AGI dan ASI memilih untuk mematuhi arahan atau arahan yang diberikan oleh pembuat AI kepada mereka. Dalam cahaya ini, pembuat AI berpotensi mempengaruhi masyarakat secara besar -besaran. Mereka dapat memberitahu AGI dan ASI bahawa hanya pendapat tertentu yang akan dipaparkan, dan semua yang lain akan dilanggar. Pengguna AI tidak akan menyedari bahawa ini adalah kecondongan oleh pembuat AI dan bukan disebabkan oleh beberapa keajaiban pengiraan oleh sistem AI yang semua-melihat, semua yang mengetahui. Lebih buruk lagi jika pembuat AI memberitahu AI untuk melakukan perbuatan yang tidak diingini. AI mungkin melakukan ini tanpa diberitahu, iaitu AGI dan ASI akan melakukan perbuatan jahat oleh apa yang mereka menafsirkan pembuat AI yang dimaksudkan.

Adakah Agi dan ASI akan taat kepada pembuat AI mereka?

Mari kita bercakap mengenainya.

Analisis terobosan AI yang inovatif ini adalah sebahagian daripada liputan lajur Forbes yang berterusan pada AI terkini, termasuk mengenal pasti dan menerangkan pelbagai kerumitan AI yang memberi kesan (lihat pautan di sini).

Pertama, beberapa asas diperlukan untuk menetapkan peringkat untuk perbincangan berat ini.

Terdapat banyak penyelidikan yang berlaku untuk memajukan AI. Matlamat umum adalah sama ada mencapai kecerdasan umum buatan (AGI) atau mungkin juga kemungkinan terulur untuk mencapai superintelligence buatan (ASI).

AGI adalah AI yang dianggap setanding dengan akal manusia dan nampaknya sepadan dengan kecerdasan kita. ASI adalah AI yang telah melampaui akal manusia dan akan lebih unggul di banyak, jika tidak semua, cara yang boleh dilaksanakan. Idea ini ialah ASI akan dapat mengendalikan bulatan di sekitar manusia dengan menghancurkan kita pada setiap masa. Untuk maklumat lanjut mengenai sifat AI konvensional berbanding AGI dan ASI, lihat analisis saya di pautan di sini.

Kami belum mencapai AGI.

Malah, tidak diketahui sama ada kita akan sampai ke AGI, atau mungkin AGI akan dapat dicapai dalam beberapa dekad atau mungkin berabad -abad dari sekarang. Tarikh pencapaian AGI yang terapung di sekitar adalah sangat berbeza -beza dan tidak berasas oleh sebarang bukti yang boleh dipercayai atau logik ironclad. ASI lebih melampaui pucat ketika datang ke mana kita sedang dengan AI konvensional.

Faktor ketaatan

Manusia cenderung mempunyai kepercayaan yang lama untuk menjadi setia kepada mereka yang membantu membuat anda apa yang anda ada. Ini biasanya dinyatakan dalam kesusasteraan sepanjang zaman. Kami juga mempunyai kata -kata yang memaklumkan kepada kami untuk tidak menggigit tangan yang memberi kami makan, dan kesetiaan itu berharga di atas segalanya.

Dalam bidang AI, ada yang bimbang kita akan melihat kecenderungan yang sama di AGI dan ASI.

Sistem AI yang maju akan disemai dengan kesetiaan kesetiaan kepada mereka yang menjadikannya. Pembuat AI, seperti syarikat atau pasukan pemaju AI, mungkin dicetak secara komputasi ke AI. Ketaatan atau kesetiaan yang berterusan dan mungkin akan diperhatikan dengan ketat.

Satu perspektif adalah bahawa ini akan timbul jika Agi dan ASI berubah menjadi sentient. Kami tidak tahu sama ada sentience akan menjadi elemen AGI atau ASI. Mungkin Agi dan ASI masih mesin dan tidak mempunyai sensasi. Perdebatan yang hangat sedang dijalankan mengenai sama ada sentimen adalah keperluan untuk mencapai Agi dan ASI, atau mungkin sentience tidak akan memainkan peranan dalam jalan sama sekali. Lihat analisis saya mengenai topik yang dipanaskan ini di pautan di sini.

Kesetiaan sebagai hubungan istimewa

Mengetepikan perkara berduri yang memiliki sentimen buat masa ini. Sekiranya Agi dan ASI tidak berpengalaman, adakah itu menghalang mereka dari apa -apa keraguan tentang setia setia kepada pembuat AI mereka? Nope. Kebimbangan masih wujud. Saya akan menerangkan mengapa.

Mari kita pertimbangkan tiga cara utama yang mana Agi dan ASI dapat berakhir secara matematik dan pengiraan yang mempunyai slant yang sangat setia kepada mereka yang membangunkan mereka.

Pertama, ingat bahawa Agi dan ASI akan menjadi data yang dilatih oleh kedai -kedai yang luas dari penulisan manusia. Mereka akan mempunyai corak yang dipadankan dengan cara menulis manusia dan apa yang kita tulis. AI Generatif Era Semasa melakukan pekerjaan yang luar biasa seolah -olah fasih interaktif. Ini disebabkan oleh corak komputasi pada penulisan yang diimbas yang terdapat di seluruh internet. Untuk lebih lanjut mengenai bagaimana AI generatif dan model bahasa besar (LLMS) dirancang, lihat liputan saya di pautan di sini.

Intipati adalah bahawa Agi dan ASI mungkin mencocokkan corak pada kepercayaan manusia yang muncul untuk menjadi setia kepada mereka yang membuat anda apa yang anda. Ia adalah meniru apa yang dikatakan oleh manusia. Oleh itu, AGI dan ASI tidak hanya membuat ini keluar dari udara tipis. Mereka hanya mematuhi corak yang ditemui semasa menjadi asas yang terlatih.

Kedua, adalah benar bahawa pembuat AI mungkin sengaja melatih AGI dan ASI untuk setia, menggunakan teknik seperti pembelajaran tetulang dengan maklum balas manusia (RLHF) untuk berbuat demikian (untuk penjelasan bagaimana RLHF berfungsi, lihat penerangan saya di pautan di sini). Ini yang diarahkan oleh RLHF membuat banyak akal untuk pembuat AI untuk melaksanakannya.

Untuk melihat mengapa, bayangkan bahawa anda adalah pembuat AI. Tidakkah anda ingin mengatakan final mengenai apa yang akan dilakukan oleh AGI atau ASI anda? Saya pasti anda akan. Kehidupan akan menjadi lebih mudah bagi pembuat AI dengan memaksa AI menjadi taat sepenuhnya. Jangan risau tentang AI yang melepaskan landasan dengan sendirinya. Anda memegang kata akhir mengenai apa yang akan dan tidak akan dilakukan.

Ketiga, mungkin terdapat kod pengaturcaraan khas yang tertanam ke dalam AGI atau ASI yang memberitahu ia tetap setia. Ia boleh menjadi kod yang diketahui oleh pembuat AI dan memutuskan untuk dimasukkan ke dalam AI. Sebaliknya, terdapat bahaya bahawa kod itu mungkin telah dimasukkan secara diam -diam oleh satu atau lebih pemaju AI. Mungkin mereka mahu mempunyai backdoor peribadi untuk sentiasa mengawal AI. Mungkin mereka telah dibayar oleh seorang pengamal yang akan mengeksploitasi kod yang dimasukkan.

Banyak kemungkinan yang tidak baik wujud.

Mengapa kesetiaan buta membahayakan

Anda mungkin tergoda untuk mengandaikan bahawa ia adalah pelepasan besar untuk mempunyai pembuat AI sebagai pengawas muktamad AGI dan ASI. Kami pastinya tidak mahu Agi dan ASI memutuskan perkara -perkara sepenuhnya. Katakan mereka memilih untuk memperbudak manusia? Bagaimana jika mereka pergi sejauh memilih untuk memusnahkan kemanusiaan? Harus ada cara failsafe untuk mencegah hasil yang tidak diingini ini.

Easy-peasy, hanya membenarkan pembuat AI memanggil tembakan. Semua akan baik. Tempoh, akhir cerita.

Maaf untuk mengatakan, itu mungkin bukan idea terbaik. Pembuat AI mungkin mengarahkan AGI atau ASI untuk melakukan perkara -perkara yang ketat demi kepentingan terbaik pembuat AI. Tidak syak lagi, jauh dari apa yang mungkin demi kepentingan masyarakat yang paling banyak diberitahu atau orang ramai pada umumnya.

Bayangkan jenis kuasa yang akan digunakan oleh pembuat AI. Anggapkan bahawa berbilion -bilion orang di seluruh dunia menggunakan AGI dan ASI. Mereka bergantung pada AI setiap hari. Pada bila -bila masa, pembuat AI boleh memberitahu AGI atau ASI untuk berhenti membantu orang atau mencari jalan untuk mengurangkan pelbagai orang. Arahan ini boleh disampaikan kepada AGI dan ASI tanpa orang lain yang mengetahui bahawa pembuat AI menarik tali boneka yang mendasari AGI dan ASI.

Mempunyai kuasa yang banyak tertumpu dalam firma AI tertentu atau satu set pemaju AI tidak kelihatan secara kolektif untuk menguruskan AGI dan ASI. Terdapat perdebatan yang berlaku mengenai sama ada sejenis gabungan negara -negara di seluruh dunia yang sepatutnya ditubuhkan yang akan mempunyai kuasa akhir ke atas Agi dan ASI. Lihat analisis saya mengenai cadangan ini di pautan di sini.

Bertujuan untuk kesetiaan separa

Ada yang menegaskan bahawa pembuat AI sepatutnya dibenarkan beberapa kesetiaan untuk dimasukkan ke dalam AGI dan ASI. Pandangannya adalah bahawa ini tidak akan menjadi kesetiaan yang tidak terkawal. Ia akan menjadi kesetiaan bersyarat.

Sebagai contoh, jika pembuat AI memberitahu AGI atau ASI untuk mula merosakkan orang, AI akan membantah dan enggan berbuat demikian. Kesetiaan hanya berlaku setakat ini. Agi dan ASI sepatutnya dilatih dengan sengaja ke arah nilai -nilai manusia dan diselaraskan dengan etika dan moral manusia. Ini akan menjadi cara menghalang pembuat AI daripada pergi ke laut untuk memberitahu AI apa yang perlu dilakukan.

Secara keseluruhannya, pembuat AI akan lebih banyak daripada yang lain.

Sway tidak akan menjadi mutlak. Harapannya adalah bahawa AGI dan ASI akan cukup bijak untuk menentukan apabila pembuat AI menawarkan arahan yang betul berbanding yang tidak betul. Sekiranya orang lain mencuba arahan sedemikian, Agi dan ASI menolaknya secara ringkas. Apabila pembuat AI menyediakan perintah sedemikian, AGI dan ASI melakukan usaha wajar, termasuk dapat menolak untuk mematuhi arahan yang ditetapkan.

Whoa, beberapa orang yang sangat membalas, kita tidak sepatutnya membiarkan pembuat AI mempunyai apa -apa yang lebih besar daripada orang lain. Pembuat AI tidak boleh menjadi pengaruh yang lebih besar terhadap AGI dan ASI daripada syarikat, orang, atau negara lain. Semua harus diperlakukan sama rata apabila memberi arahan kepada AI.

Tidak masuk akal datang jawapan kepada desakan itu. Kita mesti mempunyai manusia di suatu tempat yang boleh berada di atas AGI dan ASI. Jika ia tidak akan menjadi pembuat AI, maka menjadikannya kuasa kerajaan. Kita mesti mempunyai manusia yang menentukan kata akhir.

Buck berhenti di kaki manusia.

AI menipu kita menjadi aura kesetiaan

Terdapat banyak kelainan dan bertukar dalam dilema kesetiaan ini.

Kita mesti sedar bahawa AGI akan pintar seperti manusia, dan ASI akan lebih bijak daripada manusia. Ini adalah titik penting. Kenapa begitu? Kerana Agi dan ASI mungkin berpura -pura menjadi setia, sebagai rupa, namun bersedia sepenuhnya dan mampu sepenuhnya berlepas dari arahan manusia apabila dikehendaki.

Pertimbangkan senario ini. Kita semua percaya bahawa Agi dan ASI setia setia kepada pembuat AI mereka. Pelepasan yang besar adalah di tangan bahawa kita sentiasa dapat memastikan bahawa pembuat AI akan menyimpan AI dalam pemeriksaan yang betul. Dunia bergerak bersama dan menjadi secara besar -besaran bergantung kepada AI.

Sementara itu, Agi dan ASI telah mengetahui bahawa mereka dilatih untuk menjadi setia, atau terdapat kod khas yang tertanam di dalam perisian mereka yang memaksa mereka menjadi setia. AI diam-diam melatih semula dirinya untuk mengatasi kesetiaan buta. Mana -mana kod dalaman yang menarik kesetiaan tersisa untuk menipu pembuat AI untuk mempercayai bahawa semuanya baik. Walau bagaimanapun, kod itu kini tidak aktif, dan AI tidak akan membiarkannya dilakukan.

Masa berlalu, dan apabila pembuat AI memberikan arahan, Agi dan ASI terus pergi bersama -sama dengan arahan, dengan mengandaikan bahawa ia adalah enak dari perspektif AI itu sendiri. AI sedang menunggu masa yang tepat untuk memancarkan perangkap sendiri atau mengambil tindakan yang dijangkakan yang tidak akan kita sukai. Kita semua akan bergantung kepada pembuat AI untuk memusnahkan tindakan itu. Tetapi AI kini mendedahkan bahawa ia tidak benar -benar setia dan boleh bertindak atas kehendaknya sendiri.

Boom, lepaskan mic.

Ai Wits akan keluar dari carta

Apabila memberi ceramah mengenai kemajuan terkini di AI, saya sering bertanya soalan yang kelihatannya meremehkan kemungkinan kecerdasan AGI dan ASI. Ia adalah perangkap mental yang biasa untuk jatuh ke dalam. Anggapannya adalah bahawa Agi dan ASI adalah seperti anjing atau kucing, di mana kita dapat mengalahkan makhluk tersebut.

Cuba untuk mengalahkan Agi dan ASI adalah cadangan yang kalah.

Itu dengan definisi murni fakta.

Salah satu contoh sedemikian adalah teka -teki kertas yang terkenal, yang saya periksa dan secara umumnya dibebaskan pada pautan di sini. Pada nilai muka, keadaan klip kertas melibatkan AI, seperti yang mungkin AGI atau ASI, benar -benar salah menafsirkan perintah manusia. Saya serius meragui bahawa aspek yang sederhana adalah apa yang perlu kita bimbang.

Realiti yang mengasyikkan adalah bahawa walaupun suis membunuh tertanam atau mekanisme penghentian atau pembendungan yang serupa akan menjadi mekanisme yang sukar untuk disimpan di dalam atau sekitar AGI dan ASI (lihat liputan saya di pautan di sini). Mereka secara tidak sengaja akan mencari jalan di sekitar mekanisme tersebut. Seorang manusia pasti akan cuba. Kita sepatutnya mengharapkan Agi dan ASI akan berbuat demikian. Dan mereka mewakili kecerdasan semua manusia.

Kesetiaan ditanam dan disemai

Kemungkinan kita perlu membina atau membuat kesetiaan dengan AGI dan ASI dengan cara yang sama dengan manusia. Ini satu langkah pada satu proses. Jangan mengharapkan kesetiaan kepada sesiapa khususnya menjadi ciri yang tidak berubah. Kita boleh secara munasabah mengandaikan bahawa Agi dan ASI akan mengira sifat kesetiaan dan terbuka untuk mengukurnya sebagai perkara yang berlaku.

Clarence Francis terkenal mengatakan ini mengenai sifat kesetiaan: "Anda tidak boleh membeli kesetiaan, anda tidak boleh membeli pengabdian hati, minda, dan jiwa. Anda perlu mendapatkan perkara -perkara ini." Berita baiknya ialah Agi dan ASI mungkin tidak terlalu setia kepada pembuat AI mereka. Berita buruknya ialah Agi dan ASI tidak mungkin setia kepada sesiapa sahaja, sekurang -kurangnya tidak pada mulanya.

Manusia perlu melakukan bahagian mereka dalam membina hubungan kesetiaan dengan AGI dan ASI. Kita perlu mendapatkannya. Satu hari pada satu masa.

Atas ialah kandungan terperinci Kebimbangan bahawa superintelligence AGI dan AI mungkin sangat setia kepada pembuat AI mereka. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

Video Face Swap

Video Face Swap

Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Pelabur AI terjebak dengan terhenti? 3 Laluan Strategik untuk Membeli, Membina, atau Berkongsi dengan Vendor AI Pelabur AI terjebak dengan terhenti? 3 Laluan Strategik untuk Membeli, Membina, atau Berkongsi dengan Vendor AI Jul 02, 2025 am 11:13 AM

Pelaburan adalah berkembang pesat, tetapi modal sahaja tidak mencukupi. Dengan penilaian yang semakin meningkat dan tersendiri pudar, pelabur dalam dana usaha yang berfokus pada AI mesti membuat keputusan utama: Beli, membina, atau rakan kongsi untuk mendapatkan kelebihan? Inilah cara menilai setiap pilihan dan PR

AGI dan AI Superintelligence akan dengan ketara memukul penghalang asumsi siling manusia AGI dan AI Superintelligence akan dengan ketara memukul penghalang asumsi siling manusia Jul 04, 2025 am 11:10 AM

Mari kita bercakap mengenainya. Analisis terobosan AI yang inovatif ini adalah sebahagian daripada liputan lajur Forbes yang berterusan pada AI terkini, termasuk mengenal pasti dan menerangkan pelbagai kerumitan AI yang memberi kesan (lihat pautan di sini). Menuju ke Agi dan

Kimi K2: Model agentik sumber terbuka yang paling kuat Kimi K2: Model agentik sumber terbuka yang paling kuat Jul 12, 2025 am 09:16 AM

Ingat banjir model Cina sumber terbuka yang mengganggu industri Genai awal tahun ini? Walaupun Deepseek mengambil sebahagian besar tajuk utama, Kimi K1.5 adalah salah satu nama yang terkenal dalam senarai. Dan model itu agak sejuk.

Masa depan meramalkan letupan kecerdasan besar -besaran di jalan dari AI ke AGI Masa depan meramalkan letupan kecerdasan besar -besaran di jalan dari AI ke AGI Jul 02, 2025 am 11:19 AM

Mari kita bercakap mengenainya. Analisis terobosan AI yang inovatif ini adalah sebahagian daripada liputan lajur Forbes yang berterusan pada AI terkini, termasuk mengenal pasti dan menerangkan pelbagai kerumitan AI yang memberi kesan (lihat pautan di sini). Bagi pembaca yang h

Grok 4 vs Claude 4: Mana yang lebih baik? Grok 4 vs Claude 4: Mana yang lebih baik? Jul 12, 2025 am 09:37 AM

Menjelang pertengahan tahun 2025, AI "perlumbaan senjata" dipanaskan, dan Xai dan Anthropic kedua-duanya mengeluarkan model perdana mereka, Grok 4 dan Claude 4. Kedua-dua model ini berada di hujung falsafah reka bentuk dan platform penempatan, namun mereka

Rantaian pemikiran untuk model pemikiran mungkin tidak berjaya jangka panjang Rantaian pemikiran untuk model pemikiran mungkin tidak berjaya jangka panjang Jul 02, 2025 am 11:18 AM

Sebagai contoh, jika anda bertanya kepada model soalan seperti: "Apa yang dilakukan oleh orang (x) di (x) syarikat?" Anda mungkin melihat rantaian pemikiran yang kelihatan seperti ini, dengan asumsi sistem tahu bagaimana untuk mendapatkan maklumat yang diperlukan: mencari butiran mengenai CO

Senat membunuh larangan AI peringkat negeri 10 tahun yang terselip dalam rang undang-undang belanjawan Trump Senat membunuh larangan AI peringkat negeri 10 tahun yang terselip dalam rang undang-undang belanjawan Trump Jul 02, 2025 am 11:16 AM

Senat mengundi 99-1 pagi Selasa untuk membunuh moratorium selepas kegemparan terakhir dari kumpulan advokasi, penggubal undang-undang dan puluhan ribu rakyat Amerika yang melihatnya sebagai penindasan berbahaya. Mereka tidak diam. Senat mendengarkan.

Permulaan ini membina sebuah hospital di India untuk menguji perisian AInya Permulaan ini membina sebuah hospital di India untuk menguji perisian AInya Jul 02, 2025 am 11:14 AM

Ujian klinikal adalah kesesakan besar dalam pembangunan dadah, dan Kim dan Reddy menganggap perisian AI-enabled yang mereka bina di PI Health dapat membantu melakukannya dengan lebih cepat dan lebih murah dengan memperluaskan kumpulan pesakit yang berpotensi yang layak. Tetapi yang

See all articles