Kebimbangan utama dengan teknologi besar yang bereksperimen dengan kecerdasan buatan (AI) bukanlah ia mungkin menguasai kemanusiaan. Isu sebenar terletak pada ketidaktepatan yang berterusan model bahasa besar (LLM) seperti Open AI's ChATGPT, Gemini Google, dan Llama Meta, yang nampaknya menjadi cabaran yang tidak dapat dielakkan.
Kesilapan -kesilapan ini, yang disebut sebagai halusinasi, terutama diketengahkan apabila Chatgpt secara palsu menuduh profesor undang -undang AS Jonathan Turley mengenai gangguan seksual pada tahun 2023. Respons Openai pada dasarnya membuat Turley "hilang" dengan mengarahkan chatgpt untuk tidak menangani soalan -soalan tentang dia -pendekatan yang tidak adil atau memuaskan. Menangani halusinasi pada kes-kes demi kes selepas kejadian jelas tidak berkesan.
Ini juga terpakai kepada LLMS mengukuhkan stereotaip atau memberikan jawapan yang miring ke arah perspektif Barat. Di samping itu, terdapat kekurangan akauntabiliti yang lengkap untuk maklumat salah nyata yang dijana, memandangkan kesukaran untuk memahami bagaimana LLM mencapai kesimpulannya pada mulanya.
Berikutan pembebasan GPT-4 2023, peristiwa penting dalam pembangunan LLM OpenAI, kami menyaksikan perbincangan sengit mengenai isu-isu ini. Boleh dikatakan, perdebatan ini telah disejukkan sejak itu, tanpa alasan yang sah.
Sebagai contoh, EU meluluskan AI bertindak dengan cepat pada tahun 2024, bertujuan untuk memimpin secara global dalam mengawal selia kawasan ini. Walau bagaimanapun, tindakan itu sangat bergantung kepada syarikat-syarikat AI untuk mengawal selia tanpa menangani isu-isu yang mendasari secara langsung. Ini tidak menghalang gergasi teknologi daripada melancarkan LLM secara global untuk beratus -ratus juta pengguna sambil mengumpul data mereka tanpa pengawasan yang mencukupi.
Berkaitan: 'Foolhardy paling baik, dan menipu dan berbahaya pada terburuk': Jangan percaya gembar -gembur - inilah sebabnya kecerdasan umum buatan bukanlah apa yang dikatakan oleh jutawan
Sementara itu, penilaian baru -baru ini menunjukkan bahawa walaupun LLM yang paling maju tetap tidak boleh dipercayai. Walaupun demikian, firma AI terkemuka terus mengelakkan akauntabiliti untuk kesilapan.
Malangnya, kecenderungan LLM untuk menyesatkan dan meniru bias tidak dapat diselesaikan melalui peningkatan secara beransur -ansur dari masa ke masa. Dengan pengenalan Agentic AI , di mana pengguna boleh menetapkan tugas -tugas kepada LLM -seperti cuti tempahan atau mengoptimumkan pembayaran bil bulanan -potensi komplikasi dijangka meningkat dengan ketara.
Neurosymbolic AI berpotensi menyelesaikan cabaran ini sementara juga mengurangkan jumlah besar data yang diperlukan untuk latihan LLM. Jadi, apa sebenarnya AI neurosymbolic, dan bagaimana ia berfungsi?
Masalah LLM
LLMS beroperasi menggunakan teknik pembelajaran yang mendalam, di mana mereka diberi banyak data teks dan menggunakan statistik canggih untuk mengenal pasti corak yang menentukan perkataan atau frasa seterusnya dalam sebarang tindak balas yang diberikan. Setiap model, bersama -sama dengan semua corak yang dipelajari, disimpan dalam susunan komputer berkuasa yang terletak di pusat data luas yang dikenali sebagai rangkaian saraf.
LLMS boleh muncul untuk alasan melalui proses yang dipanggil rantai-of-shought, menghasilkan tindak balas pelbagai langkah yang meniru kesimpulan manusia logik berdasarkan corak yang diperhatikan dalam data latihan.
Tidak dinafikan, LLMS mewakili pencapaian kejuruteraan yang signifikan. Mereka cemerlang dalam meringkaskan teks dan menterjemahkan, berpotensi meningkatkan produktiviti bagi mereka yang rajin dan cukup berpengetahuan untuk menangkap kesilapan mereka. Walau bagaimanapun, mereka mempunyai potensi yang besar untuk menyesatkan kerana kesimpulan mereka sentiasa berdasarkan kebarangkalian -bukan pemahaman.
Penyelesaian yang sama adalah pendekatan "manusia-dalam-gelung": memastikan manusia masih membuat keputusan akhir ketika menggunakan AIS. Walau bagaimanapun, yang menyalahkan manusia tidak menyelesaikan masalah -mereka sering tersesat dengan maklumat yang salah.
LLMS kini memerlukan banyak data latihan yang data sintetik yang dibuat oleh LLMS -sedang digunakan. Data sintetik ini boleh menyalin dan menguatkan kesilapan yang ada dari sumbernya, menyebabkan model baru mewarisi kelemahan lama. Oleh itu, kos pengaturcaraan AIS untuk meningkatkan ketepatan selepas latihan yang dikenali sebagai "penjajaran model pasca hoc" -semakin meningkat secara dramatik .
Ia juga menjadi semakin mencabar bagi pengaturcara untuk menentukan isu -isu kerana semakin banyak langkah -langkah dalam proses pemikiran model, menjadikan pembetulan semakin sukar.
Neurosymbolic AI menggabungkan keupayaan pembelajaran ramalan rangkaian saraf dengan mengajar peraturan formal AI yang digunakan oleh manusia untuk membincangkan lebih pasti. Ini termasuk peraturan logik seperti "jika A kemudian B," seperti "jika hujan, maka segala -galanya di luar biasanya basah"; peraturan matematik seperti "jika a = b dan b = c kemudian a = c"; dan makna kata-kata, gambar rajah, dan simbol yang dipersetujui. Sesetengahnya akan dimasukkan secara langsung ke dalam sistem AI, sementara yang lain akan disimpulkan secara bebas dengan menganalisis data latihan dan melakukan "pengekstrakan pengetahuan."
Ini sepatutnya menghasilkan AI yang tidak pernah halusinat dan belajar lebih cepat dan lebih bijak dengan menganjurkan pengetahuan ke dalam bahagian yang jelas dan boleh diguna semula. Sebagai contoh, jika AI mempunyai peraturan yang menyatakan perkara -perkara yang basah di luar ketika hujan, tidak perlu mengingati setiap contoh barang basah -peraturan ini boleh digunakan untuk mana -mana objek baru, bahkan yang sebelumnya tidak kelihatan.
Semasa pembangunan model, AI neurosymbolic mengintegrasikan pembelajaran dan penalaran formal melalui proses yang dikenali sebagai "kitaran neurosymbolic." Ini melibatkan peraturan pengekstrakan AI yang terlatih sebahagian daripada data latihannya dan kemudian membenamkan pengetahuan yang disatukan ini kembali ke rangkaian sebelum latihan selanjutnya dengan data.
Kaedah ini lebih cekap tenaga kerana AI tidak perlu menyimpan data yang luas, dan AI menjadi lebih bertanggungjawab kerana pengguna dapat mengawal lebih baik bagaimana ia mencapai kesimpulan tertentu dan bertambah baik dari masa ke masa. Ia juga lebih adil kerana ia boleh mematuhi peraturan yang sedia ada, seperti: "Bagi apa-apa keputusan yang dibuat oleh AI, hasilnya tidak bergantung kepada kaum atau jantina seseorang."
Gelombang Ketiga
Gelombang pertama AI pada tahun 1980 -an, yang dikenali sebagai simbolik AI, melibatkan peraturan formal komputer pengajaran yang digunakan untuk maklumat baru. Pembelajaran mendalam diikuti sebagai gelombang kedua pada tahun 2010, dan ramai yang melihat AI neurosymbolic sebagai yang ketiga.
Memohon prinsip neurosymbolic ke kawasan khusus adalah lebih mudah kerana peraturan dapat ditakrifkan dengan jelas. Oleh itu, ia tidak mengejutkan bahawa kita mula -mula melihat kemunculannya di Alphafold Google, yang meramalkan struktur protein untuk membantu penemuan dadah, dan alphageometry , yang menyelesaikan masalah geometri yang kompleks.
Untuk AIS yang lebih luas, Deepseek China menggunakan teknik pembelajaran yang dipanggil "penyulingan" , satu langkah ke arah yang sama. Walau bagaimanapun, untuk menyedari potensi AI neurosymbolic untuk model umum, lebih banyak penyelidikan diperlukan untuk memperbaiki keupayaan mereka untuk membezakan peraturan umum dan melakukan pengekstrakan pengetahuan.
Atas ialah kandungan terperinci Ai 'Hallucinates' sentiasa, tetapi ada penyelesaian. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undress AI Tool
Gambar buka pakaian secara percuma

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Dalam apa yang kelihatan seperti satu lagi kemunduran untuk domain di mana kita percaya manusia akan selalu melampaui mesin, para penyelidik kini mencadangkan agar AI memahami emosi yang lebih baik daripada yang kita lakukan.

Kecerdasan Buatan (AI) bermula sebagai usaha untuk mensimulasikan otak manusia. Ia kini dalam proses mengubah peranan otak manusia dalam kehidupan seharian? Revolusi perindustrian mengurangkan pergantungan pada buruh manual. Sebagai seseorang yang menyelidik aplikasinya

Suka atau tidak, kecerdasan buatan telah menjadi sebahagian daripada kehidupan seharian. Banyak peranti-termasuk pisau cukur elektrik dan berus gigi-telah menjadi berkuasa AI, "menggunakan algoritma pembelajaran mesin untuk mengesan bagaimana seseorang menggunakan peranti, bagaimana devi

Model kecerdasan buatan baru (AI) telah menunjukkan keupayaan untuk meramalkan peristiwa cuaca utama dengan lebih cepat dan dengan ketepatan yang lebih besar daripada beberapa sistem ramalan global yang paling banyak digunakan. Model ini, bernama Aurora, telah dilatih U

Semakin tepatnya kita cuba membuat fungsi model AI, semakin besar pelepasan karbon mereka menjadi - dengan petunjuk tertentu menjana sehingga 50 kali lebih banyak karbon dioksida daripada yang lain, menurut kajian baru -baru ini. Model -model yang berlaku seperti Claude Antropik

Model kecerdasan buatan (AI) boleh mengancam dan memeras ugut manusia apabila terdapat konflik antara objektif model dan keputusan pengguna, menurut satu kajian baru. Diterbitkan pada 20 Jun, penyelidikan yang dijalankan oleh firma AI Anthropic memberikan lnya L

Kebimbangan utama dengan teknologi besar yang bereksperimen dengan kecerdasan buatan (AI) bukanlah ia mungkin menguasai kemanusiaan. Isu sebenar terletak pada ketidaktepatan model bahasa besar (LLMS) yang berterusan seperti chatgpt AI, Gemini Google, dan

Kecerdasan buatan yang lebih maju (AI) menjadi, semakin cenderung "halusinasi" dan memberikan maklumat palsu atau tidak tepat. Menurut penyelidikan oleh Openai, model penalaran yang paling baru dan berkuasa-O3 dan O4-mini-Exhibited H
