


Mengapa AI Halllucinating lebih kerap, dan bagaimana kita boleh menghentikannya?
Jul 08, 2025 am 01:44 AMKecerdasan buatan yang lebih maju (AI) menjadi, semakin cenderung "halusinasi" dan memberikan maklumat palsu atau tidak tepat.
Menurut penyelidikan oleh OpenAI, model penalaran yang paling baru dan berkuasa-O3 dan O4-mini-kadar halusinasi sebanyak 33% dan 48%, apabila diuji menggunakan penanda aras PersonqA. Ini lebih daripada dua kali ganda kadar yang dilihat dalam model O1 yang lebih tua. Walaupun O3 menawarkan tindak balas yang lebih tepat berbanding dengan versi terdahulu, ia juga menunjukkan kecenderungan yang lebih tinggi terhadap halusinasi yang salah.
Trend ini menimbulkan kebimbangan mengenai ketepatan dan kebolehpercayaan model bahasa besar (LLM), seperti AI Chatbots, kata Eleanor Watson , ahli IEEE dan jurutera etika AI di Universiti Singularity.
"Apabila sistem menghasilkan fakta, petikan, atau peristiwa yang dibuat seperti maklumat-dengan keseragaman dan koheren yang sama digunakan untuk kandungan faktual, ia boleh mengelirukan pengguna dengan cara yang halus tetapi penting," kata Watson kepada Sains Live.
Berkaitan: Model AI Canggih dari Openai dan DeepSeek Pengalaman 'Runtuh Lengkap' Apabila berhadapan dengan masalah yang terlalu kompleks, penemuan kajian
Pakar menekankan bahawa isu halusinasi ini menyoroti kepentingan menilai dan memantau output dengan teliti yang dihasilkan oleh LLM dan model pemikiran.
Adakah AIS impian domba elektrik?
Ciri utama model penalaran adalah keupayaannya untuk menangani tugas -tugas yang kompleks dengan memecahkannya ke bahagian yang lebih kecil dan membangunkan strategi untuk menyelesaikan setiap orang. Tidak seperti model yang bergantung semata-mata pada kebarangkalian statistik untuk menghasilkan jawapan, model penalaran mencipta strategi penyelesaian masalah yang serupa dengan pemikiran manusia.
Untuk mendaftar untuk Sains Live Science Daily Order untuk AI untuk menjana penyelesaian yang kreatif dan berpotensi novel, ia mesti terlibat dalam beberapa tahap halusinasi -sebagainya, ia akan terhad kepada data yang telah dipelajari yang telah dipelajari.
"Adalah penting untuk memahami bahawa halusinasi bukanlah kecacatan tetapi ciri AI," kata Sohrob Kazerounian , penyelidik AI di Vectra AI, dalam temu bual dengan Sains Live. "Sebagai rakan sekerja yang pernah meletakkannya, 'segala -galanya yang dihasilkan adalah halusinasi, hanya beberapa halusinasi yang berlaku.' Jika AI hanya menghasilkan salinan tepat tentang apa yang telah dilihat semasa latihan, AI akan menjadi tidak lebih daripada enjin carian besar -besaran. "
"Ini bermakna hanya menulis kod yang telah ditulis sebelum ini, hanya menemui molekul yang sifatnya sudah diketahui, dan hanya menjawab soalan -soalan kerja rumah yang telah ditanya.
Secara berkesan, LLMS dan sistem AI yang mereka kuasa untuk halusinasi untuk menghasilkan kandungan asal dan bukan sekadar mengulangi pengetahuan yang ada. Secara konseptual, ini sama dengan bagaimana manusia bermimpi atau membayangkan senario untuk mencetuskan idea -idea baru.
Berfikir terlalu banyak di luar kotak
Walau bagaimanapun, halusinasi AI menjadi bermasalah apabila matlamatnya adalah untuk menyampaikan maklumat yang tepat dan betul, terutamanya jika pengguna menerima output tanpa pengesahan.
"Ini terutamanya mengenai bidang di mana ketepatan fakta adalah kritikal, seperti ubat, undang -undang, atau kewangan," jelas Watson. "Walaupun model yang lebih maju dapat mengurangkan kesilapan faktual yang jelas, bentuk halusinasi yang lebih halus terus berlangsung.
Lebih -lebih lagi, cabaran ini seolah -olah berkembang apabila teknologi AI berlangsung. "Apabila model bertambah baik, kesilapan sering menjadi kurang jelas namun lebih sukar untuk dikesan," kata Watson. "Kandungan yang direka kini tertanam dalam naratif yang meyakinkan dan rantaian penalaran logik. Ini mewujudkan bahaya yang unik: pengguna mungkin tidak menyedari terdapat kesilapan dan boleh merawat output sebagai muktamad.
Kazerounian menyokong pandangan ini. "Walaupun optimis yang meluas bahawa halusinasi AI akan berkurangan dari masa ke masa, bukti menunjukkan bahawa model penalaran yang lebih baru sebenarnya boleh halusinasi lebih kerap daripada yang lebih mudah -dan tidak ada konsensus mengapa ini berlaku," katanya.
Keadaan ini semakin rumit oleh kesukaran untuk memahami bagaimana LLM tiba pada kesimpulan mereka, menarik selari dengan bagaimana kita masih tidak memahami sepenuhnya bagaimana fungsi otak manusia.
Dalam esei baru -baru ini, Dario Amodei , Ketua Pegawai Eksekutif AI Company Anthropic, menunjukkan kekurangan ketelusan mengenai bagaimana AIS menjana respons. "Apabila AI generatif meringkaskan dokumen kewangan, kami tidak mempunyai pemahaman yang konkrit tentang mengapa ia membuat pilihan perkataan tertentu atau mengapa ia kadang -kadang salah walaupun biasanya betul," tulisnya.
Kazerounian menegaskan bahawa akibat dari AI menghasilkan maklumat palsu sudah sangat nyata. "Tidak ada kaedah yang boleh dipercayai untuk memastikan LLM dengan betul menjawab soalan mengenai mana -mana dataset yang diberikan," katanya. "Contoh-contoh rujukan yang tidak wujud, chatbots perkhidmatan pelanggan yang mencipta dasar syarikat, dan ketidaktepatan yang lain kini sangat membimbangkan."
Menghancurkan impian
Kedua -dua Kazerounian dan Watson memberitahu Sains Live bahawa menghapuskan halusinasi AI sepenuhnya mungkin sukar. Walau bagaimanapun, mungkin ada cara untuk mengurangkan kesannya.
Watson mencadangkan bahawa "penjanaan semula pengambilan semula," yang mengikat output model kepada sumber pengetahuan luaran yang disahkan, dapat membantu kandungan AI-dihasilkan dalam data faktual.
"Strategi lain melibatkan penstrukturan proses penalaran model. Dengan mendorongnya untuk mengesahkan outputnya sendiri, membandingkan pandangan yang berbeza, atau mengikuti langkah -langkah logik, kerangka penalaran perancah meminimumkan spekulasi yang tidak terkawal dan meningkatkan konsistensi," jelas Watson. Beliau menambah bahawa ini boleh disokong oleh kaedah latihan yang direka untuk menggalakkan model untuk mengutamakan ketepatan, bersama dengan pembelajaran tetulang dari penilai manusia atau AI untuk mempromosikan tindak balas yang lebih disiplin dan berasaskan fakta.
Atas ialah kandungan terperinci Mengapa AI Halllucinating lebih kerap, dan bagaimana kita boleh menghentikannya?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undress AI Tool
Gambar buka pakaian secara percuma

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Dalam apa yang kelihatan seperti satu lagi kemunduran untuk domain di mana kita percaya manusia akan selalu melampaui mesin, para penyelidik kini mencadangkan agar AI memahami emosi yang lebih baik daripada yang kita lakukan.

Kecerdasan Buatan (AI) bermula sebagai usaha untuk mensimulasikan otak manusia. Ia kini dalam proses mengubah peranan otak manusia dalam kehidupan seharian? Revolusi perindustrian mengurangkan pergantungan pada buruh manual. Sebagai seseorang yang menyelidik aplikasinya

Suka atau tidak, kecerdasan buatan telah menjadi sebahagian daripada kehidupan seharian. Banyak peranti-termasuk pisau cukur elektrik dan berus gigi-telah menjadi berkuasa AI, "menggunakan algoritma pembelajaran mesin untuk mengesan bagaimana seseorang menggunakan peranti, bagaimana devi

Model kecerdasan buatan baru (AI) telah menunjukkan keupayaan untuk meramalkan peristiwa cuaca utama dengan lebih cepat dan dengan ketepatan yang lebih besar daripada beberapa sistem ramalan global yang paling banyak digunakan. Model ini, bernama Aurora, telah dilatih U

Semakin tepatnya kita cuba membuat fungsi model AI, semakin besar pelepasan karbon mereka menjadi - dengan petunjuk tertentu menjana sehingga 50 kali lebih banyak karbon dioksida daripada yang lain, menurut kajian baru -baru ini. Model -model yang berlaku seperti Claude Antropik

Model kecerdasan buatan (AI) boleh mengancam dan memeras ugut manusia apabila terdapat konflik antara objektif model dan keputusan pengguna, menurut satu kajian baru. Diterbitkan pada 20 Jun, penyelidikan yang dijalankan oleh firma AI Anthropic memberikan lnya L

Kebimbangan utama dengan teknologi besar yang bereksperimen dengan kecerdasan buatan (AI) bukanlah ia mungkin menguasai kemanusiaan. Isu sebenar terletak pada ketidaktepatan model bahasa besar (LLMS) yang berterusan seperti chatgpt AI, Gemini Google, dan

Kecerdasan buatan yang lebih maju (AI) menjadi, semakin cenderung "halusinasi" dan memberikan maklumat palsu atau tidak tepat. Menurut penyelidikan oleh Openai, model penalaran yang paling baru dan berkuasa-O3 dan O4-mini-Exhibited H
