Halusinasi AI
Dalam konteks AI, Halusinasi adalah respons percaya diri yang dihasilkan oleh Model Bahasa Besar yang tidak selaras dengan data pelatihannya atau fakta dunia nyata. Ini terjadi ketika model "menemukan" informasi untuk mengisi kesenjangan dalam pengetahuan, seringkali karena data sumber terstruktur yang otoritatif hilang atau tidak jelas.
Mengapa halusinasi adalah risiko merek
Halusinasi AI menimbulkan risiko serius bagi bisnis. LLM mungkin menciptakan kode diskon palsu untuk toko Anda, salah mengutip kebijakan pengembalian Anda, mengaitkan fitur pesaing dengan produk Anda, atau mengutip harga yang kedaluwarsa. Fabrikasi ini merusak kepercayaan pelanggan dan dapat menimbulkan tanggung jawab hukum. Akar penyebabnya biasanya data yang hilang atau tidak terstruktur dengan baikโketika AI tidak dapat menemukan informasi yang jelas dan otoritatif, AI mengisi celah dengan tebakan probabilistik. Pertahanan utama adalah data terstruktur melalui JSON-LD dan Grafik Pengetahuan. Dengan secara eksplisit mendeklarasikan fakta dalam format yang dapat dibaca mesin, Anda memberi model AI informasi yang jelas dan dapat diverifikasi untuk dikutip alih-alih memaksa mereka untuk berhalusinasi jawaban.
Respons AI Faktual vs. Halusinasi
Dampak Dunia Nyata
Pengguna bertanya kepada chatbot tentang produk yang dihentikan
AI berhalusinasi: "Produk X tersedia, $49.99"
Pelanggan memesan, menemukan kebenaran, menuntut pengembalian dana
Skema produk mencakup "ketersediaan": "Dihentikan"
AI dengan benar menyatakan: "Produk X dihentikan"
Pelanggan mendapatkan info akurat, mengeksplorasi alternatif