Halusinasi AI adalah hasil yang tidak tepat atau menyesatkan yang dihasilkan model AI. Error ini dapat disebabkan oleh berbagai faktor, termasuk data pelatihan yang tidak memadai, asumsi yang salah dibuat oleh model, atau bias dalam data yang digunakan untuk melatih model. Halusinasi AI dapat menjadi masalah bagi sistem AI yang digunakan untuk membuat keputusan penting, seperti diagnosis medis atau perdagangan keuangan.
Pelanggan baru mendapatkan kredit gratis senilai hingga $300 untuk mencoba Vertex AI dan produk Google Cloud lainnya.
Model AI dilatih menggunakan data, dan model tersebut belajar membuat prediksi dengan menemukan pola dalam data. Namun, keakuratan prediksi ini sering kali bergantung pada kualitas dan kelengkapan data pelatihan. Jika data pelatihan tidak lengkap, bias, atau memiliki kelemahan, model AI dapat mempelajari pola yang salah sehingga menghasilkan prediksi yang tidak akurat atau halusinasi.
Misalnya, model AI yang dilatih dengan set data gambar medis dapat belajar mengidentifikasi sel kanker. Namun, jika set data tidak menyertakan gambar jaringan yang sehat, model AI tersebut dapat salah memprediksi adanya sel kanker pada jaringan yang sehat.
Data pelatihan yang memiliki kelemahan hanyalah salah satu faktor penyebab terjadinya halusinasi AI. Kurangnya perujukan yang tepat dapat menjadi faktor penyebab lainnya. Model AI mungkin kesulitan memahami pengetahuan dunia nyata, properti fisik, atau informasi faktual secara akurat. Kelemahan perujukan ini dapat menyebabkan model menghasilkan output yang seolah masuk akal, tetapi sebenarnya mengandung fakta yang salah, tidak relevan, atau tidak koheren. Hal ini bahkan dapat mencakup pembuatan link ke halaman web yang tidak pernah ada.
Sebagai contoh, model AI yang dirancang untuk membuat ringkasan artikel berita dapat menghasilkan ringkasan yang menyertakan detail yang tidak ada dalam artikel asli atau bahkan mengarang informasi sepenuhnya.
Memahami potensi penyebab halusinasi AI ini penting bagi developer yang bekerja dengan model AI. Dengan mempertimbangkan kualitas dan kelengkapan data pelatihan secara cermat serta memastikan perujukan yang tepat, developer dapat meminimalkan risiko halusinasi AI dan memastikan akurasi serta keandalan model mereka.
Halusinasi AI dapat berupa berbagai bentuk. Beberapa contoh umumnya meliputi:
Saat melatih model AI, penting untuk membatasi jumlah kemungkinan hasil yang dapat diprediksi oleh model tersebut. Ini dapat dilakukan dengan menggunakan teknik yang disebut "regularisasi". Regularisasi menindak model yang membuat prediksi yang terlalu ekstrem. Hal ini membantu mencegah model melakukan overfitting pada data pelatihan dan membuat prediksi yang salah.
Saat melatih model AI, penting untuk menggunakan data yang relevan dengan tugas yang akan dilakukan model. Misalnya, jika Anda melatih model AI untuk mengidentifikasi kanker, Anda harus menggunakan set data gambar medis. Menggunakan data yang tidak relevan dengan tugas dapat menyebabkan model AI membuat prediksi yang tidak tepat.
Saat melatih model AI, sebaiknya buat template untuk diikuti model tersebut. Template ini dapat memandu model dalam membuat prediksi. Misalnya, jika Anda melatih model AI untuk menulis teks, Anda dapat membuat template yang mencakup elemen-elemen berikut:
Saat menggunakan model AI, penting untuk memberi tahu model apa yang Anda inginkan dan tidak diinginkan. Hal ini dapat dilakukan dengan memberikan masukan kepada model. Misalnya, jika menggunakan model AI untuk menghasilkan teks, Anda dapat memberikan masukan kepada model dengan memberi tahu teks mana yang Anda suka dan tidak suka. Hal ini akan membantu model mempelajari hal yang Anda inginkan.
Pelajari cara menggunakan Google Cloud untuk membantu mencegah halusinasi AI:
Mulailah membangun solusi di Google Cloud dengan kredit gratis senilai $300 dan lebih dari 20 produk yang selalu gratis.