Apa itu halusinasi AI?

Halusinasi AI adalah hasil yang tidak tepat atau menyesatkan yang dihasilkan model AI. Error ini dapat disebabkan oleh berbagai faktor, termasuk data pelatihan yang tidak memadai, asumsi yang salah dibuat oleh model, atau bias dalam data yang digunakan untuk melatih model. Halusinasi AI dapat menjadi masalah bagi sistem AI yang digunakan untuk membuat keputusan penting, seperti diagnosis medis atau perdagangan keuangan.

Pelanggan baru mendapatkan kredit gratis senilai hingga $300 untuk mencoba Vertex AI dan produk Google Cloud lainnya. 

Bagaimana halusinasi AI terjadi?

Model AI dilatih menggunakan data, dan model tersebut belajar membuat prediksi dengan menemukan pola dalam data. Namun, keakuratan prediksi ini sering kali bergantung pada kualitas dan kelengkapan data pelatihan. Jika data pelatihan tidak lengkap, bias, atau memiliki kelemahan, model AI dapat mempelajari pola yang salah sehingga menghasilkan prediksi yang tidak akurat atau halusinasi.

Misalnya, model AI yang dilatih dengan set data gambar medis dapat belajar mengidentifikasi sel kanker. Namun, jika set data tidak menyertakan gambar jaringan yang sehat, model AI tersebut dapat salah memprediksi adanya sel kanker pada jaringan yang sehat. 

Data pelatihan yang memiliki kelemahan hanyalah salah satu faktor penyebab terjadinya halusinasi AI. Kurangnya perujukan yang tepat dapat menjadi faktor penyebab lainnya. Model AI mungkin kesulitan memahami pengetahuan dunia nyata, properti fisik, atau informasi faktual secara akurat. Kelemahan perujukan ini dapat menyebabkan model menghasilkan output yang seolah masuk akal, tetapi sebenarnya mengandung fakta yang salah, tidak relevan, atau tidak koheren. Hal ini bahkan dapat mencakup pembuatan link ke halaman web yang tidak pernah ada.

Sebagai contoh, model AI yang dirancang untuk membuat ringkasan artikel berita dapat menghasilkan ringkasan yang menyertakan detail yang tidak ada dalam artikel asli atau bahkan mengarang informasi sepenuhnya. 

Memahami potensi penyebab halusinasi AI ini penting bagi developer yang bekerja dengan model AI. Dengan mempertimbangkan kualitas dan kelengkapan data pelatihan secara cermat serta memastikan perujukan yang tepat, developer dapat meminimalkan risiko halusinasi AI dan memastikan akurasi serta keandalan model mereka.

Contoh halusinasi AI

Halusinasi AI dapat berupa berbagai bentuk. Beberapa contoh umumnya meliputi:

  • Prediksi salah: Model AI dapat memprediksi bahwa suatu peristiwa akan terjadi yang seharusnya tidak mungkin terjadi. Misalnya, model AI yang digunakan untuk memprediksi cuaca dapat memprediksi bahwa besok akan hujan, padahal tidak ada hujan dalam prakiraan cuaca.
  • Positif palsu: Ketika menggunakan model AI, model AI mungkin mengidentifikasi sesuatu sebagai ancaman, padahal sebenarnya tidak. Misalnya, model AI yang digunakan untuk mendeteksi penipuan dapat menandai transaksi sebagai bersifat menipu, padahal sebenarnya tidak.
  • Negatif palsu: Model AI dapat gagal mengidentifikasi sesuatu sebagai ancaman saat hal tersebut memanglah ancaman. Misalnya, model AI yang digunakan untuk mendeteksi kanker mungkin gagal mengidentifikasi kanker, padahal memang bersifat kanker.

Cara mencegah halusinasi AI

Ada sejumlah hal yang dapat dilakukan untuk mencegah halusinasi AI, antara lain:

Batasi kemungkinan hasil

Saat melatih model AI, penting untuk membatasi jumlah kemungkinan hasil yang dapat diprediksi oleh model tersebut. Ini dapat dilakukan dengan menggunakan teknik yang disebut "regularisasi". Regularisasi menindak model yang membuat prediksi yang terlalu ekstrem. Hal ini membantu mencegah model melakukan overfitting pada data pelatihan dan membuat prediksi yang salah.

Latih AI Anda hanya dengan sumber relevan tertentu

Saat melatih model AI, penting untuk menggunakan data yang relevan dengan tugas yang akan dilakukan model. Misalnya, jika Anda melatih model AI untuk mengidentifikasi kanker, Anda harus menggunakan set data gambar medis. Menggunakan data yang tidak relevan dengan tugas dapat menyebabkan model AI membuat prediksi yang tidak tepat.

Buat template untuk diikuti AI Anda

Saat melatih model AI, sebaiknya buat template untuk diikuti model tersebut. Template ini dapat memandu model dalam membuat prediksi. Misalnya, jika Anda melatih model AI untuk menulis teks, Anda dapat membuat template yang mencakup elemen-elemen berikut:

  • Judul
  • Pendahuluan
  • Isi
  • Kesimpulan

Beri tahu AI hal yang Anda inginkan dan tidak diinginkan

Saat menggunakan model AI, penting untuk memberi tahu model apa yang Anda inginkan dan tidak diinginkan. Hal ini dapat dilakukan dengan memberikan masukan kepada model. Misalnya, jika menggunakan model AI untuk menghasilkan teks, Anda dapat memberikan masukan kepada model dengan memberi tahu teks mana yang Anda suka dan tidak suka. Hal ini akan membantu model mempelajari hal yang Anda inginkan.

Mengatasi tantangan bisnis Anda dengan Google Cloud

Pelanggan baru mendapatkan kredit gratis senilai $300 untuk dibelanjakan di Google Cloud.
Hubungi spesialis penjualan Google Cloud untuk membahas tantangan unik Anda secara lebih mendetail.

Cara Google Cloud membantu mencegah halusinasi

Pelajari cara menggunakan Google Cloud untuk membantu mencegah halusinasi AI: 

Langkah selanjutnya

Mulailah membangun solusi di Google Cloud dengan kredit gratis senilai $300 dan lebih dari 20 produk yang selalu gratis.

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
Konsol
Google Cloud