Home Uncategorized Cara mengenali ‘halusinasi’ AI generatif dan mencegahnya

Cara mengenali ‘halusinasi’ AI generatif dan mencegahnya

40
0
Cara mengenali ‘halusinasi’ AI generatif dan mencegahnya

AI generatif dapat mengalami “halusinasi” ketika ia tidak mengetahui jawaban atas sebuah pertanyaan; inilah cara menemukannya.

Para peneliti dari Universitas Oxford telah merancang metode baru untuk membantu pengguna mengetahui kapan AI generatif bisa “berhalusinasi.” Hal ini terjadi ketika sistem AI mengajukan pertanyaan yang tidak diketahui jawabannya, sehingga menyebabkan jawaban yang salah.

Untungnya, ada tips untuk mengenali hal ini ketika hal itu terjadi dan mencegahnya terjadi sama sekali.

Bagaimana menghentikan halusinasi AI

Sebuah studi baru yang dilakukan oleh tim di Universitas Oxford telah menghasilkan model statistik yang dapat mengidentifikasi kapan pertanyaan yang diajukan kepada chatbot AI generatif kemungkinan besar menghasilkan jawaban yang salah.

Hal ini merupakan kekhawatiran nyata bagi model AI generatif, karena sifat canggih dalam cara mereka berkomunikasi berarti mereka dapat menyampaikan informasi palsu sebagai fakta. Hal ini disorot ketika ChatGPT menjadi nakal dengan jawaban palsu pada bulan Februari.

Dengan semakin banyaknya orang dari berbagai lapisan masyarakat yang beralih ke alat AI untuk membantu mereka dalam bersekolah, bekerja, dan dalam kehidupan sehari-hari, pakar AI seperti mereka yang terlibat dalam penelitian ini menyerukan adanya cara yang lebih jelas bagi orang-orang untuk mengetahui kapan AI memberikan tanggapan. terutama bila berkaitan dengan topik serius seperti kesehatan dan hukum.

Para peneliti di Universitas Oxford mengklaim bahwa penelitian mereka dapat membedakan apakah suatu model benar atau hanya mengada-ada.

“LLM sangat mampu mengatakan hal yang sama dalam berbagai cara, sehingga sulit untuk mengetahui kapan mereka yakin akan suatu jawaban dan kapan mereka benar-benar hanya mengada-ada,” kata penulis studi Dr Sebastian Farquhar saat berbicara kepada Standar Malam. “Dengan pendekatan sebelumnya, tidak mungkin membedakan antara model yang tidak yakin mengenai apa yang harus dikatakan dan tidak yakin tentang bagaimana mengatakannya. Namun metode baru kami mengatasi hal ini.”

Namun, tentu saja masih banyak pekerjaan yang harus dilakukan untuk mengatasi kesalahan yang dapat dilakukan oleh model AI.

“Ketidakpastian semantik membantu mengatasi masalah keandalan tertentu, namun ini hanya sebagian dari cerita,” tambahnya. “Jika LLM membuat kesalahan yang konsisten, metode baru ini tidak akan menangkapnya. Kegagalan AI yang paling berbahaya terjadi ketika suatu sistem melakukan sesuatu yang buruk namun tetap percaya diri dan sistematis.

“Masih banyak pekerjaan yang harus dilakukan.”

Gambar unggulan: Ideogram

Source link