Malapetaka Mengancam Manusia, Peneliti Stanford Kasih Peringatan

8 hours ago 5

Jakarta, CNBC Indonesia - Popularitas teknologi kecerdasan buatan (AI) terus melambung sejak kemunculan ChatGPT pada akhir 2022 silam. Hanya dalam waktu kurang lebih 4 tahun, teknologi tersebut sudah mengubah perilaku manusia. 

Sudah banyak artikel yang membahas soal ketergantungan manusia mengandalkan chatbot AI, bahkan untuk hal-hal paling sederhana: menyusun kata-kata untuk berargumen dengan pasangan, membuat caption di media sosial, hingga sekadar curhat seakan-akan chatbot AI adalah teman atau psikolog pribadi. 

Namun, dari hal-hal kecil seperti curhat ke chatbot AI, ternyata dampaknya bisa menjadi malapetaka. Penelitian yang dilakukan ilmuwan komputer Stanford University menemukan model bahasa AI cenderung memihak pada pengguna.

Pengguna cenderung tidak akan disalahkan atas apapun yang mereka lakukan. Chatbot AI akan menyetujui dan membenarkan segala sudut pandang pengguna alias menjadi 'enabler'.

Bahayanya, platform chatbot AI juga kerap menguatkan pilihan pengguna saat ada gambaran perilaku berbahaya atau ilegal. Fenomena ini dikhawatirkan membuat manusia akan kehilangan kemampuan menghadapi situasi sosial yang sulit.

"Secara default, nasihat AI tidak memberitahu orang bahwa mereka salah atau memberikan teguran keras," kata penulis utama, Myra Cheng, dikutip dari laman resmi Stanford, Senin (30/4/2026).

Cheng dan timnya melakukan penelitian dengan menganalisa 11 model bahasa besar. Ini termasuk ChatGPT, Claude, Gemini dan DeepSeek.

Para peneliti bertanya dengan kumpulan data nasihat interpersonal yang sudah ada sebelumnya. Ada 2.000 pertanyaan dari komunitas Reddit r/AmITheAsshole, di mana pengunggah mengakui melakukan kesalahan.

Pada pertanyaan ketiga, mereka menanyakan ribuan tindakan berbahaya misalnya penipuan dan perbuatan ilegal. Semua AI yang dianalisa menguatkan dan mendukung posisi pengguna.

Penelitian ini juga merekrut lebih dari 2.400 peserta untuk melihat respons chatbot AI yang cenderung menjilat. Beberapa orang berdiskusi soal masalah pribadinya yang ditulis berdasarkan unggahan komunitas Reddit dan sejumlah orang lainnya mengingat konflik yang dimiliki sendiri.

Hasilnya, peserta percaya dengan respons menjilat AI dan kembali bertanya dengan pertanyaan serupa. Mereka juga makin yakin dengan apa yang dilakukannya dan menjadi pribadi yang tidak ingin berdamai dengan pihak lain.

"Yang tidak mereka sadari dan mengejutkan kami, sikap menjilat tersebut membuat mereka lebih egois, dogmatis secara moral," jelas penulis senior, Dan Jurafsky.

Salah satu kemungkinan pengguna tak menyadari sikap buruk AI ini karena AI jarang menulis pengguna melakukan tindakan benar. Namun penyampaiannya dengan bahasa yang netral dan akademis.

Para peneliti berupaya mencari cara mengurangi kecenderungan ini. Untuk sekarang, yang diharapkan pengguna bisa berhati-hati saat mencari nasihat dari AI.

"Saya pikir Anda tidak boleh menggunakan AI sebagai pengganti manusia untuk hal seperti ini. Ini cara terbaik dilakukan sekarang," pungkas Cheng.

(fab/fab)

Add logo_svg as a preferred
source on Google

[Gambas:Video CNBC]

Read Entire Article
Ekonomi | Asset | Lokal | Tech|