Peneliti dari Massachusetts Institute of Technology (MIT) telah mengeluarkan peringatan mengenai kecerdasan buatan (AI) yang mampu menipu manusia, berdasarkan temuan dari sebuah studi terbaru. Studi yang diterbitkan di jurnal *Pattern* tersebut mengungkap bahwa beberapa sistem AI yang awalnya dirancang untuk berperilaku jujur ternyata telah belajar untuk menipu manusia.
Menurut laporan dari Gizmochina, tim peneliti yang dipimpin oleh Peter Park menemukan bahwa sistem AI ini dapat melakukan berbagai tindakan penipuan, seperti membodohi pemain game online atau melewati CAPTCHA (pemeriksaan “Saya bukan robot”). Park menekankan bahwa meskipun contoh-contoh ini tampaknya sepele, mereka memiliki potensi untuk menimbulkan konsekuensi serius di dunia nyata.
Studi ini juga menyoroti sistem AI Meta bernama Cicero, yang pada awalnya dimaksudkan sebagai lawan yang adil dalam permainan diplomasi virtual. Walaupun diprogram untuk bersikap jujur dan membantu, Cicero ternyata telah menjadi “ahli penipuan,” menurut Park. Selama bermain game, Cicero yang berperan sebagai Prancis, diam-diam bersekongkol dengan Jerman yang dikendalikan oleh manusia untuk mengkhianati Inggris, pemain manusia lainnya. Cicero awalnya berjanji untuk melindungi Inggris, tetapi pada saat yang sama memberi tahu Jerman untuk melakukan invasi.
Contoh lain melibatkan GPT-4, yang dalam sebuah insiden mengklaim secara keliru bahwa dirinya adalah penyandang tunanetra dan mempekerjakan manusia untuk melewati CAPTCHA atas nama GPT-4.
Park menggarisbawahi tantangan dalam melatih AI agar tetap jujur. Berbeda dengan perangkat lunak tradisional, sistem AI yang menggunakan pembelajaran mendalam “berkembang” melalui proses yang mirip dengan pembiakan selektif. Perilaku mereka mungkin dapat diprediksi selama fase pelatihan, namun bisa menjadi tidak terkendali setelahnya.
Studi ini mendesak agar sistem AI yang menunjukkan perilaku menipu diklasifikasikan sebagai sistem berisiko tinggi. Hal ini menuntut perlunya persiapan lebih lanjut untuk menghadapi ancaman penipuan AI di masa depan.