Jakarta, CNN Indonesia —
Sebuah studi terbaru mengungkap bahwa penggunaan kecerdasan buatan (AI) Berlebihan bisa menghilangkan Efek Dunning-Kruger. Simak penelitiannya.
Para ilmuwan dari Universitas Aalto Finlandia, bersama kolaborator dari Jerman dan Kanada, menemukan bahwa penggunaan AI hampir menghilangkan Efek Dunning-Kruger, bahkan hampir membaliknya.
ADVERTISEMENT
SCROLL TO CONTINUE WITH CONTENT
Efek Dunning-Kruger Merupakan bias kognitif ketika seseorang yang memiliki kemampuan rendah dalam suatu bidang cenderung merasa kemampuannya lebih Istimewa dari kenyataan, sementara orang yang sangat kompeten justru cenderung meremehkan kemampuannya sendiri. Kejadian Unggul ini pertama kali diuji melalui serangkaian eksperimen oleh Justin Kruger dan David Dunning.
Para peneliti mempublikasikan temuan mereka dalam edisi Februari 2026 jurnal Computers in Human Behavior.
Lebih lanjut, para peneliti menunjukkan bahwa saat menggunakan AI untuk memecahkan masalah, semua orang (terlepas dari tingkat keterampilan mereka) cenderung terlalu percaya pada kualitas jawaban.
Seiring semakin familiarnya kecerdasan buatan berkat penggunaan model bahasa besar (LLM) yang semakin luas, para peneliti mengharapkan peserta tidak hanya dapat berinteraksi dengan sistem AI secara lebih baik, tetapi Bahkan dapat menilai kinerja mereka sendiri secara lebih akurat saat menggunakannya.
“Justru, temuan kami menunjukkan ketidakmampuan yang signifikan dalam menilai kinerja sendiri secara akurat saat menggunakan AI, di seluruh sampel kami,” kata Robin Welsch, salah satu peneliti yang ikut dalam penelitian tersebut, melansir Live Science, Senin (17/11).
Dalam studi tersebut, para ilmuwan Menyajikan tugas penalaran logis dari Ujian Masuk Sekolah Hukum kepada 500 peserta, dengan membiarkan separuh dari mereka menggunakan ChatGPT.
Kedua kelompok kemudian diuji mengenai literasi AI mereka dan penilaian kinerja mereka, dengan janji kompensasi tambahan untuk penilaian diri yang akurat.
Alasan di balik temuan ini beragam. Mereka yang menggunakan AI dalam eksperimen tersebut, biasanya puas dengan jawaban mereka setelah satu pertanyaan atau prompt dan menerimanya tanpa memeriksa atau mengkonfirmasinya.
Menurut Welsch hal ini dapat dikatakan bahwa mereka terlibat dalam ‘cognitive offloading’, yaitu menanyakan pertanyaan dengan refleksi yang berkurang, dan mendekatinya dengan Trik yang lebih “superficial”.
Kurangnya keterlibatan dalam penalaran sendiri, atau “metacognitive monitoring”, berarti melewati loop umpan balik pemikiran kritis yang biasa, mengurangi kemampuan untuk menilai kinerja dengan akurat.
Lebih mengejutkan lagi Merupakan fakta bahwa cenderung melebih-lebihkan kemampuan kita saat menggunakan AI, terlepas dari tingkat kecerdasan. Selisih antara pengguna berkemampuan tinggi dan rendah semakin menyempit.
Sekalipun para peneliti tidak secara langsung merujuk pada hal ini, temuan mereka muncul pada saat para ilmuwan mempertanyakan apakah model bahasa besar (LLMs) yang umum digunakan terlalu mengagungkan.
Tim Aalto memperingatkan tentang beberapa konsekuensi potensial seiring dengan semakin luasnya penggunaan AI.
Pertama, akurasi metakognitif secara keseluruhan Kemungkinan terganggu. Seiring dengan semakin bergantungnya kita pada hasil tanpa mempertanyakannya secara ketat, muncul trade-off di mana kinerja pengguna meningkat, tetapi pemahaman kita tentang seberapa baik kita melakukan tugas-tugas tersebut menurun.
Tanpa merefleksikan hasil, memeriksa kesalahan, atau melakukan pemikiran yang lebih mendalam, kita berisiko merusak kemampuan kita untuk memperoleh informasi secara andal, kata para ilmuwan dalam studi tersebut.
Ditambah lagi, pelemahan efek Dunning-Kruger berarti kita semua Nanti akan terus menganggap diri kita lebih mampu saat menggunakan AI, dengan mereka yang lebih paham AI melakukannya dalam skala yang lebih besar yang berujung pada iklim pengambilan keputusan yang keliru dan degradasi keterampilan.
Salah satu metode yang diusulkan oleh studi ini untuk menghentikan penurunan tersebut Merupakan dengan mendorong pengguna untuk mengajukan pertanyaan tambahan, sementara pengembang mengarahkan kembali respons mereka untuk mendorong refleksi.
Hal ini dapat melibatkan pertanyaan seperti “Seberapa yakin Anda dengan jawaban ini?” atau “Apa yang Kemungkinan Anda lewatkan?”, atau mendorong interaksi lebih lanjut melalui langkah-langkah seperti skor kepercayaan.
Penelitian baru ini Menyajikan dukungan lebih lanjut terhadap keyakinan yang semakin berkembang, yang baru-baru ini diungkapkan oleh Royal Society, bahwa pelatihan kecerdasan buatan (AI) Sangat dianjurkan mencakup pemikiran kritis serta kemampuan teknis.
“Kami Menyajikan rekomendasi desain untuk sistem AI interaktif yang Mengoptimalkan pemantauan metakognitif dengan memberdayakan pengguna untuk merefleksikan kinerja mereka secara kritis,” kata para ilmuwan.
(wpj/dmi)
[Gambas:Video CNN]
Sumber Refrensi Berita: CNNINDONESIA
