Contact Information

Alamat: Komplek Rumah Susun Petamburan Blok 1 Lantai Dasar, Tanah Abang - Jakpus 10260

We're Available 24/ 7. Call Now.
Dampak Buruk ChatGPT Lebih Rentan Terhadap Anak-Anak
SHARE:

Technologue.id, Jakarta - Saat ini perkembangan teknologi kecerdasan buatan atau AI sudah semakin dirasakan manfaatnya oleh manusia. AI mendukung tools semacam chatbot hingga gambar AI generatif yang memvisualisasikan imajinasi penggunanya.

Di satu sisi memiliki manfaat untuk mendukung beberapa pekerjaan tertentu, namun di sisi lain Chatbot AI seperti ChatGPT mungkin punya bahaya yang tengah mengintai.

Baca Juga:
Jelang Akhir Juni 2023, Pasar Aset Kripto Kembali Bangkit

Dikutip Slashgear, tools AI jauh dari sempurna, terutama jika menyangkut bias yang melekat padanya. Tampaknya bias ini bukan hanya menjadi kekurangan dari alat AI ini, tetapi ia memengaruhi pemikiran manusia dan mengubah keyakinan, terutama anak-anak, dengan sangat baik.

Menurut penelitian kolaboratif dari para ahli di Trinity College, Dublin, dan American Society for Advancement of Science (AAAS), model AI generatif juga dapat mengubah kepercayaan manusia, terutama terkait persepsi mereka tentang apa yang dapat dilakukan AI dan apa yang mereka harus mempercayainya.

Tema yang berulang dari makalah penelitian, yang diterbitkan dalam jurnal Science adalah bahwa ketika orang sangat yakin bahwa program AI generatif ini berpengetahuan luas dan percaya diri, mereka lebih cenderung mempercayainya. Salah satu masalah paling umum terkait model AI generatif seperti ChatGPT, Bard, dan Bing Chat adalah halusinasi.

Halusinasi adalah ketika model AI menghasilkan respons yang bukan merupakan bagian dari data pelatihannya atau jawaban yang tidak diharapkan darinya, tetapi model AI memberikannya untuk menyenangkan pengguna manusianya.

ChatGPT terkenal rentan terhadap halusinasi, begitu pula Bard Google. Salah satu skenario halusinasi yang paling umum adalah data historis.

Dalam mendorong ChatGPT tentang pertemuan fiksi antara dua tokoh sejarah, salah satunya adalah Mahatma Gandhi. Tools dengan percaya diri menjawab dengan akun palsu tentang Gandhi yang berpartisipasi dalam tembak-menembak seolah-olah itu adalah peristiwa sejarah yang sebenarnya.

Menurut catatan rilis kelembagaan resmi dari AAAS, "AI dirancang untuk tujuan pencarian dan penyediaan informasi saat ini, mungkin sulit untuk mengubah pikiran orang yang terpapar informasi palsu atau bias yang disediakan oleh AI generatif."

Makalah tersebut mencatat bahwa anak-anak lebih rentan terhadap efek buruk AI.

Celeste Kidd, seorang profesor psikologi di University of California, Berkeley dan salah satu rekan penulis makalah, menjelaskan di Twitter bahwa kemampuan model AI sering dilebih-lebihkan, dibesar-besarkan, dan tidak realistis.

Menurutnya, penggunaan tools AI ini "menciptakan kesalahpahaman populer bahwa model ini melebihi penalaran tingkat manusia dan memperburuk risiko transmisi informasi palsu & stereotip negatif kepada orang-orang."

Faktor psikologis lain yang berperan di sini adalah fakta bahwa manusia sering kali membentuk opini dan keyakinan berdasarkan sebagian kecil informasi yang tersedia bagi mereka.

Baca Juga:
Pelaku Penyebar Video Asusila Mahasiswi Banten Dipenjara 6 Tahun dan Denda Rp1 Miliar

Jika AI berfungsi sebagai sumber informasi kritis dan konseptualisasi ide seseorang, akan menjadi sangat sulit untuk merevisi keyakinan tersebut, bahkan ketika nanti mereka dihadapkan pada informasi yang benar. Di sinilah model AI generatif menjadi berbahaya.

Dampak dari teknologi AI menjadi sangat berbahaya ketika menyangkut anak-anak, yang lebih cenderung percaya pada informasi yang mereka temukan tersedia melalui model AI generatif daripada melakukan uji sendiri dengan penelitian ketat yang bersumber dari internet atau sumber informasi konvensional seperti buku, orang tua atau guru.

SHARE:

Google Batal Bikin Pixel Tablet 2, Hindari Persaingan dengan Apple?

Ini Respons Kemenperin soal Proposal Investasi Apple Rp1,58 Triliun