Contact Information

Alamat: Komplek Rumah Susun Petamburan Blok 1 Lantai Dasar, Tanah Abang - Jakpus 10260

We're Available 24/ 7. Call Now.
Kata Pakar Soal Surat Terbuka Stop Pengembangan AI : Perlu Regulasi Ketat dan Protokol Keamanan Ekstra
SHARE:

Technologue,id, Jakarta - Kekhawatiran akan perkembangan AI yang semakin pesat terus menjadi topik hangat yang diperdebatkan dalam dunia teknologi. Baru-baru ini, sebuah surat terbuka yang ditandatangani oleh 2000 ahli AI, ilmuwan, dan akademisi, menyerukan agar pemerintah mengelurkan moratorium atas pengembangan sistem AI lanjutan. Mereka memperingatkan tentang potensi bahaya dari pengembangan sistem AI lanjutan yang lebih kuat.

Stuart Russell, seorang profesor ilmu komputer di Universitas Berkeley dan salah satu penandatangan petisi tersebut, berpendapat bahwa ancaman terhadap demokrasi dan ancaman yang dapat timbul dari penyalahgunaan AI untuk menyebarkan hoax, sebenarnya sudah mungkin terjadi dengan GPT-4, Bard, dan AI Large Language Models (LLM) lainnya yang telah tersedia saat ini. Namun, mimpi buruk AI yang lebih mengkhawatirkan adalah kemungkinan yang dapat muncul dari AI generasi berikutnya.

Baca Juga:
Elon Musk dkk Ajukan Petisi Penghentian Sementara Pengembangan AI

Dilansir dari wawancara dengan Gizmodo, Stuart mengatakan bahwa kekhawatiran yang paling utama timbul dari perlombaan tanpa henti di antara perusahaan teknologi yang sudah menyatakan bahwa mereka tidak akan berhenti mengembangkan sistem AI yang lebih kuat, terlepas dari risiko yang mungkin ditimbulkan. Meskipun peneliti AI terkemuka lainnya telah membantah klaim bahwa kita maupun si pencipta AI sendiri, tidak benar-benar memahami cara kerja alat tersebut, Stuart mengatakan bahwa alat-alat tersebut pada dasarnya adalah "lembar kosong dari triliunan parameter." 

"Hanya itu yang kita tahu," kata Russell. "Kita tidak tahu, sebagai contoh, apakah mereka telah mampu mengembangkan tujuan internal mereka sendiri atau bahkan memiliki kemampuan untuk mencapainya melalui perencanaan panjang." Komentar Stuart mengacu pada makalah penelitian terbaru dari peneliti Microsoft yang mengklaim bahwa GPT-4 milik Open AI baru-baru ini menunjukkan "percikan dari kecerdasan umum buatan."

Baca Juga:
Tuai Kritik, Google Berjanji Bakal Memperbaiki dan Meningkatkan Chatbot AI Bard

Beberapa pakar AI lainnya jauh lebih konservatif dalam kritik mereka. Para ahli berbagi kekhawatiran tentang potensi penyalahgunaan AI namun seringkali mengelak untuk membandingkan sistem AI dengan kecerdasan manusia, sebuah topik bahasan yang semakin marak diperbincangkan khalayak umum.

Pembicaraan tentang kecerdasan umum buatan, menurut mereka, dapat menjadi kontraproduktif. Sebagai contoh, dalam kasus ChatGPT milik OpenAI yang dapat lulus kelas-kelas sekolah bisnis dan ujian lisensi medis ternama, namun seringkali masih kesulitan dengan soal-soal aritmatika dasar.

“Saya rasa banyak orang yang khawatir dengan kemampuan yang dimiliki AI, dan kekhawatiran ini valid, namun kalau kita menginginkan sistem-sistem ini dapat dipertanggungjawabkan pada publik, maka kita perlu meregulasi pemain-pemain besar yang terlibat,” kata Direktur AI Now Institute, Sarah Myers West. "Namun, yang perlu dipahami tentang Chat GPT dan LLM serupa lainnya: mereka sama sekali tidak mencerminkan kedalaman pemahaman bahasa manusia - mereka hanya meniru bentuknya."

Meskipun Myers juga memiliki kekhawatiran tentang penyalahgunaan AI, ia khawatir bahwa tren teknologi yang ada saat ini dan opini yang melebih-lebihkan kemampuan teknologi tersebut dapat mengalihkan perhatian masyarakat dari kekhawatiran lain yang lebih mendesak.

Kekhawatiran serius diungkapkan oleh sejumlah peneliti AI terkait minimnya regulasi yang signifikan di ruang lingkup teknologi ini, terutama mengingat ketergantungan teknologi tersebut pada sejumlah besar data dan kecepatan perkembangannya yang luar biasa. Meskipun teknologi ini menjanjikan kemajuan pesat, masih banyak masalah yang harus diatasi, terutama terkait dengan transparansi dan bias.

Saat ini, LLM terkenal sejenis GPT-4 masih kurang transparan mengenai jenis data pelatihan yang digunakan untuk mengembangkan model mereka, sehingga audit independen menjadi lebih sulit. Selain itu, bias terkait gender dan ras, yang sudah terjadi dalam model AI yang kurang maju, berisiko semakin meningkat di masa depan.

Masalah lain yang muncul adalah model LLM yang seringkali memberikan jawaban yang keliru, sebuah anomali fitur yang dijuluki "AI hallucinations” atau "halusinasi AI" yang bisa berdampak serius bagi pengguna. Saat ini, halusinasi tersebut hanya menjadi lelucon yang lucu, tetapi hal tersebut bisa berubah ketika semakin banyak pengguna menggunakan AI untuk mencari informasi. Persepsi objektivitas terhadap teknologi ini membuat pengguna lebih cenderung menganggap respons AI sebagai pernyataan fakta, padahal sebenarnya jawaban tersebut seringkali hanya merupakan perkiraan yang cukup tepat. Ketidakpedulian teknologi ini terhadap kebenaran atau kenyataan secara masif bisa membuat ekosistem informasi semakin tidak teratur dan sulit untuk membedakan sumber informasi yang bisa dipercaya.

"Program ini dibuat untuk menciptakan teks yang terdengar masuk akal namun tidak didasarkan pada komitmen terhadap kebenaran," kata Emily M. Bender, seorang Profesor Linguistik di University of Washington. "Ini berarti bahwa ekosistem informasi kita bisa dengan cepat dipenuhi terlalu banyak informasi yang tidak berarti, sehingga semakin sulit untuk menemukan sumber informasi yang dapat dipercaya dan semakin sulit untuk mempercayainya,” tegas Emily.

Meskipun hype mengenai AI semakin meningkat, masyarakat umum sepertinya masih belum yakin tentang arah perkembangan AI saat ini. Menurut hasil jajak pendapat Monmouth University baru-baru ini, hanya 9% orang dewasa di AS yang percaya bahwa AI akan melakukan lebih banyak memberikan manfaat daripada merugikan masyarakat. Sementara itu, 56% lainnya mengatakan, mereka percaya bahwa dunia yang dibanjiri oleh AI canggih akan merugikan kualitas hidup manusia secara keseluruhan. "Sepertinya beberapa orang memandang AI bukan hanya sebagai masalah teknologi dan ekonomi, tetapi juga sebagai masalah kesehatan publik," kata Patrick Murray yang menjabat sebagai direktur divisi polling di Polling Institute, Monmouth University.

SHARE:

Insiden Siber Kritis Terjadi Setiap Hari Selama 2023

RUPS: XL Axiata Umumkan Dividen Rp635,5 Miliar dan Ubah Susunan Direksi