Contact Information

Alamat: Komplek Rumah Susun Petamburan Blok 1 Lantai Dasar, Tanah Abang - Jakpus 10260

We're Available 24/ 7. Call Now.
LLaMA Milik Meta Bocor Di Situs Torrent 4chan
SHARE:

Technologue.id, Jakarta - Pada 24 Februari, Meta mengumumkan model bahasa AI terbarunya: LLaMA. Meskipun tidak dapat diakses oleh publik seperti ChatGPT milik OpenAI atau Bing milik Microsoft, LLaMA adalah bentuk kontribusi Meta untuk kemajuan teknologi bahasa AI yang menjanjikan cara baru untuk berinteraksi dengan komputer kita.

Meta merilis LLaMA sebagai sebuah model open-source yang dapat diminta aksesnya oleh siapa saja dalam komunitas AI. Meta menyatakan bahwa niat mereka adalah untuk "mendemokratisasi akses" ke AI untuk mendorong lebih banyak orang melakukan penelitian terhadap berbagai kekurangan LLaMA. Toh pada akhirnya Meta sendiri akan mendapat manfaat dengan berkurangnya masalah pada sistem mereka.

Baca Juga:
Meta Sedang Mengakhiri Pekerjaannya dengan NFT di Facebook dan Instagram

“Bahkan dengan semua kemajuan terkini pada model bahasa AI berskala besar lainnya, akses penelitian penuh terhadap model mereka tetap terbatas karena sumber daya yang diperlukan untuk melatih dan menjalankan model dengan skala tersebut,” kata Meta dalam postingan blog mereka. “Akses yang terbatas ini membatasi kemampuan peneliti untuk memahami bagaimana dan mengapa model bahasa berskala besar ini bekerja, menghambat kemajuan berbagai upaya yang dilakukan untuk meningkatkan ketahanannya dan memitigasi masalah-masalah umum, seperti bias, toksisitas, dan potensi menghasilkan informasi yang salah.”

Namun, hanya satu minggu setelah Meta mulai memilah permintaan untuk mengakses LLaMA, model bahasa AI mereka tiba-tiba bocor di internet. Pada tanggal 3 Maret, sebuah file torrent dari LLaMA yang dapat diunduh siapa saja muncul di 4chan dan sejak itu menyebar ke berbagai komunitas AI, memicu perdebatan tentang cara yang tepat untuk berbagi penelitian mutakhir di masa dimana kemajuan teknologi berkembang pesat. 

Ada yang mengatakan kebocoran itu akan menimbulkan konsekuensi yang meresahkan dan bahkan menyalahkan Meta karena mendistribusikan teknologinya terlalu bebas. “Bersiaplah untuk banyak spam dan upaya phishing yang dipersonalisasi,” cuit peneliti keamanan siber, Jeffrey Ladish, lewat akun Twitternya setelah berita tersebut tersiar. “Membuka sumber model ini adalah ide yang buruk.” Yang lain lebih optimis dengan alasan bahwa akses terbuka diperlukan untuk mengembangkan berbagai sistem keamanan untuk AI dan bahwa model bahasa kompleks serupa telah dipublikasikan tanpa menyebabkan kerusakan yang signifikan.

Baca Juga:
Aplikasi Terdesentralisasi Baru Sedang Dikembangkan oleh Meta

“Akhir-akhir ini kami sering menerima kabar bahwa gelombang penggunaan [model bahasa AI] yang berbahaya akan segera tiba,” tulis peneliti Sayash Kapoor dan Arvind Narayanan dalam postingan blog mereka. “Namun, sepertinya sejauh ini tidak ada kasus yang terdokumentasi.” (Dalam artikel yang dibuat Kapoor dan Narayanan tentang siswa yang menyontek menggunakan ChatGPT atau situs yang dikuasai oleh spam AI atau publikasi jurnalisme AI yang dipenuh berbagai macam kesalahan, menurut mereka aktivitas tersebut tidak berbahaya karena aplikasi AI ini tidak dimaksudkan untuk membahayakan maupun menyakiti publik.)

Dilansir dari The Verge yang telah mewawancarai sejumlah peneliti AI yang sempat mengunduh LLaMA dari link torrent tersebut, mereka menyatakan model yang bocor tersebut asli. Salah satunya Matthew Di Ferrante, yang dapat membandingkan versi yang bocor dengan model LLaMA resmi dari Meta, ia menegaskan bahwa keduanya sama persis. Ditambah lagi, Joelle Pineau, direktur pelaksana AI Meta, mengonfirmasi dalam konferensi pers dengan pernyataan, “Meskipun model [LLaMA] tidak dapat diakses oleh semua orang… beberapa (orang) telah mencoba menyiasati proses persetujuan (akses).”

SHARE:

Bandara Kena Serang, Microsoft Jadi "Kambing Hitam"

Tips Amankan Data Penting dengan Metode 3 – 2 – 1