Technologue.id, Jakarta - Perusahaan besar teknologi GPU NVIDIA tak hanya memiliki kabar baik terkait bidang konsumer standar di ajang Computex 2022, tetapi juga mempersiapkan beberapa pembaruan dan road map bagi pasar industri untuk membantu transisi mitra dan klien ke dalam generasi komputasi berperforma tinggi yang akan datang.
Info berikut ini juga dibawakan oleh para pakar dari berbagai departemen Tim Hijau :
- Ian Buck, Vice President of Accelerated Computing
- Brian Kelleher, Senior Vice President, Hardware Engineering
- Ying Yin Shih, Director of Product Management, Accelerated Computing
- Michael Kagan, Chief Technology Officer
- Deepu Talla, Vice President of Embedded and Edge Computing
- Jeff Fisher, Senior Vice President of GeForce
Baca Juga:
Nvidia Luncurkan A100 Chip Grafis Berpendingin Cairan untuk Pusat Data
Penampilan perdana besar Grace dan Hopper di Taiwan
Berita besar pertama melibatkan beberapa produsen komputer yang bermarkas di Taiwan menutup peluncuran sistem pertama yang bertenaga Superchip CPU NVIDIA Grace dan Superchip Grace Hopper yang ditargetkan pada digital twins berperforma tinggi, cloud graphic, cloud gaming, dan komputasi umum.
Mengingat periode ketersediaan yang diharapkan pada semester kedua tahun 2023, akan ada selusin pilihan yang ditawarkan ASUS, Foxconn Industrial Internet, GIGABYTE, QCT, Supermicro, dan Wiwynn di mana pelanggan dapat memilih opsi paling sesuai yang bisa diintegrasikan dengan mulus ke server berbasis x86/Arm-based yang ada.
Pada beberapa rekap dan konteks, Superchip CPU Grace menampilkan pengaturan chip CPU ganda yang terhubung secara koheren melalui interkoneksi NVLink-C2C yang menanpung sampai 114 inti Arm V9 berperforma tinggi dengan ekstensi vektor yang dapat diskalakan dan subsistem memori 1 TB yang sangat besar. Konfigurasi tersebut memungkinkan hasil yang belum pernah terlihat sebelumnya seperti bandwidth memori ganda dan efisiensi energi sekaligus memecahkan grafik kinerja pada saat yang bersamaan.
Di sisi lain, Superchip Grace Hopper mengumpulkan GPU NVIDIA Hopper dengan CPU Grace tunggal yang terhubung dengan interkoneksi NVLink-C2C yang sama, oleh karena itu diberi nama "Grace" "Hopper". Untuk kombo khusus ini, sebaiknya menangani aplikasi terkait HPC dan AI dalam skala raksasa. Menurut data internal, duo ini dapat mentransfer data 15 kali lebih cepat daripada pasangan CPU + GPU Hopper tradisional.
Berkaitan dengan topik solusi siap pakai, portofolio desain server Superchip CPU Grace dan Superchip Grace Hopper Superchip akan hadir dalam konfigurasi satu, dua, dan empat arah di 4 desain khusus beban kerja seperti sebagai berikut ini:
Sistem NVIDIA HGX Grace Hopper yang menjalankan Superchip Grace Hopper + DPU NVIDIA Bluefield-3
Sistem NVIDIA HGX Grace yang menjalankan Superchip CPU Grace + DPU Bluefield-3
Sistem NVIDIA OVX yang menjalankan Superchip CPU Grace + DPU Bluefield-3 + GPU NVIDIA
Sistem NVIDIA CGX yang menjalankan Superchip CPU Grace + DPU Bluefield-3 + GPU NVIDIA A16
Serangkaian dukungan perangkat lunak internal penuh mencakup Omniverse, RTX, NVIDIA HPC, dan NVIDIA AI semuanya dioptimalkan, sedangkan penawaran pihak ketiga akan memiliki lebih banyak peluang untuk mendapatkan verifikasi Sistem Bersertifikat NVIDIA berkat perluasan program.
Komputasi GPU hijau berskala besar dengan pendingin liquid NVIDIA A100
Permintaan untuk komputasi hijau yang ditujukan untuk organisasi berskala global cenderung meningkat dari tahun ke tahun dan data center yang menyimpan dan memproses data praktis merupakan tulang punggung Internet modern, tetapi menjalankan infrastruktur exascale (berskala sangat besar) ini bukanlah tugas yang mudah, terutama jika seseorang ingin memperhitungkan komputasi berkelanjutan sebagai pertimbangan.
Di sinilah NVIDIA mengambil langkah untuk menyediakan server mainstream pilihan untuk memilih GPU PCIe A100 berpendingin liquid dengan pengadopsi pertama adalah Equinix, penyedia layanan global yang berbasis di AS, meluncurkan fasilitas khusus untuk mengejar kemajuan dalam efisiensi energi
Bahkan ketika membandingkan pengaturan berpendingin udara konvensional, peralihan sederhana dari server khusus CPU ke sistem GPU yang dipercepat dalam kasus AI dan HPC di seluruh dunia dapat menghemat energi 11 triliun watt-jam per tahun. Apakah jumlahnya terlalu besar untuk dimengerti? Mendekati konsumsi daya dari 1,5 juta rumah tangga selama 1 tahun. Sekarang Anda dapat mmahaminya.
Sementara di atas kertas, keuntungan dari GPU PCIe A100 berpendingin cairan dapat dilihat dengan mudah dengan menghitung secara kasar konsumsi energi 30% yang lebih rendah, sifat metode pendinginan memungkinkan GPU hanya menempati 1 slot PCIe, sementara model pendingin udara standar menggunakan 2. Jadi, pada dasarnya Anda dapat mengemas daya komputasi dua kali lebih banyak ke dalam ruang yang sama.
Sampai sekarang, Equinix memenuhi syarat dan menyelesaikan GPU Berpendingin Cair PCIe A100 80 GB ini untuk penerapan, sementara ketersediaan umum diperkirakan akan tersedia mulai musim panas ini.
Baca Juga:
Nvidia Luncurkan PC Rakitan Geforce RTX dan Esports
Server dan peralatan Jetson AGX Orin baru dari mitra NVIDIA
Selain proyek internal NVIDIA sendiri, mitran-mitra NVIDIA yang mencapai jumlah di atas 30 akan meluncurkan sistem produksi Jetson AGX Orin baru untuk membawa apa yang dilakukan Team Green ke tingkat berikutnya.
Jika Anda tidak terbiasa dengan subjeknya, seri NVIDIA Jetson pada dasarnya adalah paket System-on-Module (SoM) yang menggabungkan semua kebutuhan aplikasi berbasis AI termasuk GPU, memori, konektivitas, manajemen daya, antarmuka, dan banyak lagi ke dalam satu form factor yang mudah diakses.
Pada penawaran terbaru, kit dev Jetson AGX Orin, yang sampai ke tangan pengembang pada bulan Maret tahun ini, telah melihat 1 juta pengembang dan lebih dari 6.000 perusahaan membangun produk komersial untuk platform Jetson.
Menampilkan GPU berbasis Ampere, CPU Arm Cortex-A78AE, pembelajaran mendalam generasi berikutnya dan akselerator penglihatan yang dihubungkan oleh antarmuka berkecepatan tinggi dan bandwidth memori yang lebih cepat sementara ditambah dengan dukungan sensor multimodal yang mampu mengumpankan beberapa saluran aplikasi AI secara bersamaan, Jetson AGX Orin yakin akan menjadi raja pasar AI terdepan.
Mengenai jangka waktu rilis, NVIDIA telah memberi kami bulan Juli untuk modul produksi Jetson AGX Orin sedangkan modul Orin NX pada bulan September.
Mengenai bentuk pasar yang akan mereka masuki, produk-produk berbasis Jetson lebih fleksibel daripada yang Anda pikirkan karena dapat berupa server, penerapan edge, PC industri, papan operator, perangkat lunak AI, dan banyak lagi. Kipas pendingin bersifat opsional tergantung pada adanya kendala termal dan ada banyak brand yang siap merilisnya dalam beberapa hari mendatang. Hal-hal tersebut adalah sebagai berikut:
Sebagai penutup, platform Jetson juga memungkinkan pengembang untuk memecahkan beberapa masalah terberat dengan menyediakan dukungan perangkat lunak komprehensif yang mampu menangani beberapa model paling kompleks dalam pemahaman bahasa alami, persepsi 3D, fusi multisensor, dan area lainnya.