Komputasi GPU – Apa Itu?
Apakah Anda terus mendengar tentang komputasi atau akselerasi GPU, tetapi tidak yakin apa artinya? Berikut semua yang perlu Anda ketahui.

GPU atau Unit Pemrosesan Grafis terdapat di semua sirkuit elektronik yang menghasilkan satu bentuk tampilan atau lainnya, terutama komputer.
Prosesor grafis awal relatif sederhana. Namun dengan munculnya game, animasi 3D, dan tugas rendering video yang mendorong CPU melampaui batasnya, GPU yang lebih kuat harus hadir untuk menyelamatkannya.
Kartu GPU baru ini semakin canggih dan kompleks dari waktu ke waktu, dengan berbagai perusahaan dan peneliti mencari cara untuk memanfaatkan keunggulan eksekusi paralelnya. Artikel ini menunjukkan perkembangannya sejauh ini.
Apa itu GPU?
GPU atau Graphics Processing Unit adalah sirkuit khusus yang dirancang untuk memanipulasi data guna membantu pembuatan gambar untuk ditampilkan. Dengan kata lain, GPU adalah sistem yang membuat gambar yang Anda lihat di permukaan tampilan apa pun, seperti monitor komputer, layar ponsel pintar, konsol game, dan sebagainya.
GPU awalnya merupakan perangkat sederhana yang menyatukan elemen grafis untuk menciptakan output ideal untuk perangkat tertentu. Namun, seiring berjalannya waktu, dan dengan munculnya permainan komputer, GPU mulai berkembang dalam hal kompleksitas dan daya, sehingga melahirkan GPGPU atau Komputasi Tujuan Umum pada GPU.
Apa itu Komputasi GPU?
Komputasi GPU atau GPGPU adalah penggunaan GPU untuk komputasi di luar grafis. Ini berarti menggunakan GPU yang tertanam dalam kartu video komputer dan awalnya ditujukan untuk memproses grafis komputer untuk komputasi jenis data lain, seperti simulasi ilmiah, penambangan mata uang kripto, komputasi aljabar, prakiraan cuaca, jaringan saraf, dan sebagainya.
Alasan untuk evolusi komputasi GPU ini berasal dari perkembangan unit pemrosesan grafis yang mengesankan, yang berasal dari arsitektur paralel terdistribusi dari sistem GPU modern.
Seiring dengan CPU komputer yang semakin kuat dan dapat menangani program dan permainan yang lebih kompleks, produsen kartu video juga berusaha untuk mengikuti perkembangan komputasi modern dan grafik 3D. Nvidia meluncurkan GeForce 256 pada tahun 1999 sebagai kartu video GPU pertama di dunia dan segala sesuatunya berkembang dari sana.
Keuntungan utama kartu GPU dibandingkan CPU adalah arsitektur pemrosesan paralelnya, yang membuatnya mampu memproses tugas data besar secara terdistribusi dan paralel, yang mencegah terjadinya kemacetan dan macetnya CPU.
Apa Saja Aplikasi Komputasi GPU?
Penerapan komputasi GPU ada banyak, berikut ini beberapa penggunaan utamanya:
- Pembelajaran mesin & jaringan saraf
- Logika fuzzy
- Bio-informatika
- Pemodelan molekuler
- Render video
- Komputasi Geometris
- Penelitian Iklim dan Prakiraan Cuaca
- Astrofisika
- Kriptografi
- Visi komputer
- Pembobolan kata sandi
- Penelitian kuantum
Pemrosesan GPU Vs CPU
GPU dan CPU sama-sama memproses data digital, tetapi melakukannya dengan cara yang berbeda. CPU atau unit pemrosesan pusat dirancang untuk pemrosesan serial pada kecepatan tinggi, sedangkan GPU dirancang untuk pemrosesan paralel pada kecepatan yang jauh lebih rendah. Tentu saja, CPU dapat menggunakan hyper-threading untuk mendapatkan 2 thread per inti, atau bahkan memiliki lusinan inti, tetapi pada dasarnya keduanya adalah prosesor serial.
Meskipun CPU dapat memiliki beberapa inti, GPU modern hadir dengan ribuan inti, misalnya, Nvidia GeForce RTX 3090 yang memiliki 10K+ inti. Namun, untuk mendapatkan keunggulan dibandingkan CPU, data harus mampu diproses secara paralel, seperti memproses aliran yang berisi ribuan gambar sekaligus.
GPU vs ASIC
ASIC merupakan singkatan dari Application Specific Integrated Circuit dan ini berarti bahwa ia hanya dapat melakukan satu tugas – yaitu, tugas yang dirancang untuk dilakukannya. ASIC adalah mesin unik yang dikembangkan dari awal dan memerlukan pengetahuan perangkat keras ahli untuk membangunnya. ASIC umumnya digunakan dalam penambangan mata uang kripto, karena menawarkan manfaat pemrosesan paralel yang baik dan efisiensi yang lebih baik daripada GPU.
Namun, perbedaan utama antara keduanya adalah GPU lebih serbaguna. Misalnya, Anda dapat dengan mudah membangun rig penambangan mata uang kripto menggunakan GPU. Komponennya mudah didapat dan jika Anda sudah selesai menambang, Anda selalu dapat menjual kartu GPU tersebut kepada para gamer atau penambang lainnya. Namun, dengan ASIC, Anda hanya dapat menjual mesin bekas kepada penambang lainnya, karena Anda hampir tidak dapat melakukan hal lain dengannya.
Selain penambangan mata uang kripto, semakin sulit untuk mendapatkan mesin ASIC, karena mesin tersebut bukan produk massal. Hal ini sangat berbeda dengan sistem GPU yang dapat Anda peroleh di mana-mana dan mudah dikonfigurasi.
GPU vs Komputasi Cluster
Sementara satu kartu GPU berisi ribuan inti, yang menambahkan daya luar biasa ke komputer mana pun yang Anda pasangi inti, secara teoritis Anda dapat menambahkan kartu GPU sebanyak-banyaknya ke papan induk komputer sesuai kemampuan yang dimilikinya, dan selanjutnya meningkatkan kemampuan pemrosesannya.
Di sisi lain, kluster komputer merujuk pada beberapa komputer yang terhubung dalam jaringan untuk berfungsi sebagai satu komputer besar – superkomputer. Setiap komputer dalam jaringan disebut node dan dapat memiliki CPU multi-inti, serta satu atau lebih kartu GPU.
Setiap klaster harus memiliki simpul induk, yang merupakan komputer terdepan yang bertanggung jawab untuk mengelola dan menjadwalkan simpul pekerjanya. Komputer ini juga akan berisi perangkat lunak yang mengalokasikan data dan program bagi simpul pekerjanya untuk melakukan komputasi dan mengembalikan hasil.
Akselerasi GPU vs Hyper-threading
CPU dirancang untuk menangani beberapa tugas sekaligus, dan itulah sebabnya CPU berjalan pada kecepatan yang sangat tinggi, menjadwalkan waktu pemrosesan di antara beberapa proses tersebut. Namun, ketika CPU menghadapi fungsi komputasi intensif, CPU mungkin menghabiskan waktu beberapa saat dalam loop sebelum kembali ke proses lainnya. Hal ini biasanya mengakibatkan komputer melambat secara umum, dan dalam kasus yang lebih buruk, sistem membeku sepenuhnya.
Perancang komputer dapat menghindari skenario yang menakutkan ini dengan menggunakan hyper-threading atau akselerasi GPU. Hyper-threading memungkinkan satu inti CPU berfungsi sebagai dua thread pemrosesan. Jadi, ketika satu thread terjebak dalam loop yang membutuhkan komputasi intensif, thread lainnya masih dapat menyatukan sistem.
Komputer modern kini memiliki beberapa inti dari 2 hingga 4, 8, 16, 32, dan seterusnya. Ditambah lagi, komputer-komputer tersebut memiliki fitur hyper-threading, sehingga CPU dengan 2 inti menawarkan 4 utas, CPU dengan 4 inti menawarkan 8 utas, dan seterusnya.
Hyper-threading dengan CPU multi-core akan menyelesaikan sebagian besar masalah komputasi, mencegah kemacetan, dan memberikan kinerja terbaik dengan game sederhana, produksi musik, serta proyek grafis, video, dan pembelajaran mesin kecil. Namun, jika Anda membutuhkan daya lebih dari itu, GPU sering kali menjadi solusi yang tepat.
Akselerasi GPU atau perangkat keras adalah kemampuan aplikasi perangkat lunak untuk memanfaatkan daya pemrosesan paralel GPU guna mengolah sejumlah besar data, tanpa membebani CPU. Banyak aplikasi profesional bergantung pada akselerasi GPU agar berfungsi dengan baik. Ini termasuk program desain/rendering video dan animasi, encoder, kriptografi, jaringan saraf besar, dan sebagainya.
Dasar-dasar Pemrograman GPGPU
Pemrograman GPU untuk keperluan umum pada awalnya dilakukan dengan menggunakan DirectX dan OpenGL pustaka. Namun, pustaka ini dirancang khusus untuk pengembangan grafis, jadi Anda harus mengubah data Anda menjadi model seperti grafis agar dapat berfungsi.
Untungnya, GPGPU telah mengalami kemajuan besar selama bertahun-tahun, yang menghasilkan pustaka, bahasa pemrograman, dan kerangka kerja. Kerangka kerja yang paling populer adalah CUDA dari Nvidia.
CUDA memudahkan pengembang mana pun untuk mendalami pemrograman GPU tanpa perlu mengetahui seluk-beluk pemrograman GPU klasik. CUDA menyediakan fitur yang menyempurnakan pengembangan di luar grafis, dengan banyak unit bahkan dilengkapi fungsi khusus pembelajaran mesin.
Pustaka yang tersedia juga memudahkan pembuatan program baru yang dipercepat GPU dari awal atau mengadaptasi program yang telah ditulis sebelumnya untuk pemrosesan paralel. Anda memilih pustaka yang tepat, mengoptimalkan kode untuk loop paralel, mengkompilasi ulang, dan selesai.
Inti CUDA vs Prosesor Aliran
Seringkali Anda akan menemukan istilah Inti Cuda dan prosesor aliranKedua istilah tersebut hanya merujuk pada inti GPU atau Unit Logika Aritmatika dari GPU. CUDA Core merupakan teknologi milik Nvidia, sedangkan prosesor Stream berasal dari AMD.
Istilah lain yang mungkin Anda temukan adalah Streaming Multi-Processor atau SM. Ini adalah teknologi Nvidia lain yang awalnya mengelompokkan 8 inti CUDA per SM. Teknologi ini menjalankan 32 thread warp sekaligus, menggunakan 4 siklus clock per perintah. Desain yang lebih baru kini memiliki lebih dari 100 inti per streaming multi-prosesor.
Bahasa & Pustaka GPU Teratas
Ada banyak sekali pustaka dan bahasa pemrograman yang dapat digunakan pada platform Nvidia CUDA dan AMD. Berikut ini beberapa di antaranya:
- Nvidia cuBLAS – Subprogram aljabar linier dasar untuk CUDA
- cuDNN – Pustaka jaringan saraf dalam
- OpenCL – Standar terbuka untuk pemrograman paralel
- Openmp – Untuk GPU AMD
- PANGGUL – Perpustakaan C++
- Nvidia cuRAND – Pembuatan angka acak
- cuFFT – Untuk transformasi Fourier cepat
- Pembangkit Listrik Tenaga Nuklir Nvidia – Pemrosesan gambar dan sinyal 2D
- GPU VSIPL – Pemrosesan gambar dan sinyal vektor
- OpenCV – Pustaka GPU untuk visi komputer
- Buka ACC – Bahasa untuk pengembangan paralel
- Di PyCU – Python untuk platform CUDA
- TensorRT – Pembelajaran mendalam untuk CUDA
- Bahasa Pemrograman C++ – Bahasa C++ untuk CUDA
- CUDA C – Bahasa C untuk CUDA
- Bahasa pemrograman CUDA Fortran – CUDA untuk pengembang FORTRAN
Proyek Kluster GPU Teratas
Pada Juni 2022, 8 dari 10 superkomputer tercepat di dunia menggunakan GPU yang dipercepat. Semuanya juga menggunakan OS Linux, dan sebagai berikut:
| Peringkat | Nama | Petaflops | CPU Cores | GPU Cores | Power (kW) | Tahun |
| 1. | perbatasan | 1,102 | 591,872 | 8,138,240 | 21,100 | 2022 |
| 2. | KAMAR | 151.90 | 75,264 | 1,034,880 | 2,900 | 2022 |
| 3. | Puncak | 148.6 | 202,752 | 2,211,840 | 10,096 | 2018 |
| 4. | Gergaji | 94.64 | 190,080 | 1,382,400 | 7,438 | 2018 |
| 5. | perlmutter | 64.59 | N / A | N / A | 2,589 | 2021 |
| 6. | Selene | 63.46 | 71,680 | 483,840 | 2,646 | 2020 |
| 7. | Tianhe-2 | 61.445 | 427,008 | 4,554,752 | 18,482 | 2013 |
| 8. | adastra | 46.1 | 21,632 | 297,440 | 921 | 2022 |
Kesimpulan
Mencapai akhir pendalaman komputasi GPU dan semua yang menyertainya, Anda seharusnya sudah mendapatkan gambaran tentang kekuatan dan cakupannya sekarang.
Untuk informasi lebih lanjut, Anda dapat memeriksa platform pengembang Nvidia di sini atau itu AMD di sini.




