Pembelajaran Mesin Adversarial: Pengertian, contoh & cara kerjanya
Temukan dunia serangan machine learning yang bersifat adversarial dan dampaknya pada sistem AI. Pelajari bagaimana serangan tersebut dapat mengeksploitasi kerentanan dan cara membangun pertahanan yang tepat.

Pembelajaran mesin adversarial adalah cabang pembelajaran mesin yang berfokus pada kerentanan model pembelajaran mesin terhadap berbagai serangan.
Masukan adversarial adalah masukan pembelajaran mesin yang bertujuan untuk mengelabui model agar membuat prediksi yang salah atau menghasilkan keluaran yang salah.
Karena serangan adversarial dapat menimbulkan konsekuensi serius, termasuk di sektor keamanan, penipuan, dan perawatan kesehatan, para peneliti berfokus pada penemuan berbagai metode serangan, serta pengembangan mekanisme pertahanan terhadap serangan tersebut.
Postingan ini membahas dunia pembelajaran mesin yang bersifat adversarial dan menyertakan contoh, tantangan, dan cara untuk menyerang dan mempertahankan model AI.
Apa itu Pembelajaran Mesin Adversarial?
Pembelajaran mesin yang bersifat adversarial mempelajari kelas serangan yang bertujuan untuk mengurangi kinerja pengklasifikasi pada tugas-tugas tertentu. Dengan kata lain, mereka bertujuan untuk mengelabui mesin AI.
Seiring meluasnya penggunaan kecerdasan buatan dan teknik pembelajaran mesin, risiko serangan yang bersifat adversarial pun meningkat. Hal ini menimbulkan ancaman yang signifikan terhadap berbagai aplikasi yang didukung AI, termasuk deteksi spam, asisten pribadi, visi komputer, dan sebagainya.
Cara Kerja Serangan Adversarial
Serangan adversarial adalah proses apa pun yang dirancang untuk mengelabui model pembelajaran mesin agar menyebabkan kesalahan prediksi. Hal ini dapat terjadi selama pelatihan, serta dalam lingkungan eksekusi langsung. Dengan kata lain, jika Anda dapat menemukan cara untuk mengelabui atau menyabotase model, maka Anda telah berhasil menyerangnya.
Apa itu Contoh Adversarial?
Contoh yang merugikan adalah setiap masukan yang dirancang khusus untuk model pembelajaran mesin yang bertujuan menyebabkan model tersebut membuat kesalahan atau menghasilkan keluaran yang salah.
Anda dapat membuat contoh yang bersifat adversarial dengan melakukan perubahan kecil pada data masukan, yang meskipun mungkin tidak terlihat oleh mata manusia, sering kali cukup untuk mengubah pemahaman model dan menyebabkannya menghasilkan keluaran yang keliru.
Contoh-contoh yang bersifat adversarial digunakan pada tahap pelatihan suatu model AI dan modifikasi yang dibuat biasanya dibuat menggunakan berbagai teknik optimasi, termasuk metode berbasis gradien seperti Serangan Fast Gradient Sign Method (FGSM), yang mengeksploitasi sensitivitas model terhadap perubahan dalam ruang masukan.
Tujuan dari contoh-contoh yang bersifat adversarial adalah untuk menambahkan gangguan kecil pada data masukan yang mungkin hampir tidak terlihat oleh pengamat manusia, tetapi masih cukup signifikan untuk menyebabkan model salah mengklasifikasikan masukan.
Serangan antagonis dapat terjadi di berbagai sektor pembelajaran mesin, termasuk pengenalan gambar dan pemrosesan bahasa alami.
Aplikasi ML Adversarial
Kemampuan untuk mendeteksi dan mengeksploitasi kelemahan dalam platform kecerdasan buatan apa pun memiliki berbagai macam kegunaan, karena penyerang hanya dibatasi oleh imajinasinya. Berikut ini adalah beberapa cara yang dapat dilakukan peretas untuk memanfaatkan mesin AI yang disusupi menggunakan metode pembelajaran mesin yang bersifat adversarial.
- Pengenalan Gambar & Video: Dari moderasi konten hingga kendaraan otonom dan sistem pengawasan, banyak aplikasi kecerdasan buatan bergantung pada algoritma pengenalan gambar dan video. Dengan mengubah masukan mesin dan memaksanya untuk salah mengklasifikasikan sesuatu, penyerang dapat menghindari sistem kontrol apa pun yang bergantung pada kemampuan pengenalan objeknya. Untuk kendaraan otonom, manipulasi semacam itu dapat menyebabkan kecelakaan lalu lintas.
- Pemfilteran Spam: Spammer dapat berhasil melewati sistem deteksi spam AI dengan mengoptimalkan email spam mereka dengan struktur yang berbeda, lebih banyak kata-kata baik, lebih sedikit kata-kata buruk, dan seterusnya.
- Deteksi Malware:Sangat mungkin untuk membuat kode komputer berbahaya yang dapat menghindari deteksi oleh pemindai malware.
- Pengolahan Bahasa alami: Dengan salah mengklasifikasikan teks menggunakan pembelajaran mesin yang bersifat adversarial, penyerang dapat memanipulasi sistem rekomendasi berbasis teks, detektor berita palsu, detektor sentimen, dan sebagainya.
- Tenaga Kesehatan: Penyerang dapat memanipulasi catatan medis untuk mengubah diagnosis pasien atau menipu sistem agar mengungkapkan catatan medis sensitif.
- Deteksi Penipuan Keuangan: Sistem AI yang digunakan dalam pendeteksian penipuan finansial juga berisiko terkena serangan machine learning yang bersifat adversarial. Misalnya, penyerang dapat membuat data sintetis yang meniru transaksi yang sah, sehingga memungkinkan terjadinya penipuan tanpa terdeteksi oleh model.
- Sistem Keamanan Biometrik: Dengan menggunakan data yang dimanipulasi, penyerang dapat mengalahkan sistem keamanan deteksi sidik jari atau wajah untuk mendapatkan akses tidak sah ke jaringan atau platform.
- Pertahanan Musuh: Sementara sebagian besar penggunaan di atas ditujukan untuk menyerang suatu sistem, pertahanan adversarial adalah studi tentang serangan adversarial untuk digunakan dalam menciptakan sistem pertahanan yang kuat terhadap penyerang mesin.
Konsekuensi dari ML yang bersifat Adversarial
Pembelajaran mesin yang bersifat adversarial memiliki konsekuensi yang dapat memengaruhi keandalan atau kinerja sistem AI. Berikut adalah beberapa konsekuensi utamanya.
- Mengikis Kepercayaan:Jika serangan yang bersifat adversarial berkembang dan tidak terkendali, hal itu akan menyebabkan terkikisnya kepercayaan terhadap sistem AI, karena masyarakat akan memandang setiap sistem berbasis pembelajaran mesin dengan tingkat kecurigaan.
- Implikasi Etis:Penerapan sistem pembelajaran mesin pada domain seperti perawatan kesehatan dan peradilan pidana menimbulkan pertanyaan etika, karena setiap sistem AI yang terganggu dapat menyebabkan kerusakan pribadi dan sosial yang parah.
- Implikasi Ekonomi: Serangan yang bersifat adversarial dapat mengakibatkan kerugian finansial, meningkatnya biaya keamanan, manipulasi pasar finansial, dan bahkan rusaknya reputasi.
- Peningkatan Kompleksitas:Ancaman serangan yang bersifat adversarial meningkatkan upaya penelitian dan kompleksitas keseluruhan sistem pembelajaran mesin.
- Pencurian Model: Model AI itu sendiri dapat diserang untuk menyelidiki dan mengambil parameter internal atau informasi tentang arsitekturnya yang dapat digunakan untuk serangan yang lebih serius terhadap sistem.
Jenis-jenis Serangan Adversarial
Ada beberapa jenis serangan machine learning yang bersifat adversarial, dan serangan tersebut bervariasi tergantung pada tujuan penyerang dan seberapa banyak akses yang dimilikinya ke sistem. Berikut adalah beberapa jenis utamanya.
- Serangan Penghindaran: Dalam serangan penghindaran, penyerang memodifikasi input untuk mengelabui sistem AI agar salah mengklasifikasikannya. Hal ini dapat melibatkan penambahan gangguan yang tidak kentara (atau gangguan yang disengaja) pada gambar input atau data lain untuk mengelabui model.
- Serangan Keracunan Data: Serangan keracunan data terjadi selama fase pelatihan sistem AI. Dengan menambahkan data yang buruk (atau beracun) ke dalam set data pelatihan mesin, model menjadi kurang akurat dalam prediksinya dan, oleh karena itu, menjadi terganggu.
- Serangan Ekstraksi Model: Dalam serangan inversi model, penyerang memanfaatkan kemampuan untuk mengekstrak informasi sensitif dari model AI yang telah dilatih. Dengan memanipulasi masukan dan mengamati respons model, mereka dapat merekonstruksi data pribadi, seperti gambar atau teks.
- Serangan Transfer: Ini merujuk pada kemampuan serangan terhadap satu sistem pembelajaran mesin agar sama efektifnya terhadap sistem pembelajaran mesin lainnya.
Cara Bertahan Terhadap Serangan Musuh
Ada beberapa mekanisme pertahanan yang dapat Anda gunakan untuk melindungi model AI Anda dari serangan musuh. Berikut ini beberapa yang paling populer.
- Menciptakan Sistem yang Kuat: Hal ini melibatkan pengembangan model AI yang lebih tahan terhadap serangan musuh dengan menyertakan pengujian dan pedoman evaluasi untuk membantu pengembang mengidentifikasi kelemahan sistem yang dapat menyebabkan serangan musuh. Mereka kemudian dapat mengembangkan pertahanan terhadap serangan tersebut.
- Validasi Masukan: Pendekatan lain adalah memeriksa masukan ke model ML untuk mencari kerentanan yang sudah diketahui. Model dapat dirancang untuk menolak masukan, misalnya, yang berisi modifikasi yang diketahui menyebabkan mesin membuat prediksi yang salah.
- Pelatihan Bermusuhan:Anda juga dapat memasukkan sejumlah contoh yang merugikan ke dalam data pelatihan sistem Anda untuk membantu model belajar mendeteksi dan menolak contoh yang merugikan di masa mendatang.
- AI yang bisa dijelaskan: Secara teori, semakin baik pengembang dan pengguna memahami cara kerja model AI secara mendalam, semakin mudah bagi orang untuk membuat pertahanan terhadap serangan. Oleh karena itu, pendekatan AI yang dapat dijelaskan (XAI) terhadap pembelajaran mesin dan pengembangan model AI dapat memecahkan banyak masalah.
Kesimpulan
Serangan machine learning yang bersifat adversarial menimbulkan ancaman yang signifikan terhadap keandalan dan kinerja sistem kecerdasan buatan. Namun, dengan memahami berbagai jenis serangan yang umum dan menerapkan strategi pertahanan untuk mencegahnya, pengembang dapat lebih melindungi model AI mereka dari serangan adversarial.
Terakhir, Anda harus memahami bahwa bidang AI dan pembelajaran mesin adversarial masih terus berkembang. Jadi, mungkin masih ada metode serangan adversarial lain di luar sana yang belum diketahui publik.
Publikasi
- https://en.wikipedia.org/wiki/Adversarial_machine_learning
- https://www.csoonline.com/article/573031/adversarial-machine-learning-explained-how-attackers-disrupt-ai-and-ml-systems.html
- https://medium.com/@durgeshpatel2372001/an-introduction-to-adversarial-machine-learning-820010645df9
- https://insights.sei.cmu.edu/blog/the-challenge-of-adversarial-machine-learning/
- https://viso.ai/deep-learning/adversarial-machine-learning/
- https://www.toptal.com/machine-learning/adversarial-machine-learning-tutorial





