Deepfake AIGC: Penipuan Identitas hingga Serangan Finansial
- Sari Azhariyah
- •
- 19 Sep 2025 16.32 WIB
Ilustrasi AI Deepfake
Istilah deepfake semakin dikenal di sektor keamanan digital seiring perkembangan teknologi digital. AIGC (AI-Generated Content) kini menjadi salah satu ancaman paling serius, hal ini dikarenakan penggunaan untuk menyerang sistem verifikasi identitas, mencuri data privasi, sampai melakukan penipuan finansial dengan skala yang besar.
Di balik maraknya inovasi AI saat ini, dibarengi dengan tantangan baru yang berupa manipulasi gambar, suara, dan video yang nyaris mustahil dibedakan dari konten aslinya. Akibatnya, sistem keamanan tradisional sering tidak cukup kuat untuk membedakan konten mana yang asli dan mana yang merupakan hasil rekayasa.
Jenis-Jenis Serangan Deepfake, Umumnya ada dua jenis serangan utama yang harus diketahui, yaitu:
-
Presentation Attacks, serangan ini dilakukan dengan menampilkan wajah palsu di depan kamera, dapat berupa foto, video, masker, atau bahkan model 3D. Hal ini menyebakan sistem liveness detection dapat dikelabui sehingga percaya bahwa pengguna palsu merupakan orang yang asli/sah.
-
Injection Attacks, serangan ini dapat dilakukan dengan meretas sistem kamera lalu menyuntikkan video atau gambar yang sudah direkam sebelumnya. Sehingga wajah yang berasal dari hasil manipulasi dapat langsung menggantikan data asli yang diambil melalui kamera.
Mengapa Deepfake Jadi Ancaman Besar?
Data menunjukkan bahwa pada tahun 2023, jumlah deepfake yang terdeteksi meningkat 10 kali lipat dibanding tahun sebelumnya. Fenomena ini tidak hanya berdampak pada individu, tetapi juga menyerang industri keuangan, regulasi pemerintahan, bahkan keamanan nasional.
Salah satu kasus besar terjadi di Hong Kong. Seorang karyawan perusahaan ditipu dalam rapat daring dengan CFO palsu yang merupakan hasil deepfake. Akibatnya, perusahaan mengalami kerugian hingga 25 juta dolar AS. Kasus ini membuktikan bahwa deepfake bukan sekadar ancaman teknologi, melainkan instrumen penipuan berskala besar.
Selain itu, laporan lain menunjukkan deepfake juga digunakan untuk:
- Membuka rekening bank dengan identitas palsu.
- Menghindari regulasi anti pencucian uang.
- Menjalankan skema penipuan daring dengan target internasional.
Bentuk-Bentuk Penipuan Identitas yang Meningkat
Tahun 2023 mencatat berbagai modus penipuan berbasis identitas yang semakin marak, di antaranya:
- AI-powered fraud (deepfake): penggunaan teknologi deepfake untuk mengelabui sistem keamanan.
- Jaringan money mule: memanfaatkan identitas palsu untuk memindahkan dana ilegal.
- Pemalsuan identitas (fake IDs): dokumen palsu yang didukung rekayasa digital.
- Account takeovers: peretasan akun digital dengan memanfaatkan data hasil deepfake.
- Forced verification: manipulasi sistem verifikasi wajah dengan konten buatan AI.
Semua ini membuktikan bahwa deepfake telah bertransformasi dari sekadar eksperimen menjadi alat kejahatan nyata.
Multi-Layered Attack: Ketika Deepfake Semakin Kompleks
Ancaman deepfake tidak lagi sederhana. Penyerang kini menggunakan strategi multi-layered attack atau serangan berlapis. Bentuknya antara lain:
- Manipulasi hardware: penyuntikan kode berbahaya ke perangkat kamera.
- Manipulasi sistem & aplikasi: mengganti selfie dengan video hasil rekayasa.
- Manipulasi data gambar: menciptakan wajah palsu berbasis AI yang sangat mirip wajah asli.
Dengan serangan berlapis ini, penjahat siber memiliki banyak pintu masuk untuk menembus sistem keamanan.
Kita tidak bisa hanya mengandalkan verifikasi visual atau sistem keamanan standar yang umumnya ada saat ini. Saat ini sangat diperlukan pendekatan multi-lapis yang lebih adaptif, termasuk teknologi deteksi AI anti-deepfake, regulasi ketat, serta edukasi yang jelas untuk pengguna.
Karena pada akhirnya, deepfake bukan hanya tentang teknologi yang menipu mata, tapi juga tentang bagaimana kita melindungi identitas, aset, dan kepercayaan di era digital.
