Penjahat Siber Manfaatkan ChatGPT di Dark Web


ilustrasi serangan siber

ilustrasi serangan siber

Penelitian terbaru oleh Layanan Digital Footprint Intelligence Kaspersky telah mengungkap bahwa penjahat siber sedang memanfaatkan ChatGPT dan model bahasa berbasis kecerdasan buatan lainnya untuk kegiatan ilegal di dark web. Ditemukan hampir 3000 postingan yang membahas penggunaan ChatGPT dan model bahasa lainnya dalam aktivitas kriminal.

Menurut laporan yang diterbitkan oleh Kaspersky Digital Footprint Intelligence, penjahat siber sedang menjajaki berbagai skema termasuk menciptakan chatbot alternatif yang berpotensi berbahaya serta melakukan jailbreak pada chatbot asli dan aplikasi lainnya. Diskusi tentang penggunaan ChatGPT untuk tujuan ilegal atau pembahasan mengenai alat-alat yang menggunakan teknologi kecerdasan buatan juga terus berlanjut, bahkan mencapai puncaknya pada bulan Maret tahun lalu.

“Aktor ancaman secara aktif menjajaki berbagai skema untuk mengimplementasikan ChatGPT dan AI," ujar Alisa Kulishenko, Analis jejak digital di Kaspersky.

Topik diskusi seringkali melibatkan pengembangan malware serta berbagai jenis penggunaan model bahasa terlarang. Contohnya mencakup pemrosesan data pengguna yang dicuri, penguraian file dari perangkat yang terinfeksi, dan skema lainnya yang menimbulkan ancaman serius bagi keamanan digital. Alisa juga menekankan bahwa popularitas alat kecerdasan buatan telah mendorong integrasi respons otomatis dari ChatGPT atau model serupa ke dalam berbagai forum penjahat dunia maya, memperkuat kemampuan mereka dalam melakukan aktivitas kriminal secara otomatis dan lebih efisien.

"Selain itu, pelaku ancaman cenderung membagikan jailbreak melalui berbagai saluran dark web serangkaian perintah khusus yang dapat membuka fungsionalitas tambahan dan merancang cara untuk mengeksploitasi alat yang sah, seperti alat untuk pentesting, berdasarkan model untuk tujuan berbahaya,” beber Alisa Kulishenko.

Tidak hanya ChatGPT, namun perhatian juga tertuju pada proyek-proyek lain seperti XXXGPT, FraudGPT, dan lainnya. Model bahasa ini dipasarkan sebagai alternatif yang lebih kuat dan tanpa batasan yang dimiliki oleh ChatGPT. Ancaman lain yang dihadapi oleh pengguna dan perusahaan adalah pasar akun ChatGPT versi berbayar yang ditawarkan di dark web. Pada tahun 2023, lebih dari 3000 postingan yang mengiklankan penjualan akun ChatGPT diidentifikasi, serta layanan registrasi otomatis yang membuat akun berdasarkan permintaan.

Meskipun alat kecerdasan buatan pada dasarnya tidak berbahaya, penjahat dunia maya terus mencari cara efisien untuk menggunakan model bahasa ini, yang bisa meningkatkan jumlah serangan siber. Alisa Kulishenko menekankan pentingnya mendapatkan informasi tentang aktivitas penyerang untuk meningkatkan keamanan siber perusahaan.

“Meskipun alat AI itu sendiri pada dasarnya tidak berbahaya, penjahat dunia maya mencoba menemuka cara yang efisien dalam menggunakan model bahasa, sehingga memicu tren untuk menjadikannya ancaman dunia maya dan, dalam beberapa kasus, berpotensi meningkatkan jumlah serangan siber," ungkapnya.

Walaupun demikian, kemungkinan AI generatif dan chatbots merevolusi lanskap serangan siber pada tahun 2024 dinilai kecil. Namun, pemahaman yang mendalam tentang cara-cara penjahat siber menggunakan teknologi ini tetap krusial untuk melindungi diri dari ancaman yang terus berkembang.

Dalam komentar penutupnya, Alisa Kulishenko menegaskan bahwa keamanan siber perusahaan harus menjadi prioritas, dan memahami bagaimana penjahat siber menggunakan teknologi kecerdasan buatan dapat membantu organisasi menjadi lebih proaktif dalam melindungi diri dari serangan cyber yang semakin kompleks.

Dengan demikian, walaupun kehadiran teknologi kecerdasan buatan menawarkan banyak manfaat, namun perlu disadari bahwa teknologi ini juga dapat dimanfaatkan secara negatif oleh para penjahat siber. Oleh karena itu, upaya untuk memperkuat sistem keamanan dan meningkatkan kesadaran tentang ancaman siber merupakan langkah yang krusial bagi individu maupun perusahaan di era digital ini.

Bagikan artikel ini

Komentar ()

Berlangganan

Berlangganan newsletter kami dan dapatkan informasi terbaru.

Video Terkait