Blog & Event

Bagaimana Kecerdasan Buatan Membuat Insider Threat Semakin Sulit Dideteksi

Perkembangan kecerdasan buatan (AI) mengubah wajah ancaman siber: selain meningkatkan produktivitas, AI juga memperkuat kemampuan pelaku yang berada di dalam organisasi atau akun yang sudah dikompromikan. Alih-alih terlihat sebagai pola mencurigakan, aksi berbahaya kini bisa berjalan seperti aktivitas kerja normal, tetapi pada kecepatan mesin dan dengan kemampuan menyamar yang sangat meyakinkan.

Mengapa Ancaman Ini Meningkat Sekarang?

Survei menunjukkan ada pergeseran nyata dari fokus pada serangan eksternal ke risiko dari dalam. Misalnya, penelitian industri melaporkan bahwa mayoritas profesional keamanan kini menganggap insider threat sebagai risiko yang sama atau lebih besar dibanding ancaman luar. AI memungkinkan pelaku meniru gaya komunikasi, memakai kredensial sah, bahkan melakukan spoofing suara, sehingga membedakan antara “pengguna sah” dan ancaman menjadi jauh lebih sulit.

Cara AI Memperkuat Serangan Orang Dalam

AI memperluas kemampuan tradisional social engineering dan phishing. Dengan generative AI, pelaku dapat membuat email, chat, atau skenario panggilan yang nyaris identik dengan komunikasi internal organisasi. Selain itu, AI dapat mengotomatisasi serangkaian tindakan yang dieksekusi dengan cepat, sehingga jejak-jejak anomali yang biasa terdeteksi oleh alat klasik jadi samar atau tidak muncul sama sekali.

Praktik Penggunaan GenAI yang Tak Terkontrol Jadi Masalah Tersendiri

Bukan hanya pelaku berniat jahat: penggunaan GenAI tanpa izin di lingkungan kerja juga membuka risiko. Data menunjukkan proporsi organisasi yang menemukan penggunaan AI tidak sah cukup tinggi, yang berarti data sensitif bisa saja diproses oleh layanan eksternal tanpa pengawasan, sebuah celah besar untuk kebocoran atau penyalahgunaan.

Kesenjangan Deteksi: Banyak Program Tapi Sedikit yang Efektif

Walau banyak organisasi mengklaim memiliki program manajemen insider threat, adopsi teknologi deteksi perilaku (seperti UEBA) masih kurang. Artinya, organisasi masih mengandalkan kontrol identitas dan akses tradisional, yang tidak cukup untuk menangkap perilaku halus dari akun sah yang disalahgunakan. Tanpa baseline perilaku dan analitik cerdas, ancaman bertenaga AI mudah lolos.

Strategi Praktis yang Bisa Diterapkan Sekarang

  1. Deteksi berbasis perilaku: Bangun baseline aktivitas tiap pengguna dan entitas; fokus pada deviasi konteks, bukan sekadar keberadaan login.
  2. Investasi UEBA + AI: Gunakan kombinasi UEBA dan model AI untuk menemukan pola halus dan korelasi antar-aktivitas.
  3. Governance untuk AI: Tetapkan kebijakan penggunaan GenAI, daftar alat yang disetujui, dan prosedur audit untuk setiap penggunaan AI.
  4. Segmentasi dan least privilege: Batasi akses berdasarkan kebutuhan kerja, dan terapkan kontrol granular sehingga potensi dampak berkurang bila akun disalahgunakan.
  5. Pelatihan dan simulasi: Latih karyawan mengenali social engineering generatif dan lakukan simulasi untuk mengukur kesiapan.

Kesimpulan

AI telah menjadi pengganda kekuatan bagi ancaman dari dalam: membuat serangan lebih cepat, lebih meyakinkan, dan lebih sulit dideteksi oleh alat lama. Untuk itu organisasi harus bergerak dari kontrol akses statis ke model deteksi perilaku yang lebih adaptif, dibarengi tata kelola AI yang kuat dan kebijakan penggunaan yang jelas. Adaptasi ini bukan cuma soal teknologi, melainkan perpaduan orang, proses, dan alat agar ancaman yang tampak sah dapat dikenali dan dihentikan sejak dini.

Scroll to Top