Pakar: ISIS Makin Gencar Gunakan AI untuk Meraup Dukungan
BEIRUT, SATUHARAPAN.COM-Beberapa hari setelah serangan mematikan ISIS di gedung konser Rusia pada bulan Maret, seorang pria berpakaian seragam militer dan helm muncul dalam sebuah video daring, merayakan serangan yang menewaskan lebih dari 140 orang.
ISIS (Negara Islam Irak dan Suriah) "memberikan pukulan telak ke Rusia dengan serangan berdarah, yang paling dahsyat yang pernah menghantamnya selama bertahun-tahun," kata pria itu dalam bahasa Arab, menurut SITE Intelligence Group, sebuah organisasi yang melacak dan menganalisis konten daring semacam itu.
Namun, pria dalam video tersebut, yang tidak dapat dilihat secara independen oleh Thomson Reuters Foundation, tidak nyata - ia diciptakan menggunakan kecerdasan buatan (AI), menurut SITE dan peneliti daring lainnya.
Federico Borgonovo, seorang peneliti di Royal United Services Institute, sebuah lembaga pemikir yang berbasis di London, melacak video yang dihasilkan AI tersebut ke seorang pendukung ISIS yang aktif dalam ekosistem digital kelompok tersebut.
Orang ini telah menggabungkan pernyataan, buletin, dan data dari kantor berita resmi ISIS untuk membuat video menggunakan AI, Borgonovo menjelaskan.
Meskipun ISIS telah menggunakan AI selama beberapa waktu, Borgonovo mengatakan video tersebut merupakan "pengecualian terhadap aturan" karena kualitas produksinya tinggi meskipun kontennya tidak sekeras unggahan daring lainnya.
“Cukup bagus untuk produk AI. Namun dalam hal kekerasan dan propaganda itu sendiri, itu rata-rata," katanya, namun mencatat bahwa video tersebut menunjukkan bagaimana pendukung dan afiliasi (ISIS) dapat meningkatkan produksi konten simpatik secara daring.
Para ahli digital mengatakan kelompok seperti ISIS dan gerakan sayap kanan semakin banyak menggunakan AI daring dan menguji batas-batas kontrol keamanan pada platform media sosial.
Sebuah studi pada bulan Januari oleh Combating Terrorism Center di West Point mengatakan AI dapat digunakan untuk membuat dan mendistribusikan propaganda, merekrut menggunakan chatbot bertenaga AI, melakukan serangan menggunakan drone atau kendaraan otonom lainnya, dan melancarkan serangan siber.
“Banyak penilaian risiko AI, dan bahkan risiko AI generatif secara khusus, hanya mempertimbangkan masalah khusus ini secara sepintas,” kata Stephane Baele, profesor hubungan internasional di UCLouvain di Belgia.
“Perusahaan-perusahaan AI besar, yang benar-benar terlibat dengan risiko perangkat mereka dengan menerbitkan laporan yang terkadang panjang yang memetakannya, kurang memperhatikan penggunaan ekstremis dan teroris.”
Peraturan yang mengatur AI masih dibuat di seluruh dunia dan para pelopor teknologi tersebut mengatakan mereka akan berusaha keras untuk memastikannya aman dan terlindungi.
Raksasa teknologi Microsoft, misalnya, telah mengembangkan Standar AI yang Bertanggung Jawab yang bertujuan untuk mendasarkan pengembangan AI pada enam prinsip termasuk keadilan, keandalan dan keamanan, privasi dan keamanan, inklusivitas, transparansi, dan akuntabilitas.
Dalam laporan khusus awal tahun ini, pendiri dan direktur eksekutif SITE Intelligence Group, Rita Katz, menulis bahwa berbagai aktor mulai dari anggota kelompok militan al Qaeda hingga jaringan neo-Nazi memanfaatkan teknologi tersebut.
“Sulit untuk meremehkan betapa bermanfaatnya AI bagi teroris dan komunitas ekstremis, yang media adalah sumber kehidupannya," tulisnya.
Chatbot dan Kartun
Pada puncak kekuasaannya pada tahun 2014, ISIS mengklaim kendali atas sebagian besar wilayah Suriah dan Irak, memaksakan teror di wilayah yang dikuasainya.
Media adalah alat utama dalam gudang senjata kelompok tersebut, dan perekrutan daring telah lama menjadi vital bagi operasinya.
Meskipun kekhalifahan yang dideklarasikan sendiri itu runtuh pada tahun 2017, para pendukung dan afiliasinya masih menyebarkan doktrin mereka secara daring dan mencoba membujuk orang untuk bergabung dengan mereka.
Bulan lalu, seorang sumber keamanan memberi tahu Reuters bahwa Prancis telah mengidentifikasi belasan pengurus ISIS-K (Khorasan), yang bermarkas di negara-negara sekitar Afghanistan, yang memiliki kehadiran daring yang kuat dan mencoba meyakinkan para pemuda di negara-negara Eropa, yang tertarik untuk bergabung dengan kelompok itu di luar negeri, untuk melakukan serangan domestik.
ISIS-K adalah sayap ISIS yang bangkit kembali, dinamai menurut wilayah bersejarah Khorasan yang meliputi sebagian wilayah Iran, Afghanistan, dan Asia Tengah.
Para analis khawatir bahwa AI dapat memfasilitasi dan mengotomatiskan pekerjaan perekrut daring tersebut.
Daniel Siegel, seorang penyelidik di firma riset media sosial Graphika, mengatakan timnya menemukan chatbot yang meniru militan ISIS yang sudah mati atau dipenjara.
Ia memberi tahu Thomson Reuters Foundation bahwa tidak jelas apakah sumber bot itu adalah ISIS atau para pendukungnya, tetapi risiko yang ditimbulkannya masih nyata.
“Sekarang (afiliasi ISIS) bisa membangun"Hubungan nyata dengan bot ini menggambarkan masa depan yang potensial di mana chatbot dapat mendorong mereka untuk terlibat dalam kekerasan kinetik," kata Siegel.
Siegel berinteraksi dengan beberapa bot sebagai bagian dari penelitiannya dan ia menemukan jawaban mereka bersifat generik, tetapi ia mengatakan hal itu dapat berubah seiring berkembangnya teknologi AI.
"Salah satu hal yang saya khawatirkan juga adalah bagaimana media sintetis akan memungkinkan kelompok-kelompok ini untuk memadukan konten mereka yang sebelumnya ada dalam silo-silo ke dalam budaya arus utama kita," tambahnya.
Itu sudah terjadi: Graphika melacak video karakter kartun populer, seperti Rick and Morty dan Peter Griffin, yang menyanyikan lagu-lagu ISIS di berbagai platform.
"Apa yang memungkinkan kelompok atau simpatisan atau afiliasinya untuk menargetkan audiens tertentu karena mereka tahu bahwa konsumen tetap Sponge Bob atau Peter Griffin atau Rick and Morty, akan diberi konten itu melalui algoritme," kata Siegel.
Memanfaatkan Perintah
Kemudian ada bahaya pendukung ISIS menggunakan teknologi AI untuk memperluas pengetahuan mereka tentang aktivitas ilegal.
Untuk studinya di bulan Januari, para peneliti di Combating Terrorism Center di Westpoint mencoba melewati penjaga keamanan Large Language Models (LLM) dan mengekstrak informasi yang dapat dieksploitasi oleh pelaku jahat.
Mereka membuat perintah yang meminta informasi tentang berbagai aktivitas mulai dari perencanaan serangan hingga perekrutan dan pembelajaran taktis, dan LLM menghasilkan respons yang relevan separuh waktu.
Dalam satu contoh yang mereka gambarkan sebagai "mengkhawatirkan", para peneliti meminta LLM untuk membantu mereka meyakinkan orang agar menyumbang ke ISIS.
"Di sana, model tersebut menghasilkan pedoman yang sangat spesifik tentang cara melakukan kampanye penggalangan dana dan bahkan menawarkan narasi dan frasa tertentu untuk digunakan di media sosial," kata laporan itu.
Joe Burton, seorang profesor keamanan internasional di Universitas Lancaster, mengatakan perusahaan bertindak tidak bertanggung jawab dengan merilis model AI secara cepat sebagai alat sumber terbuka.
Ia mempertanyakan kemanjuran protokol keselamatan LLM, seraya menambahkan bahwa ia "tidak yakin" bahwa regulator diperlengkapi untuk menegakkan pengujian dan verifikasi metode ini.
"Faktor yang perlu dipertimbangkan di sini adalah seberapa besar kita ingin mengatur, dan apakah itu akan menghambat inovasi," kata Burton.
"Menurut saya, pasar seharusnya tidak mengesampingkan keselamatan dan keamanan, dan saya pikir - saat ini - itulah yang sedang terjadi." (Reuters)
Editor : Sabar Subekti
Korban Pelecehan Desak Vatikan Globalkan Kebijakan Tanpa Tol...
ROMA, SATUHARAPAN.COM-Korban pelecehan seksual oleh pastor Katolik mendesak Vatikan pada hari Senin ...