Suara.com - Tentara Israel dilaporkan mulai menggunakan teknologi kecerdasan buatan (artificial intelligence/AI) buat menyerang wilayah Gaza Palestina. Tak tanggung-tanggung, mereka menggunakan tiga produk AI sekaligus.
Pertama, produk teknologi AI yang dipakai Israel bernama Lavender. Sistem ini digunakan untuk mengidentifikasi anggota Hamas dan Palestinian Islamic Jihad (PIJ) sebagai target pengeboman.
Alasan militer Israel menggunakan produk AI Lavender demi memudahkan mereka untuk mendeteksi target tanpa perlu penundaan karena persetujuan atasan.
"Mesin melakukannya dengan dingin, dan itu membuatnya lebih mudah," kata seorang perwira intelijen Israel, dikutip dari India Today, Minggu (7/4/2024).
Baca Juga: Imam Masjid Istiqlal: Aksi Nyata Lebih Dibutuhkan Dibanding Boikot
Narasumber lain yang juga menggunakan teknologi itu menjelaskan, dirinya hanya memerlukan waktu 20 detik untuk mencari target. Ia bisa mencari lusinan orang tiap hari lewat AI tersebut.
"Ini menghemat banyak waktu," katanya.
Teknologi AI kedua yang dipakai tentara Israel bernama Gospel. Berbeda dari Lavender yang mengincar manusia, Gospel membidik target berupa bangunan.
Memang belum ada informasi spesifik mengenai kemampuan Lavender atau Gospel. Namun laporan menyebut kalau Lavender bisa mencapai tingkat akurasi hingga 90 persen.
Dikatakan kalau Lavender bisa menyeleksi target dari 2,3 juta penduduk di Jalur Gaza. Bahkan mesin itu bisa memberikan rating kepada hampir setiap orang di Gaza, yang menunjukkan siapa paling militan atau sebaliknya.
Baca Juga: McDonald's Akusisi 225 Cabang Alonyal Israel: Restoran Pendukung Penjajahan Palestina
Namun Lavender terkadang juga salah menargetkan sasarannya karena beroperasi otomatis tanpa kendali manusia. Akibatnya, teknologi itu banyak menargetkan orang yang ternyata warga sipil biasa.
Produk AI lain yang dipakai Israel bernama "Where's Daddy?". Sistem ini bisa melacak target yang sedang berada di rumah keluarga mereka.
“Kami tidak tertarik untuk membunuh para agen ketika mereka berada di gedung militer atau terlibat dalam aktivitas militer. IDF (Israel Defense Forces atau Pasukan Pertahanan Israel) mengebom rumah-rumah mereka tanpa ragu-ragu, sebagai pilihan pertama," kata narasumber lain.
"Jauh lebih mudah untuk mengebom rumah sebuah keluarga. Sistem ini dibangun untuk mencari mereka dalam situasi seperti ini,” sambung sang intel.
Selain itu, IDF pun sudah menetapkan aturan terkait berapa banyak warga sipil yang boleh dibunuh sebelum mereka mengizinkan serangan terhadap sasaran tertentu.
Disebutkan kalau mereka diperbolehkan menyerang 15 hingga 20 warga sipil dalam serangan udara yang menargetkan militan berpangkat rendah selama beberapa minggu pertama.
Di sisi lain, IDF membantah klaim tersebut. Mereka mengatakan kalau Lavender dipakai untuk melakukan pengecekan ulang terhadap sasaran dari para intelijen.
Mereka mengklaim kalau Lavender ditujukan untuk menghasilkan informasi terbaru soal organisasi Hamas. Bahkan Lavender ditegaskan bukan alat operasi militer untuk perang.
"IDF tidak menggunakan sistem AI yang mengidentifikasi agen teroris atau mencoba memprediksi apakah seseorang adalah teroris. Sistem informasi hanyalah alat bagi analis untuk proses identifikasi target," katanya.
Tapi laporan menyatakan bahwa pemakaian tiga teknologi ini memiliki efek yang mematikan karena membuat terbunuhnya seluruh keluarga.
Contoh, ketika nama seseorang dari Lavender ditambahkan ke Where's Daddy?, itu berarti Israel melakukan pengintaian terus-menerus dan kemungkinan serangan dapat terjadi setelah sang target memasuki rumahnya. Efeknya, serangan tersebut membantai semua orang di dalam rumahnya.