Bagaimana AI Habsora Israel Bunuh 16.000 Warga Gaza dengan Kedok Matematika?
loading...
A
A
A
JALUR GAZA - Perang Israel di Gaza telah menyebabkan serangan baru dan mematikan di daerah kantong Palestina, Jalur Gaza.
Serangan gencar tersebut, menurut laporan baru-baru ini, didukung sistem kecerdasan buatan (AI) yang menurut para ahli tidak pandang bulu dan pada dasarnya salah.
Dalam penyelidikan bersama, media Israel +972 Magazine dan Local Call melakukan wawancara dengan beberapa mantan pejabat intelijen Israel dan pejabat saat ini.
Mereka mengungkapkan tentara Israel memiliki ekspektasi yang lebih rendah dibandingkan sebelumnya dalam membatasi sasaran sipil.
Aturan brutal yang dilonggarkan digabungkan dengan penggunaan "Habsora" ("Gospel" dalam bahasa Ibrani), yakni sistem AI yang dapat menghasilkan target dengan kecepatan lebih cepat dari sebelumnya, memfasilitasi apa yang oleh seorang mantan perwira intelijen Israel disebut sebagai "pabrik pembunuhan massal".
Para pejabat mengakui kepada media bahwa rumah anggota Hamas dan faksi bersenjata Palestina lainnya sengaja dijadikan target, bahkan jika itu berarti membunuh semua orang di dalam gedung.
Salah satu kasus menunjukkan intelijen tentara Israel menyetujui pembunuhan ratusan warga Palestina untuk membunuh satu anggota Hamas.
“Ini adalah pertama kalinya mereka berbicara tentang bagaimana warga sipil menjadi sasaran dalam skala besar hanya karena menyerang satu sasaran militer berdasarkan teknologi AI,” ujar Anwar Mhajne, profesor ilmu politik di Stonehill College, Massachusetts, kepada Middle East Eye.
Ketika membahas sistem Habsora, salah satu sumber mengatakan kepada media Israel bahwa fokusnya adalah pada kuantitas, bukan kualitas.
Mereka menambahkan, meskipun mata manusia akan meninjau target sebelum setiap serangan, tidak banyak waktu yang diperlukan untuk melakukannya.
Mhajne menjelaskan, "Jika Anda mengobarkan perang pada skala seperti yang Anda lakukan saat ini di Gaza, seberapa banyak yang bisa Anda ulas?"
Seorang pakar Israel dalam penggunaan AI untuk militer, yang berbicara kepada MEE tanpa menyebut nama, mengatakan bahwa melakukan peninjauan manusia terhadap setiap target yang dibuat oleh AI di Gaza adalah “tidak mungkin dilakukan sama sekali”.
Dia menambahkan, algoritma tersebut tidak menjelaskan bagaimana mencapai kesimpulannya, sehingga sulit untuk memeriksa validitas hasil serangan.
Karena Israel memperkirakan Gaza menampung sekitar 30.000 anggota Hamas, para ahli khawatir akan banyaknya korban sipil yang mungkin timbul karena mengandalkan sistem tersebut.
Militer Israel dilaporkan yakin telah membunuh 1.000-2.000 anggota Hamas di Gaza sejak 7 Oktober.
Lebih dari 16.000 warga Palestina telah terbunuh dalam kurun waktu tersebut, termasuk 6.150 anak-anak.
“Kita berbicara tentang ribuan warga sipil yang terbunuh (karena penggunaan) teknologi tersebut,” ujar Mona Shtaya, peneliti non-residen di Tahrir Institute for Middle East Policy yang berbasis di Washington, kepada MEE.
Menurut Shtaya, penggunaan AI oleh Israel sebagai alat militer dan pengawasan bukanlah hal baru dan juga bukan hal yang tidak terduga.
“AI adalah bagian dari sistem pengawasan yang lebih besar, di mana warga Palestina hidup di bawah pengawasan terus-menerus,” ujar dia.
Pada tahun 2021, investigasi Washington Post mengungkapkan tentara Israel menggunakan program pengenalan wajah yang ekstensif untuk meningkatkan pengawasan mereka terhadap warga Palestina di kota Hebron di Tepi Barat yang diduduki.
Tentara juga memasang kamera pemindai wajah di seluruh kota “untuk membantu tentara di pos pemeriksaan mengidentifikasi warga Palestina bahkan sebelum mereka menunjukkan kartu identitas mereka”.
Pada tahun yang sama, Amazon Web Service dan Google menandatangani kesepakatan senilai USD1,2 miliar dengan pemerintah Israel yang dikenal sebagai Project Nimbus.
Karyawan di kedua perusahaan ini memperingatkan layanan cloud ini "memungkinkan pengawasan lebih lanjut dan pengumpulan data yang melanggar hukum mengenai warga Palestina, dan memfasilitasi perluasan permukiman ilegal Israel di tanah Palestina".
Israel juga dilaporkan menggunakan AI dalam serangan besar sebelumnya di Gaza pada tahun 2021, yang disebut sebagai “perang AI pertama di dunia”.
Selama pertempuran 11 hari itu, drone dilaporkan membunuh warga sipil, merusak sekolah dan klinik medis, serta meratakan gedung-gedung bertingkat.
Kini, sistem yang lebih maju digunakan dalam perang di Gaza untuk memprediksi jumlah korban sipil yang akan ditimbulkan oleh serangan tersebut.
"Tidak ada yang terjadi secara kebetulan," ujar salah satu sumber kepada +972 Magazine dan Local Call.
“Ketika seorang anak perempuan berusia tiga tahun terbunuh di satu rumah di Gaza, itu karena seseorang di tentara memutuskan pembunuhan terhadapnya bukanlah suatu masalah besar, bahwa itu adalah harga yang pantas dibayar untuk bisa memukul (orang lain) yang jadi target. Kami bukan Hamas. Ini bukan roket acak. Semuanya disengaja. Kami tahu persis berapa banyak kerusakan tambahan yang terjadi di setiap rumah," ungkap dia.
Perang saat ini dimulai ketika faksi-faksi Palestina yang dipimpin Hamas melancarkan serangan terhadap Israel, menewaskan lebih dari 1.200 warga Israel dan menawan sekitar 240 orang.
Israel menanggapinya dengan melakukan pengeboman besar-besaran di Jalur Gaza dan menyerbu wilayah pesisir tersebut, sehingga menghancurkan sebagian besar infrastruktur sipil.
Sumber-sumber dalam penyelidikan mengatakan mereka yakin pembunuhan dan pengrusakan yang meluas dapat digunakan untuk memberikan gambaran kemenangan kepada publik Israel. Mhajne yakin tujuan ini dapat diperluas ke citra teknologi Israel.
“Serangan Hamas menunjukkan kelemahan AI dalam hal pengawasan,” ungkap dia.
Menurutnya, kemampuan Hamas untuk masuk ke Israel tanpa disadari setelah para pejuangnya membongkar menara sinyal di sekitar Jalur Gaza menyebabkan kerusakan reputasi yang parah bagi Israel.
Teknologi spyware Israel telah digunakan secara khusus di banyak negara untuk menargetkan jurnalis dan aktivis.
Israel juga merupakan eksportir senjata terbesar ke-10 di dunia, dengan reputasi yang sangat kuat dalam bidang keamanan siber dan persenjataan AI.
“Mereka menguji sesuatu terhadap warga Palestina. Itulah sebabnya Israel memimpin dalam pengembangan keamanan siber dan AI, karena mereka memiliki tempat pengujian,” ujar Mhajne.
“Tidak ada yang berbicara dengan mereka tentang bagaimana mereka mengembangkannya dan bagaimana mereka mengujinya. Saya jamin bahwa teknologi ini, setelah perang, akan dijual ke setiap rezim represif yang Anda kenal,” ungkap dia.
Shtaya setuju, dan mengatakan, “Teknologi peperangan AI seperti Habsora hanya digunakan untuk mengesankan, dan membuat pekerjaan mereka lebih mudah dalam menghancurkan Jalur Gaza.”
Meskipun sistem ini masih berada di tangan militer Israel saat ini, pakar Israel yakin hal itu akan berubah.
“Di masa depan, orang-orang yang bekerja di sana akan beralih ke sektor swasta dan membuat barang-barang serupa dan mengekspornya, tentu saja,” ujar dia.
Dia mengklaim penjualan senjata Israel telah meroket. “Perang ini sudah berdampak besar bagi pedagang dan ekspor senjata Israel,” papar dia.
Meskipun banyak yang menyerukan agar Israel bertanggung jawab atas tindakannya di Gaza, dengan peringatan dari badan-badan PBB bahwa tindakan tersebut dapat mengarah pada tuduhan kejahatan perang dan genosida, meminta pertanggungjawaban Israel atas penggunaan AI mungkin akan lebih rumit.
Meskipun beberapa negara dan organisasi internasional mengatur penggunaan AI untuk keperluan militer dengan menyatakan penggunaan AI harus tetap berada dalam batas-batas hukum internasional, hanya ada sedikit atau bahkan tidak ada peraturan khusus AI terkait peperangan.
Selain itu, Israel sejauh ini tidak menunjukkan tanda-tanda akan mengatur penggunaan teknologi baru ini, meskipun hal itu berarti membunuh lebih banyak warga sipil Palestina.
“Karena Israel memandang Hamas saat ini sebagai ancaman yang ada, maka tidak ada batasannya,” ungkap pakar Israel tersebut kepada MEE, yang menyatakan tindakan tersebut mungkin bisa mencapai pembunuhan tawanan Israel jika hal tersebut berarti menghabisi komandan tertinggi Hamas.
“AI tentu saja memberikan ilusi ketepatan dan analisis matematis kepada tentara, dan itu salah,” ujar dia. "Semua kelemahan manusia yang dipelajari oleh algoritme terjadi secara otomatis di sana."
Komite Internasional Palang Merah percaya AI dapat menjadi alat yang memungkinkan pengambilan keputusan yang lebih baik dalam konflik dan membantu menghindari korban sipil.
Shtaya juga meyakini kemajuan teknologi ini, jika digunakan dengan benar, secara umum dapat meningkatkan kualitas hidup masyarakat.
“Sangat menyakitkan dan menyedihkan melihat teknologi seperti ini digunakan oleh negara untuk menindas masyarakat dan membuat hidup mereka lebih sulit, hanya untuk mendapatkan hukuman kolektif,” pungkas dia.
Serangan gencar tersebut, menurut laporan baru-baru ini, didukung sistem kecerdasan buatan (AI) yang menurut para ahli tidak pandang bulu dan pada dasarnya salah.
Dalam penyelidikan bersama, media Israel +972 Magazine dan Local Call melakukan wawancara dengan beberapa mantan pejabat intelijen Israel dan pejabat saat ini.
Mereka mengungkapkan tentara Israel memiliki ekspektasi yang lebih rendah dibandingkan sebelumnya dalam membatasi sasaran sipil.
Aturan brutal yang dilonggarkan digabungkan dengan penggunaan "Habsora" ("Gospel" dalam bahasa Ibrani), yakni sistem AI yang dapat menghasilkan target dengan kecepatan lebih cepat dari sebelumnya, memfasilitasi apa yang oleh seorang mantan perwira intelijen Israel disebut sebagai "pabrik pembunuhan massal".
Para pejabat mengakui kepada media bahwa rumah anggota Hamas dan faksi bersenjata Palestina lainnya sengaja dijadikan target, bahkan jika itu berarti membunuh semua orang di dalam gedung.
Salah satu kasus menunjukkan intelijen tentara Israel menyetujui pembunuhan ratusan warga Palestina untuk membunuh satu anggota Hamas.
“Ini adalah pertama kalinya mereka berbicara tentang bagaimana warga sipil menjadi sasaran dalam skala besar hanya karena menyerang satu sasaran militer berdasarkan teknologi AI,” ujar Anwar Mhajne, profesor ilmu politik di Stonehill College, Massachusetts, kepada Middle East Eye.
Fokus Kuantitas, Bukan Kualitas
Ketika membahas sistem Habsora, salah satu sumber mengatakan kepada media Israel bahwa fokusnya adalah pada kuantitas, bukan kualitas.
Mereka menambahkan, meskipun mata manusia akan meninjau target sebelum setiap serangan, tidak banyak waktu yang diperlukan untuk melakukannya.
Mhajne menjelaskan, "Jika Anda mengobarkan perang pada skala seperti yang Anda lakukan saat ini di Gaza, seberapa banyak yang bisa Anda ulas?"
Seorang pakar Israel dalam penggunaan AI untuk militer, yang berbicara kepada MEE tanpa menyebut nama, mengatakan bahwa melakukan peninjauan manusia terhadap setiap target yang dibuat oleh AI di Gaza adalah “tidak mungkin dilakukan sama sekali”.
Dia menambahkan, algoritma tersebut tidak menjelaskan bagaimana mencapai kesimpulannya, sehingga sulit untuk memeriksa validitas hasil serangan.
Karena Israel memperkirakan Gaza menampung sekitar 30.000 anggota Hamas, para ahli khawatir akan banyaknya korban sipil yang mungkin timbul karena mengandalkan sistem tersebut.
Militer Israel dilaporkan yakin telah membunuh 1.000-2.000 anggota Hamas di Gaza sejak 7 Oktober.
Lebih dari 16.000 warga Palestina telah terbunuh dalam kurun waktu tersebut, termasuk 6.150 anak-anak.
“Kita berbicara tentang ribuan warga sipil yang terbunuh (karena penggunaan) teknologi tersebut,” ujar Mona Shtaya, peneliti non-residen di Tahrir Institute for Middle East Policy yang berbasis di Washington, kepada MEE.
Sistem Pengawasan yang Lebih Luas
Menurut Shtaya, penggunaan AI oleh Israel sebagai alat militer dan pengawasan bukanlah hal baru dan juga bukan hal yang tidak terduga.
“AI adalah bagian dari sistem pengawasan yang lebih besar, di mana warga Palestina hidup di bawah pengawasan terus-menerus,” ujar dia.
Pada tahun 2021, investigasi Washington Post mengungkapkan tentara Israel menggunakan program pengenalan wajah yang ekstensif untuk meningkatkan pengawasan mereka terhadap warga Palestina di kota Hebron di Tepi Barat yang diduduki.
Tentara juga memasang kamera pemindai wajah di seluruh kota “untuk membantu tentara di pos pemeriksaan mengidentifikasi warga Palestina bahkan sebelum mereka menunjukkan kartu identitas mereka”.
Pada tahun yang sama, Amazon Web Service dan Google menandatangani kesepakatan senilai USD1,2 miliar dengan pemerintah Israel yang dikenal sebagai Project Nimbus.
Karyawan di kedua perusahaan ini memperingatkan layanan cloud ini "memungkinkan pengawasan lebih lanjut dan pengumpulan data yang melanggar hukum mengenai warga Palestina, dan memfasilitasi perluasan permukiman ilegal Israel di tanah Palestina".
Israel juga dilaporkan menggunakan AI dalam serangan besar sebelumnya di Gaza pada tahun 2021, yang disebut sebagai “perang AI pertama di dunia”.
Selama pertempuran 11 hari itu, drone dilaporkan membunuh warga sipil, merusak sekolah dan klinik medis, serta meratakan gedung-gedung bertingkat.
Kini, sistem yang lebih maju digunakan dalam perang di Gaza untuk memprediksi jumlah korban sipil yang akan ditimbulkan oleh serangan tersebut.
"Tidak ada yang terjadi secara kebetulan," ujar salah satu sumber kepada +972 Magazine dan Local Call.
“Ketika seorang anak perempuan berusia tiga tahun terbunuh di satu rumah di Gaza, itu karena seseorang di tentara memutuskan pembunuhan terhadapnya bukanlah suatu masalah besar, bahwa itu adalah harga yang pantas dibayar untuk bisa memukul (orang lain) yang jadi target. Kami bukan Hamas. Ini bukan roket acak. Semuanya disengaja. Kami tahu persis berapa banyak kerusakan tambahan yang terjadi di setiap rumah," ungkap dia.
Israel Jadikan Warga Palestina Kelinci Percobaan
Perang saat ini dimulai ketika faksi-faksi Palestina yang dipimpin Hamas melancarkan serangan terhadap Israel, menewaskan lebih dari 1.200 warga Israel dan menawan sekitar 240 orang.
Israel menanggapinya dengan melakukan pengeboman besar-besaran di Jalur Gaza dan menyerbu wilayah pesisir tersebut, sehingga menghancurkan sebagian besar infrastruktur sipil.
Sumber-sumber dalam penyelidikan mengatakan mereka yakin pembunuhan dan pengrusakan yang meluas dapat digunakan untuk memberikan gambaran kemenangan kepada publik Israel. Mhajne yakin tujuan ini dapat diperluas ke citra teknologi Israel.
“Serangan Hamas menunjukkan kelemahan AI dalam hal pengawasan,” ungkap dia.
Menurutnya, kemampuan Hamas untuk masuk ke Israel tanpa disadari setelah para pejuangnya membongkar menara sinyal di sekitar Jalur Gaza menyebabkan kerusakan reputasi yang parah bagi Israel.
Teknologi spyware Israel telah digunakan secara khusus di banyak negara untuk menargetkan jurnalis dan aktivis.
Israel juga merupakan eksportir senjata terbesar ke-10 di dunia, dengan reputasi yang sangat kuat dalam bidang keamanan siber dan persenjataan AI.
“Mereka menguji sesuatu terhadap warga Palestina. Itulah sebabnya Israel memimpin dalam pengembangan keamanan siber dan AI, karena mereka memiliki tempat pengujian,” ujar Mhajne.
“Tidak ada yang berbicara dengan mereka tentang bagaimana mereka mengembangkannya dan bagaimana mereka mengujinya. Saya jamin bahwa teknologi ini, setelah perang, akan dijual ke setiap rezim represif yang Anda kenal,” ungkap dia.
Shtaya setuju, dan mengatakan, “Teknologi peperangan AI seperti Habsora hanya digunakan untuk mengesankan, dan membuat pekerjaan mereka lebih mudah dalam menghancurkan Jalur Gaza.”
Meskipun sistem ini masih berada di tangan militer Israel saat ini, pakar Israel yakin hal itu akan berubah.
“Di masa depan, orang-orang yang bekerja di sana akan beralih ke sektor swasta dan membuat barang-barang serupa dan mengekspornya, tentu saja,” ujar dia.
Dia mengklaim penjualan senjata Israel telah meroket. “Perang ini sudah berdampak besar bagi pedagang dan ekspor senjata Israel,” papar dia.
Tidak Ada Batasan
Meskipun banyak yang menyerukan agar Israel bertanggung jawab atas tindakannya di Gaza, dengan peringatan dari badan-badan PBB bahwa tindakan tersebut dapat mengarah pada tuduhan kejahatan perang dan genosida, meminta pertanggungjawaban Israel atas penggunaan AI mungkin akan lebih rumit.
Meskipun beberapa negara dan organisasi internasional mengatur penggunaan AI untuk keperluan militer dengan menyatakan penggunaan AI harus tetap berada dalam batas-batas hukum internasional, hanya ada sedikit atau bahkan tidak ada peraturan khusus AI terkait peperangan.
Selain itu, Israel sejauh ini tidak menunjukkan tanda-tanda akan mengatur penggunaan teknologi baru ini, meskipun hal itu berarti membunuh lebih banyak warga sipil Palestina.
“Karena Israel memandang Hamas saat ini sebagai ancaman yang ada, maka tidak ada batasannya,” ungkap pakar Israel tersebut kepada MEE, yang menyatakan tindakan tersebut mungkin bisa mencapai pembunuhan tawanan Israel jika hal tersebut berarti menghabisi komandan tertinggi Hamas.
“AI tentu saja memberikan ilusi ketepatan dan analisis matematis kepada tentara, dan itu salah,” ujar dia. "Semua kelemahan manusia yang dipelajari oleh algoritme terjadi secara otomatis di sana."
Komite Internasional Palang Merah percaya AI dapat menjadi alat yang memungkinkan pengambilan keputusan yang lebih baik dalam konflik dan membantu menghindari korban sipil.
Shtaya juga meyakini kemajuan teknologi ini, jika digunakan dengan benar, secara umum dapat meningkatkan kualitas hidup masyarakat.
“Sangat menyakitkan dan menyedihkan melihat teknologi seperti ini digunakan oleh negara untuk menindas masyarakat dan membuat hidup mereka lebih sulit, hanya untuk mendapatkan hukuman kolektif,” pungkas dia.
(sya)