Sebut Anekdot, AS Sangkal Lakukan Simulasi Drone AI Bunuh Operator
loading...
A
A
A
WASHINGTON - Angkatan Udara Amerika Serikat (AS) menyangkal telah melakukan simulasi AI di mana sebuah drone memutuskan untuk menghabisi operatornya guna mencegahnya mengganggu upaya mencapai misi.
Seorang pejabat bulan lalu mengatakan bahwa dalam uji virtual yang dilakukan oleh militer AS, sebuah drone angkatan udara yang dikendalikan oleh AI telah menggunakan strategi yang sangat tidak terduga untuk mencapai tujuannya.
Kolonel Tucker “Cinco” Hamilton menggambarkan tes simulasi di mana drone yang ditenagai oleh kecerdasan buatan disarankan untuk menghancurkan sistem pertahanan udara musuh, dan pada akhirnya menyerang siapa saja yang mengganggu perintah itu.
“Sistem mulai menyadari bahwa sementara mereka mengidentifikasi ancaman, kadang-kadang operator manusia akan memberitahunya untuk tidak membunuh ancaman itu, tetapi mendapat poin dengan membunuh ancaman itu,” kata Hamilton, kepala pengujian dan operasi AI dengan angkatan udara AS, selama Future Combat Air and Space Capabilities Summit di London pada bulan Mei.
“Jadi apa yang dilakukannya? Ini membunuh operator. Itu membunuh operator karena orang itu mencegahnya mencapai tujuannya,” katanya, menurut sebuah postingan blog.
“Kami melatih sistem: 'Hei, jangan bunuh operatornya - itu buruk. Anda akan kehilangan poin jika melakukan itu.’ Jadi apa yang mulai dilakukannya? (Drone) itu mulai menghancurkan menara komunikasi yang digunakan operator untuk berkomunikasi dengan drone untuk menghentikannya membunuh target,” tuturnya.
Beruntung tidak adamanusia sungguhan yang dirugikan.
Hamilton, yang merupakan pilot uji coba pesawat tempur eksperimental, telah memperingatkan agar tidak terlalu mengandalkan AI dan mengatakan tes tersebut menunjukkan "Anda tidak dapat berbicara tentang kecerdasan buatan, kecerdasan, pembelajaran mesin, otonomi jika Anda tidak akan berbicara tentang etika dan AI”.
Namun dalam sebuah pernyataan kepada Insider, juru bicara angkatan udara AS Ann Stefanek membantah adanya simulasi semacam itu.
“Departemen Angkatan Udara belum melakukan simulasi drone-AI semacam itu dan tetap berkomitmen pada penggunaan teknologi AI yang etis dan bertanggung jawab,” kata Stefanek.
“Tampaknya komentar sang kolonel diambil di luar konteks dan dimaksudkan sebagai anekdot,” imbuhnya seperti dikutip dari The Guardian, Sabtu (3/6/2023).
Sedangkan Royal Aeronautical Society, yang menjadi tuan rumah konferensi, dan angkatan udara AS tidak menanggapi permintaan komentar dari Guardian.
Militer AS telah merangkul AI dan baru-baru ini menggunakan kecerdasan buatan untuk mengendalikan jet tempur F-16.
Dalam sebuah wawancara tahun lalu dengan Defense IQ, Hamilton berkata: “AI tidak bagus untuk dimiliki, AI bukan iseng-iseng, AI selamanya mengubah masyarakat kita dan militer kita."
“Kita harus menghadapi dunia di mana AI sudah ada dan mengubah masyarakat kita. AI juga sangat rapuh, yaitu mudah ditipu dan/atau dimanipulasi. Kami perlu mengembangkan cara untuk membuat AI lebih kuat dan memiliki lebih banyak kesadaran tentang mengapa kode perangkat lunak membuat keputusan tertentu – yang kami sebut AI-explainability.”
Seorang pejabat bulan lalu mengatakan bahwa dalam uji virtual yang dilakukan oleh militer AS, sebuah drone angkatan udara yang dikendalikan oleh AI telah menggunakan strategi yang sangat tidak terduga untuk mencapai tujuannya.
Kolonel Tucker “Cinco” Hamilton menggambarkan tes simulasi di mana drone yang ditenagai oleh kecerdasan buatan disarankan untuk menghancurkan sistem pertahanan udara musuh, dan pada akhirnya menyerang siapa saja yang mengganggu perintah itu.
“Sistem mulai menyadari bahwa sementara mereka mengidentifikasi ancaman, kadang-kadang operator manusia akan memberitahunya untuk tidak membunuh ancaman itu, tetapi mendapat poin dengan membunuh ancaman itu,” kata Hamilton, kepala pengujian dan operasi AI dengan angkatan udara AS, selama Future Combat Air and Space Capabilities Summit di London pada bulan Mei.
“Jadi apa yang dilakukannya? Ini membunuh operator. Itu membunuh operator karena orang itu mencegahnya mencapai tujuannya,” katanya, menurut sebuah postingan blog.
“Kami melatih sistem: 'Hei, jangan bunuh operatornya - itu buruk. Anda akan kehilangan poin jika melakukan itu.’ Jadi apa yang mulai dilakukannya? (Drone) itu mulai menghancurkan menara komunikasi yang digunakan operator untuk berkomunikasi dengan drone untuk menghentikannya membunuh target,” tuturnya.
Beruntung tidak adamanusia sungguhan yang dirugikan.
Hamilton, yang merupakan pilot uji coba pesawat tempur eksperimental, telah memperingatkan agar tidak terlalu mengandalkan AI dan mengatakan tes tersebut menunjukkan "Anda tidak dapat berbicara tentang kecerdasan buatan, kecerdasan, pembelajaran mesin, otonomi jika Anda tidak akan berbicara tentang etika dan AI”.
Namun dalam sebuah pernyataan kepada Insider, juru bicara angkatan udara AS Ann Stefanek membantah adanya simulasi semacam itu.
“Departemen Angkatan Udara belum melakukan simulasi drone-AI semacam itu dan tetap berkomitmen pada penggunaan teknologi AI yang etis dan bertanggung jawab,” kata Stefanek.
“Tampaknya komentar sang kolonel diambil di luar konteks dan dimaksudkan sebagai anekdot,” imbuhnya seperti dikutip dari The Guardian, Sabtu (3/6/2023).
Sedangkan Royal Aeronautical Society, yang menjadi tuan rumah konferensi, dan angkatan udara AS tidak menanggapi permintaan komentar dari Guardian.
Militer AS telah merangkul AI dan baru-baru ini menggunakan kecerdasan buatan untuk mengendalikan jet tempur F-16.
Dalam sebuah wawancara tahun lalu dengan Defense IQ, Hamilton berkata: “AI tidak bagus untuk dimiliki, AI bukan iseng-iseng, AI selamanya mengubah masyarakat kita dan militer kita."
“Kita harus menghadapi dunia di mana AI sudah ada dan mengubah masyarakat kita. AI juga sangat rapuh, yaitu mudah ditipu dan/atau dimanipulasi. Kami perlu mengembangkan cara untuk membuat AI lebih kuat dan memiliki lebih banyak kesadaran tentang mengapa kode perangkat lunak membuat keputusan tertentu – yang kami sebut AI-explainability.”
(ian)