Mengerikannya Senjata Nuklir Andai Dioperasikan Kecerdasan Buatan
A
A
A
WASHINGTON - Para pakar mencetuskan ide senjata nuklir Amerika Serikat (AS) dioperasikan oleh teknologi artificial intelligence (AI) atau kecerdasan buatan yang bisa berwujud robot pintar. Namun, gagasan itu dikecam mantan wakil kepala Pentagon Robert Work sebagai ide buruk yang bisa mendatangkan malapetaka bagi umat manusia.
Para pakar yang megusulkan ide itu adalah Adam Lowther dan Curtis McGiffin. Keduanya menyarankan ide itu karena mempertimbangkan senjata nuklir baru Rusia. Kemenangan perang nuklir akan diraih sebuah negara yang melakukan respons cepat, terutama aksi pembalasan.
"Kompresi waktu telah menempatkan kepemimpinan senior Amerika dalam situasi di mana sistem (komando dan kontrol) yang ada mungkin tidak bertindak cukup cepat," tulis kedua pakar itu dalam sebuah laporan, dikutip VICE, Rabu (4/9/2019).
"Dengan demikian, mungkin perlu untuk mengembangkan sistem yang didasarkan pada kecerdasan buatan, dengan keputusan respons yang telah ditentukan, yang mendeteksi, memutuskan, dan mengarahkan kekuatan strategis dengan kecepatan sedemikian rupa sehingga tantangan kompresi waktu serangan tidak menempatkan Amerika Serikat pada posisi yang mustahil," lanjut kedua pakar tersebut.
Sebuah laporan tahun 2018 dari RAND Corporation menyarankan bahwa AI memungkinkan digunakan untuk mengoperasikan senjarta nuklir. Pada kenyataannya, ide itu justru membuat dunia kurang aman dari perang nuklir.
Laporan tersebut meminta beberapa ahli untuk mempertimbangkan bagaimana AI dapat mengubah pencegahan nuklir dan hasilnya tidak meyakinkan. Beberapa ahli RAND Corporation percaya bahwa AI akan membuat dunia lebih aman, dan yang lain percaya itu akan secara radikal mengacaukan keseimbangan kekuatan nuklir saat ini.
“AI hanya perlu dianggap sangat efektif untuk destabilisasi, misalnya dalam pelacakan dan penargetan peluncur musuh. Terancam dengan potensi kehilangan kemampuan serangan kedua, musuh akan dipaksa melakukan serangan pendahuluan atau memperluas persenjataannya, keduanya hasil yang tidak diinginkan," bunyi laporan RAND Corporation.
Menurut Robert Work ide penggunaan AI dalam operasional senjata nuklir Amerika sangat mengerikan. Sikapnya disampaikan dalam acara "Kampanye untuk Menghentikan Robot Pembunuh".
Koalisi organisasi non-pemerintah bekerja untuk melarang senjata otonom yang mematikan dan sekarang beroperasi di 57 negara. Work percaya bahwa senjata otonom seperti itu hanya jadi gangguan.
"Mereka mendefinisikan senjata yang tidak diawasi atau independen dari arah manusia, tanpa pengawasan dalam operasi medan perangnya, dan penargetan diri (misalnya memilih targetnya sendiri)," kata Work.
"Senjatanya tidak ada! Bahkan mungkin secara teknis tidak layak, dan jika secara teknis layak, sama sekali tidak ada bukti bahwa tentara Barat, tentu saja Amerika Serikat, akan menggunakan senjata seperti itu," ujarnya.
"Bayangkan memiliki sistem prediksi AI dalam sistem komando dan kontrol nuklir yang akan diluncurkan pada parameter tertentu," kata Work.
"Itu prospek yang jauh, jauh, jauh lebih mengkhawatirkan daripada apa pun yang dapat Anda pikirkan dalam hal senjata individu."
"Bayangkan sebuah sistem operasional di Pasifik Barat, di pusat komando China, yang mengatakan; 'semuanya tampak seperti orang Amerika akan menyerang, meluncurkan serangan pendahuluan'," papar Work.
"Sekali lagi itu adalah masalah yang jauh, jauh lebih sulit daripada apa yang coba dihentikan oleh kampanye (untuk Menghentikan Robot Pembunuh)," imbuh Work.
Yang dijelaskan Work memiliki kesamaan mengerikan dengan sistem "Tangan Mati" Rusia.
Dikembangkan selama Perang Dingin, Rusia menerima guncangan seismik dari ledakan nuklir dan - dengan asumsi tidak ada pemimpin yang tersedia untuk memberikan otorisasi—mentransmisikan perintah peluncuran ke rudal balistik antarbenua (ICBM).
Teknologi Rusia itu pernah menembakkan SS-17 ICBM yang dimodifikasi secara khusus, yang memberikan sinyal ke ICBM berhulu ledak nuklir reguler di silo mereka.
Viktor Yesin, yang memimpin Pasukan Roket Strategis Rusia pada 1990-an, baru-baru ini mengatakan kepada media lokal; "Sistem Perimeter berfungsi, bahkan telah diperbaiki."
"Tapi ketika itu berhasil, kita akan memiliki sedikit yang tersisa—kita hanya dapat meluncurkan rudal yang akan selamat setelah serangan pertama agresor," ujarnya kala itu.
Para pakar yang megusulkan ide itu adalah Adam Lowther dan Curtis McGiffin. Keduanya menyarankan ide itu karena mempertimbangkan senjata nuklir baru Rusia. Kemenangan perang nuklir akan diraih sebuah negara yang melakukan respons cepat, terutama aksi pembalasan.
"Kompresi waktu telah menempatkan kepemimpinan senior Amerika dalam situasi di mana sistem (komando dan kontrol) yang ada mungkin tidak bertindak cukup cepat," tulis kedua pakar itu dalam sebuah laporan, dikutip VICE, Rabu (4/9/2019).
"Dengan demikian, mungkin perlu untuk mengembangkan sistem yang didasarkan pada kecerdasan buatan, dengan keputusan respons yang telah ditentukan, yang mendeteksi, memutuskan, dan mengarahkan kekuatan strategis dengan kecepatan sedemikian rupa sehingga tantangan kompresi waktu serangan tidak menempatkan Amerika Serikat pada posisi yang mustahil," lanjut kedua pakar tersebut.
Sebuah laporan tahun 2018 dari RAND Corporation menyarankan bahwa AI memungkinkan digunakan untuk mengoperasikan senjarta nuklir. Pada kenyataannya, ide itu justru membuat dunia kurang aman dari perang nuklir.
Laporan tersebut meminta beberapa ahli untuk mempertimbangkan bagaimana AI dapat mengubah pencegahan nuklir dan hasilnya tidak meyakinkan. Beberapa ahli RAND Corporation percaya bahwa AI akan membuat dunia lebih aman, dan yang lain percaya itu akan secara radikal mengacaukan keseimbangan kekuatan nuklir saat ini.
“AI hanya perlu dianggap sangat efektif untuk destabilisasi, misalnya dalam pelacakan dan penargetan peluncur musuh. Terancam dengan potensi kehilangan kemampuan serangan kedua, musuh akan dipaksa melakukan serangan pendahuluan atau memperluas persenjataannya, keduanya hasil yang tidak diinginkan," bunyi laporan RAND Corporation.
Menurut Robert Work ide penggunaan AI dalam operasional senjata nuklir Amerika sangat mengerikan. Sikapnya disampaikan dalam acara "Kampanye untuk Menghentikan Robot Pembunuh".
Koalisi organisasi non-pemerintah bekerja untuk melarang senjata otonom yang mematikan dan sekarang beroperasi di 57 negara. Work percaya bahwa senjata otonom seperti itu hanya jadi gangguan.
"Mereka mendefinisikan senjata yang tidak diawasi atau independen dari arah manusia, tanpa pengawasan dalam operasi medan perangnya, dan penargetan diri (misalnya memilih targetnya sendiri)," kata Work.
"Senjatanya tidak ada! Bahkan mungkin secara teknis tidak layak, dan jika secara teknis layak, sama sekali tidak ada bukti bahwa tentara Barat, tentu saja Amerika Serikat, akan menggunakan senjata seperti itu," ujarnya.
"Bayangkan memiliki sistem prediksi AI dalam sistem komando dan kontrol nuklir yang akan diluncurkan pada parameter tertentu," kata Work.
"Itu prospek yang jauh, jauh, jauh lebih mengkhawatirkan daripada apa pun yang dapat Anda pikirkan dalam hal senjata individu."
"Bayangkan sebuah sistem operasional di Pasifik Barat, di pusat komando China, yang mengatakan; 'semuanya tampak seperti orang Amerika akan menyerang, meluncurkan serangan pendahuluan'," papar Work.
"Sekali lagi itu adalah masalah yang jauh, jauh lebih sulit daripada apa yang coba dihentikan oleh kampanye (untuk Menghentikan Robot Pembunuh)," imbuh Work.
Yang dijelaskan Work memiliki kesamaan mengerikan dengan sistem "Tangan Mati" Rusia.
Dikembangkan selama Perang Dingin, Rusia menerima guncangan seismik dari ledakan nuklir dan - dengan asumsi tidak ada pemimpin yang tersedia untuk memberikan otorisasi—mentransmisikan perintah peluncuran ke rudal balistik antarbenua (ICBM).
Teknologi Rusia itu pernah menembakkan SS-17 ICBM yang dimodifikasi secara khusus, yang memberikan sinyal ke ICBM berhulu ledak nuklir reguler di silo mereka.
Viktor Yesin, yang memimpin Pasukan Roket Strategis Rusia pada 1990-an, baru-baru ini mengatakan kepada media lokal; "Sistem Perimeter berfungsi, bahkan telah diperbaiki."
"Tapi ketika itu berhasil, kita akan memiliki sedikit yang tersisa—kita hanya dapat meluncurkan rudal yang akan selamat setelah serangan pertama agresor," ujarnya kala itu.
(mas)