5 Dampak Negatif Deepfake dan AI dalam Pemilu AS

Kamis, 20 Juni 2024 - 16:55 WIB
Deepfake dan AI memiliki dampak berbahaya pada pemilu AS. Foto/AP
WASHINGTON - Pada tanggal 21 Januari, Patricia Gingrich hendak duduk untuk makan malam ketika telepon rumah berdering. Pemilih di New Hampshire mengangkat telepon dan mendengar suara yang menyuruhnya untuk tidak memilih dalam pemilihan pendahuluan presiden mendatang.

“Saat saya mendengarkannya, saya berpikir, wah, itu terdengar seperti Joe Biden ,” kata Gingrich kepada Al Jazeera. “Tetapi fakta bahwa dia mengatakan untuk menyimpan suara Anda, jangan menggunakannya dalam pemilu berikutnya – saya tahu Joe Biden tidak akan pernah mengatakan itu.”

Suaranya mungkin terdengar seperti presiden Amerika Serikat, tapi itu bukan dia: suara palsu yang dihasilkan oleh kecerdasan buatan (AI).



Para ahli memperingatkan bahwa deepfake – audio, video atau gambar yang dibuat menggunakan alat AI, dengan maksud untuk menyesatkan – menimbulkan risiko tinggi bagi pemilih AS menjelang pemilu bulan November, tidak hanya dengan memasukkan konten palsu ke dalam pemilu tetapi juga dengan mengikis kepercayaan publik.

Gingrich mengatakan dia tidak terpengaruh dengan kebohongan Biden, tapi dia khawatir hal itu mungkin akan menekan jumlah pemilih. Pesan tersebut menjangkau hampir 5.000 pemilih di New Hampshire hanya beberapa hari sebelum pemilihan pendahuluan di negara bagian tersebut.

“Ini bisa berdampak buruk bagi orang-orang yang tidak mendapat informasi tentang apa yang terjadi dengan Partai Demokrat,” kata Gingrich, yang merupakan ketua Komite Demokratik Barrington di Burlington, New Hampshire.

“Jika mereka benar-benar berpikir mereka tidak boleh memilih sesuatu dan Joe Biden mengatakan kepada mereka untuk tidak melakukannya, mungkin mereka tidak akan menghadiri pemungutan suara tersebut.”

5 Dampak Negatif Deepfake dan AI dalam Pemilu AS

1. Kelompok Online Paling Rentan



Foto/AP

Seruan Biden bukanlah satu-satunya kesalahan dalam siklus pemilu ini. Sebelum membatalkan pencalonannya sebagai presiden, tim kampanye Gubernur Florida Ron DeSantis membagikan video yang berisi gambar Donald Trump yang dibuat oleh AI yang sedang memeluk ahli imunologi Anthony Fauci – dua tokoh yang bentrok di depan umum selama pandemi COVID-19.

Dan pada bulan September, panggilan robot yang berbeda dilakukan kepada 300 pemilih yang diperkirakan akan berpartisipasi dalam pemilihan pendahuluan Partai Republik di Carolina Selatan. Kali ini, penerima mendengar suara yang dihasilkan AI yang meniru Senator Lindsey Graham, menanyakan siapa yang mereka pilih.

Praktik mengubah atau memalsukan konten – terutama untuk kepentingan politik – telah ada sejak awal mula politik Amerika. Bahkan presiden pertama negara itu, George Washington, harus menghadapi serangkaian “surat palsu” yang tampaknya menunjukkan dia mempertanyakan alasan kemerdekaan AS.



2. Lebih Murah dan Memicu Disinformasi



Foto/AP

Namun alat AI kini sudah cukup canggih untuk secara meyakinkan meniru orang dengan cepat dan murah, sehingga meningkatkan risiko disinformasi.

Sebuah studi yang diterbitkan awal tahun ini oleh para peneliti di Universitas George Washington memperkirakan bahwa, pada pertengahan tahun 2024, “serangan AI” setiap hari akan meningkat, sehingga menimbulkan ancaman terhadap pemilihan umum bulan November.

Penulis utama studi tersebut, Neil Johnson, mengatakan kepada Al Jazeera bahwa risiko tertinggi tidak datang dari robocall palsu baru-baru ini – yang berisi pesan-pesan yang mengejutkan – melainkan dari deepfake yang lebih meyakinkan.

“Ini akan berupa gambar yang berbeda, gambar yang diubah, tidak sepenuhnya informasi palsu karena informasi palsu menarik perhatian pemeriksa disinformasi,” kata Johnson.

Studi ini menemukan bahwa komunitas online terhubung sedemikian rupa sehingga memungkinkan pelaku kejahatan mengirimkan media yang dimanipulasi dalam jumlah besar langsung ke arus utama.

Komunitas di swing states bisa menjadi sangat rentan, begitu pula kelompok pengasuhan anak di platform seperti Facebook.

“Peran komunitas orang tua akan sangat besar,” kata Johnson, seraya menunjuk pada cepatnya penyebaran misinformasi vaksin selama pandemi ini sebagai contoh.

“Saya pikir kita akan tiba-tiba dihadapkan pada gelombang [disinformasi] – banyak hal yang tidak palsu, bukan tidak benar, tetapi menyebarkan kebenaran.”

3. Mengikis Kepercayaan Masyarakat



Foto/AP

Namun, para pemilih sendiri bukanlah satu-satunya target deepfake. Larry Norden, direktur senior Program Pemilu dan Pemerintahan di Brennan Center for Justice, telah bekerja sama dengan pejabat pemilu untuk membantu mereka mengenali konten palsu.

Misalnya, Norden mengatakan pelaku kejahatan dapat menggunakan alat AI untuk menginstruksikan petugas pemilu agar menutup tempat pemungutan suara sebelum waktunya, dengan memanipulasi suara atasan mereka atau dengan mengirimkan pesan yang seolah-olah melalui akun pengawas.

Dia mengajari petugas pemungutan suara untuk melindungi diri mereka sendiri dengan memverifikasi pesan yang mereka terima.

Norden menekankan bahwa pelaku kejahatan dapat membuat konten yang menyesatkan tanpa AI. “Keunggulan AI adalah membuatnya lebih mudah untuk dilakukan dalam skala besar,” katanya.

Tahun lalu, Norden mengilustrasikan kemampuan AI dengan membuat video palsu dirinya untuk presentasi tentang risiko yang ditimbulkan oleh teknologi tersebut.

“Tidak butuh waktu lama,” kata Norden, menjelaskan bahwa yang harus dia lakukan hanyalah memasukkan wawancara TV sebelumnya ke dalam sebuah aplikasi.

Avatarnya tidak sempurna – wajahnya sedikit buram, suaranya sedikit terputus-putus – tetapi Norden mencatat bahwa alat AI berkembang pesat. “Sejak kami merekamnya, teknologinya menjadi semakin canggih, dan menurut saya semakin sulit untuk membedakannya.”

Teknologi saja bukanlah masalahnya. Ketika deepfake menjadi lebih umum, masyarakat akan menjadi lebih menyadarinya dan lebih skeptis terhadap konten yang mereka konsumsi.

Hal ini dapat mengikis kepercayaan publik, dan pemilih cenderung menolak informasi yang sebenarnya. Tokoh politik juga bisa menyalahgunakan skeptisisme tersebut untuk kepentingan mereka sendiri.

4. Hanya Menguntungkan Pembohong



Foto/AP

Pakar hukum menyebut fenomena ini sebagai “keuntungan pembohong”: Kekhawatiran terhadap deepfake dapat memudahkan subjek rekaman audio atau video yang sah untuk mengklaim bahwa rekaman tersebut palsu.

Norden menunjuk audio Access Hollywood yang muncul sebelum pemilu 2016 sebagai contoh. Dalam klip tersebut, Trump terdengar berbicara tentang interaksinya dengan perempuan: “Anda bisa melakukan apa saja. Pegang vaginanya.”

Rekaman itu – yang sangat nyata – dianggap merusak prospek Trump di kalangan pemilih perempuan. Namun jika audio serupa bocor hari ini, Norden mengatakan seorang kandidat dapat dengan mudah menyebutnya palsu. “Akan lebih mudah bagi masyarakat untuk mengabaikan hal semacam itu dibandingkan beberapa tahun yang lalu.”

Norden menambahkan, “Salah satu masalah yang kita hadapi saat ini di AS adalah kurangnya kepercayaan, dan ini hanya akan memperburuk keadaan.”

5. Belum Ada Hukum Kuat Mengaturnya



Foto/AP

Meskipun deepfake semakin menjadi perhatian dalam pemilu AS, hanya sedikit undang-undang federal yang membatasi penggunaannya. Komisi Pemilihan Umum Federal (FEC) belum membatasi deepfake dalam pemilu, dan rancangan undang-undang di Kongres masih terhenti.

Masing-masing negara bagian berupaya mengisi kekosongan tersebut. Menurut pelacak undang-undang yang diterbitkan oleh organisasi advokasi konsumen Public Citizen, sejauh ini 20 undang-undang negara bagian telah diberlakukan untuk mengatur deepfake dalam pemilu.

Beberapa rancangan undang-undang lainnya – di Hawaii, Louisiana dan New Hampshire – telah disahkan dan sedang menunggu tanda tangan gubernur.

Norden mengatakan dia tidak terkejut melihat masing-masing negara bagian bertindak di hadapan Kongres. “Negara seharusnya menjadi laboratorium demokrasi, sehingga hal ini kembali terbukti: negaralah yang bertindak terlebih dahulu. Kita semua tahu sangat sulit untuk meloloskan apa pun di Kongres,” katanya.

Para pemilih dan organisasi politik juga mengambil tindakan. Setelah Gingrich menerima telepon palsu Biden di New Hampshire, dia bergabung dengan tuntutan hukum – yang dipimpin oleh Liga Pemilih Wanita – mencari pertanggungjawaban atas dugaan penipuan tersebut.

Sumber seruan tersebut ternyata adalah Steve Kramer, seorang konsultan politik yang mengaku niatnya adalah untuk menarik perhatian akan perlunya mengatur AI dalam politik. Kramer juga mengaku berada di balik robocall di Carolina Selatan, menirukan Senator Graham.

Kramer mengajukan pernyataan tersebut setelah NBC News mengungkapkan bahwa dia telah menugaskan seorang pesulap untuk menggunakan perangkat lunak yang tersedia untuk umum guna menghasilkan suara palsu Biden.

Menurut gugatan tersebut, pembuatan deepfake membutuhkan waktu kurang dari 20 menit dan hanya berharga USD1.

Kramer, bagaimanapun, mengatakan kepada CBS News bahwa ia menerima “paparan senilai USD5 juta” atas upayanya, yang ia harap akan memungkinkan peraturan AI untuk “bermain sendiri atau setidaknya mulai membayar sendiri”.

“Niat saya adalah membuat perbedaan,” katanya.

Namun kasus Kramer menunjukkan bahwa undang-undang yang ada dapat digunakan untuk membatasi deepfake.

Komisi Komunikasi Federal (FCC), misalnya, memutuskan (PDF) awal tahun ini bahwa perangkat lunak yang meniru suara termasuk dalam Undang-Undang Perlindungan Konsumen Telepon tahun 1991 – dan oleh karena itu dianggap ilegal di sebagian besar situasi.

Komisi akhirnya mengusulkan denda USD6 juta terhadap Kramer karena robocall ilegal.

Departemen Kehakiman New Hampshire juga mendakwa Kramer melakukan kejahatan penindasan terhadap pemilih dan menyamar sebagai kandidat, yang dapat mengakibatkan hukuman hingga tujuh tahun penjara. Kramer telah mengaku tidak bersalah. Dia tidak menanggapi permintaan komentar dari Al Jazeera.

Norden mengatakan penting bahwa tidak ada satu pun undang-undang yang dituduhkan Kramer dilanggar, yang secara khusus dirancang untuk deepfake. “Tuduhan pidana terhadapnya tidak ada hubungannya dengan AI,” ujarnya. “Undang-undang tersebut ada secara independen dari teknologi yang digunakan.”

Namun, undang-undang tersebut tidak mudah diterapkan pada pelaku kejahatan yang tidak dapat diidentifikasi atau berlokasi di luar AS.

“Kami mengetahui dari badan intelijen bahwa mereka telah melihat Tiongkok dan Rusia bereksperimen dengan alat-alat ini. Dan mereka mengharapkannya untuk digunakan,” kata Norden. “Dalam hal ini, Anda tidak akan membuat undang-undang untuk keluar dari masalah ini.”

Baik Norden maupun Johnson percaya bahwa kurangnya peraturan membuat pemilih semakin penting untuk mendapatkan informasi tentang deepfake – dan mempelajari cara menemukan informasi yang akurat.

Adapun Gingrich, dia mengatakan dia tahu bahwa deepfake yang manipulatif hanya akan semakin meluas. Dia juga merasa para pemilih perlu menginformasikan diri mereka sendiri tentang risiko ini.

Pesannya kepada para pemilih? “Saya akan memberitahu masyarakat untuk memastikan bahwa mereka tahu bahwa mereka dapat memilih.”
(ahm)
tulis komentar anda
Follow
Dapatkan berita terkini dan kejutan menarik dari SINDOnews.com, Klik Disini untuk mendaftarkan diri anda sekarang juga!
Video Rekomendasi
Berita Terkait
Rekomendasi
Terpopuler
Berita Terkini More