Warga New Hampshire menerima permintaan politik yang tidak biasa pada hujung minggu 20-21 Januari. Panggilan robo dengan suara yang didengari oleh ramai orang seperti suara Presiden Amerika Syarikat Joe Biden memberitahu mereka untuk tidak mengundi dalam pilihan raya utama pada 23 Januari.
Pesanan automatik itu nampaknya dihasilkan oleh alat deepfake kecerdasan buatan (AI) dengan tujuan yang jelas untuk campur tangan dalam pilihan raya presiden 2024.
Pemilih New Hampshire menerima panggilan robo dari Biden memberitahu mereka untuk tidak mengundi esok.
— Public Citizen (@Public_Citizen) 22 Januari 2024
Tetapi itu bukan Biden. Itu adalah deepfake suaranya.
Inilah yang berlaku apabila kuasa AI tidak terkawal.
Jika kita tidak mengawalnya, demokrasi kita akan terancam.pic.twitter.com/8wlrT63Mfr
Mengikut rakaman audio oleh NBC, penduduk disuruh untuk tinggal di rumah semasa pilihan raya utama:
"Mengundi pada hari Selasa ini hanya membolehkan parti Republik dalam usaha mereka untuk memilih semula Donald Trump. Undian anda memberi impak pada bulan November, bukan pada hari Selasa ini."
Pejabat peguam negara bahagian mengeluarkan kenyataan mengecam panggilan tersebut sebagai maklumat palsu, sambil menambah bahawa "pemilih New Hampshire harus mengabaikan sepenuhnya kandungan mesej ini." Sementara itu, jurucakap bekas Presiden Donald Trump menafikan sebarang keterlibatan daripada calon GOP atau kempen beliau.
Berkaitan: Trump 'tidak akan membenarkan' CBDC, memberikan 'penghargaan penuh' kepada Vivek Ramaswamy
Penyiasat nampaknya belum mengenal pasti punca panggilan robo ini, tetapi siasatan masih berlanjutan.
Dalam berita yang berkaitan, skandal politik lain yang berkaitan dengan audio deepfake berlaku pada hujung minggu apabila audio tiruan pemimpin Demokrat Manhattan, Keith Wright, muncul pada 21 Januari. Audio deepfake itu menampilkan tiruan suara Wright yang menghina ahli Majlis Perhimpunan Demokratik Inez Dickens.
Mengikut laporan dari Politico, audio tersebut dianggap palsu oleh sesetengah orang, tetapi sekurang-kurangnya seorang dalang politik seketika terpengaruh dan percaya bahawa audio itu adalah benar.
Melissa Mark-Viverito, Demokrat Manhattan dan bekas Pemimpin Majlis Bandaraya, memberitahu Politico bahawa pada mulanya mereka menganggap audio tersebut adalah kredibel:
"Saya seperti 'oh sial.' Saya fikir itu adalah benar."
Pakar percaya bahawa pelaku jahat memilih audio palsu berbanding video kerana pengguna cenderung lebih berhati-hati apabila berhadapan dengan pemalsuan visual. Seperti yang baru-baru ini dijelaskan oleh penasihat AI, Henry Ajder, kepada Financial Times, "semua orang biasa dengan Photoshop atau sekurang-kurangnya mengetahui keberadaannya."
Tidak ada cara seragam yang dapat dikesan atau dicegah deepfake pada masa penerbitan artikel ini. Pakar menyarankan agar berhati-hati apabila berurusan dengan media daripada sumber yang tidak diketahui atau meragukan, terutamanya apabila terdapat tuntutan yang luar biasa.