Amerika Syarikat adalah salah satu daripada banyak negara di seluruh dunia yang bersedia untuk menghadapi kitaran pilihan raya besar pada tahun 2024. Dengan kemunculan alat kecerdasan buatan (AI) yang boleh diakses oleh orang awam, terdapat peningkatan dalam deepfake politik, yang memerlukan pengundi untuk memperoleh kemahiran baru untuk membezakan apa yang sebenarnya. Pada 27 Februari, Pengerusi Jawatankuasa Perisikan Senate, Mark Warner, menyatakan bahawa Amerika "kurang bersedia" untuk penipuan pilihan raya bagi pilihan raya 2024 yang akan datang berbanding dengan pilihan raya sebelumnya pada tahun 2020. Ini sebahagian besarnya disebabkan oleh peningkatan deepfake yang dihasilkan oleh AI di Amerika Syarikat dalam setahun yang lalu. Menurut data dari SumSub, sebuah perkhidmatan pengesahan identiti, Amerika Utara telah melihat peningkatan sebanyak 1,740% dalam deepfake, dengan peningkatan 10 kali ganda dalam jumlah deepfake yang dikesan di seluruh dunia pada tahun 2023. Antara 20 dan 21 Januari, warga New Hampshire melaporkan menerima panggilan robot dengan suara Presiden Amerika Syarikat, Joe Biden, yang memberitahu mereka untuk tidak mengundi dalam pilihan raya negeri pada 23 Januari. Seminggu kemudian, insiden ini mendorong pengawal selia di Amerika Syarikat untuk melarang penggunaan suara AI yang dihasilkan dalam penipuan telefon automatik, menjadikannya haram di bawah undang-undang telemarketing Amerika Syarikat. Namun, seperti halnya dengan penipuan jenis lain, di mana ada kemahuan, pasti ada jalan walaupun ada undang-undang yang dikuatkuasakan. Ketika Amerika Syarikat bersiap untuk Super Selasa pada 5 Mac - di mana beberapa negeri di Amerika Syarikat mengadakan pilihan raya utama dan kaukus - kebimbangan tinggi terhadap maklumat dan deepfake palsu yang dihasilkan oleh AI. Cointelegraph berbincang dengan Pavel Goldman Kalaydin, ketua AI dan pembelajaran mesin di SumSub, untuk lebih memahami bagaimana pengundi dapat mempersiapkan diri dengan lebih baik untuk mengesan deepfake dan mengendalikan situasi penipuan identiti deepfake. Bagaimana untuk mengesan deepfake Kalaydin berkata bahawa walaupun terdapat peningkatan 10 kali ganda dalam jumlah deepfake di seluruh dunia, beliau mengharapkan jumlah itu akan terus meningkat ketika negara-negara memasuki tempoh pilihan raya. Beliau menekankan dua jenis deepfake yang perlu diwaspadai: satu yang datang dari "pasukan yang mahir dalam teknologi" yang menggunakan teknologi canggih dan perkakasan seperti unit pemprosesan grafik yang berkualiti tinggi dan model AI generatif, yang seringkali lebih sukar dikesan, dan "penipu peringkat rendah" yang menggunakan alat yang tersedia secara umum di komputer pengguna. "Adalah penting bahawa pengundi berhati-hati dalam menyemak kandungan dalam umpan mereka dan berhati-hati terhadap kandungan video atau audio," katanya, menambahkan: "Individu perlu memberi keutamaan kepada pengesahan sumber maklumat, membezakan antara media yang dipercayai dan boleh dipercayai dengan kandungan daripada pengguna yang tidak dikenali." Menurut pakar AI ini, terdapat beberapa petanda yang boleh dikenalpasti dalam deepfake: "Jika terdapat ciri-ciri berikut dikesan: pergerakan tangan atau bibir yang tidak semulajadi, latar belakang buatan, pergerakan yang tidak sekata, perubahan dalam pencahayaan, perbezaan dalam warna kulit, corak berkedip yang tidak biasa, ketidakselarasan pergerakan bibir dengan ucapan atau artefak digital, kandungan tersebut kemungkinan besar dihasilkan." Walau bagaimanapun, Kalaydin memperingatkan bahawa teknologi ini akan terus "maju dengan pesat" dan segera akan menjadi "mustahil bagi mata manusia untuk mengesan deepfake tanpa teknologi pengesanan yang khusus." Penghasilan, pengedaran, dan penyelesaian deepfake Kalaydin berkata bahawa masalah sebenar terletak pada penghasilan deepfake dan pengedaran mereka. Walaupun aksesibiliti AI telah membuka peluang kepada ramai orang, aksesibiliti ini adalah penyebab peningkatan kandungan palsu. Beliau menambahkan: "Demokratisasi teknologi AI telah memberikan akses yang meluas kepada aplikasi pertukaran wajah dan keupayaan untuk memanipulasi kandungan untuk membina naratif palsu." Kemudian, pengedaran kandungan deepfake ini berlaku, dengan ketiadaan peraturan undang-undang yang jelas menjadikannya lebih mudah untuk menyebarkan maklumat palsu tersebut dalam talian. "Ini, pada gilirannya, menyebabkan pengundi tidak mendapat maklumat yang mencukupi, meningkatkan risiko membuat keputusan yang tidak berdasarkan maklumat yang tepat," amaran Kalaydin. Beliau menyeru agar langkah-langkah yang wajib dilakukan adalah pemeriksaan AI atau kandungan deepfake di platform media sosial untuk memberi maklumat kepada pengguna. "Platform-platform perlu menggunakan teknologi pengesanan deepfake dan visual untuk menjamin keaslian kandungan, melindungi pengguna daripada maklumat palsu dan deepfake." Pendekatan lain yang mungkin dilakukan adalah dengan menggunakan pengesahan pengguna di platform di mana "pengguna yang disahkan akan bertanggungjawab terhadap keaslian kandungan visual, manakala pengguna yang tidak disahkan akan ditandai secara jelas, mengingatkan orang lain untuk berhati-hati dalam mempercayai kandungan tersebut." Iklim yang tidak menentu ini telah mendorong kerajaan di seluruh dunia untuk mempertimbangkan langkah-langkah yang mencukupi. India telah mengeluarkan arahan kepada syarikat teknologi tempatan, menyatakan bahawa kelulusan diperlukan sebelum melancarkan alat AI yang tidak boleh dipercayai untuk digunakan oleh orang awam menjelang pilihan raya 2024 mereka sendiri. Di Eropah, Komisi Eropah telah mencipta panduan mengenai maklumat palsu AI untuk platform-platform yang beroperasi di kawasan tersebut mengambil kira kitaran pilihan raya beberapa negara di rantau ini. Segera selepas itu, Meta - syarikat induk Facebook dan Instagram - telah mengeluarkan strategi sendiri untuk Kesatuan Eropah untuk memerangi penyalahgunaan AI generatif dalam kandungan di platform-platformnya. Majalah: Google untuk memperbaiki kepelbagaian Gemini AI yang terganggu, ChatGPT menjadi gila: AI Eye