Satu-satunya cara untuk melawan penggunaan jahat kecerdasan buatan (AI) mungkin adalah dengan terus mengembangkan AI yang lebih kuat dan menyerahkannya kepada pemerintah.

Itulah kesimpulan yang dicapai oleh sebuah pasukan peneliti dalam kajian yang baru-baru ini diterbitkan yang berjudul "Kekuatan komputasi dan tata kelola kecerdasan buatan."

Para ilmuwan dari OpenAI, Cambridge, Oxford, dan beberapa universitas dan institut lainnya melakukan penelitian ini sebagai cara untuk menyelidiki tantangan saat ini dan potensial di masa depan yang terkait dengan pengaturan penggunaan dan pengembangan AI.

Pusat

Argumen utama dalam makalah ini berkisar pada gagasan bahwa satu-satunya cara untuk mengendalikan siapa yang memiliki akses ke sistem AI paling kuat di masa depan adalah dengan mengendalikan akses ke perangkat keras yang diperlukan untuk melatih dan menjalankan model.

Sebagaimana dikatakan oleh para peneliti:

"Lebih tepatnya, pembuat kebijakan dapat menggunakan komputasi untuk memfasilitasi keterlihatan regulasi AI, mengalokasikan sumber daya untuk mempromosikan hasil yang menguntungkan, dan memberlakukan pembatasan terhadap pengembangan dan penggunaan AI yang tidak bertanggung jawab atau jahat."

Dalam konteks ini, "komputasi" merujuk pada perangkat keras dasar yang diperlukan untuk mengembangkan AI seperti GPU dan CPU.

Pada dasarnya, para peneliti menyarankan bahwa cara terbaik untuk mencegah orang menggunakan AI untuk menyebabkan kerusakan adalah dengan memutuskan mereka dari sumbernya. Ini menunjukkan bahwa pemerintah perlu mengembangkan sistem untuk memantau pengembangan, penjualan, dan operasi perangkat keras apa pun yang dianggap perlu untuk pengembangan AI canggih.

Tata urus tadbir kecerdasan buatan

Dalam beberapa hal, pemerintah di seluruh dunia sudah menerapkan "urus tadbir komputasi." Misalnya, Amerika Syarikat membatasi penjualan model GPU tertentu yang biasanya digunakan untuk melatih sistem AI kepada negara-negara seperti China.

Terkait: Pejabat AS memperluas pembatasan ekspor pada chip AI Nvidia ke 'beberapa negara Timur Tengah'

Namun, menurut penelitian ini, membatasi kemampuan pelaku jahat untuk melakukan kerusakan dengan AI akan memerlukan produsen untuk memasukkan "kill switch" ke dalam perangkat keras. Hal ini dapat memberikan pemerintah kemampuan untuk melakukan upaya "penegakan jarak jauh" seperti menutup pusat pelatihan AI ilegal.

Namun, seperti yang dicatat oleh para peneliti, "pendekatan yang naif atau tidak terarah dengan tata urus tadbir komputasi membawa risiko signifikan dalam hal privasi, kesan ekonomi, dan sentralisasi kekuasaan."

Memonitor penggunaan perangkat keras di Amerika Serikat, misalnya, dapat melanggar panduan terbaru dari Gedung Putih tentang pengembangan "blueprint untuk hak-hak AI" yang menyatakan bahwa warga memiliki hak untuk melindungi data mereka.

"Kill switch" boleh menjadi DOA

Selain kekhawatiran tersebut, para peneliti juga menunjukkan bahawa kemajuan terbaru dalam pelatihan yang "efisien dalam komunikasi" dapat mengarah pada penggunaan komputasi terdesentralisasi untuk melatih, membangun, dan menjalankan model.

Hal ini dapat membuat pemerintah semakin sulit untuk menemukan, memantau, dan menutup perangkat keras yang terkait dengan upaya pelatihan ilegal.

Menurut para peneliti, hal ini dapat membuat pemerintah tidak memiliki pilihan selain mengambil sikap perlombaan senjata melawan penggunaan AI yang melanggar hukum. "Masyarakat harus menggunakan komputasi yang lebih kuat dan dapat diatur dengan tepat dan bijaksana untuk mengembangkan pertahanan terhadap risiko-risiko baru yang ditimbulkan oleh komputasi yang tidak dapat diatur."