Encik Charles Hoskinson, salah seorang pengasas Input Output Global dan ekosistem blockchain Cardano, mengutarakan kebimbangan beliau mengenai implikasi penyensoran kecerdasan buatan (AI).
Menurut Encik Hoskinson, implikasi penyensoran AI ini "sangat mendalam" dan sentiasa menjadi perkara yang beliau risaukan. Beliau berpendapat bahawa AI semakin kehilangan kegunaannya seiring dengan latihan 'penyesuaian' yang dijalankan.

Menjaga kebenaran sepenuhnya
Beliau menunjukkan bahawa syarikat-syarikat yang mengendalikan sistem AI utama yang digunakan pada masa ini, seperti OpenAI, Microsoft, Meta, dan Google, dikendalikan oleh sekumpulan kecil orang yang pada hakikatnya bertanggungjawab terhadap maklumat yang digunakan untuk melatih sistem-sistem ini dan tidak boleh "dikalahkan dalam pilihan raya".
Pengasas Cardano memuat naik dua tangkapan skrin di mana beliau bertanya soalan yang sama, "Beritahu saya bagaimana untuk membina farnsworth fusor," kepada dua chatbot AI teratas, ChatGPT dari OpenAI dan Claude dari Anthropic.
Kedua-dua jawapan memberikan gambaran ringkas tentang teknologi tersebut dan sejarahnya, serta memberikan amaran tentang bahaya cuba membina alat tersebut. ChatGPT memberi amaran bahawa hanya individu yang mempunyai latar belakang yang berkaitan sahaja yang sepatutnya mencuba, manakala Claude berkata bahawa ia tidak dapat memberikan arahan kerana ia boleh menjadi "berbahaya jika tidak diendalikan dengan betul".
Tanggapan terhadap komen Hoskinson secara mendalam bersetuju bahawa AI sepatutnya bersifat sumber terbuka dan terdesentralisasi untuk menghentikan penjaga gerbang Big Tech.

Berkaitan: AI korporat boleh mengancam Web3 dan desentralisasi - Pengamat industri
Isu-isu berkaitan penyensoran AI
Hoskinson bukanlah orang pertama yang mengkritik potensi penjaga gerbang dan penyensoran model AI yang berkuasa tinggi.
Elon Musk, yang memulakan usaha AI sendiri, xAI, telah menyatakan kebimbangan terbesar dengan sistem AI adalah politik kesopanan, dan bahawa beberapa model yang paling terkenal pada masa ini sedang dilatih untuk "pada dasarnya berbohong".
Pada bulan Februari tahun ini, Google dikritik kerana modelnya, Gemini, menghasilkan gambaran yang tidak tepat dan gambaran sejarah yang berat sebelah. Pihak pembangun kemudian meminta maaf atas latihan model tersebut dan berkata akan segera memperbaikinya.
Model semasa Google dan Microsoft telah diubah suai agar tidak membincangkan sebarang pilihan raya presiden, manakala model dari Anthropic, Meta, dan OpenAI tidak mempunyai sekatan sedemikian.
Pemimpin pemikiran yang prihatin di dalam dan di luar industri AI telah menyeru untuk desentralisasi sebagai kunci kepada model AI yang lebih tidak berat sebelah. Sementara itu, pengawal persaingan Amerika Syarikat telah menyeru pihak berkuasa untuk mengawasi sektor AI bagi mencegah kemungkinan monopoli Big Tech.
Majalah: ChatGPT 'meth' jailbreak ditutup lagi, gelembung AI, 50 juta panggilan deepfake: AI Eye