Institut Keselamatan AI United Kingdom (UK) akan meluaskan kehadirannya secara antarabangsa dengan lokasi baru di Amerika Syarikat.
Pada 20 Mei, Michelle Donelan, Setiausaha Teknologi UK, mengumumkan bahawa institut ini akan membuka pejabat luar negara pertamanya di San Francisco pada musim panas.
Pengumuman tersebut menyatakan bahawa pemilihan strategik pejabat di San Francisco akan membolehkan UK "menggabungkan bakat teknologi yang terdapat di Kawasan Teluk" serta berinteraksi dengan salah satu makmal kecerdasan buatan (AI) terbesar di dunia yang terletak antara London dan San Francisco.
Selain itu, langkah ini akan membantu UK "mengukuhkan" hubungan dengan pemain utama di Amerika Syarikat untuk mendorong keselamatan AI global "untuk kepentingan awam".
Cabang London Institut Keselamatan AI telah memiliki pasukan 30 orang yang sedang berkembang dan memperoleh lebih banyak kepakaran, terutamanya dalam penilaian risiko bagi model AI frontier.
Donelan berkata bahawa pengembangan ini mencerminkan kepimpinan dan visi UK dalam tindakan keselamatan AI:
"Ini adalah saat penting dalam kemampuan UK untuk mempelajari risiko dan potensi AI dari perspektif global, memperkuat kemitraan kami dengan Amerika Syarikat dan membuka jalan bagi negara-negara lain untuk memanfaatkan kepakaran kami saat kami terus memimpin dunia dalam keselamatan AI."
Ini mengikuti Puncak Keselamatan AI UK yang bersejarah, yang berlangsung di London pada November 2023. Puncak tersebut adalah yang pertama dalam jenisnya yang berfokus pada keselamatan AI secara global.
Berkaitan:Microsoft menghadapi denda berbilion dolar di EU atas Bing AI
Acara tersebut menampilkan pemimpin dari seluruh dunia, termasuk dari Amerika Syarikat dan China, dengan suara terkemuka dalam ruang AI, termasuk Presiden Microsoft Brad Smith, CEO OpenAI Sam Altman, CEO Google DeepMind Demis Hassabis, dan Elon Musk.
Dalam pengumuman terbaru ini, UK juga mengatakan bahwa mereka akan merilis sejumlah hasil terbaru dari pengujian keselamatan institut yang dilakukan pada lima model AI canggih yang tersedia untuk umum.
Mereka mengaburkan identitas model-model tersebut dan mengatakan hasilnya memberikan "gambaran" tentang kemampuan model-model tersebut daripada menetapkannya sebagai "aman" atau "tidak aman".
Temuan tersebut termasuk bahwa beberapa model dapat menyelesaikan tantangan keamanan siber, meskipun yang lain mengalami kesulitan dengan tantangan yang lebih canggih. Beberapa model ditemukan memiliki pengetahuan tingkat doktor dalam bidang kimia dan biologi.
Kesimpulannya, semua model yang diuji "sangat rentan" terhadap jailbreak dasar dan model-model yang diuji tidak dapat menyelesaikan tugas yang lebih "rumit dan memakan waktu" tanpa pengawasan manusia.
Ian Hogearth, ketua institut, mengatakan bahwa penilaian ini akan membantu memberikan kontribusi pada penilaian empiris kemampuan model.
"Keselamatan AI masih merupakan bidang yang sangat muda dan baru berkembang. Hasil ini hanya mewakili sebagian kecil dari pendekatan evaluasi yang AISI sedang mengembangkan."
Majalah:'Sic AIs on each other' untuk mencegah kiamat AI: David Brin, penulis fiksi ilmiah