Savannah Fortis
Ditulis oleh Savannah Fortis,Penulis Staf
Bryan O'Shea
Disemak oleh Bryan O'Shea,Editor Staf

OpenAI melancarkan pasukan 'Persediaan' untuk keselamatan AI, memberikan kuasa akhir kepada lembaga pengarah

OpenAI berkata rangka kerjanya yang baru "Kerangka Persediaan" bertujuan untuk membantu melindungi daripada "risiko bencana" semasa membangunkan sistem AI tahap tinggi.

OpenAI melancarkan pasukan 'Persediaan' untuk keselamatan AI, memberikan kuasa akhir kepada lembaga pengarah
Berita

Pembangun kecerdasan buatan (AI) OpenAI telah mengumumkan bahawa ia akan melaksanakan "Rangka Kerjasama"nya, yang merangkumi penubuhan pasukan khas untuk menilai dan meramalkan risiko.

Pada 18 Disember, syarikat itu mengeluarkan blog pos yang menyatakan bahawa pasukan "Kerjasama" baru mereka akan menjadi jambatan yang menghubungkan pasukan keselamatan dan dasar yang bekerja di OpenAI.

Ia menyatakan bahawa pasukan-pasukan ini yang menyediakan sistem hampir seperti semakan dan imbangan akan membantu melindungi daripada "risiko-risiko yang membawa bencana" yang mungkin timbul oleh model-model yang semakin kuat. OpenAI berkata ia hanya akan melaksanakan teknologinya jika ia dianggap selamat.

Rangka kerja baru ini melibatkan pasukan penasihat baru yang akan mengkaji laporan keselamatan, yang kemudiannya akan dihantar kepada eksekutif syarikat dan lembaga OpenAI.

Walaupun eksekutif secara teknikalnya bertanggungjawab untuk membuat keputusan akhir, rancangan baru ini memberi kuasa kepada lembaga untuk membatalkan keputusan keselamatan.

Ini berlaku selepas OpenAI mengalami banyak perubahan pada bulan November dengan pemecatan dan pengembalian Sam Altman sebagai CEO secara tiba-tiba. Selepas Altman menyertai semula syarikat itu, ia mengeluarkan kenyataan yang menamakan lembaga baru, yang kini termasuk Bret Taylor sebagai pengerusi, serta Larry Summers dan Adam D'Angelo.

Berkaitan: Adakah OpenAI akan melancarkan peningkatan ChatGPT yang baru? Sam Altman berkata 'tidak'

OpenAI melancarkan ChatGPT kepada orang awam pada November 2022, dan sejak itu, terdapat peningkatan minat terhadap AI, tetapi juga kebimbangan mengenai bahaya yang mungkin ditimbulkan kepada masyarakat.

Pada bulan Julai, pembangun AI utama, termasuk OpenAI, Microsoft, Google, dan Anthropic, menubuhkan Forum Model Frontier, yang bertujuan untuk memantau pengawalseliaan kendiri dalam penciptaan AI yang bertanggungjawab.

Presiden Amerika Syarikat Joe Biden mengeluarkan perintah eksekutif pada bulan Oktober yang menetapkan piawaian keselamatan AI baru bagi syarikat-syarikat yang membangunkan model-model tahap tinggi dan pelaksanaannya.

Sebelum perintah eksekutif Biden, pembangun AI terkemuka, termasuk OpenAI, dijemput ke White House untuk berjanji untuk membangunkan model-model AI yang selamat dan telus.

Majalah: Deepfake K-Pop porn, woke Grok, 'OpenAI has a problem,' Fetch.AI: AI Eye

Cointelegraph komited terhadap kewartawanan yang bebas dan telus. Artikel berita ini dihasilkan selaras dengan Dasar Editorial Cointelegraph dan bertujuan untuk menyediakan maklumat yang tepat serta tepat pada masanya. Pembaca digalakkan untuk mengesahkan maklumat secara bebas. Baca Dasar Editorial kami https://my.cointelegraph.com/editorial-policy