Pengembang kecerdasan buatan (AI) terkemuka, OpenAI, telah menjadi pusat keluhan privasi baru yang diluncurkan oleh kelompok advokasi perlindungan hak data di Austria.
Pada 29 April, Noyb membuka keluhan yang menyatakan bahwa OpenAI belum memperbaiki informasi palsu yang diberikan oleh chatbot generatif AI-nya, ChatGPT. Kelompok tersebut mengatakan tindakan atau ketidaktindakan ini dapat melanggar aturan privasi di Uni Eropa.
Menurut kelompok tersebut, penggugat dalam kasus ini, seorang tokoh publik yang tidak disebutkan namanya, meminta chatbot OpenAI untuk informasi tentang dirinya sendiri dan secara konsisten diberikan informasi yang salah.
OpenAI diduga menolak permintaan tokoh publik tersebut untuk memperbaiki atau menghapus data, dengan alasan hal tersebut tidak mungkin dilakukan. Mereka juga menolak untuk mengungkap informasi tentang data pelatihannya dan sumbernya.
Maartje de Graaf, seorang pengacara perlindungan data dari Noyb, mengomentari kasus ini dalam sebuah pernyataan:
"Jika suatu sistem tidak dapat menghasilkan hasil yang akurat dan transparan, maka sistem tersebut tidak dapat digunakan untuk menghasilkan data tentang individu. Teknologi harus mengikuti persyaratan hukum, bukan sebaliknya."
Noyb membawa keluhannya ke otoritas perlindungan data Austria, meminta agar mereka menyelidiki pemrosesan data OpenAI dan bagaimana mereka memastikan keakuratan data pribadi yang diproses oleh model bahasa besar mereka.
De Graaf mengatakan "jelas bahwa saat ini perusahaan tidak dapat membuat chatbot seperti ChatGPT mematuhi hukum UE dalam memproses data tentang individu."
Noyb, juga dikenal sebagai European Center for Digital Rights, beroperasi dari Wina, Austria, dengan tujuan meluncurkan "kasus pengadilan strategis dan inisiatif media" yang mendukung hukum Peraturan Perlindungan Data Umum Eropa.
Ini bukan kali pertama chatbot dipermasalahkan di Eropa oleh aktivis atau peneliti.
Pada Desember 2023, sebuah studi dari dua organisasi nirlaba Eropa mengungkapkan bahwa chatbot AI Microsoft Bing, yang diubah namanya menjadi Copilot, memberikan informasi yang menyesatkan atau tidak akurat tentang pemilihan lokal di Jerman dan Swiss.
Chatbot tersebut memberikan jawaban yang tidak akurat tentang informasi kandidat, jajak pendapat, skandal, dan pemungutan suara sambil salah mengutip sumbernya.
Kejadian lain, meskipun tidak secara khusus terjadi di UE, terjadi dengan chatbot AI Gemini milik Google, yang memberikan gambaran yang "sadar" dan tidak akurat dalam pembuat gambarannya. Google meminta maaf atas insiden tersebut dan mengatakan akan memperbarui modelnya.
Majalah: Cara mendapatkan prediksi kripto yang lebih baik dari ChatGPT, Humane AI pin slammed: AI Eye