OpenAI’nin ChatGPT’si için Kanada’dan Gizlilik İhlali Raporu
Yapay zekâ teknolojilerindeki hızlı ilerleme, kişisel verilerin korunması konusundaki endişeleri de artırdı. Kanada’da yürütülen ortak soruşturmada, ChatGPT’nin geliştirilme sürecinde ülke gizlilik yasalarına uyulmadığına dair bulgular ortaya kondu.
Denetim raporları, OpenAI’nin ChatGPT üzerinde çalışırken yeterli güvenlik önlemi almadan geniş çapta kişisel veri topladığını ve bu veriler arasında sağlık bilgileri, siyasi görüşler ve çocuklara ilişkin hassas veriler gibi içeriklerin bulunabileceğini belirtti.
Toplanan Veriler ve Güvenlik Eksiklikleri
Raporda, OpenAI’nin hazırlık aşamasında izinsiz veri toplama ve işlemeye ilişkin uygulamalara yer verildi. Soruşturma bulgularına göre, toplanan bilgiler üzerinde uygulanması gereken teknik ve yönetsel önlemler ya eksikti ya da yetersizdi; bu da kişisel verilerin korunmasında ciddi boşluklar oluşturdu.
Yetkililerin Değerlendirmesi
Federal Komiser Philippe Dufresne, OpenAI’nin bilinen gizlilik risklerini tam olarak gidermeden ürünü kullanıma sunduğunu ifade etti. Dufresne, bunun Kanadalıları olası veri ihlalleri ve bilgilere dayalı ayrımcılık gibi zararlarla karşı karşıya bıraktığını belirtti.
Soruşturmanın Kapsamı
Kanada’daki gizlilik denetleyicileri, 2023 yılında gelen şikâyetler üzerine OpenAI’nin kişisel verileri izinsiz ve yasa dışı biçimde topladığı, kullandığı ve ifşa ettiği iddialarını araştırmaya başladı. Rapor, bu iddiaların bazılarıyla ilgili uyumsuzluklara işaret etti ve şirketten açıklama talep edildiğini bildirdi.
Sonuç olarak, rapor OpenAI’nin Kanada veri koruma mevzuatına ilişkin sorumluluklarını yerine getirme konusunda eksiklikler gösteriyor ve bu durumun giderilmesi için izlenecek düzenleyici adımların önemini vurguluyor.
