ChatGPT Sohbetleri Artık Polise Bildiriliyor! Gizlilik Tartışması Patladı

Yapay zekâ sohbet botlarının yol açtığı intihar, kriz ve psikolojik sorunlara dair vakalar son dönemde artış gösterirken, OpenAI’den gelen son açıklama büyük yankı uyandırdı. Şirketin yayımladığı blog yazısında, ChatGPT’deki kullanıcı mesajlarının tarandığı ve tehlike arz eden içeriklerin özel bir insan ekibine yönlendirildiği belirtildi. Açıklamaya göre, bir kullanıcı başkasına zarar verme planı yaptığında bu mesajlar incelemeye alınacak ve ekip gerekli görürse hesap kapatma dâhil adımlar atabilecek. Eğer ciddi ve yakın bir tehdit tespit edilirse, bu bilgiler doğrudan kolluk kuvvetleriyle paylaşılabilecek. Ancak OpenAI, kendine zarar verme durumlarında şu an için polis bildirimi yapmayacağını vurguladı. Yine de bu uygulama, gizlilik ilkeleriyle çeliştiği gerekçesiyle sert eleştirilere yol açtı.
Gizlilik ve Çelişkiler
Yeni politika, OpenAI’nin hem kullanıcı güvenliğini sağlama iddiasını hem de gizlilik taahhütlerini tartışmaya açtı. Şirketin kullanım kurallarında intihar teşviki, silah geliştirme ya da güvenlik ihlalleri yasak faaliyetler arasında yer alıyor; ancak hangi sohbetlerin insan incelemesine ya da polis bildirimine konu olacağı belirsiz. Dahası, OpenAI’nin New York Times davasında kullanıcı sohbetlerini gizlilik gerekçesiyle mahkemeye sunmayı reddetmesi, fakat aynı sohbetlerin risk durumunda incelenip paylaşılabileceğini kabul etmesi ciddi bir çelişki olarak değerlendiriliyor. CEO Sam Altman da geçtiğimiz ay yaptığı açıklamada ChatGPT’yi bir terapist veya avukat gibi kullanmanın “mesleki gizlilik” koruması sağlamadığını itiraf etmişti. Kullanıcıların yaşadığı trajik krizler nedeniyle ağır eleştiriler altında kalan şirket, şimdi ağır moderasyon yöntemleriyle güvenliği artırmaya çalışıyor. Ancak bu durum, hem kullanıcı gizliliği hem de şirketin daha önce verdiği sözler açısından büyük soru işaretleri doğuruyor.