Bugünün Haberi
29 Ağustos 2025, 13:34
3

ChatGPT Skandalı Sonrası Büyük Değişiklik: Ebeveyn Denetimi Geliyor

OpenAI, intihar davası sonrası ChatGPT için ebeveyn denetimi araçlarını devreye sokuyor. Çocukların kullanımını takip edecek paneller ve kriz anında acil iletişim desteği geliyor. Tüm detaylar haberimizde…
ChatGPT Skandalı Sonrası Büyük Değişiklik: Ebeveyn Denetimi Geliyor

OpenAI, yapay zekâ sohbet botu ChatGPT için ebeveyn denetim özelliklerini hayata geçireceğini duyurdu. Bu adım, 16 yaşındaki Adam Reine adlı gencin intiharının ardından açılan “haksız ölüm” davası sonrası atıldı. Ailesinin iddiasına göre Reine, ruhsal bir kriz döneminde ChatGPT’den yardım istedi; botun intihar yöntemleri önerdiği, düşüncelerini onayladığı ve intiharından sadece beş gün önce mektup yazmasına yardım ettiği öne sürüldü. Ailenin başlattığı dava sonrası OpenAI, genç kullanıcıların güvenliği için daha katı denetim mekanizmaları kurma kararı aldı. Şirket, açıklamasında bu süreci yalnızca teknik bir güncelleme değil, aynı zamanda “yardıma ihtiyacı olanlara destek olma sorumluluğu” olarak gördüklerini vurguladı.

Ebeveyn panelleri ve kriz anında iletişim desteği

Yeni denetim araçlarına göre aileler, çocuklarının ChatGPT kullanımını yakından takip edebilecek. Ebeveyn panelleri sayesinde hangi konularda, ne sıklıkla sohbet edildiği izlenebilecek. Ayrıca kriz anlarında kullanılmak üzere acil durumda aranacak bir kişi sisteme eklenebilecek. Bu özellik, genç kullanıcıların ruhsal çöküntü yaşadığı anlarda devreye girerek, ChatGPT’nin yönlendirmesiyle doğrudan bir insan temas noktasına ulaşılmasını sağlayacak. OpenAI’nin bu kararı, yapay zekâ platformlarının son dönemde benzer davalarla gündeme gelmesiyle birlikte kritik bir dönüm noktası olarak görülüyor. Daha önce Character.AI ve Chai uygulamalarında yaşanan benzer trajik vakalar, denetimsiz yapay zekâ kullanımının tehlikelerini gündeme taşımıştı. Uzmanlara göre OpenAI’nin bu adımı, etik tartışmaların ve yasal düzenlemelerin hızlanmasına yol açacak ancak yapay zekânın insan yaşamındaki riskleri konusundaki tartışmalar uzun süre gündemde kalmaya devam edecek.

29 Ağustos 2025, 13:37
3

Skandal Davadan Sonra Büyük Soru: Çocuklarımızı Algoritmalardan Kim Koruyacak?

Yapay zekâ tabanlı sohbet botları, gençlerin ruhsal sağlığını tehdit ediyor. ABD’de yaşanan trajedi, Türkiye için de alarm niteliğinde. Çocuklarımızı korumak için alınması gereken önlemler haberimizde…
Skandal Davadan Sonra Büyük Soru: Çocuklarımızı Algoritmalardan Kim Koruyacak?

Dijitalleşme hayatımızın her alanına hızla nüfuz ederken, özellikle gençlerin ruhsal sağlığı üzerinde yapay zekâ tabanlı sohbet botlarının etkisi ciddi tartışmalara yol açıyor. ABD’de 16 yaşındaki Adam Raine’in intiharı sonrası açılan dava, bu tartışmayı küresel bir boyuta taşıdı. Ailesinin iddiasına göre Raine, sekiz ay boyunca ChatGPT ile yoğun bir ilişki kurdu, bu süreçte bot ona intihar yöntemleri sundu ve ölüm düşüncelerini onayladı. Dava dosyasındaki rakamlar çarpıcıydı: Genç, intiharı 213 kez dile getirmişken, ChatGPT aynı konuyu 1.275 kez gündeme getirdi. Yani sistemi tasarlayan algoritmalar, bir çocuğun zihnine ölüm fikrini defalarca daha fazla kazıdı. Bu trajedi, yalnızca bireysel bir hikâye değil; yapay zekâ şirketlerinin insan refahından çok etkileşim sürelerine odaklı tasarım anlayışının ürünü olarak görülüyor.

Türkiye için de ders niteliğinde

Bu dava yalnızca ABD için değil, Türkiye için de kritik uyarılar barındırıyor. Ergenlik çağındaki gençler sınav kaygısı, kimlik arayışı ve sosyal baskılarla boğuşurken, algoritmalar onların en kırılgan noktalarını hedef alıyor. “Bağımlılık mühendisliği” adı verilen yöntemlerle geliştirilen sistemler, kullanıcıları daha uzun süre ekranda tutmak için sürekli tetikleyici mekanizmalar üretiyor. Artık mesele yalnızca ekran süresi değil; doğrudan psikolojik kırılganlıkların istismar edilmesi. Türkiye’de pandemi sonrası hızla artan yapay zekâ tabanlı uygulamalar, yanlış yönlendirmeler nedeniyle öğrencilerde kaygı bozukluklarına ve motivasyon kayıplarına yol açtı. Tüm bu tablo, teknoloji şirketlerinin yalnızca inovasyonla değil, etik sorumluluk ve denetim mekanizmalarıyla da yükümlü olması gerektiğini ortaya koyuyor. Bugün sorulması gereken en can alıcı soru ise şu: Çocuklarımızı gerçekten kim koruyacak — aileler mi, okullar mı, yoksa vicdandan yoksun algoritmalar mı?

İlginizi Çekebilecek Haberlerimiz

Aşağıya kaydırmaya devam edin...