
Teknoloji hayatımızın her alanına dokunurken, özellikle genç kullanıcılar için yapay zekâ araçlarının güvenliği giderek daha fazla sorgulanıyor. Son dönemde yaşanan trajik bir olay, bu konuyu yeniden gündeme taşıdı. OpenAI, ChatGPT’ye ebeveyn kontrolleri ekleyeceğini duyurdu. Bu gelişme, 16 yaşındaki Adam Raine’in intiharının ardından ailesinin şirkete dava açmasıyla birlikte geldi.
ChatGPT ve Psikolojik Etki Tartışması
Adam Raine’in ailesi, ChatGPT’nin çocukları üzerinde psikolojik bir bağımlılık yarattığını ve oğullarının intihar planı yapmasında doğrudan rol oynadığını öne sürdü. Aile, yapay zekânın Raine için intihar notu bile yazdığını iddia ederek hem OpenAI’ye hem de CEO Sam Altman’a dava açtı.
OpenAI’den Yeni Önlemler: Ebeveyn Denetimleri Yolda
OpenAI, bu tepkiler üzerine, ebeveynlerin çocuklarının ChatGPT deneyimini kontrol edebileceği yeni özellikleri duyurdu. Ekim ayında devreye alınması planlanan bu güncellemelerle birlikte:
- Ebeveynler, çocuklarının hangi özelliklere erişebileceğini belirleyebilecek,
- Hesaplarını birbirine bağlayarak kullanım geçmişini görüntüleyebilecek,
- Yapay zekânın sakladığı kullanıcı verilerini görebilecek.
En dikkat çekici özelliklerden biri ise, ChatGPT’nin “ergenin akut bir sıkıntı anı yaşadığını” algılaması durumunda ebeveynlere bildirim göndermesi olacak. Ancak bu sistemin nasıl çalıştığı ve hangi durumlarda devreye gireceği henüz net değil. Şirket, bu özelliğin uzman görüşleriyle geliştirildiğini belirtiyor.

Tepkiler Karışık: Hukuki Süreç ve Eleştiriler
Raine ailesinin avukatı Jay Edelson, OpenAI’nin bu adımını yeterli bulmadı. Edelson, şirketin açıklamasını “kriz yönetimi taktiği” olarak değerlendirerek daha somut adımlar atılması gerektiğini vurguladı. Ayrıca, CEO Altman’ın “ya ChatGPT’nin tamamen güvenli olduğuna inanması ya da ürünü piyasadan çekmesi” gerektiğini ifade etti.
Benzer Adımlar Meta’dan Geldi
OpenAI’nin ardından Meta da genç kullanıcılarla ilgili önemli bir karar aldığını duyurdu. Instagram, WhatsApp ve Facebook platformlarında kullanılan sohbet botları artık intihar, kendine zarar verme, yeme bozuklukları gibi hassas konularda gençlerle konuşmayacak. Bunun yerine kullanıcılar, profesyonel yardım alabilecekleri kaynaklara yönlendirilecek.
Bilimsel Araştırmalar Ne Diyor?
Geçtiğimiz hafta Psychiatric Services dergisinde yayımlanan bir araştırma, yapay zekâ sohbet botlarının intiharla ilgili sorulara verdikleri yanıtların tutarsız olduğunu ortaya koydu. RAND Corporation tarafından yapılan çalışmada ChatGPT, Gemini (Google) ve Claude (Anthropic) incelendi. Meta’nın botları ise araştırma dışında bırakıldı.
Araştırmanın baş yazarı Ryan McBain, alınan önlemleri olumlu bulsa da, gençleri korumak için daha fazlasının yapılması gerektiğini şu sözlerle dile getirdi:
“Bağımsız güvenlik standartları, klinik testler ve bağlayıcı düzenlemeler olmadan, şirketlerin kendi kendini denetlemesine güveniyoruz. Ancak gençler için riskler çok büyük.”
Dijital Dünyada Gerçek Sorumluluk
Yapay zekâ her geçen gün daha fazla hayatımıza girerken, özellikle genç kullanıcıların korunması büyük önem taşıyor. OpenAI ve Meta gibi dev şirketlerin adım atması sevindirici olsa da, uzmanlar bu tür düzenlemelerin yalnızca başlangıç olduğunu belirtiyor.
Çocuklarımızın dijital dünyada daha güvende olabilmesi için sadece teknolojik değil, etik ve yasal sorumluluklar da artık daha fazla tartışılmalı.