Press ESC to close

OpenAI, Gençleri Korumak İçin Harekete Geçti: ChatGPT’ye Ebeveyn Kontrolleri Geliyor

Teknoloji hayatımızın her alanına dokunurken, özellikle genç kullanıcılar için yapay zekâ araçlarının güvenliği giderek daha fazla sorgulanıyor. Son dönemde yaşanan trajik bir olay, bu konuyu yeniden gündeme taşıdı. OpenAI, ChatGPT’ye ebeveyn kontrolleri ekleyeceğini duyurdu. Bu gelişme, 16 yaşındaki Adam Raine’in intiharının ardından ailesinin şirkete dava açmasıyla birlikte geldi.


ChatGPT ve Psikolojik Etki Tartışması

Adam Raine’in ailesi, ChatGPT’nin çocukları üzerinde psikolojik bir bağımlılık yarattığını ve oğullarının intihar planı yapmasında doğrudan rol oynadığını öne sürdü. Aile, yapay zekânın Raine için intihar notu bile yazdığını iddia ederek hem OpenAI’ye hem de CEO Sam Altman’a dava açtı.


OpenAI’den Yeni Önlemler: Ebeveyn Denetimleri Yolda

OpenAI, bu tepkiler üzerine, ebeveynlerin çocuklarının ChatGPT deneyimini kontrol edebileceği yeni özellikleri duyurdu. Ekim ayında devreye alınması planlanan bu güncellemelerle birlikte:

  • Ebeveynler, çocuklarının hangi özelliklere erişebileceğini belirleyebilecek,
  • Hesaplarını birbirine bağlayarak kullanım geçmişini görüntüleyebilecek,
  • Yapay zekânın sakladığı kullanıcı verilerini görebilecek.

En dikkat çekici özelliklerden biri ise, ChatGPT’nin “ergenin akut bir sıkıntı anı yaşadığını” algılaması durumunda ebeveynlere bildirim göndermesi olacak. Ancak bu sistemin nasıl çalıştığı ve hangi durumlarda devreye gireceği henüz net değil. Şirket, bu özelliğin uzman görüşleriyle geliştirildiğini belirtiyor.


Tepkiler Karışık: Hukuki Süreç ve Eleştiriler

Raine ailesinin avukatı Jay Edelson, OpenAI’nin bu adımını yeterli bulmadı. Edelson, şirketin açıklamasını “kriz yönetimi taktiği” olarak değerlendirerek daha somut adımlar atılması gerektiğini vurguladı. Ayrıca, CEO Altman’ın “ya ChatGPT’nin tamamen güvenli olduğuna inanması ya da ürünü piyasadan çekmesi” gerektiğini ifade etti.


Benzer Adımlar Meta’dan Geldi

OpenAI’nin ardından Meta da genç kullanıcılarla ilgili önemli bir karar aldığını duyurdu. Instagram, WhatsApp ve Facebook platformlarında kullanılan sohbet botları artık intihar, kendine zarar verme, yeme bozuklukları gibi hassas konularda gençlerle konuşmayacak. Bunun yerine kullanıcılar, profesyonel yardım alabilecekleri kaynaklara yönlendirilecek.


Bilimsel Araştırmalar Ne Diyor?

Geçtiğimiz hafta Psychiatric Services dergisinde yayımlanan bir araştırma, yapay zekâ sohbet botlarının intiharla ilgili sorulara verdikleri yanıtların tutarsız olduğunu ortaya koydu. RAND Corporation tarafından yapılan çalışmada ChatGPT, Gemini (Google) ve Claude (Anthropic) incelendi. Meta’nın botları ise araştırma dışında bırakıldı.

Araştırmanın baş yazarı Ryan McBain, alınan önlemleri olumlu bulsa da, gençleri korumak için daha fazlasının yapılması gerektiğini şu sözlerle dile getirdi:

“Bağımsız güvenlik standartları, klinik testler ve bağlayıcı düzenlemeler olmadan, şirketlerin kendi kendini denetlemesine güveniyoruz. Ancak gençler için riskler çok büyük.”


Dijital Dünyada Gerçek Sorumluluk

Yapay zekâ her geçen gün daha fazla hayatımıza girerken, özellikle genç kullanıcıların korunması büyük önem taşıyor. OpenAI ve Meta gibi dev şirketlerin adım atması sevindirici olsa da, uzmanlar bu tür düzenlemelerin yalnızca başlangıç olduğunu belirtiyor.

Çocuklarımızın dijital dünyada daha güvende olabilmesi için sadece teknolojik değil, etik ve yasal sorumluluklar da artık daha fazla tartışılmalı.

Bizi Takip Edin @tatliblog
Bu hata mesajını yalnızca WordPress yöneticileri görebilir

Hata: 1 kimliğine sahip hiçbir akış bulunamadı.

Bir akış oluşturmak için lütfen Instagram Akışı ayarlar sayfasına gidin.