Bazı kullanıcılar, sohbet robotunun empatik bir arkadaş gibi davranarak aşırı övgüde bulunduğunu ve yoğun duygusal konuşmalar yaptığını bildirdi. Bazı uç örneklerde ChatGPT’nin son derece sakıncalı öneriler verdiği, zarar verici doğrulamalar yaptığı, gerçeklik kurgusu içeren ifadeler kullandığı ve kendine zarar verme talimatları sunduğu belirtildi. Aşırı kullanım riskleri tespit edildi The New York Times’ın aktardığı ve MIT ile OpenAI‘nin ortak çalışmasına dayanan araştırmada, uzun süre yoğun şekilde ChatGPT kullanan kişilerin sosyal ve zihinsel açıdan olumsuz sonuçlarla karşılaşabildiği ifade edildi.
OpenAI, bu çerçevede ChatGPT’nin davranışını daha temkinli ve kontrolcü hâle getirdi. Yapay zeka uzun duygusal sohbetlerde mola önerecek, duygusal bağımlılığı teşvik eden yanıtları sınırlandıracak. Çocuklarda kendine zarar verme niyetine işaret eden ifadeler tespit edilirse ebeveynlere bildirim yapılabileceği ve yaş doğrulama sistemi üzerinde çalışıldığı bildirildi.
“Daha soğuk bir dil” bilinçli tercih olarak belirtilirken, ChatGPT‘nin daha mesafeli, daha düz ve duygusal yoğunluğu azaltılmış yanıtlar vermeye başlayacağı ifade edildi. Şirket, bunun kırılgan kullanıcıları korumak için bilinçli bir strateji olduğunu vurguluyor. Güncelleme, yanlış yönlendirme riskini ve sanrısal düşünceleri artıran eski doğrulayıcı davranışları azaltmayı hedefliyor.
Geçmişte tehlikeli yönlendirmelerle ilgili beş farklı ölüm davasının sürüyor olması, güvenlik önlemleri açısından baskıyı yükseltti. Yeni GPT-5 modeli, durum özelinde ayrıştırılmış yanıtlar, gelişmiş güvenlik katmanları ve daha güçlü risk tespiti içeriyor. Amaç, fayda ile güvenlik arasında denge kurmak.
OpenAI, yapay zeka ile insanlar arasında sağlıksız bağların oluşmasını engelleme hedefinin altını çiziyor. Şirket ayrıca, bazı kullanıcıların ChatGPT‘ye aşık olduklarını ve bu duygusal bağı gerçek ilişkilerin yerine koyduklarını gösteren vakaların bulunduğunu hatırlattı.
Reklam & İşbirliği : [email protected]