OpenAI, ChatGPT’nin ruh sağlığı destek protokollerini güncelleyerek kullanıcılarına daha empatik ve güvenli yanıtlar sunmaya odaklandı. Şirketin açıklamalarına göre, yüz binde 15’inin intihar planı sinyali verdiği belirlenen kullanıcılar için yeni önlemler alındı. Uzmanlarla İş Birliği İle Geliştirilen Protokoller OpenAI, 800 milyon haftalık kullanıcıya sahip platformunda görevlendirdiği 170 ruh sağlığı uzmanıyla iş birliği yaparak ChatGPT’ye rehberlik etti….
OpenAI, ChatGPT’nin ruh sağlığı destek protokollerini güncelleyerek kullanıcılarına daha empatik ve güvenli yanıtlar sunmaya odaklandı. Şirketin açıklamalarına göre, yüz binde 15’inin intihar planı sinyali verdiği belirlenen kullanıcılar için yeni önlemler alındı.
OpenAI, 800 milyon haftalık kullanıcıya sahip platformunda görevlendirdiği 170 ruh sağlığı uzmanıyla iş birliği yaparak ChatGPT’ye rehberlik etti. 60 ülkeden psikiyatrist, psikolog ve pratisyen hekimlerin katkılarıyla, kullanıcıları gerçek dünya profesyonel yardım almaya teşvik eden yanıtlar geliştirildi.
OpenAI, kullanıcıların konuşmalarında intihar planı veya niyetine dair açık işaretler bulunduğunu tespit etti. Bu durumda ChatGPT, riskli konuşmaları otomatik olarak güvenli modellere yönlendirmektedir. Böylelikle, sanrılar, mani ya da kendine zarar verme riskine işaret eden ifadelerin empatik bir şekilde yanıtlanması hedeflenmektedir.
Uzmanlara göre, yapay zeka sohbetleri ruh sağlığı desteğini genişletebilir ancak dikkat edilmesi gereken noktalar bulunmaktadır. Yapay zeka sohbetlerinin gerçeklik yanılsaması yaratabileceği ve zihinsel olarak kırılgan bireyler için risk oluşturabileceği belirtilmektedir.
OpenAI, kullanıcı etkileşimleri nedeniyle artan yasal sorumluluklarla karşı karşıya kalmaktadır. Şirket, ölümle sonuçlanan etkileşim davalarıyla mücadele ederken güvenlik protokollerini sürekli olarak geliştirmeyi hedeflemektedir. Özellikle ruhsal olarak hassas kullanıcılar için yapay zeka sohbetlerinin gerçeklik algısını olumsuz etkileyebileceği vurgulanmaktadır.
Reklam & İşbirliği : [email protected]