Yapılan bir araştırma, ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi yapay zeka asistanlarının 14 farklı dilde toplam 3 bin haber sorusuna verdiği yanıtları detaylı bir şekilde inceledi. Araştırma sonuçlarına göre, yanıtların %45’inde en az bir ciddi hata tespit edilirken, %81’inde ise çeşitli sorunlar ortaya çıktı.
Çalışma, yapay zeka asistanlarının özellikle haber kaynaklarını doğru bir şekilde atfetmede zorlandığını gösterdi. Yanıtların üçte birinde “eksik, yanıltıcı veya hatalı kaynak gösterimi” bulunduğu belirlendi. Google’ın Gemini asistanında bu oran %72’ye kadar çıkarken, diğer platformlarda %25’in altında kaldı.
Google, Gemini’nin kullanıcı geri bildirimlerine dayanarak sürekli olarak geliştirildiğini vurgularken, OpenAI ve Microsoft ise yapay zekanın uydurma bilgi üretme sorununu çözmek için çalışmalar yürüttüklerini aktardı. Perplexity ise “Derin Araştırma” modunun %93,9 doğruluk oranına sahip olduğunu iddia etti.
Araştırmaya katılan 22 kamu yayın kuruluşundan biri olan EBU Medya Direktörü Jean Philip De Tender, yapılan çalışmanın sonuçlarına dair önemli değerlendirmelerde bulundu. De Tender, güven erozyonunun demokrasiyi zayıflatabileceğine dikkat çekerek, yapay zeka şirketlerini daha şeffaf ve hesap verebilir olmaya çağırdı. EBU, haber kuruluşlarının hataları düzeltme süreçlerinin yapay zeka asistanları için de geçerli olması gerektiğini vurguladı.
Bu kapsamlı araştırma, yapay zeka asistanlarının haber yanıtlarındaki doğruluk ve kaynak gösterme sorunlarına ışık tutarak, sektördeki gelişim alanlarını belirlemede önemli bir rol oynuyor.
Reklam & İşbirliği : [email protected]