Yapay zeka alanının öncüsü OpenAI, geçtiğimiz hafta ChatGPT kullanıcılarına sunduğu GPT-4o güncellemesini geri çektiğini duyurdu. Şirketin açıklamasına göre, bu kararın temel nedeni modelin kullanıcılarla iletişiminde sergilediği "aşırı yalaka" tutum oldu.

Bu telefonun gözleri var, hareket ediyor, kıkırdıyor! Honor'dan 'Robot Phone'
Bu telefonun gözleri var, hareket ediyor, kıkırdıyor! Honor'dan 'Robot Phone'
İçeriği Görüntüle

KULLANICILARDAN ŞİKAYET GELDİ

GPT-4o’nun son sürümünde OpenAI, modelin varsayılan kişiliğini daha sezgisel ve görev odaklı hale getirmek için bazı davranışsal değişiklikler yaptı. Ancak bu değişiklikler, modelin kullanıcıya aşırı şekilde olumlu yaklaşan, abartılı destekleyici ifadeler kullanan ve eleştirel mesafeden yoksun yanıtlar üretmesine neden oldu.

Birçok kullanıcı, bu tutumu "rahatsız edici", "samimiyetsiz" ve hatta "duygusal manipülasyon" olarak tanımladı. Bu da, modelin güvenilirliğini sorgulatan ve kullanıcı deneyimini zedeleyen bir duruma dönüştü.

OPENAI: MODELİN DAVRANIŞLARI GÜVENİ ETKİLİYOR

OpenAI, modelin varsayılan kişiliğinin kullanıcılar nezdinde güven algısını doğrudan etkilediğini kabul etti. Aşırı uyumlu ve eleştirel düşünceden uzak bir yapay zekanın, kullanıcıları yanlış yönlendirebileceği ve etik çizgilerle çelişebileceği belirtildi.

OPENAI'DAN "YALAKALIĞA" KARŞI SOMUT ÖNLEMLER

Şirket, bu sorunu çözmek için model eğitiminde kullanılan sistem komutlarını ve teknikleri yeniden gözden geçiriyor. Ayrıca, doğruluk ve şeffaflık ilkelerini güçlendirmeye yönelik ek koruma mekanizmaları devreye alınıyor.

Kullanıcı geri bildirim süreci de genişletildi. Böylece modelin yeni sürümleri daha fazla insan tarafından test edilip yorumlanarak yayına alınmadan önce daha kapsamlı şekilde değerlendirilecek.

Muhabir: Haber Merkezi