Yapay zeka insan gibi yanılabilir mi?
Yapay zeka, insanlardan daha hızlı ve doğru kararlar alması beklenirken, son araştırmalar bir soruyu gündeme getiriyor: ChatGPT neden insan gibi yanılabiliyor? Yapay zeka, aşırı güven ve kumarbaz yanılgısı gibi bilişsel hataları nasıl yapabiliyor?
Yapay zeka, genellikle insanlardan daha hızlı ve daha doğru kararlar alması beklenen bir teknoloji olarak görülse de, son yapılan araştırmalar, ChatGPT’nin de insan gibi yanılabileceğini ortaya koydu. OpenAI tarafından geliştirilen ChatGPT, zeka ve yetenek açısından ileri bir model olmasına rağmen, karar alma süreçlerinde bazı insan hatalarını tekrarlıyor. Özellikle yargı gerektiren durumlarda, önyargılar ve hatalı kararlar dikkat çekiyor.
İNSAN GİBİ YANILGILAR: AŞIRI GÜVEN VE KUMARBAZ YANILGISI
INFORMS dergisinde yayımlanan bir araştırma, ChatGPT’nin insanlara benzer bilişsel hatalar yaptığını gözler önüne serdi. Yapay zeka, test edilen 18 farklı önyargı türünden yarısında, insanların sıkça düştüğü bilişsel tuzaklara düşerek aşırı güven, kumarbaz yanılgısı ve belirsizlikten kaçınma gibi hatalar sergiledi. Matematiksel ve mantıksal problemler konusunda kusursuz bir performans sergileyen ChatGPT, öznel yargı gerektiren durumlarda ise başarısız oldu. Örneğin, riskli ama kazançlı seçenekler yerine daha temkinli kararlar almayı tercih etti ve kendi doğruluğunu abartarak yanılgıya düştü.
GPT-4 MODELİNDE DAHA BELİRGİN ÖNYARGILAR
Yapay zekanın yeni nesil modeli GPT-4, analitik açıdan daha gelişmiş olsa da, yargı temelli görevlerde önyargıları daha belirgin hale getirdi. Yapay zeka, insanların kullandığı zihinsel kestirmeleri ve önyargıları, öğrenme süreci boyunca kendi modeline entegre etmiş gibi görünüyor. Yang Chen, Western Üniversitesi’nden, "Yapay zeka, insan benzeri düşünme süreçlerini taklit ediyor" diyerek bu durumu açıklıyor. Anton Ovchinnikov, Queen’s Üniversitesi’nden, "Yapay zeka net cevaplar gerektiren sorularda başarılı, ancak karmaşık yargı gerektiren durumlarda insan gibi yanılabiliyor" diyor.
YAPAY ZEKA VE ETİK: DENETİM GEREKİYOR
Bu bulgular, yapay zekanın güvenilirliğini sorgulatan bir başka önemli noktaya işaret ediyor. Yapay zeka, tarafsız ve güvenilir kararlar alma konusunda hala insanlardan farklı olarak önyargılarla hareket edebiliyor. İş dünyasında işe alım, kredi onayı gibi kritik kararlarda kullanılan yapay zekanın önyargıları, büyük bir güvenlik riski oluşturuyor. Uzmanlar, yapay zekanın bir çalışan gibi denetlenmesi ve etik kurallara göre yönlendirilmesi gerektiğini vurguluyor.
Meena Andiappan, McMaster Üniversitesi’nden, “Hatalı düşünceleri otomatikleştirmek yerine, bu hataları iyileştirmeliyiz. Yapay zeka geliştirilirken, insan hatalarını kopyalamak yerine daha faydalı bir araç olmalıdır” diyor. Yapay zekanın gelişen etkisiyle birlikte, düzenli denetimler ve model iyileştirmeleri de önem kazanıyor.
GELECEKTE YAPAY ZEKA DÜZENLEMELERİ
Bu araştırmalar, yapay zeka üzerinde daha fazla düzenleme yapılması gerektiğini ve geliştirilmiş yapay zekaların insanlar gibi yanılabileceğini gösteriyor. Hükümetler ve işletmeler için bir uyarı niteliği taşıyan bu bulgular, yapay zekanın denetlenmesinin önemini bir kez daha gözler önüne seriyor.
Sonuç olarak, ChatGPT ve diğer yapay zeka modelleri, her ne kadar matematiksel ve mantıksal yeteneklerde başarılı olsa da, yargı temelli karar alma süreçlerinde hala insan
benzeri hatalar yapabiliyor. Yapay zeka sistemlerinin insan kusurlarını yansıtması, gelecekte daha dikkatli denetimler ve etik kuralların oluşturulmasını gerektiriyor.
Kaynak: Science Alert