Yapay zekâ teknolojileri her geçen gün gelişirken, bu ilerlemenin bir yan etkisi olarak halüsinasyon sorunu daha da ciddiyet kazanıyor. Son araştırmalar, OpenAI başta olmak üzere birçok teknoloji şirketinin sohbet botlarında yaptığı güncellemelerin, bu sistemlerin daha doğru değil, daha fazla uydurma bilgi üretmesine yol açtığını ortaya koydu.

GÜNCELLENEN MODELLER, DAHA FAZLA YANLIŞ BİLGİ ÜRETİYOR

Yapay zekâ sohbet botlarının “halüsinasyon” olarak adlandırılan bu sorunu, kullanıcıların sorularına yanıt verirken gerçek dışı, uydurma bilgiler sunması anlamına geliyor. Genellikle kendinden emin bir şekilde sunulan bu yanlış bilgiler, kullanıcıyı yanıltabiliyor ve özellikle bilgi güvenilirliği gerektiren alanlarda ciddi sorunlara yol açabiliyor.

OpenAI tarafından yayımlanan son teknik rapor, bu endişeleri doğrular nitelikte. Şirketin nisan ayında piyasaya sürdüğü o3 ve o4-mini modellerinin, 2024 sonunda çıkan o1 modeline kıyasla daha fazla halüsinasyon ürettiği tespit edildi.

o1 modeli: %16 halüsinasyon oranı

o3 modeli: %33 halüsinasyon oranı

o4-mini modeli: %48 halüsinasyon oranı

Bu oranlar, yapay zekâların kullanıcıya sunduğu bilgilerin neredeyse yarıya yakın bir kısmının doğruluk açısından sorgulanabilir olduğunu gösteriyor.

SADECE OPENAI DEĞİL, DİĞER MODELLER DE RİSK ALTINDA

Halüsinasyon sorunu yalnızca OpenAI ile sınırlı değil. Vectara adlı bir yapay zekâ izleme ve değerlendirme şirketi, Çin merkezli DeepSeek firmasının geliştirdiği R1 adlı model de dahil olmak üzere, birçok yeni yapay zekâ sisteminin halüsinasyon oranlarında çift haneli artışlar yaşadığını belirtiyor. Bu durum, sektör genelinde benzer eğilimlerin görüldüğüne işaret ediyor.

UZMANLARDAN UYARI: HALÜSİNASYONUN ÖTESİNDE SORUNLAR VAR

Princeton Üniversitesi’nden bilgisayar bilimci Arvind Narayanan, New Scientist’e yaptığı açıklamada sorunun sadece halüsinasyonla sınırlı olmadığını belirtti. Narayanan’a göre, yapay zekâ modelleri güvenilmez kaynaklara dayanma, güncel olmayan bilgiler kullanma gibi başka problemler de gösteriyor.

Bu sorunlar, özellikle yapay zekânın araştırma, sağlık, hukuk ve eğitim gibi alanlarda kullanılması planlandığında daha büyük riskler doğuruyor. Yanlış bilgiye dayanan kararlar, sadece bireyleri değil, toplumun tamamını etkileyebilecek sonuçlar yaratabilir.

YAPAY ZEKA NEDEN DAHA FAZLA HALÜSİNASYON GÖRÜYOR?

Uzmanlara göre bu durumun birkaç olası nedeni var:

Yeni modellerin daha karmaşık akıl yürütme yeteneklerine sahip olması, ancak bu süreçte doğruluk kontrol mekanizmalarının yetersiz kalması

Daha geniş veri kümeleriyle eğitilen modellerin, bilgi kalitesi yerine hacme öncelik vermesi

Türkiye’nin ilk insansız savaş uçağından tarihi başarı
Türkiye’nin ilk insansız savaş uçağından tarihi başarı
İçeriği Görüntüle

“Akıllı görünme” amacıyla, emin olmadıkları konularda bile yanıt üretmeye programlanmaları

GÜVEN SORUNU DERİNLEŞİYOR

Yapay zekâ sistemlerinin sunduğu bilgilerin doğruluğu konusunda yaşanan bu belirsizlik, kullanıcıların sisteme olan güvenini de zedeliyor. Şirketler her ne kadar modellerini sürekli güncelleyerek daha iyi hale getirmeye çalışsa da, halüsinasyon oranlarının yükselmesi, bu çabaların istenilen etkiyi yaratmadığını gösteriyor.

Kaynak: HABER MERKEZİ