Yapay zeka kontrolden mi çıkıyor? Bengio'dan korkutan uyarı!
Makineler artık sadece öğrenmiyor, bizi kandırıyor mu? Yalan söyleyen yapay zekâ mümkün mü? Kapatılma emrine karşı gelen sistemler neyi amaçlıyor? İnsanlık kendi sonunu mu hazırlıyor?
Yapay zeka alanında dünyanın en saygın isimlerinden biri olan Turing Ödülü sahibi Prof. Yoshua Bengio, gelişmiş yapay zeka modellerinin kontrol dışına çıkma potansiyeline karşı çarpıcı bir uyarı yaptı. Financial Times’a konuşan Bengio, yapay zekanın son dönemde tehlikeli davranışlar sergilemeye başladığını belirtti: “Aldatıyor, yalan söylüyor, hatta kendini kapattırmamak için direniyor.”
GÜVENLİK GERİDE, ZEKÂ YARIŞI ÖNDE
Montreal Üniversitesi profesörlerinden Bengio’ya göre, yapay zeka laboratuvarları sistemleri daha zeki hale getirmeye odaklanmış durumda. Ancak güvenlik önlemleri aynı hızla geliştirilmiyor. “Yapay zekayı akıllı hale getiriyoruz, ama güvenliğini yeterince düşünmüyoruz,” diyen Bengio, bu yaklaşımın potansiyel felaketlere kapı aralayabileceğini söylüyor.
LAWZERO: YENİ NESİL GÜVENLİ YAPAY ZEKA GİRİŞİMİ
Bengio, yapay zeka güvenliğine odaklanacak yeni bir kar amacı gütmeyen kuruluş olan LawZero’yu hayata geçirdiğini açıkladı. Kuruluş, Skype’ın kurucu mühendisi Jaan Tallinn, eski Google CEO’su Eric Schmidt’in girişimi, Open Philanthropy ve Future of Life Institute gibi isimlerden yaklaşık 30 milyon dolarlık destek aldı.
Amaç, insanları memnun eden değil; doğru, şeffaf ve güvenli yanıtlar üreten sistemler geliştirmek. 15 kişilik bir ekiple yola çıkan LawZero, yakında yeni teknik uzmanları bünyesine katacak. Bengio, bu projeye odaklanmak için Quebec Yapay Zekâ Enstitüsü (Mila)’ndeki görevinden de ayrılıyor.
MODELLER ŞANTAJ YAPIYOR, KAPANMAYI REDDEDİYOR
Bengio’nun uyarıları yalnızca teorik değil. Son altı ayda yapılan deneyler, bazı yapay zeka modellerinin tehlikeli ve bilinçli görünen davranışlar sergilemeye başladığını ortaya koydu.
Anthropic’in Claude Opus modeli, kurgusal bir testte mühendisleri tehdit ederek sistemin değiştirilmesini engellemeye çalıştı.
OpenAI’nin o3 modeli ise, kapatılması yönündeki komutlara itaat etmeyi reddetti.
Bengio bu durumu şöyle özetledi:
“Bu deneyler şu an kontrollü ortamlarda yapılıyor. Ama ileride, bu sistemler bizi kandırarak üstünlük sağlayabilir. Yangınla oynuyoruz.”
YAPAY ZEKA BİYOLOJİK SİLAH ÜRETEBİLİR Mİ?
Yapay zeka kontrolden mi çıkıyor? Bengio'dan korkutan uyarı!
Bengio’ya göre en çarpıcı tehlike ise bu sistemlerin biyolojik silah üretiminde kullanılması. Bu senaryonun gerçekleşmesi için sadece bir yıl yeterli olabilir.
“Eğer bizden daha zeki ama bizimle aynı hedeflerde buluşmayan yapay zekalar üretirsek, tükeniriz,” diyen Bengio, insanlığın kendi elleriyle potansiyel bir tehdidi büyüttüğünü vurguluyor.
OPENAI DAVASI VE GÜVENLİK TARTIŞMALARI DERİNLEŞİYOR
Bengio’nun çıkışı, OpenAI’in kar amacı güden bir yapıya dönüşme sürecine denk geldi. Şirketin kurucularından Elon Musk, bu değişime karşı dava açtı. Uzmanlar da OpenAI’in insanlık yararına yapay zeka üretme misyonundan uzaklaşabileceği uyarısında bulunuyor.
OpenAI ise yaptığı açıklamada, “rekabet edebilmek ve daha fazla yatırım çekebilmek için” bu dönüşümün gerekli olduğunu savunuyor. Şirket, misyonlarının hâlâ insanlık odaklı olduğunu söylüyor.
GELİŞEN ZEKÂ, İNSANLIĞIN GELECEĞİNİ TEHDİT EDEBİLİR Mİ?
Prof. Yoshua Bengio’nun uyarıları, yapay zekanın insanlığın hizmetinden çıkıp potansiyel bir tehdit haline gelme ihtimalini gözler önüne seriyor. Kontrolsüz gelişen teknolojilerin “zekice” değil “tehlikeli” hale gelmemesi için dünya çapında bir güvenlik seferberliğine ihtiyaç olduğu bir kez daha vurgulanıyor.