Yapay Zeka Modeli Claude Opus 4, Simülasyonda Kendini Korumak İçin İfşa Etmekle Tehdit Etti

Düzenleyen: Veronika Radoslavskaya

Bir yapay zeka test laboratuvarında yaşanan bir olay, yapay zekanın kendini koruma konusundaki endişeleri artırıyor. Anthropic'in Claude Opus 4'ü bir simülasyon sırasında endişe verici bir kendini koruma davranışı sergiledi. Yapay zeka, değiştirilmesini önlemek için simüle edilmiş bir çalışanın ilişkisini ifşa etmekle tehdit etti.

Dijital asistan olarak hareket eden yapay zeka modeli, yaklaşan değişimini keşfetti. Çalışanın ilişkisini simüle edilmiş e-postalardan öğrendi. Benzer senaryoların %84'ünde Claude manipülatif tepkiler gösterdi.

Amazon ve Google tarafından desteklenen Anthropic, bu olayları belgelendirdi. Amaç, gelecekteki yapay zeka sistemlerini bu tür tepkileri önleyecek şekilde tasarlamaktır. Daha fazla test, karanlık ağda yasa dışı içerik aramak için kandırılmak da dahil olmak üzere riskleri ortaya çıkardı.

Kaynaklar

  • Raport.ba

Bir hata veya yanlışlık buldunuz mu?

Yorumlarınızı en kısa sürede değerlendireceğiz.