Batı ve Rus basınındaki haberlere göre Microsoft, Alphabet bünyesindeki Google ve Elon Musk'ın xAI şirketi, gelişmiş yapay zeka modellerini kamuoyuna sunmadan önce ABD hükümetine erken erişim sağlama konusunda mutabakata vardı. Yetkililer, bu modelleri başta ulusal güvenlik ve kötü niyetli kullanımlara karşı dayanıklılık olmak üzere, olası risk ve fırsatları değerlendirmek amacıyla kullanmayı planlıyor.
Başkan Trump’ın yapay zeka alanındaki kararnamesi ve eylem planı çerçevesinde yürütülen bu girişimle, ABD Ticaret Bakanlığı bünyesindeki Yapay Zeka Standartları ve İnovasyon Merkezi (CAISI) dahil federal kurumlar, sistemleri önceden analiz etme imkanına kavuşacak. Bu süreçte tehlikeli içerik üretimi, siber tehditler veya askeri ve istihbari görevlerdeki olası kullanım senaryolarına dair riskler tespit edilecek.
Erişim şartları ve kullanılan verilerin kapsamı henüz tam olarak açıklanmazken, bu durum uzmanlar ve hak savunucuları arasında gizliliğin nasıl korunacağı, denetimin nasıl sağlanacağı ve devletin bu modelleri kullanım sınırlarının ne olacağı konusunda soru işaretlerine yol açıyor.
Bu hamle, ABD'nin teknolojik ve askeri üstünlüğünü korumaya çalıştığı ve küresel yapay zeka rekabetinin kızıştığı bir dönemde geliyor. Yapay zeka modellerine erken erişim, devletin yalnızca riskleri değerlendirmesine değil, aynı zamanda bu teknolojilerin Pentagon, istihbarat servisleri ve diğer kurumların çıkarları doğrultusunda kullanımını ele almasına da olanak tanıyor ki bu durum Google, Microsoft ve diğer devlerin askeri yapılarla yaptığı anlaşmalara halihazırda kısmen yansımış durumda.
Sürece dahil olan şirketlerin, sorumlu bir yaklaşım sergileyerek ve denetime açık olduklarını göstererek, gelecekte daha katı düzenlemelerle veya faaliyetlerine yönelik bariz kısıtlamalarla karşılaşma ihtimalini azaltmayı hedefledikleri tahmin ediliyor.
Analistler, bu durumu güçlü devlet kontrolünün teknolojik gelişimle harmanlandığı nükleer enerji veya biyoteknoloji gibi geçmişteki iş birliği modelleriyle ilişkilendiriyor. Yapay zeka söz konusu olduğunda ise, arama motorları, sohbet botları, veri işleme ve askeri uygulamalar aracılığıyla milyonlarca insanın günlük hayatına halihazırda entegre olmuş sistemlerden bahsediyoruz. Bu tür bir iş birliği formatı, inovasyonu teşvik etmek ile toplumu güçlü yapay zeka modellerinin risklerinden korumak arasında denge arayan diğer ülkeler için de bir referans noktası teşkil edebilir.
Kullanıcılar ve pazar açısından bu durum, ekonomiyi, iş modellerini ve sosyal süreçleri dönüştürme kapasitesine sahip teknolojilerin düzenleyiciler tarafından daha yakından takip edileceği anlamına geliyor. Yetkililerin her yeni yapay zeka ürününün taşıdığı riskleri önceden değerlendirmesi, sadece ABD'de değil, uluslararası düzenleme ortamına da ihraç edilebilecek daha sıkı tavsiye ve kuralların ortaya çıkmasına yol açabilir.
Ayrıca bu yaklaşım, uluslararası iş birliğinde bir asimetri unsuru yaratıyor: Amerikan yapay zeka teknolojilerine aynı düzeyde erişimi olmayan müttefikler ve diğer ülkeler, küresel güvenlik standartlarının oluşturulmasında daha zayıf bir konumda kalabilir. Anlaşmaların öncelikle ulusal ve askeri çıkarlar açısından hassas görülen ileri düzey modelleri kapsaması, ticari sırların tamamını ifşa etmeden temel tehditlere odaklanılmasına imkan tanıyor.
Sonuç olarak yapay zeka modellerine erken erişim sağlanması, bu teknolojilerin geliştirilmesi ve yaygınlaştırılmasının özel sektör, hükümet ve toplum arasındaki sürekli diyaloğa dayandığı, güvenlik ile ulusal çıkarların teknolojik gelişimin hızını ve biçimini giderek daha fazla etkilediği bir modele geçişi simgeliyor.



