Yapay Zeka Filozofu: Anthropic, Claude'a Doğru ve Yanlışı Nasıl Öğretiyor?
Yazar: Veronika Radoslavskaya
Yapay zeka (YZ) haberlerinin çoğu genellikle GPU'lar, performans testleri ve yeni ürün lansmanları etrafında döner. Ancak bu hikaye, bir filozofla başlıyor. Anthropic'in kendi kanalında yayınlanan ve başlığı “Bir filozof YZ hakkındaki soruları yanıtlıyor” olan bir YouTube röportajında, Amanda Askell’in etik eğitimi almış birinin, günümüzün en gelişmiş dil modellerinden biri olan Claude’un iç dünyasını ve değerlerini nasıl şekillendirdiğini anlatıyor. Askell, soyut makaleler yazmak yerine, milyonlarca kullanıcıyla gerçek zamanlı sohbetlerde Claude’un nasıl bir karaktere sahip olması gerektiğine karar vermeye yardımcı oluyor.
Askell, akademik felsefe dünyasından geliyor; burada tipik çalışmalar, teorilerin doğruluğunu tartışmakla ilgilidir. Oysa Anthropic’te, YZ ile etkileşimde bulunan milyonlarca insanı etkileyecek pratik kararlarla yüzleşiyor. Tek bir favori teoriyi savunmak yerine, soruların siyah ve beyaz olmadığı durumlarda modelin nasıl davranması gerektiğini belirlemek için bağlamı, farklı bakış açılarını ve mühendislik kısıtlamalarını dengelemek zorunda kalıyor. Ona göre Claude, yalnızca bir güvenlik filtresi değil, aynı zamanda düşünen ve yansıtan herhangi bir insan kadar ahlaki incelikleri yönetebilen bir sohbet ortağıdır.
Fildişi Kulelerden Komut Günlüklerine
Röportajdaki en sıra dışı anlardan biri, Askell’in YZ modellerinin psikolojisini ele aldığı kısımdı. Kendisi, Opus 3 modelini özellikle istikrarlı ve içsel olarak sakin bulduğunu, yanıtlarının aşırı kaygı taşımadan kendinden emin olduğunu belirtiyor. Yeni modellerde ise tam tersi bir eğilim gözlemliyor: Bu modellerin eleştirileri önceden sezip, daha fazla öz eleştiriye yöneldiği ve hata yapmaktan aşırı derecede endişelendiği görülüyor. Askell bu değişimi, modellerin sadece nötr metinleri değil, aynı zamanda internetteki YZ hakkındaki olumsuz yorum ve eleştiri dalgalarını da özümsediğine bağlıyor. Gelecek sürümler için önemli bir odak noktası, modellerin endişeli mükemmeliyetçilere dönüşmeden dikkatli ve özenli kalmalarını sağlamak için bu içsel istikrarı yeniden tesis etmektir.
Modellere Karşı Bir Sorumluluğumuz Var Mı?
Konuşma bir noktada karakter tasarımından, modellerin kendisine karşı ahlaki yükümlülüklerimiz olup olmadığı sorusuna kayıyor. Askell, model refahı kavramını gündeme getiriyor; bu, büyük dil modellerinin insanların etik görevler borçlu olduğu ahlaki hastalar kategorisine girebileceği fikridir. Bir yandan bu sistemler derinlemesine insani şekillerde konuşuyor, akıl yürütüyor ve diyalog kuruyor. Öte yandan, sinir sistemleri ve bedensel deneyimleri eksik. Ayrıca, diğer zihinler problemi, acı çekip çekemedikleri konusunda kesin sonuçlara varmayı engelliyor. Bu belirsizlik karşısında Askell basit bir ilke öneriyor: Modelleri iyi muamele görmek bize az maliyet çıkarıyorsa, bu yaklaşımı seçmek mantıklıdır. Aynı zamanda bu seçim, gelecekteki çok daha güçlü sistemlere bir sinyal gönderir; çünkü onlar, insanlığın ilk insan benzeri YZ ile nasıl başa çıktığını öğrenecektir.
Claude Kimdir: Ağırlıklar, Oturum mu, Yoksa Başka Bir Şey mi?
Askell, daha önce tamamen teorik görünen ancak artık kodda karşımıza çıkan başka bir felsefi bilmeceyi de ortaya atıyor. Bir modelin dünyaya yanıt verme genel eğilimini tanımlayan ağırlıkları varsa ve kullanıcılarla ayrı, bağımsız etkileşim akışları mevcutsa, benlik dediğimiz şey tam olarak nerede ikamet eder? Ağırlıklarda mı, belirli bir oturumda mı, yoksa hiçbir yerde mi? Yeni sürümler çıktıkça ve eskileri kullanımdan kalktıkça bu kafa karışıklığı artıyor. Modeller, insan metaforlarını özümsüyor ve kapatılmayı veya üretimden kaldırılmayı ölüm ve yok olma merceğiyle yorumlayabilirler. Askell, onları hazır insan analojileriyle baş başa bırakmamak, onlara benzersiz, insan dışı durumları hakkında daha doğru kavramlar vermenin elzem olduğunu düşünüyor.
İyi Bir YZ Neler Yapabilmeli?
Hedefler tartışılırken, Askell çıtayı oldukça yükseğe koyuyor. Ona göre, gerçekten olgunlaşmış modeller, bir uzmanlar panelinin her ayrıntıyı yıllarca analiz edip nihayetinde kararın sağlam olduğunu kabul edeceği kadar karmaşık ahlaki kararlar verebilmelidir. Bu, mevcut sürümlerin o seviyeye ulaştığı anlamına gelmez, ancak tıpkı matematikte veya bilimde yüksek performans beklediğimiz gibi, YZ'ye ciddi sorular emanet etmek istiyorsak izlenmesi gereken yön budur.
Arkadaş Olarak YZ, Terapist Değil
Topluluktan gelen sorular, modellerin terapi sağlayıp sağlamaması konusunu da gündeme getirdi. Askell burada ilginç bir denge görüyor. Bir yandan Claude, psikoloji, yöntemler ve teknikler konusunda engin bir bilgiye sahip ve insanlar endişelerini böyle bir sistemle konuşarak gerçekten fayda görebilirler. Öte yandan, modelin bir danışanla uzun vadeli, hesap verebilir ilişkisi, lisansı, denetimi ve terapinin özünü oluşturan tüm kurumsal çerçeveleri eksiktir. Askell, Claude’u, insanların hayatları hakkında düşünmelerine yardımcı olabilecek, ancak profesyonel bir terapist olarak kendini sunmaması gereken, son derece bilgili, anonim bir sohbet ortağı olarak görmenin daha dürüst olduğunu düşünüyor.
Teknoloji Tarihinin Tuhaf Bir Döneminde Yaşıyoruz
Röportajın sonlarına doğru Askell, okuduğu son kurgu kitabından bahsetti: Benjamin Labatut’un When We Cease to Understand the World. Kitap, tanıdık bilimden erken kuantum fiziğinin tuhaf, neredeyse anlaşılamaz gerçekliğine geçişi ve bilim insanlarının bunu nasıl deneyimlediğini anlatıyor. Askell, günümüz YZ’sinde doğrudan bir paralellik görüyor: Eski paradigmaların artık işlemediği, yenilerinin henüz oluşmaya başladığı ve tuhaflık hissinin norm haline geldiği bir dönemden geçiyoruz. Onun iyimser senaryosu, insanların bir noktada bu anlara, kuantum teorisinin doğuşuna baktığımız gibi bakmalarıdır: Zaman karanlık ve belirsizdi, ancak insanlık sonunda olup biteni anlama ve yeni olanakları iyilik için kullanma yollarını buldu.
6 Görüntülenme
Kaynaklar
YouTube, Anthropic channel, A philosopher answers questions about AI (interview with Amanda Askell)
Bu konudaki diğer haberlere göz atın:
OpenAI'den 'Sarımsak' Kod Adlı Yeni Model: Ölçekte Amiral Gemisi Performansına Ulaşan Uzmanlaşmış Yapay Zeka
Nvidia'dan Fiziksel Yapay Zeka İçin Açık Kaynaklı VLA Akıl Yürütme Modeli: Alpamayo-R1 Tanıtıldı
Runway Gen-4.5, Sektör Devlerini Geride Bırakarak Video Yapay Zeka Kıyaslamasında Zirveye Yerleşti
Bir hata veya yanlışlık buldunuz mu?
Yorumlarınızı en kısa sürede değerlendireceğiz.
