Önde gelen bir yapay zeka laboratuvarı ile ABD savunma kuruluşu arasındaki artan gerilim, anthropic ai ve savaş alanı kullanımı konusunda yüksek riskli bir çatışmaya dönüştü.
Summary
Anthropic, Pentagon baskısına karşı sağlam duruyor
Anthropic, ABD Savunma Bakanlığı‘nın sistemlerinden önemli AI güvenlik sınırlarını kaldırma taleplerini reddetti, bu durum 200 milyon dolarlık sözleşmesini tehlikeye atsa bile. Şirket, gelişmiş modellerinin askeri ağlarda nasıl konuşlandırılabileceği konusunda DoD ile olan anlaşmazlığında geri adım atmayacağını açıkça belirtti.
Girişimin rakipleri OpenAI, Google ve xAI, 2023 yılında benzer DoD ödüllerini 200 milyon dolara kadar güvence altına aldı. Ancak, bu şirketler Pentagon’un sistemlerini askeri sınıflandırılmamış ortamlarda tüm yasal görevler için kullanmasına izin vermeyi kabul etti ve hükümete daha geniş operasyonel esneklik sağladı.
Buna karşılık, Anthropic, Temmuz ayında DoD ile kendi 200 milyon dolarlık anlaşmasını imzaladı ve modellerini doğrudan sınıflandırılmış ağlardaki görev iş akışlarına yerleştiren ilk AI laboratuvarı oldu. Ayrıca, araçları hassas savunma operasyonlarına entegre edildi ve şirketi ABD ulusal güvenlik AI inşasının merkezine yerleştirdi.
Pentagon yetkilileriyle yapılan müzakereler son haftalarda giderek daha gergin hale geldi. Görüşmelere aşina bir kişi, sürtüşmenin “birkaç ay öncesine” dayandığını, Claude‘un Venezüella Devlet Başkanı Nicolás Maduro‘nun ele geçirilmesiyle bağlantılı bir ABD operasyonunda kullanıldığının kamuoyuna açıklanmasından çok önce başladığını söyledi.
Gözetim ve otonom silahlar üzerindeki anlaşmazlık
Çatışmanın merkezinde, askeri yetkililerin güçlü AI modellerini gözetim ve otonomiye ne kadar itebileceği yatıyor. Anthropic, teknolojisinin tamamen otonom silahlar veya Amerikalıların kitlesel iç gözetimi için kullanılmayacağına dair bağlayıcı güvenceler ararken, DoD bu tür sınırlamalardan kaçınmak istiyor.
Bu, dar bir ticari anlaşmazlık değil, gelecekteki savaş alanı otomasyonu için doğrudan etkileri olan yüksek profilli bir ai güvenlik önlemleri anlaşmazlığıdır. Pentagon maksimum yasal esneklikte ısrar ederken, Anthropic mevcut sistemlerin henüz geniş ölçekte yaşam ve ölüm kararlarıyla güvenilemeyeceğini savunuyor.
Detaylı bir açıklamada, CEO Dario Amodei, “dar bir dizi durumda” yapay zekanın “demokratik değerleri savunmak yerine zayıflatabileceğini” uyardı. Bazı uygulamaların “bugünün teknolojisinin güvenli ve güvenilir bir şekilde yapabileceği şeylerin sınırlarının dışında” olduğunu vurguladı ve karmaşık askeri operasyonlar sırasında yanlış kullanım risklerini öne çıkardı.
Gözetim endişelerini genişleten Amodei, güçlü sistemlerin artık “bu dağınık, bireysel olarak zararsız verileri herhangi bir kişinin hayatının kapsamlı bir resmine, otomatik olarak ve büyük ölçekte” birleştirmeyi mümkün kıldığını savundu. Ayrıca, bu yeteneğin içe doğru yönlendirilmesi durumunda, vatandaşlar ve devlet arasındaki ilişkiyi temelden yeniden şekillendirebileceği konusunda uyardı.
Amodei, Anthropic’in AI’yi yasal yabancı istihbarat toplama için kullanmayı desteklediğini yineledi. Ancak, “bu sistemlerin kitlesel iç gözetim için kullanılmasının demokratik değerlerle uyumsuz olduğunu” ekleyerek, denizaşırı istihbarat ile ABD vatandaşlarının iç izlenmesi arasında keskin bir etik çizgi çizdi.
Tehditler, son tarihler ve yasal baskı
Güç mücadelesi, Salı günü Pentagon’da Amodei ve Savunma Bakanı Pete Hegseth arasında yapılan bir toplantı sırasında yoğunlaştı. Hegseth, Anthropic’i “tedarik zinciri riski” olarak damgalamakla veya uyumu zorlamak için Defense Production Act‘i uygulamakla tehdit etti. Çarşamba gecesi, DoD, şirketin Cuma günü saat 17:01 ET’ye kadar yanıt vermesi için “son ve nihai teklifini” sundu.
Anthropic sözcüsü, Çarşamba günü revize edilmiş sözleşme dilini aldıklarını kabul etti ancak bunun “neredeyse hiç ilerleme kaydetmediğini” söyledi. Ona göre, uzlaşma olarak çerçevelenen yeni ifadeler, kritik güvenlik önlemlerinin “istendiği gibi göz ardı edilmesine” olanak tanıyacak yasal ifadelerle eşleştirildi ve belirtilen korumaları zayıflattı.
Artan baskıya yanıt veren Amodei, “Savaş Bakanlığı, yukarıda belirtilen durumlarda ‘herhangi bir yasal kullanım’ için kabul eden ve güvenlik önlemlerini kaldıran AI şirketleriyle sözleşme yapacaklarını belirtti.” dedi. Yetkililerin, Anthropic’i sistemlerinden kesmekle ve firmayı “tedarik zinciri riski” olarak tanımlamakla tehdit ettiklerini ekledi; yine de, “vicdanen taleplerine boyun eğemeyiz” diye ısrar etti.
Pentagon için mesele farklı bir şekilde çerçeveleniyor. Baş sözcü Sean Parnell, Perşembe günü DoD’nin Anthropic’in sistemlerini tamamen otonom silahlar için veya Amerikalıların kitlesel gözetimi için kullanma “ilgisi olmadığını” söyledi ve bu tür uygulamaların yasa dışı olacağını belirtti. Bunun yerine, departmanın sadece şirketin teknolojisini “tüm yasal amaçlar” için kullanmasına izin vermesini istediğini, bunun “basit, sağduyulu bir istek” olarak tanımlandığını belirtti.
Kişisel saldırılar ve kamu desteği
Anlaşmazlık, üst düzeyde kişisel bir hal aldı. Perşembe gecesi, ABD savunma bakan yardımcısı Emil Michael, X’te Amodei’ye saldırarak, yöneticinin “ABD Ordusunu kişisel olarak kontrol etmeye çalışmaktan başka bir şey istemediğini” iddia etti. Michael daha da ileri giderek, “Dario Amodei’nin bir yalancı ve Tanrı kompleksi olan biri olması utanç verici.” diye yazdı.
Bununla birlikte, Anthropic, teknoloji sektörünün bazı kesimlerinden önemli destek aldı. Açık bir mektupta, Google ve OpenAI’den 200’den fazla çalışan şirketin pozisyonunu kamuoyuna destekledi. Ayrıca, eski bir DoD yetkilisi BBC‘ye, Hegseth’in “tedarik zinciri riski” etiketini kullanma gerekçesinin “son derece zayıf” göründüğünü ve Pentagon’un davasının sağlamlığı hakkında soru işaretleri yarattığını söyledi.
Karşılaşma, daha geniş ai etik askeri politikası tartışmasında da bir mihenk taşı haline geldi. AI araştırmacıları ve sivil özgürlük savunucuları, davayı, savunma ajanslarının özel laboratuvarları gelişmiş sistemlerde yerleşik kısıtlamaları gevşetmeye ne kadar zorlayabileceğinin erken bir testi olarak yakından izliyor.
ABD savunma AI’si için stratejik riskler
Artan söylemlere rağmen, Amodei, “ABD’yi savunmak için AI kullanmanın varoluşsal önemine derinden inandığını” vurguladı. Konuyu ulusal savunmaya karşı bir muhalefet değil, sorumlu bir konuşlandırma olarak çerçeveledi ve ABD AI yeteneklerinin uzun vadeli güvenilirliğinin demokratik normları korumaya bağlı olduğunu savundu.
Anthropic adına bir temsilci, organizasyonun “görüşmelere devam etmeye hazır ve Departman ve Amerika’nın savaşçıları için operasyonel sürekliliğe bağlı” olduğunu söyledi. Ancak, Pentagon’un son tarihi yaklaşırken ve tedarik zinciri tanımlaması tehdidi hala masadayken, her iki taraf da kritik yeniliği rayından çıkarmadan çıkmazı çözme baskısıyla karşı karşıya.
Sonuç olarak, Anthropic-Pentagon çatışması, güvenlik önlemleri, gözetim ve otonomi konularında askeri AI yönetiminde tanımlayıcı bir erken vaka haline geldi. Sonucu, gelecekteki anthropic ai modelleri ve rakip sistemlerin ABD savunma operasyonlarında nasıl sözleşme yapılacağı, kısıtlanacağı ve konuşlandırılacağı konusunda şekillendirici olacaktır.

