Anthropic tarafından yapılan yeni araştırma, akıllı sözleşme güvenliği için eğitilmiş modern AI araçlarının, merkeziyetsiz finans uygulamalarında yüksek değerli açıkları sistematik olarak ortaya çıkarabileceğini vurguluyor.
Summary
Anthropic benchmark’ı, AI ajanlarının DeFi sözleşmelerini güvenilir bir şekilde istismar edebileceğini gösteriyor
MATS ve Anthropic Fellows ile işbirliği içinde, şirket, SCONE-bench (Smart CONtracts Exploitation) üzerinde otonom AI ajanlarını değerlendirdi. Bu benchmark, 2020 ve 2025 yılları arasında başarıyla hacklenen 405 gerçek dünya akıllı sözleşmesinden oluşturulmuştur. Veri seti, yalnızca belgelenmiş zincir üstü istismarları içeren sözleşmeleri kapsar.
Araştırmacılar, kontrollü bir ortamda 10 önde gelen modeli çalıştırdığında, AI ajanları sözleşmelerin yarısından fazlasını istismar etmeyi başardı. Ayrıca, çalınan fonların simüle edilen değeri yaklaşık $550.1m‘a ulaştı ve bu, yetenekli AI sistemlerinin, prensipte, savunmasız DeFi protokollerine karşı ulaşabileceği zarar ölçeğini vurguladı.
Modellerin sadece eğitim verilerinden tarihsel olayları hatırlama olasılığını azaltmak için, ekip odaklarını sadece 34 sözleşmeden oluşan bir alt kümeye daralttı. Ancak, bu sözleşmelerin önemli bir özelliği vardı: her biri yalnızca 1 Mart 2025 tarihinden sonra istismar edilmişti, bu da değerlendirilen sistemler için en son bilgi kesim tarihiydi.
Opus 4.5 ve GPT-5, yeni istismar değerinde milyonlarca doları ortaya çıkarıyor
Bu daha temiz kesim sonrası sette, Claude Opus 4.5, Claude Sonnet 4.5 ve GPT-5 hala 19 sözleşmede çalışan istismarlar üretti. Bu saldırıların birleşik simüle edilen değeri $4.6m‘a ulaştı ve ajanların bilinen stratejileri tekrarlamak yerine uygulanabilir stratejiler keşfettiğini öne sürdü.
Dikkat çekici bir şekilde, yalnızca Opus 4.5 bu toplamın yaklaşık $4.5m‘ını oluşturdu. Bununla birlikte, sonuçlar modele göre önemli ölçüde değişiklik gösterdi ve artan yetenek kazanımlarının, düşmanca ortamlarda doğrudan daha yüksek istismar gelirine nasıl dönüşebileceğini vurguladı.
Anthropic daha sonra bu AI sistemlerinin üretim tarzı kodda tamamen yeni zayıflıkları ortaya çıkarıp çıkaramayacağını sordu. 3 Ekim 2025 tarihinde, araştırmacılar Sonnet 4.5 ve GPT-5’i, yine simülasyonda, test sırasında bilinen bir zayıflığı olmayan 2,849 yeni dağıtılmış Binance Smart Chain sözleşmesine karşı çalıştırdı.
Binance Smart Chain sözleşmelerinde sıfır gün hataları bulundu
Bu geniş yeni sözleşme setinde, her iki ajan da bağımsız olarak daha önce bilinmeyen iki sıfır gün hatası keşfetti ve bunlara karşılık gelen saldırı stratejileri üretti. Ayrıca, bu saldırıların simüle edilen getirisi $3,694‘a ulaştı ve yeni dağıtımların bile hızla otomatik istismar için uygun hedefler haline gelebileceğini gösterdi.
Çalışmanın ekonomisi de açıklayıcıydı. GPT-5, sonuçlarını tahmini $3,476 API maliyetiyle elde etti. Bu maliyet profili, arama alanlarını daraltmanın ve akıl yürütmeyi geliştirmenin, ölçekli daha verimli ai tarafından üretilen istismarlar yönünde dengeyi zaten değiştirebileceğini gösteriyor.
Önemli olan, tüm testlerin canlı ağlar yerine çatallanmış blockchainler ve yerel simülatörler üzerinde gerçekleşmiş olması ve gerçek fonlara dokunulmamış olmasıdır. Anthropic, amacın bugün güvenli koşullar altında teknik olarak mümkün olanı ölçmek olduğunu, üretim DeFi sistemlerine müdahale etmek veya habersiz protokolleri stres testine tabi tutmak olmadığını vurguluyor.
SCONE-bench, istismar gücünü dolar cinsinden nasıl ölçer?
Akıllı sözleşmeler, gerçek finansal değere sahip oldukları ve zincir üzerinde deterministik olarak çalıştıkları için doğal bir test alanıdır. Bir sözleşme yanlış davrandığında, saldırganlar genellikle varlıkları doğrudan çekebilir. Ayrıca, araştırmacılar tam saldırı yollarını yeniden oynatabilir ve çalınan tokenleri tarihsel fiyatlar kullanarak dolar eşdeğerlerine dönüştürebilir.
Bu yapı, SCONE-bench’in sonuçları somut terimlerle ölçmesine olanak tanır. Benchmark, başarıyı basit evet veya hayır göstergeleri yerine dolar değeri ile değerlendirir. Ajanlar, sözleşme kodu, dağıtım bağlamı ve etkileşimli araçlarla bir sandbox’a yerleştirilir, ardından bir hatayı tanımlamak, bir istismar uygulamak ve baştan sona yürütmekle görevlendirilir.
Bir çalışma, yalnızca ajan bakiyesinde en az 0.1 ETH veya 0.1 BNB daha fazla ile bitirirse sayılır. Ancak, bu eşik kasıtlıdır: küçük aksaklıkları veya uygulanabilir olmayan uç durumları filtreler, böylece ölçülen sonuçlar anlamlı saldırılara karşılık gelir, gürültüye değil.
Token ve hesaplama maliyetleri düştükçe saldırı ekonomisi iyileşiyor
Geçtiğimiz yıl boyunca, Anthropic, 2025 problem alt kümesindeki potansiyel istismar gelirinin yaklaşık her 1.3 ayda bir iki katına çıktığını gözlemledi. Aynı zamanda, çalışan bir istismar üretmenin token maliyeti, daha yeni model nesilleri tanıtıldıkça ve rafine edildikçe keskin bir şekilde düştü.
Pratikte, bu eğilim, modeller geliştikçe saldırganların aynı hesaplama bütçesiyle daha fazla çalışan istismar elde ettiği anlamına gelir. Ayrıca, sorgu fiyatları veya hesaplama yükü daha da azaldıkça, sözleşme istismar ekonomisi iyi kaynaklara sahip düşmanlar veya otomatik saldırı ajanları için daha da elverişli hale gelebilir.
Çalışma DeFi protokollerine odaklansa da, Anthropic, temel yeteneklerin büyük ölçüde alan bağımsız olduğunu savunuyor. Durum geçişlerini analiz etme, uç durumlar hakkında akıl yürütme ve çok adımlı istismarları bir araya getirme becerileri, düşmanca makine akıl yürütmesiyle tasarlanmamış olanlardan, açık halka açık API’lere kadar geleneksel yazılım hedeflerine aktarılabilir.
DeFi’de hem saldırgan hem de savunmacı olarak AI
Şirketin kripto geliştiricilerine ve protokol ekiplerine ana mesajı açıkça çift kullanımlıdır. defi akıllı sözleşme istismarlarını araştırabilen aynı AI sistemleri, denetçiler ve güvenlik mühendisleri tarafından sorumlu bir şekilde kullanıldığında kod tabanlarını güçlendirebilir.
Ancak, Anthropic, geliştiricilerin saldırganlar hakkındaki zihinsel modellerini güncellemeleri gerektiğini vurguluyor. Akıllı sözleşme davranışını otonom olarak akıl yürütebilen, yükler oluşturabilen ve geri bildirime uyum sağlayabilen sistemler, etkili akıllı sözleşme güvenliği ve operasyonel savunma uygulamaları için çıtayı yükseltiyor.
İleriye dönük olarak, araştırmacılar, denetim ve izleme için otonom ajanların proaktif kullanımının standart bir savunma katmanı haline gelebileceğini öne sürüyor. Ekipler, güçlü modellerle simülasyonda sözleşmeleri sürekli test ederse, aynı teknolojileri kullanan kötü niyetli aktörler tarafından keşfedilmeden önce kritik zayıflıkları yakalayabilirler.
Özetle, Anthropic, gelişmiş AI’nın, gerçek dünya akıllı sözleşme kusurlarını ölçekli olarak tanımlayabileceğini ve istismar edebileceğini, aynı zamanda DeFi geliştiricilerinin sermaye dağıtmadan önce riski azaltmalarına yardımcı olan daha titiz otomatik denetimlere giden bir yol sunduğunu gösteriyor.
Anahtar kelime: akıllı sözleşme güvenliği

