Pentagon, Anthropic’in yapay zeka araçlarını savunma kurumlarında kullanmanın güvenli olmadığı gerekçesiyle tedarik zinciri riski olarak sınıflandırdı. Bu, ABD hükümetinin bir şirketi resmen riskli ilan ettiği ilk örnek oldu. Karar, şirketin kitlesel gözetim ve otonom silahlar konusundaki endişeleri nedeniyle savunma araçlarına sınırsız erişim izni vermemesinden kaynaklandı.
Anthropic’in tepkisi
Şirket CEO’su Dario Amodei, karara hukuksuz olduğunu düşündüklerini belirterek mahkemede itiraz edeceklerini açıkladı. Pentagon, tedarik zinciri risk sınıflandırmasının derhal yürürlüğe girdiğini duyurdu. Anthropic, Savunma Bakanlığı’ndan aldığı mektupta bu nitelendirmenin dar kapsamlı olduğunu vurguladı.
Tartışmalar ve kamuoyu etkisi
Anthropic, Trump yönetimi sırasında bazı yetkililer tarafından eleştirildi. Trump, Truth Social üzerinden federal kurumlara Anthropic ile iş yapmayı bırakmaları talimatı verdi. Şirket, Beyaz Saray veya Pentagon’dan resmi bildirim almadığını belirtti. Microsoft ise savunma dışı projelerde Anthropic teknolojisinin kullanımına devam edeceğini açıkladı.
Ordunun güvenlik kaygıları
Pentagon, ordunun kritik yetenekleri yasal olarak kullanabilmesini sağlamak için tedarikçi risklerini sınırlamayı hedefliyor. Anthropic, 2024’ten bu yana ABD hükümeti ve ordusunda kullanılan ilk gelişmiş yapay zeka şirketiydi. Ancak orduyla ilişkilerdeki bozulma sonrası OpenAI devreye girdi.
Claude uygulaması popülerliğini koruyor
Anthropic’in baş ürünü Claude, hükümetle yaşanan anlaşmazlığa rağmen dünya genelinde en çok indirilen yapay zeka uygulamalarından biri olmaya devam ediyor. Baş ürün sorumlusu, her gün bir milyondan fazla kişinin Claude’a kaydolduğunu açıkladı.




