Amerika Birleşik Devletleri Savunma Bakanlığı (Pentagon), önde gelen yapay zeka şirketlerine, geliştirdikleri araçları Amerikan ordusunun “tüm yasal amaçlarla” kullanabilmesi için izin verme talebinde bulunuyor. Belge analizi, istihbarat, savaş planlama, silah geliştirme ve gerçek zamanlı görev destekleri gibi birçok alanda bu araçların kullanımını kapsayan talep, Anthropic şirketi tarafından karşılanmıyor. Şirket, tam otonom silahlar ve kitlesel gözetim gibi alanlarda bu teknolojilerin kullanılmaması gerektiğini vurguluyor ve sıkı kullanım politikaları uyguluyor. Pentagon’un Claude modelini Venezuela operasyonunda kullandığı iddiaları ise Anthropic tarafından reddediliyor. Bu durum, savunma ve etik ilkeler arasındaki kapsamlı bir tartışmayı tetikliyor ve yapay zeka ile askeri entegrasyonun geleceğini belirleyebilecek bir örnek teşkil ediyor.
Pentagon ile Anthropic arasında ilişkiler geriliyor
Claude’un askeri kullanımına dair yaşanan anlaşmazlık büyüyor. Savunma Bakanlığı, dört büyük AI şirketinden teknolojilerini “tüm yasal amaçlar” için kullanılabilir kılmalarını isterken, Anthropic bu yönde net sınırlar çiziyor ve bu durum 200 milyon dolarlık sözleşmenin iptal edilmesi tehdidine yol a