İsrail Ordusu, Yapay Zeka İle Katliam Yapıyor: Lavender ve Gospel Sivilleri Vuruyor
İsrail ordusunun, Gazze, Lübnan ve Yemen gibi çatışma bölgelerinde kullandığı yapay zeka destekli hedef belirleme sistemleri, ciddi sivil kayıplara yol açıyor. Özellikle Lavanta (Lavender) adı verilen yapay zeka programı, hedef belirlemede kullanılan teknolojilerin başında geliyor ve bu sistemin %10 hata payına sahip olduğu bildiriliyor. Lavender, örgütlerden ve sivil toplum kuruluşlarından topladığı verileri kullanarak hedefleri belirliyor. İsrail ordusunun verdiği bilgilere göre, hedef onaylama süreci yalnızca 20 saniye sürüyor ve bu süreçte sadece hedefin erkek olup olmadığı kontrol ediliyor. Bu hızlı onay süreci, sivil kayıpların artmasında önemli bir faktör olarak görülüyor.
İsrail’in Yapay Zeka Sistemleri Nasıl Çalışıyor?
+972 Dergisi ve Local Call tarafından yayımlanan bir araştırmaya göre, İsrail ordusu, hedef belirleme süreçlerinde yapay zeka sistemlerine dayanıyor. Bu sistemler arasında en dikkat çekici olanı, İsrail’in ilk yapay zeka sistemlerinden biri olan Gospel (Müjde) sistemi. Gospel, uydu görüntüleri, telefon sinyalleri ve araç plakaları gibi verileri kullanarak askeri işlev gören binaları tespit etmek için kullanılıyor. Gospel’in geliştirilmesiyle ortaya çıkan Lavender ise daha karmaşık bir algoritma ile çalışarak, hedef kişileri belirlemekte kullanılıyor.
Lavender, Hamas, Hizbullah ve diğer örgütlere ait sivil toplum kuruluşlarından toplanan veriler ile kişilerin nüfus bilgilerini tarıyor ve bu bilgileri analiz ederek hedefleri belirliyor. Analiz sonucunda, her kişiye 1’den 100’e kadar bir terörist değeri atıyor. Bu değerlendirmeler sonucunda ortaya çıkan hedefler, İsrail ordusuna infaz listesi olarak sunuluyor. Subaylar, listedeki hedefleri kontrol ettikten sonra sadece 20 saniye içerisinde infaz kararını veriyor.
Lavender sisteminin hata payı ise oldukça endişe verici. Bu sistemin %10 hata payı olduğu ve bu nedenle sivil kayıpların arttığı belirtiliyor. İsrail ordusu, bu hata payına rağmen sistemin operasyonel süreçlerde kullanılmaya devam ettiğini kabul ediyor.
Savaşın 3 Ölümcül Yapay Zeka Sistemi
İsrailli ve Filistinli gazeteciler, kimliklerini gizli tutmak koşuluyla altı İsrail ordusu yetkilisiyle konuşarak yapay zeka sistemleri hakkında detaylı bilgiler elde etti. İsrailli subay B., yapay zekanın yalnızca askeri hedefleri değil, aynı zamanda sivil yerleşimleri de hedef aldığını itiraf ediyor. Subay B., “Hedefleri sadece askeri binalarda değil, ailelerinin evlerinde vurmak daha kolay,” diyerek sivil kayıpların nasıl yaşandığını açıkça belirtiyor. Bu vahşi taktikler, İsrail ordusunun önceliğini daha fazla hedef vurmak olarak belirlediğini gözler önüne seriyor.
B.’nin açıklamalarına göre İsrail’in kullandığı üç yapay zeka sistemi bulunuyor:
- Gospel (Müjde): Hamas ve Hizbullah gibi örgütlerin kullandığı binaları tespit etmek için geliştirilen ilk sistem.
- Lavender: Kişisel verilerle çalışan, bireyleri terörist değeri ile etiketleyen sistem.
- Where’s Daddy? (Baba Nerede?): Bu sistem, hedef alınan kişinin evde olup olmadığını doğrulamak için kameralar ve telefon sinyallerini kullanıyor.
Bu sistemlerin ortak amacı, hedefleri hızla ve etkili bir şekilde tespit etmek. Ancak, Where’s Daddy? sistemi, evde başka kimlerin olduğunu tespit etme yeteneğine sahip değil. Bu nedenle, İsrail ordusu, “kabul edilebilir zaiyat” denilen bir ölçek kullanıyor. Düşük rütbeli bir militan için 10-20 sivil, yüksek rütbeli bir militan için ise 100 sivilin gözden çıkarılabileceği belirtiliyor. Bu oranlar, sivil ölümlerinin boyutlarını ortaya koyuyor.
Sivillerin Kayıpları Göz Ardı Ediliyor
+972 Dergisi‘ne konuşan İsrail subayı A., yapay zeka sistemlerinin ne kadar tehlikeli olabileceğini şu sözlerle ifade ediyor: “Birçok kez hedef evde bile değilken içi kadın ve çocuk dolu evleri vurduk.” A., özellikle Where’s Daddy? sisteminin, hedefin evde olup olmadığını teyit ederken birçok kez hata yaptığını itiraf ediyor.
Birleşmiş Milletler (BM) verilerine göre, İsrail’in 7 Ekim saldırılarından sonraki ilk 3 ayda Gazze’de 37 bin kişi öldü. Bu ölümlerin büyük bir kısmı sivillerden oluşurken, saldırılar, özellikle evlerinde bulunan aileleri hedef aldı. Saldırılar sonucunda, 6.120 kişi 1.340 aile ile birlikte tamamen yok edildi. BM verilerine göre, evlerinde bombalanan ailelerin oranı, İsrail’in 2014 yılında Gazze’ye düzenlediği operasyonlardan çok daha yüksek.
Subay B., bu hedef seçme süreçlerinin tamamen otomatik hale getirilmesinden dolayı hedef üretiminin çılgın bir seviyeye ulaştığını belirtiyor. Bu otomatik süreçlerin, sivil kayıpları nasıl göz ardı ettiğini ve ölümcül sonuçlar doğurduğunu ifade ediyor.
İsrail Ordusu Suçlamaları Reddediyor
İsrail ordusu yetkilileri ise bu iddiaları kesin bir dille reddediyor. IDF Sözcüsü, yapay zeka sistemlerinin yalnızca hedef belirleme sürecinde yardımcı araçlar olduğunu ve her hedefin uluslararası hukukla uyumlu olarak belirlendiğini savunuyor. Sözcü, tüm hedeflerin analistler tarafından titizlikle incelendiğini iddia ederek sivil kayıpların sorumluluğunu kabul etmiyor.