Yapay Zeka Skandalı: Birleşik Krallık Hükümeti Adaletsizliğe Göz mü Yumuyor?
Birleşik Krallık hükümeti tarafından sosyal yardım dolandırıcılığını tespit etmek için kullanılan yapay zeka sistemlerinin, savunmasız grupları haksız yere hedef aldığı ortaya çıktı. The Guardian’ın yayımladığı araştırma, algoritmanın yaş, engellilik, medeni durum ve milliyet gibi faktörlere dayalı olarak belirli grupları orantısız bir şekilde inceleme altına aldığını tespit etti. Hukukçular ve insan hakları savunucuları, bu uygulamanın ciddi adaletsizliklere yol açabileceği konusunda hükümeti uyarıyor.
Yapay Zeka Sistemlerindeki Eşitsizlikler
Çalışma ve Emeklilik Bakanlığı (DWP) tarafından sosyal yardım dolandırıcılığını tespit etmek için kullanılan yapay zeka sistemleri, birçok başvuruyu değerlendirerek dolandırıcılık ihtimaline göre kamu görevlilerine tavsiyelerde bulunuyor. Ancak bakanlık tarafından yapılan iç değerlendirme, bu sistemlerin belirli demografik grupları ayrımcılığa uğratabileceğini ortaya koydu.
İç Değerlendirme Ne Ortaya Koydu?
- İstatistiksel Eşitsizlik: Şubat 2024’te yapılan bir analiz, yapay zeka sisteminin yönlendirdiği dosyalarda “istatistiksel olarak belirgin bir eşitsizlik” olduğunu tespit etti.
- Demografik Hedefleme: Sistem, özellikle yaşlı bireyler, engelliler ve belirli etnik gruplar gibi savunmasız kesimleri haksız yere hedef aldı.
- İnsan Müdahalesi Savunması: Yetkililer, nihai kararların insanlar tarafından verildiğini belirtse de, süreçte algoritmaların belirleyici bir rol oynadığı gözler önüne serildi.
Hükümetin Tepkisi
DWP, sistemin yalnızca dolandırıcılığı tespit etmeyi amaçladığını ve insan kararlarının yerini almadığını savunuyor. Ancak Bilgi Edinme Özgürlüğü Yasası kapsamında yayımlanan belgeler, sistemin hukuksal ve etik denetimlerden tam anlamıyla geçmediğini gösteriyor. Bu durum, sistemin önyargılara yol açabileceği endişesini artırıyor.
Hükümet yetkilileri, yapay zeka sistemlerinin şeffaflık kurallarına uygun olduğunu iddia etse de, şu an kullanılan 55 yapay zeka sisteminden yalnızca 9’unun resmi kayıtlarda yer aldığı belirtildi. Bu eksiklik, hem kamuoyu hem de muhalifler tarafından sert eleştiriliyor.
Savunmasız Gruplar İçin Riskler
Haksız soruşturma tehdidi, özellikle evrensel kredi gibi sosyal yardımlardan faydalanan bireyler için stres, belirsizlik ve maddi zorluklara neden olabiliyor. Hukukçular, sistemin mevcut sosyal eşitsizlikleri derinleştirebileceğini ve savunmasız bireylerin zarar görme ihtimalini artırabileceğini belirtiyor.
Hukukçuların Görüşü
Caroline Selman, DWP’nin analizini eksik bulduğunu ve şu eleştirilerde bulunduğunu dile getirdi:
“Bakanlık, otomatik süreçlerin marjinal grupları nasıl etkilediğini değerlendirmemiştir. Bu sistem, ‘önce zarar ver, sonra düzelt’ yaklaşımını temsil ediyor ve bir an önce bu tutuma son verilmelidir.”
Yapay Zeka Kullanımındaki Daha Büyük Sorun
Birleşik Krallık’ta kamu sektörü, verimliliği artırmak adına yapay zeka araçlarını giderek daha fazla kullanıyor. Ancak bu sistemlerin şeffaflık ve adillik kriterlerini karşılamadaki eksiklikleri, toplumda derin bir güvensizlik yaratıyor.
- Şeffaflık Eksikliği: Hükümetin algoritmaların nasıl çalıştığını açıklama konusundaki isteksizliği, eleştirilerin merkezinde yer alıyor.
- Düzenleme Eksikliği: Devletin, yapay zeka araçlarının kullanımını denetlemek ve adaletsizlikleri önlemek için yeterli adımlar atmaması dikkat çekiyor.
- Toplum Üzerindeki Etkiler: Yanlış tespit edilen bireylerin uğradığı zararlar, yapay zeka sistemlerinin etik kullanımı konusunda daha ciddi adımlar atılması gerektiğini ortaya koyuyor.