OpenAI, İran’ın Yapay Zeka Kullanarak Yürüttüğü Gizli Etki Kampanyasını Sonlandırdı
OpenAI, ABD başkanlık seçimleriyle ilgili yanıltıcı içerikler de dahil olmak üzere, internette yanlış bilgi yaymak amacıyla şirketin üretken yapay zeka teknolojilerini kullanan bir İran etki kampanyasını keşfettiğini ve bu kampanyayı sonlandırdığını açıkladı. San Francisco merkezli yapay zeka şirketi, bu kampanyayla bağlantılı birkaç hesabı çevrimiçi hizmetlerinden men etti. Şirket, bu kampanyanın geniş bir kitleye ulaşamadığını da belirtti.
Kampanyanın Ayrıntıları ve OpenAI’nin Müdahalesi
OpenAI’nin baş araştırmacısı Ben Nimmo, bu tür operasyonların yapay zeka kullanımı nedeniyle anlamlı bir şekilde artan kitle katılımından yararlanmadığını ve gerçek insanlardan önemli ölçüde etkileşim almadığını ifade etti. Nimmo, operasyonun genellikle siyasi kampanyalara destek kazanmak veya jeopolitik çatışmalarda kamuoyunu yönlendirmek amacıyla gerçekleştirildiğini belirtti.
Dezenformasyon ve Yapay Zeka
ChatGPT gibi üretken yapay zekaların popülerliği, özellikle dünya çapında büyük seçimlerin yapıldığı bir yılda, bu tür teknolojilerin çevrimiçi dezenformasyona nasıl katkıda bulunabileceği konusunda soruları gündeme getirdi. Mayıs ayında OpenAI, aldatıcı manipülasyon ve jeopolitik etki yaratma amacı güden beş çevrimiçi kampanyayı daha tespit ettiğini ve bunları bozduğunu açıkladı. Bu tür operasyonlar Rusya, Çin, İsrail ve İran gibi devlet aktörleri ve özel şirketler tarafından yürütülüyordu.
Storm-2035: İran’ın Gizli Etki Operasyonu
OpenAI, İran’ın “Storm-2035” adını verdiği gizli bir kampanya için ChatGPT’yi kullanarak metin ve görüntüler oluşturduğunu tespit etti. Bu kampanya, ABD başkanlık seçimleri, Gazze Şeridi’ndeki savaş, İskoçya’nın bağımsızlığı gibi sıcak gündem konularında içerik üreterek, kamuoyunu etkilemeyi hedefledi. Kampanya, sosyal medya gönderileri oluşturmak, makaleler yazmak ve başlıklar oluşturmak için ChatGPT’yi kullandı. Ancak, bu içeriklerin çoğu çok az beğeni, paylaşım veya yorum aldı, hatta bazıları hiç etkileşim almadı.