Nasuh Özer

Nasuh Özer

Yapay zeka savaş meydanına indi

Giriş Tarihi:
Ahaber

Bir operasyon hayal edin.

Uydular görüntü gönderiyor.

Dronlar koordinat aktarıyor.

Dinleme sistemleri iletişim trafiğini çözümlüyor.

Tüm bu veri saniyeler içinde işleniyor.

Hedefler önceliklendiriliyor.

Saldırı senaryoları oluşturuluyor.

Karar vericinin önüne bir ekran geliyor:

"Önerilen hedef listesi. Onaylıyor musunuz?"

Karar verici onaylıyor.

Ama burada sormamız gereken bir soru var:

"Bu kararı gerçekten kim verdi?"

ABD ordusunun İran'a yönelik bir saldırısının ilk 24 saatinde yaklaşık 1.000 hedefi vurmak için Palantir'in Maven sisteminden yararlandığı belgelendi. Ortaya çıkan bilgilere Marven Claude destekli bir sistemdi.

Geleneksel askeri planlama yöntemleriyle bu ölçek ve hız günler, hatta haftalar alırdı.

Sistem sayesinde 2 bin kişinin yaptığı işi 20 kişinin yaptığı ifade ediliyor.

Ve Yapay zeka bunu saatlere sıkıştırdı.

İsrail'in kullandığı Lavender sisteminin Gazze'de 37 bin masum sivili "şüpheli" olarak işaretlediği ve bu sivillerin her biri için 20 sivil zayiatı göze aldığı ortaya çıkmıştı.

Harp sahasının doğası değişiyor.

Artık savaş, insan refleksleriyle değil veri akışının hızıyla şekilleniyor.

Geleneksel taktiklerin yerini otonom sistemler alıyor.

Makine öğrenmesi destekli hedefleme teknolojileri devrede.

Sürü zekasıyla hareket eden platformlar sahada.

Bu bir gelecek senaryosu değil.

Bu, bugünün operasyonel gerçeği.

İnsanın Döngüdeki Rolü Gerçek mi, Formalite mi?

Savunma doktrinlerinde bir kavram var human-in-the-loop(HITL)

Yani insan denetimi.

Her kritik kararın bir insan onayından geçmesi gerektiği ilkesi.

Kulağa güven verici geliyor.

Ama sahada olan ise başka bir şey.

Karar vericiler giderek makinenin önerilerini onaylayan operatörlere dönüşüyor.

Bunun adı ise otomasyon yanlılığı

Yani bir insanın otomatik bir sistemden (algoritma, yapay zeka veya yazılım) gelen önerileri veya kararları, elindeki çelişkili bilgilere rağmen, eleştirmeden doğru kabul etme eğilimi.

İnsan artık kendi muhakemesine değil, algoritmanın çıktısına güveniyor.

Hız baskısı ve otomasyon yanlılığı birleştiğinde, karar destek sistemi fiilen otonom silaha dönüşüyor.

Yani insan hala orada.

Ama sadece düğmeye basmak için.

Ve bu ayrım hukuki değil, varoluşsal.

Çünkü "karar verdim" diyebilmek için önce gerçekten karar verebiliyor olmak gerekir.

Sistematik Hata, Sistematik Ölüm

Algoritmalar hata yapar.

Ama savaşta bu hata, video oyunlardaki gibi kimsenin zarar görmediği bir bug olarak kalmaz ölüme dönüşür.

Ortaya çıkan veriler, on binlerce kişinin hedef listelerine alındığını ve ciddi bir hata payı bulunduğunu gösteriyor.

Bu ne demek?

Binlerce insanın yanlışlıkla hedef seçilmesi demek.

Bu bir istisna değil.

Bu, sistemin doğası.

Bir insan hata yaptığında sorumludur.

Yargılanır.

Cezalandırılır.

Bir algoritma hata yaptığında ise sorumluluk dağılır:

- Yazılımcı mı?

- Sistemin başındaki karar verici mi?

- Sistemi uygulamaya alan mı?

Uluslararası hukuk, ayırt etme ve tedbir ilkelerini zorunlu kılar.

Ama yapay zekanın bu çerçevede nasıl denetleneceğine dair net bir küresel mekanizma yok.

Hukuk, yine teknolojinin gerisinde.

Ama bu kez gecikmenin bedeli çok daha ağır.

Etik Sınırın Piyasa Değeri Mi Var?

Gazze ve İran'da gördüğümüz üzere,

yapay zeka şirketleri ile askeri kurumlar arasındaki ilişki, kırılgan ve sert bir rekabet alanına dönüşmüş durumda.

Etik sınır çizenler sistemin dışında kalma riskiyle karşı karşıya.

Çizmeyenler ise daha hızlı entegre ediliyor.

Bu sadece bir şirket rekabeti değil.

Bu, savaşın geleceğinin kim tarafından şekillendirileceği meselesi.

Otonom sistemler savaşı sadece hızlandırmıyor.

Aynı zamanda kolaylaştırıyor.

Savaşın insan maliyeti görünmez hale geldikçe, savaş kararı da kolaylaşıyor.

Eskiden savaşta, cenazeler, yaralılar, toplumların tepkisini büyütür, savaşı durdururdu.

Bu, demokrasilerde en güçlü fren mekanizmasıydı.

Şimdi o fren sessizce sökülüyor.

Toplumsal tepkiler savaşları durduramıyor…

Günümüzün teknolojisiyle savaşta karar vermek için saatler yok.

Saniyeler var.

Onaylamak için tartışma yok.

Bir ekran var.

Ve o ekranın ucunda gerçek insanlar var.

Bu 'Var' olanlara karşı 'Yok' olan tek şey 'Vicdan'!

İnsan döngünün neresinde?

Bu artık teknik bir mesele değil.

Etik bir tartışma da değil.

Bu, doğrudan

Ve belki de en büyük risk şu

Savunma için herkes bu teknolojiyi edinmek zorunda kalacak,

düğmeye basmak için 'Vicdan' değil 'Veriler' karar verici olacak.

Kararları 'Duygusuz makineler' değil, 'Vicdan sahibi' insanlar vermeli.

Yasal Uyarı: Yayınlanan köşe yazısı/haberin tüm hakları Turkuvaz Medya Grubu’na aittir. Kaynak gösterilse veya habere aktif link verilse dahi köşe yazısı / haberin tamamı ya da bir bölümü kesinlikle kullanılamaz. Ayrıntılar için lütfen tıklayın
Mobil uygulamalarımızı indirin