Nasuh Özer
Nasuh Özer

Düşünen İnsan mı, Yönlendirilen Kullanıcı mı?

Giriş Tarihi:

Bir zamanlar bilgiye ulaşmak bir çabaydı.
Bugün ise karar vermek bir yük haline geldi.
Ve belki de ilk kez insanlık, düşünme yetisini kaybetmeden önce, onu gönüllü olarak devretmeye başladı.

Yapay zeka asistanları başka bir vaad ile geldi.
kolaylık, hız, verimlilik, hata azaltma…

Ama her teknolojik sıçrama gibi bu da görünmeyen bir bedel üretiyor
Bilişsel çürüme ve onun en sessiz sonucu olan karar verme felci.
Bu artık bir sezgi değil. Veriler konuşuyor.

Kararı kim veriyor? Sen mi, algoritma mı?

2026 yılında yayımlanan bir araştırma, insanların yapay zekadan gelen önerilere maruz kaldığında daha kötü kararlar verdiğini ortaya koydu.

Denekler, doğru olma ihtimali yalnızca yüzde 50 olan AI önerilerini takip ettiklerinde,
gerçek ile sahteyi ayırt etme becerilerinin düştüğü gözlemlendi.

Daha çarpıcısı ise şu, yapay zekaya daha fazla güvenenler, daha fazla hata yaptı.
Bu, klasik bir teknoloji paradoksu…
Araç geliştikçe, kullanıcı zayıflıyor.

Analitik düşüncenin sessiz tasfiyesi
Araştırmaların ortak kavramı cognitive offloading yani zihinsel yükün dışa devri.

İnsanlar artık düşünmek yerine,
Sorgulamayı,
Analiz etmeyi,
ve Karşılaştırmayı makineye bırakıyor.

Bu sadece bir davranış değişikliği değil.
Bu, zihinsel kasların kullanılmaması anlamına geliyor.

Nitekim bazı çalışmalar, yoğun AI kullanımının eleştirel düşünme kapasitesinde düşüşle ilişkili olduğunu gösteriyor.

Başka bir ifadeyle
İnsan düşünmeyi bırakmıyor…
düşünmeye ihtiyaç duymamaya başlıyor.

Karar verme felci sonsuz seçenek, sıfır netlik

Yapay zeka seçenek sunar ama seçim yapmaz.
Sorun da burada başlar.

3 alternatif verirken karar verebilen insan, 30 öneri ile karşılaştığında kararsız kalır.
Bu durum psikolojide "Analysis Paralysis" olarak bilinir. Yani Analiz Felci!
Yapay Zeka çağında bu durum yeni bir forma evriliyor.. Algoritmik kararsızlık!

Çünkü artık kişi sadece seçenekler arasında değil, kendi düşüncesi ile yapay zeka önerisi arasında da sıkışıyor.

Aşırı güven yeni Dunning-Kruger

İşin en tehlikeli boyutu şu,
yapay zeka kullanan bireyler, çoğu zaman daha doğru düşündüklerini sanıyor.

Bu da klasik bilişsel hatanın tersine dönmüş hali,
Artık bilgi yetersizliği yok, aksine Yapay Zeka desteği çok bilgi ve aşırı özgüven var.

Bu durum, hataların fark edilmemesine yol açıyor.
Yani sadece yanlış karar vermek değil,
yanlış olduğunu anlayamamak.

Yapay zeka beyin yorgunluğu…

Son dönemde yapılan çalışmalar, yoğun AI kullanımının
zihinsel yorgunluk, dikkat dağınıklığı ve karar yavaşlamasına yol açtığını gösteriyor.

Bu durum artık isimlendirilmiş bile… AI brain fry

Zihinsel sis
Karar vermede yavaşlama
Odak kaybı

hepsi aynı tablonun parçaları.

Sessiz bir zihin erozyonu

Daha tehlikeli olan ise bu sürecin fark edilmemesi.
Çünkü yapay zeka,

hızlı cevap verir,
düzgün cümle kurar,
ikna edici görünür,

Ve insan beyni, akıcı olanı doğru sanma eğilimindedir.
Bu yüzden ortaya çıkan şey bir kriz değil, bir erozyon!
Yavaş Sessiz, Ama sürekli.

Asıl soru araç mı, rehber mi?

Yapay zeka bir araç olarak kalırsa, insanı büyütür.
Ama bir rehbere dönüşürse, insanı küçültür.
Bugün yaşanan dönüşüm tam olarak bu sınırda.
İnsanlık ilk kez şunu deneyimliyor, bilgiye ulaşmak değil, ulaşılabilir hale gelen çok sayıda bilgiye rağmen düşünmek zorlaşıyor.

Sonuç, zeka değil, irade meselesi

Bu mesele teknolojik değil, bilişsel de değil, bu bir irade meselesi!

Kolay olanı mı seçeceğiz?
Yoksa doğru olanı mı?

Çünkü yapay zeka çağında en büyük risk, yanlış bilgi değil. Düşünmeden doğruyu bulduğunu sanmak.

Ve belki de en kritik soru şu olacak,

Her Cevabın bilindiği bir dünyada, soru sormayı unutursak ne olur?

Yasal Uyarı: Yayınlanan köşe yazısı/haberin tüm hakları Turkuvaz Medya Grubu’na aittir. Kaynak gösterilse veya habere aktif link verilse dahi köşe yazısı / haberin tamamı ya da bir bölümü kesinlikle kullanılamaz. Ayrıntılar için lütfen tıklayın
Mobil uygulamalarımızı indirin