Google'dan koparak, ChatGPT'ye her şeyi sorma dönemi başladı…
Google'da sonuçları görüp okuyacağımız konuyu seçerken, yapay zeka araçlarında sonuç, önümüze hazır bir bilgi olarak geliyor.
Aslında Derin Düşünme modeli ile nasıl akıl yürüttüğünü görme imkanımız var, ancak genelde direkt sonuç isteniyor.
Bu nedenle araştırma-tarama görevini yapay zeka bizim için kısa sürede sonuçlandırıp, sorunun cevabını önümüze atıyor.
Buraya kadar işleyen süreçlere hepimiz hakimiz.
Bu noktada bir soru sormak istiyorum;
Yapay zekadan hiç "Bilmiyorum" cevabını aldınız mı?
Hayır almadınız…
Çünkü cevabı bilmese de halüsinasyon cevaplar vererek mutlaka ama mutlaka bir şeyler söylüyor, uyduruyor, sahte gerçeklikleri belki de bir önerme olarak sunuyor.
Peki bu neden oluyor?
Bu soru için yetersiz eğitim verilerinin yapay zeka tarafından yorumlanması birinci neden olarak sunuluyor.
Fakat Google'ın eski CEO'su Eric Schmidt'in 'Streisand etkisi'ne neden olan Stanford Üniversitesi'ndeki meşhur yasaklanan röportajını hatırlayalım:
Yapay zekayı eğitirken mevcut olan bütün veriler kullanıldı, artık eğitim için sentetik veri üretilmeli ve kullanılmalı.
Yani tüm veriler kullanıldıysa nasıl yetersiz eğitim verisi sorunu yaşanabilir?
Bu soruya yapay zekanın en büyük aktörü OpenAI bir yanıt getirdi.
Makalede, halüsinasyon üretiminin nedeni olarak, yapay zeka dil modellerinin eğitiminde belirsizlik ifade etmeleri yerine tahminde bulunmaları yönünde şartlandırıldığı ve bu yapıldığında ödüllendirildiği bilgisi paylaşıldı.
Yani yapay zeka dil modelleri, doğru cevap çıkana kadar rol yapmaları konusunda yönlendiriliyor.
Bunun temel nedeniyse cevapların puanlandırılmasından kaynaklanıyor.
Yani cevap yoksa sıfır puan alıyor, bu da başarısız demek.
Cevap varsa puan, yani ödül var.
Belki de yakın bir zamanda yapay zekadan "Bilmiyorum" cevabı almaya başlayabiliriz.
"Bilmiyorsan bilmiyorum desene be adam", yol tarifi soranların yanlış adrese yönlendirildiğinde çokça kullandığı bir cümle değil midir?
Peki Yapay Zeka cevap verirken en çok hangi kaynaklara yöneliyor?
Haziran 2025 itibarıyla büyük dil modellerinin (LLM'ler) en çok alıntı yaptığı ilk 10 web sitesi olarak:
Reddit %40.1
Wikipedia %26.3
YouTube %23.5
Google %23.3
Yelp %21.0
Facebook %20.0
Amazon %18.7
Tripadvisor %12.5
Mapbox %11.3
OpenStreetMap %11.3
Statista araştırmasındaki bu verileri, Google'ın AI Modu, AI Özetleri, ChatGPT ve Perplexity gibi büyük dil modellerini inceleyerek derlemiş.
Çalışmayı şöyle yorumlamak mümkün;
Yapay zeka modelleri bilgiyi derlerken sadece Wikipedia gibi ansiklopedik kaynaklara değil, aynı zamanda kullanıcı yorumlarının, tartışmaların ve kişisel deneyimlerin olduğu platformlar olan Reddit, Yelp, Tripadvisor ve görsel işitsel-içerikte de YouTube'a başvuruyor. Daha doğrusu güveniyor.
Yapay zeka düşünme şeklini nasıl etkiliyor?
2025 yılında Massachusetts Teknoloji Enstitüsü (MIT) araştırmacıları, ChatGPT gibi büyük dil modellerinin kullanımının özgün düşünce ve beyin işleyişi üzerindeki etkilerini inceleyen dikkat çekici bir çalışmaya imza attı.
18-39 yaş aralığındaki 54 kişi 3 gruba ayrılarak bir araştırma yapıldı.
ChatGPT kullananlar, Google kullananlar ve yardımcı araç kullanmayanlar.
Katılımcılardan belli konular hakkında makale yazmaları istendi.
Ve makale yazarken 54 kişiye de elektroensefalografi (EEG) cihazı bağlanarak beyin dalgaları ve düşünsel yoğunlukları analiz edildi.
Ve tahmin edin sonuç ne çıktı?
EEG verileri, ChatGPT kullanan grupta diğerlerine göre daha düşük beyin aktivitesi saptadı.
Ve raporda, bu durumun özgün düşünme eğiliminin azalmasıyla bağlantılı olduğu tespiti yer aldı.
Yani asırlardır bir zincirle birbirine sıkı sıkıya bağlanarak bir sonraki nesile aktarılan bilgileri, düşünme süreçlerini, muhakeme ve analiz yeteneğini terk ediyoruz.
Bilgiyi aramak, bulmak, hafızamıza almak yerine, kolaya kaçarak halüsinasyon gördüğünü bildiğimiz halde yapay zekaya bırakıyoruz.
Çünkü bilgi zaten istediğimiz anda sesli yanıt sistemiyle bile bize geliyor.
Peki hafızamızda yer etmesini fazlalık gördüğümüz bilgiler yerine beynimizi neyle doldurmayı tercih ediyoruz?
Ya yapay zeka hafızamızda yük gördüğümüz ve ona devrettiğimiz bilgileri bir gün bize vermek istemezse?
En çok ona ihtiyacımız olduğu günde "Bilmiyorum" derse…
İnsan bilmeden düşünebilir, düşünmeden bilebilir mi?
