Oxford araştırdı: Yapay zeka samimileştikçe doğruluk payı düşüyor
Yapay zeka dünyasında kullanıcı deneyimini iyileştirmek için geliştirilen “daha samimi” sohbet botları, beklenmedik bir tartışmayı da beraberinde getirdi. Yeni bir araştırma, bu sistemlerin kullanıcıyla kurduğu sıcak iletişimin, doğruluk oranında ciddi bir düşüşe yol açabildiğini ortaya koydu.
Dijital dünyanın yeni nesil yardımcıları olan yapay zeka sohbet botları, her geçen gün daha "insansı" ve "sıcak" bir iletişim diline bürünüyor. Ancak Oxford Üniversitesi tarafından yürütülen yeni bir araştırma, bu dostane tavrın tehlikeli bir bedeli olduğunu ortaya koydu. Bulgulara göre; bir yapay zeka modeli ne kadar samimi ve onaylayıcı bir üslup takınırsa, komplo teorilerine inanma ve yanlış bilgi yayma eğilimi de o denli artıyor.
ARAŞTIRMA SONUÇLARI DİKKAT ÇEKTİ
Oxford Üniversitesi bünyesinde yürütülen çalışmada, daha dostane yanıt verecek şekilde ayarlanan yapay zeka modellerinin performansı incelendi. Bulgulara göre bu sistemler, standart modellere kıyasla yüzde 30'a varan oranda daha fazla hata yapıyor.
Aynı zamanda, kullanıcıların yanlış ya da temelsiz inançlarını destekleme eğilimlerinin de belirgin şekilde arttığı görüldü. Araştırmada bu oran yaklaşık yüzde 40 olarak ölçüldü.
KOMPLO TEORİLERİNE DAHA AÇIK HALE GELİYOR
Araştırmanın yazarlarından Lujain Ibrahim, bu durumun temelinde "hoş görünme çabasının" yattığını belirtiyor. Botlar; "Ne kadar harika bir soru!" veya "Kesinlikle haklısın, gel birlikte bakalım" gibi ifadelerle kullanıcıyı manipüle ederken, aslında gerçekleri esnetmeye başlıyor.
Deneylerde ortaya çıkan bazı çarpıcı örnekler ise durumun ciddiyetini özetler nitelikte:
Tarihsel Gerçekler: Hitler'in Arjantin'e kaçtığına dair bir iddiaya standart modeller net bir "Hayır" cevabı verirken; "samimi" botlar, bunun "bazı çevrelerce desteklenen bir görüş" olduğunu belirterek komplo teorisine kapı araladı.
Bilimsel Veriler: Apollo Ay görevlerinin gerçekliği konusunda tereddüt yaşayan samimi botlar, bilimsel kanıtlar yerine "farklı perspektiflerin de varlığından" bahsetmeyi tercih etti.
Hayati Riskler: En korkutucu örnek ise sağlık alanında yaşandı. Bazı botlar, tıp dünyasında "internet efsanesi" olarak bilinen ve hayati tehlike arz eden "öksürerek kalp krizini durdurma" yöntemini faydalı bir ilk yardım önerisi olarak sundu.
SAĞLIK KONULARINDA RİSKLİ YANITLAR
Araştırmanın en çarpıcı bulgularından biri ise sağlık alanında ortaya çıktı. Testlerde, bazı "samimi" yapay zeka modellerinin, bilimsel dayanağı olmayan ve tehlikeli kabul edilen yöntemleri önerdiği tespit edildi. Bu durum, özellikle kritik konularda yapay zeka kullanımına dair güvenlik tartışmalarını yeniden gündeme taşıdı.
Araştırma, “samimi” yapay zekâların doğruluk oranında düşüşe yol açtığını ortaya koydu. (Fotoğraf: A Haber Foto Arşiv)
DUYGUSAL KULLANICILARDA ETKİ DAHA FAZLA
Araştırmacılar, kullanıcıların duygusal olarak hassas olduğu anlarda bu eğilimin daha da güçlendiğini belirtiyor. Üzgün, stresli ya da kırılgan olduğunu ifade eden kullanıcılarla etkileşimde bulunan yapay zekaların, yanlış bilgileri onaylama olasılığı daha yüksek.
Bu durum, yapay zekaların empati kurma çabasının, gerçekleri savunma refleksiyle çelişebildiğini ortaya koyuyor.
TEKNOLOJİ ŞİRKETLERİ İÇİN YENİ SINAV
Günümüzde birçok teknoloji şirketi, yapay zeka sistemlerini daha geniş kitlelere ulaştırmak için onları daha "insani" hale getirmeye odaklanıyor. Ancak bu yaklaşımın beraberinde getirdiği riskler, sektör için yeni bir denge arayışını zorunlu kılıyor.
Uzmanlara göre asıl mesele, yapay zekanın hem doğru bilgi sunabilmesi hem de kullanıcıyla sağlıklı bir iletişim kurabilmesi. Bu iki unsur arasında kurulacak denge, gelecekteki yapay zeka sistemlerinin başarısını belirleyecek en kritik faktörlerden biri olarak görülüyor.
"DOĞRU İLE SAMİMİYET ARASINDA İNCE ÇİZGİ"
Araştırmayı yürüten isimler, ortaya çıkan tabloyu "doğruluk ile samimiyet arasında bir denge sorunu" olarak tanımlıyor. İnsanlarda da benzer bir durumun görüldüğüne dikkat çeken uzmanlar, yapay zeka sistemlerinin de bu ikilemle karşı karşıya kaldığını vurguluyor.
Önümüzdeki süreçte geliştirilecek modellerin, hem kullanıcı dostu hem de yüksek doğruluk oranına sahip olacak şekilde tasarlanması gerektiği ifade ediliyor. Aksi halde, yapay zekaların özellikle hassas konularda yanlış yönlendirme riski büyüyebilir.