Yapay zekanın da insanlar kadar aşırı özgüvenli ve önyargılı olduğu ortaya çıktı

0

İnsanlar ve yapay zeka (YZ) sistemleri çok farklı “düşünseler” de , yeni araştırmalar YZ’lerin bazen bizim kadar mantıksız kararlar aldığını ortaya koydu.

Yeni bir çalışmada incelenen senaryoların neredeyse yarısında ChatGPT, insanların karar verme sürecindeki en yaygın önyargıların çoğunu sergiledi. 8 Nisan’da Manufacturing & Service Operations Management dergisinde yayımlanan bulgular, ChatGPT’nin insan psikolojisinde bulunan 18 iyi bilinen bilişsel önyargıya göre davranışını değerlendiren ilk bulgulardır.

Kanada ve Avustralya’daki beş akademik kurumdan makalenin yazarları, ChatGPT’yi destekleyen iki büyük dil modeli (LLM) olan OpenAI’nin GPT-3.5 ve GPT-4’ünü test ettiler ve muhakemelerinde “etkileyici derecede tutarlı” olmalarına rağmen, insan benzeri kusurlara karşı bağışık olmadıklarını keşfettiler.

Üstelik bu tutarlılığın hem olumlu hem de olumsuz etkileri var, diyor yazarlar.

“Yöneticiler, net, formüle edilmiş bir çözümü olan sorunlar için bu araçları kullanarak en çok faydayı sağlayacaklar,” diyor çalışmanın baş yazarı, Ivey İşletme Okulu’nda operasyon yönetimi yardımcı doçenti Yang Chen . “Ancak bunları öznel veya tercihe dayalı kararlar için kullanıyorsanız, dikkatli olun. “

Çalışmada, riskten kaçınma, aşırı özgüven ve sahip olduğumuz şeylere daha fazla değer yüklememiz gibi yaygın olarak bilinen insan önyargıları ele alındı ​​ve ChatGPT’ye verilen komutlara uygulanarak, ChatGPT’nin insanların düştüğü tuzaklara düşüp düşmediği görüldü.

Mantıklı kararlar — bazen

Bilim insanları, LLM’lere envanter yönetimi veya tedarikçi müzakereleri gibi alanlarda geleneksel psikolojiden ve gerçek dünyadaki ticari uygulanabilirlik bağlamında alınan varsayımsal sorular sordular. Amaç, yalnızca yapay zekanın insan önyargılarını taklit edip etmeyeceğini değil, aynı zamanda farklı iş alanlarından sorular sorulduğunda bunu yapıp yapmayacağını görmekti.

GPT-4, olasılık ve mantık tabanlı senaryolarda daha az hata göstererek, net matematiksel çözümlere sahip problemleri yanıtlamada GPT-3.5’ten daha iyi performans gösterdi. Ancak, kazanç elde etmek için riskli bir seçeneği seçip seçmeme gibi öznel simülasyonlarda, sohbet robotu genellikle insanların gösterme eğiliminde olduğu irrasyonel tercihleri ​​yansıttı.

Araştırmacılar makalede, yapay zekanın belirsiz görevler verildiğinde daha güvenli ve daha öngörülebilir sonuçlara yönelme eğilimine atıfta bulunarak, “GPT-4, insanlardan bile daha güçlü bir kesinlik tercihi gösteriyor” ifadelerini kullandılar.

Daha da önemlisi, sohbet robotlarının davranışları, sorular soyut psikolojik sorunlar veya operasyonel iş süreçleri olarak çerçevelendirilse de çoğunlukla sabit kaldı. Çalışma, gösterilen önyargıların yalnızca ezberlenmiş örneklerin bir ürünü olmadığı, aynı zamanda yapay zekanın nasıl akıl yürüttüğünün bir parçası olduğu sonucuna vardı.

Çalışmanın şaşırtıcı sonuçlarından biri de GPT-4’ün bazen insan benzeri hataları nasıl artırdığıydı. Yazarlar çalışmada “Onaylama yanlılığı görevinde GPT-4 her zaman yanlı yanıtlar verdi” diye yazdı. Ayrıca GPT 3.5’ten daha belirgin bir sıcak el yanılgısı (rastgelelikte desenler bekleme yanlılığı) eğilimi gösterdi.
Buna karşılık, ChatGPT, temel oran ihmali (anekdotsal veya vaka özelindeki bilgiler lehine istatistiksel gerçekleri görmezden gelmemiz) ve batık maliyet yanılgısı (karar alma sürecinin daha önceden katlanılmış bir maliyetten etkilenmesi ve alakasız bilgilerin yargıyı bulandırmasına izin verilmesi) gibi bazı yaygın insan önyargılarından kaçınmayı başardı.

Yazarlara göre, ChatGPT’nin insan benzeri önyargıları, insanların sergilediği bilişsel önyargıları ve sezgisel yöntemleri içeren eğitim verilerinden gelir. Bu eğilimler, özellikle insan geri bildirimi mantıklı yanıtları rasyonel olanlara tercih ettiğinde, ince ayar sırasında güçlendirilir. Daha belirsiz görevlerle karşılaştıklarında, AI doğrudan mantıktan çok insan akıl yürütme kalıplarına doğru kayar.

Chen, “Doğru, tarafsız karar desteği istiyorsanız, zaten bir hesap makinesine güveneceğiniz alanlarda GPT kullanın,” dedi. Ancak sonuç daha çok öznel veya stratejik girdilere bağlı olduğunda, bilinen önyargıları düzeltmek için kullanıcı istemlerini ayarlamak olsa bile, insan denetimi daha önemlidir.