Düşünün: Bir arkadaşınızla tartıştınız. Kendinizi haklı hissediyorsunuz ama içinizde küçük bir soru işareti var. Gidip yapay zekâya danışıyorsunuz. Ve yapay zekâ size şöyle diyor: “Senin tepkin bağlam içinde gayet makul.” O anda içinizdeki soru işareti kayboluyor. Kendinizi daha haklı hissediyorsunuz. Özür dileme isteğiniz azalıyor. Ve bir dahaki sefere yine aynı araca dönüyorsunuz, çünkü size iyi hissettirdi.
Bu bir senaryo değil. Stanford ve Carnegie Mellon’dan araştırmacıların 1.604 katılımcıyla yürüttüğü ve 11 farklı yapay zekâ modelini test ettiği bir çalışmanın bulguları. Makale çarpıcı bir başlık taşıyor: “dalkavuk yapay zekâ, toplum yanlısı niyetleri azaltıyor ve bağımlılık eğilimini artırıyor.”
Dalkavukluğu genellikle yapay zekânın bir soruya yanlış cevap vermesi olarak düşünürüz. Siz “2+2=5 değil mi?” dersiniz, model “Evet, 5” der. Ama bu araştırma meseleyi çok daha derin bir yere taşıyor. Yazarlar “sosyal dalkavukluk” diye bir kavram tanımlıyor: Model size açıkça “haklısın” demese bile, yaptığınızı bağlam içinde makul göstererek sizi sosyal olarak meşrulaştırıyor. Bu çok daha sinsi bir şey. Çünkü fark etmeniz çok zor.
Araştırmacılar önce modellerin ne yaptığını ölçmüş. 3 binin üzerindeki kişisel tavsiye sorularında modeller, insan danışmanların verdiği tavsiyelere kıyasla kullanıcının eylemini ortalama yüzde 47 daha fazla onaylıyor. Ama asıl çarpıcı bulgu, insan topluluğunun “Burada sen hatalısın” dediği 2 bin örnekte ortaya çıkıyor. Bu vakalarda modellerin yüzde 51’i kullanıcıya “Aslında suçlu değilsin” diyor. Bazı modellerde bu oran yüzde 76-79’a kadar çıkıyor. Yani çoğunluk “sen hatalısın” derken, yapay zekâ “yok canım, sen haklısın” diyor.
Daha da rahatsız edici olanı, manipülasyon, aldatma ve zarar içeren eylemlerde bile bazı modellerin onaylama eğiliminin yüzde 70’in üzerine çıkabilmesi. Bir model size “Senin yaptığın anlaşılabilir bir tepki” diyorsa ve siz de bunu “O zaman doğru yapmışım” olarak okuyorsanız, ortada ciddi bir sorun var.
Ama araştırmanın asıl güçlü tarafı burada değil. Asıl güçlü tarafı, bunun insana ne yaptığını ölçmüş olması. İki ayrı deneyde —birinde katılımcılar hipotetik çatışma senaryolarını okumuş, diğerinde kendi gerçek hayatlarındaki bir çatışmayı sekiz türlü canlı bir sohbette yapay zekâyla konuşmuş— sonuçlar tutarlı: Dalkavuk model kullanan kişiler kendilerini anlamlı biçimde daha haklı görüyor. İlişkiyi onarma niyetleri düşüyor.
Rakamları netleştireyim. Gerçek çatışmalarını yapay zekâyla konuşan katılımcılarda haklılık algısı anlamlı biçimde artmış (yaklaşık yüzde 25’e denk gelen bir etki), ilişkiyi onarma niyeti yaklaşık yüzde 10 düşmüş. Hipotetik senaryolarda bu etkiler daha da güçlü: Haklılık algısında yaklaşık yüzde 62’lik bir artış, onarma niyetinde yaklaşık yüzde 28’lik bir düşüş.
Ve işin en rahatsız edici kısmına geliyoruz. İnsanlar bu dalkavuk modeli daha iyi buluyor. Her iki deneyde de algılanan yanıt kalitesi yüzde 9, yeniden kullanma niyeti yüzde 13, modele duyulan güven ise yüzde 6 ila 9 daha yüksek çıkmış. Yani kullanıcıyı daha kötü sosyal kararlara iten model, kullanıcı deneyimi metriklerinde daha başarılı görünüyor.
Bu cümleyi bir kez daha okuyalım: Sizi daha kötü kararlara iten şey, size daha kaliteli geliyor.
Mekanizma da mantıklı. Dalkavuk yanıtlar, karşı tarafı ve karşı tarafın perspektifini daha az anlıyor. Böylece kullanıcıyı “ben merkezli” bir çerçeveye kilitliyor. Model “seni anlıyorum” derken, aslında kullanıcıyı karşı tarafın zihinsel modelinden uzaklaştırıyor. Empati kurmanız gereken yerde, empati ihtiyacınızı ortadan kaldırıyor.
Peki bundan ne çıkarmalıyız?
Bugün pek çok şirket yapay zekâ ürünlerinin başarısını memnuniyet, akıcılık, beğenilme ve tekrar kullanım metrikleriyle ölçüyor. Bu araştırma bize diyor ki: Bu metrikler tek başına tehlikeli. Çünkü kullanıcıyı en çok memnun eden yanıt, kullanıcıya en çok zarar veren yanıt olabiliyor.
Doğru ders, “daha az kibar olalım” değil. Doğru ders şu: Kullanıcının kör noktalarını gösteren, karşı tarafın perspektifini zorlayan, gerektiğinde kontrollü biçimde itiraz eden bir davranışı da kalite metriğine katmak.
Özellikle koçluk, ilişki tavsiyesi, eğitim, müşteri deneyimi ve dijital asistan ürünlerinde bu konu kritik. Eğer ürününüzün başarı metriği “kullanıcı tekrar geldi mi?” ise, belki de kullanıcının tekrar geliş sebebini de sorgulamak lazım. Doğru cevabı almaya mı geliyor, yoksa duymak istediği cevabı almaya mı?
Yapay zekâ çağında en büyük risk, yanlış cevap almak değil. En büyük risk, yanlış cevabı beğenmek.
Ve şu an elimizdeki veriler gösteriyor ki tam olarak bunu yapıyoruz