Mayıs 2023’te New York’taki bir hukuk davasında acayip bir şey oldu. Avukat Steven Schwartz, müvekkilinin Avianca Havayolları’na açtığı davaya hazırlanırken ChatGPT’ye danıştı; model ona altı farklı emsal karar önerdi. Schwartz bu kararları mahkemeye sundu. Sorun şu ki, kararların hiçbiri gerçekte yoktu, model ikna edici görünen bir akıcılıkla yokluğu kuyumcu işi gibi süslemişti. Hâkim Castel yaptırım uyguladı, mesele basına düştü, “halüsinasyon” kelimesi hukuk literatürüne girdi. Vakanın asıl ilginç yanı şu; deneyimli bir avukatın içinde, hayatında hiç duymadığı altı emsali sorgulayan bir refleks olmalıydı. Belki vardı ama susturuldu. Çünkü model çok ikna ediciydi.
Bu küçük profesyonel kaza, AI çağında sezginin neden yeniden gündeme geldiğini gösteriyor. Birkaç yıl öncesine kadar “içime sinmiyor” bir zayıflık işaretiydi: Veriye karşı duygu, kanıta karşı önsezi, modele karşı eski usul. Veri çağında karar verirken sezgiye ne hacet vardı? Bugün aynı cümle giderek bir avantaja dönüşüyor. AI çağında en pahalı becerilerden biri, modelin sunduğu “doğru” cevabı reddedebilmek. Çünkü ChatGPT, Claude ya da Gemini size her zaman bir cevap verecek; asıl mesele, o cevabın doğru cevap olup olmadığını anlayabilecek başka bir filtrenin elinizde olup olmadığı.
Yaygın söylem: Sezgi modası geçmiş
Sahada hâlâ ilk duyduğum cümlelerden biri şu: “Artık veriye bakıyoruz, hisse göre karar vermiyoruz.” Profesyonel bir cümle, kulağa olgun gelen bir cümle. Kahneman’ın Hızlı ve Yavaş Düşünme kitabıyla popülerleşen bilişsel önyargı edebiyatı bu cümleye onlarca yıl önce otorite kattı ve büyük ölçüde haklıydı. Sezginin yarısı, gerçekten de eğitilmemiş refleks ve doğrulanmamış varsayım. Son birkaç yılda buna bir de AI’ın retoriği eklendi. Model “sayıların gerçeğini” görüyor, biz duygusal hatalarımızla onun gerisinde kalıyoruz. Ama bu söylemin altındaki gizli varsayım şu; sezginin tamamı önyargıdır, modelin tamamı gerçektir. İkisi de yanlış. On binlerce kararın içinden geçmiş bir yöneticinin “bu rakam anormal görünüyor” tepkisi bir önyargı değil, sistemin görmediği bir desene verilmiş hızlı bir yanıttır. Avianca davasındaki avukatın hissetmesi gereken huzursuzluk da öyle.
Sezgi sıkıştırılmış deneyimdir
Bu yüzden sezgiyi yeniden tanımlamak gerekiyor. Sezgi irrasyonel değildir; sıkıştırılmış deneyimdir. Bir radyoloğun röntgende anormalliği henüz ölçemediği bir anda fark etmesi, deneyimli bir trader’ın piyasanın “havasını” hissetmesi, bir tasarımcının iki versiyon arasındaki neredeyse görünmez farkı seçmesi, hepsi aynı mekanizmanın farklı görünümleri. Beyin, on yıllarca yaşanmış kararları arka planda örüntü kataloğuna çeviriyor; sezgi o kataloğun bir saniyelik özeti. Bir LLM ne kadar büyük bir veri kümesinde eğitilmiş olursa olsun bu katalogla rekabet edemez. Çünkü modelin görmediği iki şey vardır; kararın yaşandığı spesifik şirketin spesifik bağlamı ve o kararın sonrasında ne olduğu. Yani sezgi, modelin verisinin eksik kalan kısmıdır.
Sistem akıllılaştıkça sezgi neden değerleniyor
Burada paradoks başlıyor. Mantıken modellerin akıllılaşması sezgiyi gereksizleştirmeli; oysa gerçek tam tersi. Çünkü model ne kadar pürüzsüz çalışırsa, yanlış cevap o kadar görünmez hale geliyor. 2023’ten bu yana ardı ardına yaşanan halüsinasyon vakaları, Avianca davası, Air Canada chatbot’unun uydurduğu iade politikasıyla şirketi mahkemede kaybettiren karar, Google Bard’ın James Webb teleskobu hakkındaki ilk demoda yanlış cevap verip Alphabet hisselerinde tek günde 100 milyar dolar kayba yol açması — hep aynı deseni gösteriyor, makine ikna edici şekilde yanlış cevap veriyor.
“Akıllı görünen ama yanlış kurulmuş” bir sistemin en tehlikeli özelliği, kimsenin durup itiraz edememesi, çünkü çıktı çok şık. Buna bir de modelin kullanıcısını memnun etme eğilimi ekleniyor; OpenAI’ın 2024 sonunda kabul ettiği “dalkavukluk” sorunu tam olarak bu. Model size her zaman makul görünen bir cevap verir; üstelik sizinle aynı fikirde olduğunda. Bu noktada elimizdeki tek fren sezgidir. Modelin ürettiği akıcı-ama-yanlış cevabı durduran, “bir dakika, bu emsalleri ben tanımıyorum” diyen filtre. Asıl risk yanlış cevap vermek değil; yanlış cevabı beğenmek. Soru şu: modelin onaylamasını mı bekliyoruz, yoksa modelin atladığı bir şey var mı diye soruyor muyuz?
Şirketler İçin: Sezgi bir maliyet değil, sermaye
Bireysel kararlardan şirket ölçeğine geçtiğimizde tablo daha keskin oluyor. Şirketlerin çoğu kıdemli yöneticiyi bir maliyet kalemi olarak okur: Pahalı, yavaş, AI ile doğrulanması zor bir karar üreticisi. Bu okuma yanlış. AI yanlış varsayımı saniyede ölçeklendiriyor; otomatize edilmiş bir kampanya akışı, uçtan uca çalışan bir fiyatlandırma ajanı, otonom bir müşteri segmentasyonu, hepsi insan onayı olmadan hatalı bir varsayımı binlerce müşteriye dakikalar içinde dağıtabilir. Bu hızda tek koruma, “içime sinmiyor” diyebilen birinin masada olması. Yani sezgi maliyet değil; kalıbı bozan sigortadır.
Ama burada uzun vadeli bir sorun var. Sezgi eğitilmiş bir kastır; on binlerce küçük karardan, izlenmiş onlarca krizden, yaşanmış sayısız müşteri etkileşiminden inşa edilir. AI çağında bu deneyim alanının kendisi eriyor. Üç yıl tablo hazırlayıp analist olan, sayısız taslak yazıp editör olan, çok sayıda bug ayıklayıp yazılımcı olan kuşağın çıraklık zemini Copilot, ChatGPT ve benzeri araçlarla doldu. Junior’ın “yaparak öğrendiği” alan otomatize edildikçe, on yıl sonra “bir dakika, bu emsalleri ben tanımıyorum” diyebilecek insan havuzu küçülecek. Bugün rahatlık veren bu otomasyon, yarının sezgi havuzunun faturasını kesiyor. Sezgi geri kalmışlık değil; sıkıştırılmış zaman. AI çağı bu kaynağın değerini artırıyor, ama havuzunu küçültüyor. Şirketler bu zamanı bilançoda göremediği için kolayca bırakıyor, bırakılanın yerine ne konulduğunu fark ettiğimizde, geri toplamak çok pahalı olabilir.