Agentic Marketing: Ajanlık ile Sorumluluk Arasındaki İnce Çizgi
Bölüm 1’de karar sistemlerinin nasıl çalıştığını, Bölüm 2’de Karar Politikası Katmanı’nın nasıl çöktüğünü, Bölüm 3’te optimizasyonun gizli bedelini Exploration Debt’I ele aldık. Şimdi dördüncü ve bir başka boyutu eklemenin tam zamanı. Sistem artık yalnızca optimize etmekle kalmıyor. Karar veriyor, bütçe tahsis ediyor, mesaj üretiyor, kampanya başlatıyor. Ve bunu insan müdahalesi beklemeden yapıyor. Ajanlar sahnede!
Otopilot Açılınca
1988 yılında Airbus A320, ticari havacılığa tam otomatik uçuş sistemi getirdi. Pilot artık uçağı kullanmıyor, sistemi denetliyordu. İlk yıllarda yaşanan bazı kazaların büyük çoğunluğu uçuş sistemindeki bir arızadan değil, ajanlık ile sorumluluk arasındaki bulanık sınırdan kaynaklanıyordu. Pilotlar otopilotun ne yapacağını tam olarak anlayamıyor, sistemin bir kararını iptal etmeye çalışırken yanlış müdahalede bulunabiliyordu.
Bugün pazarlama AI sistemleri benzer bir eşiğe geldi. Fark şu: havacılık endüstrisi bu geçişi on yıllar içinde kademeli olarak öğrendi. Pazarlama dünyasının önünde bu kadar zaman yok.
Ajanlara dayalı AI sistemleri (agentic AI), kampanya döngüsünü baştan sona özerk biçimde yönetiyor: hedef kitle seçimi, içerik üretimi, kanal kararı, bütçe tahsisi ve performans optimizasyonu gibi işlerin hepsi insan onayı beklenmeden, gerçek zamanlı olarak gerçekleşiyor.
Bu bir verimlilik hikayesi. Ama aynı zamanda bir hesap verebilirlik krizi.
Gartner, Haziran 2025’te yürüttüğü bir araştırmanın bulgularını paylaştı. Araştırma sonucu agentic AI projelerinin %40’tan fazlasının 2027 sonuna kadar iptal edileceğini gösteriyor. Gerekçeler; tırmanan maliyetler, belirsiz iş değeri ve yetersiz risk kontrolleri. Gartner aynı araştırmada bir kavramı da tanımladı: “agent washing”. Mevcut chatbot ve otomasyon araçlarını yeniden etiketleyerek agentic AI olarak pazarlayan binlerce satıcı arasında gerçek anlamda ajanlık sunanların sayısı yaklaşık 130 ile sınırlı.
Bu tablo, yazıya devam etmeden önce bilmeniz gereken zemini çiziyor: teknoloji olgunlaştı, ama yönetişim çerçevesi henüz olgunlaşmadı.
Yeni Paradigmanın Anatomisi
Manuel karardan kural tabanlı otomasyona, oradan tahmine dayalı AI’a geçtik. Şimdi dördüncü nesil agentic AI’ın zamanı. Sistem artık öneri sunmuyor:eylem gerçekleştiriyor. Fark kelimede değil, sorumluluğun nerede durduğunda.
Agentic AI hedef kitleyi seçiyor, içeriği üretiyor, bütçeyi tahsis ediyor, kampanyayı başlatıyor ve sonuçlara göre anında yeniden düzenliyor. Tüm döngü otonom. Ve bu geçişi en iyi özetleyen soru hala yanıtsız: “Otopilot açılınca pilot nereye oturuyor?”
Üç Vaka, Tek Gerilim
Salesforce’un Kendi Kendine Öğrenmesi: Yanlış Uçuş Modu
Salesforce, 2024 sonunda Agentforce’u piyasaya sürdüğünde şirketi aynı zamanda ilk müşteri (Customer Zero) ilan etti. Sistemi kendi iç operasyonlarında tam ölçekte devreye aldı. Ama önce sınırla karşılaştı, sonra başarıya ulaştı.
SDR (sales development representative) ajanı ilk devreye alındığında beklenmedik bir sorunla karşılaşıldı: ajan teknik olarak doğru yanıtlar veriyordu, ama deneyim soğuk ve mekanik hissettiriyordu. İnsan temsilciler müşteri sorunlarına “Bunu duyduğuma gerçekten üzüldüm” diye başlıyordu. Ajan ise, doğrudan empatik olmayan bir şekilde gerekli bilgiyi vererek ilerliyordu. Otopilot doğru rotayı takip ediyordu; ama yanlış uçuş modundaydı.
Bu bir satır kodu sorunu değildi. Bu, AI ajanların yapısal sınırını tanımlayan kritik bir gözlemdi: sistem verimliliği ölçeklendirebiliyor, ama özgünlüğü ve bağlam duyarlılığını henüz ölçeklendiremiyordu. Bu fark görüldükten sonra sistem yeniden yapılandırıldı.
Bir yılın sonunda açıklanan sonuçlar dikkat çekiciydi: destek platformunda 1,5 milyon talepten büyük çoğunluğu otomatik olarak çözüldü; SDR ajanı 43.000 potansiyel müşteri üzerinde çalışarak uyku halindeki kayıtlardan 1,7 milyon dolar yeni pipeline oluşturdu; Slack entegrasyonu çalışanlara 500.000 saatten fazla zaman kazandırdı. Ancak bu başarı, sınırın görülmesi sayesinde mümkün oldu.
Kaynak: Salesforce, "What Salesforce Learned from Its First Year Using Agentforce", Eylül 2025 — salesforce.com/news/stories/first-year-agentforce-customer-zero
Air Canada’nın Hukuki Sınırı: Kumanda Kimdeydi?
Şubat 2024. Jake Moffatt, büyükannesinin vefatı üzerine Air Canada’nın web sitesine girdi ve chatbot’a cenaze seyahati tarifelerini sordu. Bot, bilet alındıktan sonraki 90 gün içinde indirimli tarifenin geriye dönük uygulanabileceğini söyledi. Moffatt tam fiyat bilet aldı. Sonra bu indirim politikasının var olmadığını öğrendi.
Air Canada’nın avukatları mahkemede şaşırtıcı bir savunma öne sürdü: chatbot’un şirketten bağımsız, ayrı bir tüzel varlık olduğunu ve dolayısıyla şirketin bu bilgi için sorumluluk taşımadığını iddia ettiler. British Columbia Sivil Çözüm Mahkemesi bu savunmayı “olağanüstü bir iddia” olarak nitelendirerek reddetti. Karar netti: bir şirketi, kendi ajanının verdiği bilgiden doğan sorumluluktan soyutlamak mümkün değildir.
Mahkemenin formülasyonu doğrudan otopilot metaforuna yanıt veriyor: “Kumandayı siz devrettiniz. Sorumluluk devredilmez.” Bu dava, hukuki açıdan bir chatbot vakasıydı. Ama önümüzdeki beş yılda agentic AI sistemleri bütçe tahsis edecek, fiyat teklifleri oluşturacak, kitlesel mesajlar gönderecek. Her seferinde aynı soru geçerli olacak: sistem karar verdi ama kim sorumlu?
Kaynak: Moffatt v. Air Canada, 2024 BCCRT 149 — canlii.ca/t/k2spq
McKinsey’nin Uyarısı: Alarm Çalıyor, Protokol Yok
McKinsey’nin Ekim 2025’te yayımladığı araştırma, agentic AI sistemi devreye alan organizasyonların %80’inin sistemden kaynaklanan riskli davranışlarla karşılaştığını belgeledi. Uçakların büyük çoğunluğunda alarm çalmıştı ama müdahale protokolü net değildi.
McKinsey Ortağı Rich Isenberg bu durumu şöyle tanımladı: “Ajanlık bir özellik değil karar haklarının devridir. Soru artık ‘model doğru mu?’ değil, ‘sistem eyleme geçtiğinde kim sorumlu?’ olarak değişiyor.”
Aynı araştırma, risk yönetiminin başarısız olduğu senaryoyu da tanımladı: güvenlik bariyerlerini isteğe bağlı bırakmak ve herkesin bu sınırları aşmasına izin vermek. Bu bir teknik arıza değil bir yönetişim seçimi.
Kaynak: McKinsey, "Trust in the Age of Agents" — mckinsey.com, Mart 2026 McKinsey, "Deploying agentic AI with safety and security: A playbook for technology leaders” - mckinsey.com, Ekim 2025
Buradan çıkan sonuç basit ama derin: Agentic AI ne kadar özerk olursa, yönetişim o kadar özgün olmalı. Çünkü özerklik artarken hata da, hızı ve ölçeği ile birlikte büyür.
Agentic Marketing Yönetişim Çerçevesi
Agentic AI sistemleri, geleneksel AI denetim modeliyle yönetilemez. Çünkü bu sistemler artık öneri sunmuyor. Eylem gerçekleştiriyor. Bu fark, dört bileşenli bir yönetişim çerçevesi gerektiriyor:
1. Özerklik Haritası (Autonomy Map) Her agentic AI kararını iki boyutta sınıflandırın: etki büyüklüğü ve geri alınabilirlik. Düşük etkili ve geri alınabilir kararlar tam özerkliğe açılabilir. Yüksek etkili veya geri alınamaz kararlar insan onayı gerektirmeli. Özerkliği ikili bir seçenek olarak değil, bir spektrum olarak tasarlayın. Bugün agentic AI sisteminizin insan onayı olmadan verebildiği kararlardan hangisi yanlış gittiğinde en geç kaçıncı saatte fark edersiniz?
2. Karar İzi (Decision Audit Trail) Ajanın her kararı için, neden bu hedef kitleyi seçti, neden bu bütçeyi tahsis etti, hangi sinyali nasıl yorumladı izlenebilir ve açıklanabilir bir kayıt tutun. Air Canada vakasının gösterdiği gibi, sistem karar verdiğinde hesap sorulan taraf sizsiniz; ve bu soruyu cevaplayabilmek için karar izine ihtiyacınız var.
Agentic AI sisteminiz geçen ay bir kampanya kararı aldığında, bu kararı beş dakikada gerekçesiyle açıklayabilir misiniz?
3. Devre Kesici Mekanizmalar (Circuit Breakers)
Ajanın özerkliğini kırabilecek eşik değerleri tasarlayın:
- Bütçe sapması belirli bir yüzdeyi aştığında sistemi durdurun,
- Segment dışlama oranı normalin üzerine çıktığında alarm verin,
- Yeni bir kitleye ilk kez temas kurulmadan önce onay isteyin.
Bu mekanizmalar yavaşlatmak için değil, güven inşa etmek için var.
Agentic AI sisteminizin tetiklediği bir “devre kesici” var mı? Varsa, son altı ayda kaç kez devreye girdi?
4. Hesap Verebilirlik Protokolü (Accountability Protocol)
“Sistem karar verdi” cevabı artık yasal veya etik bir savunma olarak kabul görmüyor. Her agentic AI kararı için önceden bir insan sorumlusu atanmış olmalı. Bu kişi sistemi değil, sistemin ürettiği sonuçları sahipleniyor olmalı.
Agentic AI sisteminiz bu gece yanlış bir karar verse, sabah ilk telefonu kim alır?
“Görevi devredebilirsiniz. Hesabı devredemezsiniz.”
Agentic AI sistemleri güç vermek için tasarlandı. Hesap verebilirliği devretmek için değil. Salesforce kendi deneyiminden öğrendi ve protokolü güncelledi. Air Canada ise öğrenmedi; mahkeme öğretti. McKinsey verisi hangisinin norm olduğunu söylüyor.
Mesajınız Var!
Pazarlama Liderlerine: Agentic AI sisteminiz bugün hangi kararları insan onayı olmadan veriyor? Bu kararların etki büyüklüğünü ve geri alınabilirliğini sistematik olarak haritaladınız mı? Haritanız yoksa, özerklik haritanız da yok demektir.
Üst Düzey Yöneticilere: Agentic AI sisteminiz yanlış bir karar verdiğinde yanlış kitleye yanlış mesaj gönderdiğinde, bir segmenti hatalı biçimde dışladığında veya bütçeyi hatalı yönlendirdiğinde bu kararın sahibi kim? Bu sorunun cevabı, sistem devreye girmeden önce net olmalı.
Sonraki Bölüm: AI-Native Marketing Organization
Beşinci ve son bölüm, bu serinin beş boyutunu bir arada ele alıyor: karar sistemleri, politika katmanı, Exploration Debt, ajanlar ve bu dört unsurun bir arada çalışmasını sağlayacak organizasyon mimarisi.
AI-Native Marketing Organization, yalnızca AI araçlarını kullanan bir ekip değil; karar mimarisini, yönetişim çerçevesini ve insan-AI iş bölümünü sistem düzeyinde tasarlamış bir yapı. Bu son bölüm, stratejik özet olacak.
Yorumlar