Kurumsal AI Entegrasyon Seviyeleri: SaaS'tan Fine-Tuning'e Karar Rehberi
Kurumsal AI entegrasyon kararları için pratik 6 seviyeli framework. ChatGPT, RAG, MCP agent veya fine-tuning ne zaman kullanılmalı, PII ve finans sektörü uyumluluk gereksinimleri odaklı rehber.
Özet
Kurumsal AI benimseme süreci genellikle tahmin edilebilir bir patern izler: ekipler basit alternatifleri doğrulamadan sofistike çözümlerin peşinden koşar. Bu rehber, teknik karar vericilerin AI yeteneklerini gerçek iş ihtiyaçlarıyla eşleştirmesine yardımcı olan 6 seviyeli entegrasyon framework'ü (L1-L6) sunar. Framework, PII'yi sert bir mimari kapısı olarak vurgular ve finans sektörü düzenleyici gereksinimlerini ele alarak hem aşırı mühendislik hem de uyumluluk başarısızlıklarından kaçınmak için somut karar kriterleri sağlar.
Aşırı Mühendislik Tuzağı
Kurumsal ekiplerle AI çözümleri üzerinde çalışırken tutarlı bir ders öğrendim: en büyük risk yanlış teknolojiyi seçmek değil, problemin gerektirdiğinden daha karmaşık bir çözüm seçmektir.
Sürekli gözlemlediğim bir patern var: bir ekip dahili SSS asistanına ihtiyaç duyuyor. Mühendislik teklifi vektör veritabanları, özel embedding pipeline'ları ve 12 haftalık uygulama zaman çizelgesi içeriyor. Gerçek gereksinim? Bir öğleden sonrada deploy edilebilecek, yüklü PDF'lerle bir Claude Project.
Tersi de aynı derecede tehlikeli. Bir fintech ekibi müşteri işlem analizi için ChatGPT kullanıyor. Hızlı deployment, evet. Ama PII, uygun veri işleme anlaşması olmadan üçüncü taraf sağlayıcıya akıyor. Uyumluluk ihlali, "tasarruf edilen" geliştirme süresinden çok daha pahalıya mal oluyor.
Her iki patern de aynı kök nedenden kaynaklanıyor: AI entegrasyon seviyesini gerçek gereksinimlerle eşleştirmek için sistematik bir framework yok.
AI Entegrasyon Merdiveni: L1'den L6'ya
Entegrasyon merdiveni, AI yetenek seçimi için yapılandırılmış bir yaklaşım sağlar. Her seviye bir öncekinin üzerine inşa edilir, karmaşıklık ekler ama aynı zamanda yetenek de ekler.
L1: SaaS AI Chat - Doğrudan Kullanım
Ne olduğu: ChatGPT, Claude veya benzer servislere doğrudan tarayıcı erişimi. Entegrasyon yok, özelleştirme yok, manuel bağlam paylaşımı.
Uygulama maliyeti: Kullanıcı başına aylık $20-60, sıfır geliştirme süresi
En uygun olduğu durumlar:
- Bireysel üretkenlik görevleri (yazma, beyin fırtınası, kod inceleme)
- Kamuya açık bilgi üzerinde araştırma
- Sistem kurmadan önce prompt prototipleme
- Ad-hoc teknik sorular
Kısıtlamalar:
- Oturumlar arası veri kalıcılığı yok
- Üçüncü taraf sağlayıcılara PII maruziyeti
- Uyumluluk için denetim izi yok
- İş sistemleriyle entegrasyon yok
L2: Custom GPT / Claude Projects
Ne olduğu: Yüklü bilgi dosyalarıyla özel sistem prompt'ları. AI, belirli bağlam ve davranışa sahip uzman bir asistan haline gelir.
Uygulama maliyeti: Kullanıcı başına aylık $25-60 (Team/Enterprise katmanları), 2-8 saat kurulum
En uygun olduğu durumlar:
- Sabit içerikli dahili bilgi tabanları
- Uyumluluk belgesi Soru-Cevap (kamuya açık politikalar)
- İşe alım asistanları
- Teknik dokümantasyon arama
- Ürün SSS sistemleri
L2 Yeterlilik Kontrol Listesi:
- İçerik çoğunlukla statik (güncellemeler haftada birden az)
- PII veya hassas iş verisi gerekmiyor
- Bilgi tabanı token limitlerinin içinde
- Gerçek zamanlı sistem entegrasyonu gerekmiyor
- Takım boyutu 50 kullanıcının altında
- Düzenleyici denetim izi gereksinimleri yok
L3: AI ile Otomasyon Araçları
Ne olduğu: AI'yi işleme adımları olarak dahil eden iş akışı otomasyon platformları (n8n, Make, Zapier). Özel geliştirme olmadan AI'yi iş sistemlerine bağlar.
Uygulama maliyeti: Aylık $50-600 platform + API maliyetleri, 1-2 hafta kurulum
Platform karşılaştırması:
En uygun olduğu durumlar:
- Yüksek hacimli, tekrar eden AI görevleri
- Çoklu sistem orkestrasyonu
- Olay tabanlı AI yanıtları
- Özel AI mühendisliği kapasitesi olmayan takımlar
L4: RAG Altyapısı
Ne olduğu: Vektör veritabanları, embedding modelleri ve orkestrasyon koduyla özel retrieval-augmented generation. Getirme ve üretim pipeline'ı üzerinde tam kontrol.
Uygulama maliyeti: Aylık $500-2000 altyapı + 4-8 hafta geliştirme
Mimari genel bakış:
AWS Bedrock Knowledge Bases uygulamasi:
L4 ne zaman gerekli:
- Bilgi tabanı L2 limitlerini aşıyor (>200K token, >20 dosya)
- Gerçek zamanlı güncellemeler gerekli (belgeler günlük değişiyor)
- Özel chunking veya getirme mantığı gerekli
- Sorgu ve yanıtların denetim izi zorunlu
- Veri yerleşimi kontrol edilmeli
- Yüksek hacim (>1000 sorgu/gün)
Aylık maliyet dökümü (100K sorgu/ay):
L5: MCP ile Custom Agent'lar
Ne olduğu: Model Context Protocol (MCP) aracılığıyla araç erişimli AI agent'ları. Agent akıl yürütebilir, planlayabilir ve birden fazla sistemde eylem alabilir.
Uygulama maliyeti: Aylık $1000-5000 altyapı + 8-16 hafta geliştirme
Mimari paterni:
MCP Server uygulama örneği:
L5 ne zaman gerekli:
- Planlama ve akıl yürütme gerektiren çok adımlı iş akışları
- Bağlama dayalı dinamik araç seçimi
- Tek sorguda birden fazla sistemle etkileşim
- Koşullu mantıkla karmaşık karar ağaçları
- Hassas işlemler için insan-in-the-loop
L6: Fine-tuning / Kendi Modeller
Ne olduğu: Tescilli veri üzerinde özel model eğitimi. Sadece prompting ile elde edilemeyen uzman davranış.
Uygulama maliyeti: Aylık $2000-10000 + önemli ML uzmanlığı
Fine-tuning ne zaman gerçekten mantıklı:
Fine-tuning'den ne zaman kaçınmalı:
- Problem daha iyi prompting ile çözülebilir (önce few-shot dene)
- Veri sık değişiyor (yeniden eğitim pahalı)
- Küçük veri seti (1000'den az örnek) - overfitting riski
- Bütçe kısıtlamaları (AI için aylık $1000'in altında)
- Takım eğitim verisi kürasyon için ML uzmanlığı yok
PII: Sert Mimari Kapısı
PII (Kişisel Tanımlanabilir Bilgi) mimari gereksinimlerini temelden değiştirir. Bu optimizasyon değil - yasal uyumluluktur.
Kritik kural: PII söz konusu olduğunda L1-L2 yasaktır. İstisna yok.
Seviyeye göre PII işlem gereksinimleri:
PII ile L3 (minimum uygulanabilir):
PII ile L4 (önerilen):
Finans Sektörü Gereksinimleri
Finansal hizmetler, genel GDPR uyumluluğunu aşan benzersiz AI gereksinimlerine sahiptir.
Düzenleyici çerçeve:
Finansta L1-L2 - Genellikle Yasak:
- Müşteri veri analizi
- İşlem izleme
- Kredi kararları
- Yatırım tavsiyesi
Finansta L1-L2 - İzin Verilen:
- Kamuya açık veri üzerinde dahili araştırma
- Kod inceleme (müşteri olmayan kod)
- Genel iş yazımı
- Eğitim materyali geliştirme
Finansa özgü L4+ gereksinimleri:
GDPR/KVKK Uygulama Öncesi Kontrol Listesi:
- Yasal dayanak belirlendi (onay, sözleşme, meşru menfaat)
- Yüksek riskli işleme için Veri Koruma Etki Değerlendirmesi yapıldı
- Teknik önlemler uygulandı (şifreleme, erişim kontrolleri, denetim loglama)
- AI sağlayıcı ile Veri İşleme Anlaşması imzalandı
- Veri sahibi hakları prosedürleri belgelendi (erişim, silme, taşınabilirlik)
- İşleme faaliyeti VERBIS'te kaydedildi
- Gizlilik bildirimi AI işlemesini içerecek şekilde güncellendi
Karar Framework'ü
Uygun entegrasyon seviyesini belirlemek için bu akış şemasını kullan:
Seviye seçim matrisi:
Aşırı Mühendislik Örnekleri
Örnek 1: Gereksiz RAG
Bir şirket 500 sayfalık çalışan el kitabı için AI asistanı istedi.
Önerilen çözüm: OpenSearch ile L4 RAG, özel embedding pipeline, 8 haftalık zaman çizelgesi.
Gerçek gereksinim analizi:
- 500 sayfa = ~250K token (Claude'un bağlamı içinde)
- Güncellemeler: üç aylık el kitabı revizyonları
- Kullanıcılar: 200 çalışan
- Denetim izi gereksinimi yok
Doğru çözüm: L2 Claude Project
- Kurulum süresi: 2 saat
- Aylık maliyet: 25 Team planı)
- Doğruluk: El kitabı Soru-Cevap için yeterli
Tasarruf: 8 hafta geliştirme süresi, devam eden altyapı maliyetleri.
Örnek 2: Uyumluluk Başarısızlığı
Bir fintech startup müşteri işlem patern analizi için L1 ChatGPT kullandı.
Düşündükleri: Hızlı deployment, altyapı maliyeti yok.
Gerçek:
- Müşteri işlem verisi PII'dir
- OpenAI ile Veri İşleme Anlaşması yok
- Düzenleyici inceleme için denetim izi yok
- Veri potansiyel olarak yetki alanını terk ediyor
Sonuç: GDPR/KVKK ihlal riski, potansiyel düzenleyici işlem.
Doğru çözüm: AWS Bedrock ile minimum L4
- VPC endpoint (veri AWS'yi terk etmiyor)
- Denetim izi için model çağrı loglama
- Veri yerleşimi için AB/TR bölgesi
Maliyet Karşılaştırması
Aylık maliyet tahminleri (orta ölçekli kurum, 10K sorgu/ay):
Geliştirme maliyetleri tek seferlik; devam eden bakım yıllık %10-20 ekler.
Model Seçim Stratejisi
Doğru entegrasyon seviyesini seçmek denklemin sadece yarısı. Her görev için uygun modeli seçmek hem maliyeti hem kaliteyi doğrudan etkiler. Her görev en güçlü (ve en pahalı) modeli gerektirmez.
Güncel Model Manzarası (Ocak 2026)
Anthropic Claude Modelleri:
OpenAI Modelleri:
Google Gemini Modelleri:
Görev-Model Eşleştirmesi
Yaygın hata, gerektirmeyen görevler için premium model kullanmaktır:
Model Yönlendirme Mimarisi
Üretim sistemleri için, görev karmaşıklığına dayalı akıllı yönlendirme uygulayın:
Maliyet Optimizasyon Stratejileri
1. Acil Olmayan Görevler için Batch API Hem Anthropic hem OpenAI toplu işlemede %50 indirim sunar. Kullanım alanları:
- Doküman işleme boru hatları
- Gece analiz işleri
- Toplu sınıflandırma
2. Prompt Önbellekleme Anthropic'in prompt caching'i: önbellek okumaları temel fiyatın sadece %10'u. Etkili olduğu alanlar:
- Tekrarlanan sistem promptları
- Yaygın context blokları
- Sabit bilgi tabanlarıyla RAG
3. Model Kaskad Deseni En ucuz modelle başla, sadece başarısızlıkta yükselt:
4. Context Pencerelerini Doğru Boyutlandır İhtiyacın olmayan context için ödeme yapma:
- 128K context (GPT-4o-mini): Çoğu chatbot etkileşimi
- 200K context (Claude modelleri): Doküman Q&A
- 1M context (Gemini Pro, GPT-4.1): Tam kod tabanı analizi
Entegrasyon Seviyesi + Model Seçim Matrisi
Kilit içerik: model seçimi görev gereksinimlerine uygun olmalı, kurumsal prestije değil. İsteklerin %80'i için Haiku ve %20'si için Opus kullanan iyi tasarlanmış bir sistem, her şey için Opus kullanan bir sistemi geride bırakacaktır - maliyetin küçük bir kısmında.
Uygulama Paternleri
Patern 1: Progresif Geliştirme
L2'de başla, sadece kanıtla yükselt:
- İlk kullanım senaryosu için Claude Project deploy et
- Doğruluk ve kullanıcı memnuniyetini ölç
- Karşılaşılan spesifik kısıtlamaları belgele
- L4'ü sadece L2'nin başarısız olduğu durumlar için inşa et
- Basit sorgular için L2'yi çalıştırmaya devam et (maliyet optimizasyonu)
Patern 2: PII-Öncelikli Mimari
PII muhtemel olduğunda, başından tasarla:
- Tüm verilerin sonunda PII içerebileceğini varsay
- Başından L4+ altyapı üzerine inşa et
- Denetim loglamayı temel özellik olarak uygula
- Veri yerleşimi gereksinimlerine göre tasarla
- Kısıtlamaları gevşetmek, sonradan eklemekten kolay
Patern 3: Tasarımla Finans Uyumluluğu
Finansal hizmetler için, uyumluluk opsiyonel değil:
-
- günden model risk yönetimi dokümantasyonu
- Açıklanabilirlik temel özellik, sonradan ekleme değil
- Tüm önemli kararlar için insan-in-the-loop
- 7 yıllık saklama gereksinimine uyan denetim izi
- Üretime almadan önce bağımsız doğrulama
Temel Çıkarımlar
-
En yüksekte değil, doğru seviyede başla: Çoğu problem L2-L3'te çözülebilir. Sadece spesifik kısıtlamaların kanıtlarıyla yükselt.
-
PII sert bir kapıdır: PII söz konusu olduğunda, diğer faktörlerden bağımsız olarak L3+ zorunludur. Kısayol yok.
-
Finansın benzersiz gereksinimleri var: Denetim izleri, açıklanabilirlik ve insan gözetimi düzenleyici gereksinimlerdir, güzel olsalar değil.
-
Yükseltme sinyalleri spesifiktir: Rakipler RAG yapıyor diye yükseltme. L2'nin kısıtlamalarını ölçtüğünde yükselt.
-
Maliyet karmaşıklıkla birleşiyor: Her seviye toplam sahiplik maliyetini kabaca ikiye katlar. Değerin bunu haklı kıldığından emin ol.
-
Bakım hafife alınıyor: Geliştirme maliyetinin yıllık %20-30'unu operasyonlar için bütçele.
-
Progresif geliştirme işe yarıyor: Basit başla, değer kanıtla, kanıta dayalı olarak kademeli karmaşıklık ekle.
-
Doğru cevap değişir: Gereksinimler geliştikçe üç ayda bir seviye uygunluğunu yeniden değerlendir.
Amaç en sofistike AI sistemini inşa etmek değil. Amaç riski uygun şekilde yönetirken iş problemlerini etkili bir şekilde çözmektir. Bazen bu Claude Project demektir. Bazen fine-tuned modeller demektir. Framework hangisini bilmeni sağlar.