Listeye dön
Türkiye'ye Özel/75

Çağrı Merkezi Türkçe Konuşma Kalite Skorlama

Müşteri temsilcisi-müşteri ses kayıtları → AI selamlama / empati / kapanış skoru + iyileştirme önerisi.

Zaman
8+ saat
bootcamp süresi
Kim ödeyecek
Ekiplere
Çağrı merkezi yöneticileri (50
Para hedefi
20 müşteri × 50 koltuk…
Abonelik
Stack
Next.js + Supabase + Claude
AI merkezde
/01

Kimin derdi bu?

Gerçek bir insan, gerçek bir acı. Kafanda canlandır.

Kim
Çağrı merkezi yöneticileri (50-500 koltuk)
Canı yanan yer
Manuel kalite skorlama %2 örneklem; tüm çağrıları dinlemek imkansız
Şu an nasıl yapıyor
Random sample + manuel scorecard; kalite eşitsiz
/02

6 saate sığar mı?

Bootcamp modunda sıkıştırılmış senaryo.

L — 12+ saat. Whisper TR + AI evaluation + dashboard.

/03

Ne ile inşa edeceksin?

Sıfırdan yazmayacaksın — bu parçaları birleştireceksin.

FrameworkNext.js 15 App Router
UIshadcn/ui + Tailwind + Recharts
DatabaseSupabase Postgres
AuthSupabase Auth
AIWhisper + Claude Sonnet 4.6
DeployVercel + Render worker
Entegrasyonlar
S3 ses uploadTwilio webhook (v2)
/04

Hangi parçalar?

Her parça ayrı bir commit. Sırayla yakala.

  1. 1Toplu ses upload
  2. 2Whisper TR transkript
  3. 3Diarization (temsilci vs müşteri)
  4. 4AI scorecard (selamlama, empati, çözüm, kapanış)
  5. 5Temsilci performans dashboard
  6. 6Trend analiz + öneri
/05

Piyasada kimler var?

Rakip değil, referans. Sen onlardan küçük, hızlı ve yakın olacaksın.

/06

Neden evet, neden hayır?

Kısa bir gerçeklik testi.

Neden evet

TR çağrı merkezi market büyük; yerel rakip zayıf

Neden hayır

Diarization+TR Whisper kalite zor; satış uzun döngü

/07

Para nereden gelir?

Bir çerçeve, değil kesin plan. İlk 100 kullanıcıya odaklan.

Fiyat
₺99/koltuk/ay
Hedef ARR
20 müşteri × 50 koltuk × ₺99 = ₺99k/ay
Model
Subscription
/08

Claude Code'a ver

Aşağıdaki prompt'u olduğu gibi kopyala, Claude Code'a yapıştır. Stack, veri modeli, 6 saatlik inşa sırası ve başarı kriterleri içinde.

prompt.md
# Çağrı Merkezi Türkçe Konuşma Kalite Skorlama

**Ne inşa ediyoruz:** Çağrı kayıtlarını yükleyip Whisper transkript + diarization yapan ve AI'ın selamlama/empati/çözüm/kapanış skorunu çıkaran kalite kontrol panel.

**Kullanıcının işi (JTBD):** Manuel kalite örneklemeyi %5'ten %100'e çıkarıp her temsilcimi haftalık skorlamak istiyorum.

---

## Stack
- Next.js 15 App Router
- Tailwind + shadcn/ui + Recharts
- Supabase Postgres + storage + Auth
- Whisper (Groq large-v3) + Claude Sonnet 4.6
- pyannote diarization (Render worker)
- Deploy: Vercel + Render

## Veri modeli
```sql
create table agents (
  id uuid primary key default gen_random_uuid(),
  user_id uuid references auth.users,
  name text, employee_id text
);

create table calls (
  id uuid primary key default gen_random_uuid(),
  agent_id uuid references agents,
  audio_url text, duration_seconds int,
  transcript jsonb, diarized jsonb,
  scores jsonb, total_score int,
  feedback text, status text default 'queued',
  recorded_at timestamptz, created_at timestamptz default now()
);
```

## Ana akışlar
1. Toplu ses upload (.zip 100 dosya).
2. Worker Whisper transkript + pyannote diarization.
3. Claude scorecard üretimi: 6 kriter × 1-5.
4. Dashboard: temsilci sıralaması, en düşük 10 çağrı.
5. Çağrı detay: zaman çizgili transkript + skor açıklama.

## 6 saatlik inşa sırası
- 0:00–1:00 — Scaffold + auth + upload UI
- 1:00–2:00 — Whisper TR (Groq) entegrasyon
- 2:00–3:00 — Basit diarization (pyannote async)
- 3:00–4:30 — Claude scorecard prompt
- 4:30–5:30 — Dashboard + temsilci sıralama
- 5:30–6:00 — Render worker deploy

## Başarı kriteri
- [ ] 5 örnek ses dosyası işlendi
- [ ] Diarization temsilci/müşteri ayırıyor
- [ ] 6 kriter skor + toplam puan
- [ ] Dashboard temsilci performansı
- [ ] Çağrı detay zaman çizgili görünüyor

## Dikkat
- TR Whisper-large-v3 doğruluk yüksek ama Groq fiyat uygun.
- Diarization Türkçe için fine-tune gerekebilir.
- KVKK: ses kayıtları hassas — encryption + sınırlı erişim.
- Skorlama prompt'u şirketin kendi rubric'iyle override edilebilmeli.

Bu sana uymadı mı?

Hepsini gör