Zum Hauptinhalt springen

Übersicht

Das Debuggen von Voice-Agenten erfordert eine systematische Untersuchung mehrerer zusammenarbeitender Komponenten - Transkription, LLM-Reasoning, Sprachsynthese und Aktionsausführung. Das itellicoAI-Dashboard bietet detaillierte Protokolle und Tools, um dir zu helfen, die Grundursache von Problemen schnell zu identifizieren.

Dashboard-Debugging-Tools

Gesprächsprotokolle

Vollständige Historie jeder Konversation mit Transkripten, Aktionen und Metadaten

Echtzeit-Transkript

Live-Ansicht der Transkription und Agentenantworten während Testanrufen

Aktions-Payloads

Detailliertes JSON jedes API-Aufrufs, Tool-Ausführung und Webhooks

Fehlermeldungen

Spezifische Fehlerdetails, wenn Komponenten fehlschlagen

Systematischer Debugging-Ansatz

Wenn etwas schief geht, folge diesem systematischen Prozess:
1

Reproduziere das Problem

Teste erneut, um zu bestätigen, dass das Problem konsistent istNotiere die genauen Bedingungen, wenn es auftritt
2

Identifiziere die Komponente

Bestimme, welcher Teil der Pipeline fehlgeschlagen ist:
  • Transcriber (Sprache → Text)
  • LLM (Verständnis → Antwort)
  • TTS (Text → Sprache)
  • Aktions-/Tool-Ausführung
  • Wissensabruf
3

Überprüfe Protokolle

Öffne Gespräche und finde den problematischen AnrufUntersuche Transkripte, Aktions-Payloads und Fehler
4

Teste Komponenten einzeln

Isoliere die fehlgeschlagene Komponente:
  • Versuche einen anderen Transcriber
  • Teste LLM mit einfacheren Prompts
  • Versuche eine andere Stimme
  • Teste Aktionen direkt über API
5

Behebe und verifiziere

Nimm gezielte Änderungen basierend auf Erkenntnissen vorTeste erneut, um die Behebung zu bestätigen

Debugging auf Komponentenebene

Wie man identifiziert:
  • Überprüfe das Transkript in Gesprächsprotokollen
  • Vergleiche, was gesagt wurde vs. was transkribiert wurde
  • Suche nach fehlenden Wörtern, falschen Wörtern oder Kauderwelsch
Häufige Ursachen:
  • Hintergrundgeräusche
  • Akzent- oder Sprachinkongruenz
  • Audioqualitätsprobleme
  • Falsches Transcriber-Modell ausgewählt
Debugging-Schritte:
  1. Navigiere zu Modelle → Transcriber
  2. Versuche einen anderen Transcriber-Anbieter (Deepgram ↔ Azure)
  3. Versuche ein anderes Modell (z.B. Nova-2 ↔ Nova-3)
  4. Überprüfe, ob die Spracheinstellung mit dem Sprecher übereinstimmt
  5. Teste in ruhigerer Umgebung
  6. Überprüfe die Audio-Eingangsqualität
Was in Protokollen zu überprüfen ist:
  • Transkript-Genauigkeit
  • Timing der Transkription (Verzögerungen?)
  • Leere oder teilweise Transkriptionen
  • Spracherkennungsprobleme
Wie man identifiziert:
  • Agent gibt falsche Antworten
  • Agent weicht vom Thema ab
  • Agent wiederholt sich
  • Agent lehnt es ab, gültige Fragen zu beantworten
  • Agent halluziniert Informationen
Häufige Ursachen:
  • Anweisungen zu vage oder widersprüchlich
  • Wissensdatenbank fehlt Informationen
  • Kontextfenster-Überlauf
  • Modell nicht für Aufgabe geeignet
  • Temperatur zu hoch/niedrig
Debugging-Schritte:
  1. Überprüfe Agentenanweisungen unter Fähigkeiten → Anweisungen
  2. Vereinfache Anweisungen, um das Problem zu isolieren
  3. Überprüfe Wissensdatenbank auf fehlende Informationen
  4. Versuche ein anderes LLM-Modell (Claude Haiku 4.5 ↔ GPT-4.1 mini)
  5. Passe die Temperatur in den Modelleinstellungen an
  6. Überprüfe Gesprächsprotokolle, um den vollständigen Kontext zu sehen
Was in Protokollen zu überprüfen ist:
  • Vollständige Gesprächshistorie, die zu schlechter Antwort führt
  • Abgerufene Wissenselemente (bei Verwendung von RAG)
  • System-Prompts und Kontext-Injection
Teste problematische Prompts zuerst im Web-Simulator - es ist schneller als Telefon-Tests.
Wie man identifiziert:
  • Unnatürliche Sprachmuster
  • Falsche Aussprachen
  • Falsche Betonung oder Intonation
  • Roboterhafter Klang
  • Geschwindigkeit zu schnell/langsam
Häufige Ursachen:
  • Stimme nicht für Inhaltstyp geeignet
  • Interpunktion beeinflusst das Tempo
  • Zahlen oder Akronyme werden nicht gut verarbeitet
  • Einschränkungen des Stimmenanbieters
Debugging-Schritte:
  1. Navigiere zu Modelle → Stimme
  2. Versuche eine andere Stimme vom selben Anbieter
  3. Versuche einen völlig anderen Stimmenanbieter
  4. Füge benutzerdefinierte Aussprachen für Problemwörter hinzu
  5. Passe Stabilitäts-/Klarheitseinstellungen an (ElevenLabs)
  6. Passe die Sprechgeschwindigkeit an
  7. Ändere die Textausgabe, um TTS zu verbessern
Was in Protokollen zu überprüfen ist:
  • Höre dir die Audioaufzeichnung an
  • Vergleiche Text vs. wie es gesprochen wurde
  • Überprüfe auf SSML-Tags (falls verwendet)
  • Verifiziere, dass Stimmeinstellungen angewendet wurden
Wie man identifiziert:
  • Aktion wird nicht ausgelöst, wenn erwartet
  • Aktion wird ausgelöst, schlägt aber fehl
  • Falsche Daten an Aktion gesendet
  • Aktion gibt Fehler zurück
Häufige Ursachen:
  • Aktion nicht ordnungsgemäß konfiguriert
  • API-Endpunkt ausgefallen oder langsam
  • Authentifizierungsfehler
  • Inkorrekte Parameter-Extraktion
  • Netzwerk-Timeout
Debugging-Schritte:
  1. Überprüfe, ob Aktion in Gesprächsprotokollen ausgelöst wurde
  2. Überprüfe Aktions-Payload (JSON an API gesendet)
  3. Überprüfe API-Antwort und Statuscode
  4. Teste API-Endpunkt direkt (Postman, curl)
  5. Verifiziere Authentifizierungsdaten
  6. Überprüfe Parameter-Extraktion aus Gespräch
  7. Überprüfe Aktionsanweisungen im Agenten-Prompt
Was in Protokollen zu überprüfen ist:
  • custom_data.actions oder ähnliche Felder
  • API-Request-Payload
  • API-Response-Body
  • Fehlermeldungen und Stack-Traces
  • Zeitstempel (Timeout aufgetreten?)
Gesprächsprotokolle zeigen vollständige Aktions-Payloads einschließlich Request-/Response-Daten.
Wie man identifiziert:
  • Agent kann Fragen nicht beantworten, die er wissen sollte
  • Agent ruft falsches Wissen ab
  • Agent mischt irrelevante Informationen in Antworten
Häufige Ursachen:
  • Wissen noch nicht indiziert
  • RAG-Abruf findet keine relevanten Elemente
  • Wissensdatenbank nicht dem Agenten zugewiesen
Debugging-Schritte:
  1. Verifiziere, dass Wissensdatenbank dem Agenten zugewiesen ist
  2. Überprüfe, dass Wissenselemente INDEXIERT sind (nicht nur ABGESCHLOSSEN)
  3. Überprüfe Wissenselemente-Titel - mache sie beschreibend
  4. Teste mit kleinerer Wissensdatenbank
  5. Versuche Kontext-Modus vs. RAG-Modus
  6. Überprüfe Gesprächsprotokolle auf abgerufenes Wissen

Verwendung von Gesprächsprotokollen für Debugging

Jeder Testanruf erstellt ein detailliertes Protokoll, das unter Gespräche zugänglich ist.

Was in den Protokollen enthalten ist:

Grundlegende Informationen:
  • Anrufdatum, Uhrzeit, Dauer
  • Verwendeter Agent
  • Telefonnummer (bei Telefon-Test)
  • Anrufstatus (abgeschlossen, fehlgeschlagen, etc.)
Gesprächsdaten:
  • Vollständiges Transkript (Benutzer + Agent)
  • Zeitstempel für jede Nachricht
  • Audioaufzeichnung (falls verfügbar)
Technische Details:
  • Ausgelöste Aktionen mit Payloads
  • Erfasste DTMF-Eingaben
  • Zielanalyseergebnisse
  • Antworten nach Gesprächsanalyse
  • Benutzerdefinierte Datenfelder
  • Fehlermeldungen
So debuggst du mit Protokollen:
  1. Filtere nach Agentenname, um Testanrufe zu finden
  2. Öffne spezifischen Anruf, um vollständige Details zu sehen
  3. Lies das Transkript, um zu identifizieren, wo es schief ging
  4. Überprüfe Aktions-Payloads, wenn Aktionen fehlgeschlagen sind
  5. Höre dir das Audio an, wenn Transkript korrekt aussieht, aber Audio falsch war
  6. Überprüfe Zeitstempel, um Latenzprobleme zu identifizieren

Hilfe erhalten

Wenn du zusätzliche Unterstützung benötigst:

Dokumentation überprüfen

Überprüfe spezifische Feature-Dokumentation für Konfigurationsdetails

Anbieter-Status überprüfen

Besuche Statusseiten für OpenAI, Deepgram, ElevenLabs, Azure

Support kontaktieren

E-Mail an support@itellico.ai mit Anrufprotokollen und Fehlerdetails
Bei Kontaktaufnahme mit Support bitte angeben:
  • Agenten-ID oder Name
  • Konversations-ID aus Protokollen
  • Spezifische Fehlermeldungen
  • Schritte zur Reproduktion
  • Screenshots, falls zutreffend

Nächste Schritte

Launch-Checkliste

Sobald du deinen Agenten debuggt hast, überprüfe die Launch-Checkliste, um dich auf die Produktion vorzubereiten