Übersicht
Das Debuggen von Voice-Agenten erfordert eine systematische Untersuchung mehrerer zusammenarbeitender Komponenten - Transkription, LLM-Reasoning, Sprachsynthese und Aktionsausführung. Das itellicoAI-Dashboard bietet detaillierte Protokolle und Tools, um dir zu helfen, die Grundursache von Problemen schnell zu identifizieren.Dashboard-Debugging-Tools
Gesprächsprotokolle
Vollständige Historie jeder Konversation mit Transkripten, Aktionen und Metadaten
Echtzeit-Transkript
Live-Ansicht der Transkription und Agentenantworten während Testanrufen
Aktions-Payloads
Detailliertes JSON jedes API-Aufrufs, Tool-Ausführung und Webhooks
Fehlermeldungen
Spezifische Fehlerdetails, wenn Komponenten fehlschlagen
Systematischer Debugging-Ansatz
Wenn etwas schief geht, folge diesem systematischen Prozess:Reproduziere das Problem
Teste erneut, um zu bestätigen, dass das Problem konsistent istNotiere die genauen Bedingungen, wenn es auftritt
Identifiziere die Komponente
Bestimme, welcher Teil der Pipeline fehlgeschlagen ist:
- Transcriber (Sprache → Text)
- LLM (Verständnis → Antwort)
- TTS (Text → Sprache)
- Aktions-/Tool-Ausführung
- Wissensabruf
Überprüfe Protokolle
Öffne Gespräche und finde den problematischen AnrufUntersuche Transkripte, Aktions-Payloads und Fehler
Teste Komponenten einzeln
Isoliere die fehlgeschlagene Komponente:
- Versuche einen anderen Transcriber
- Teste LLM mit einfacheren Prompts
- Versuche eine andere Stimme
- Teste Aktionen direkt über API
Debugging auf Komponentenebene
Transcriber-Probleme
Transcriber-Probleme
Wie man identifiziert:
- Überprüfe das Transkript in Gesprächsprotokollen
- Vergleiche, was gesagt wurde vs. was transkribiert wurde
- Suche nach fehlenden Wörtern, falschen Wörtern oder Kauderwelsch
- Hintergrundgeräusche
- Akzent- oder Sprachinkongruenz
- Audioqualitätsprobleme
- Falsches Transcriber-Modell ausgewählt
- Navigiere zu Modelle → Transcriber
- Versuche einen anderen Transcriber-Anbieter (Deepgram ↔ Azure)
- Versuche ein anderes Modell (z.B. Nova-2 ↔ Nova-3)
- Überprüfe, ob die Spracheinstellung mit dem Sprecher übereinstimmt
- Teste in ruhigerer Umgebung
- Überprüfe die Audio-Eingangsqualität
- Transkript-Genauigkeit
- Timing der Transkription (Verzögerungen?)
- Leere oder teilweise Transkriptionen
- Spracherkennungsprobleme
LLM-Antwortprobleme
LLM-Antwortprobleme
Wie man identifiziert:
- Agent gibt falsche Antworten
- Agent weicht vom Thema ab
- Agent wiederholt sich
- Agent lehnt es ab, gültige Fragen zu beantworten
- Agent halluziniert Informationen
- Anweisungen zu vage oder widersprüchlich
- Wissensdatenbank fehlt Informationen
- Kontextfenster-Überlauf
- Modell nicht für Aufgabe geeignet
- Temperatur zu hoch/niedrig
- Überprüfe Agentenanweisungen unter Fähigkeiten → Anweisungen
- Vereinfache Anweisungen, um das Problem zu isolieren
- Überprüfe Wissensdatenbank auf fehlende Informationen
- Versuche ein anderes LLM-Modell (Claude Haiku 4.5 ↔ GPT-4.1 mini)
- Passe die Temperatur in den Modelleinstellungen an
- Überprüfe Gesprächsprotokolle, um den vollständigen Kontext zu sehen
- Vollständige Gesprächshistorie, die zu schlechter Antwort führt
- Abgerufene Wissenselemente (bei Verwendung von RAG)
- System-Prompts und Kontext-Injection
Stimm-/TTS-Probleme
Stimm-/TTS-Probleme
Wie man identifiziert:
- Unnatürliche Sprachmuster
- Falsche Aussprachen
- Falsche Betonung oder Intonation
- Roboterhafter Klang
- Geschwindigkeit zu schnell/langsam
- Stimme nicht für Inhaltstyp geeignet
- Interpunktion beeinflusst das Tempo
- Zahlen oder Akronyme werden nicht gut verarbeitet
- Einschränkungen des Stimmenanbieters
- Navigiere zu Modelle → Stimme
- Versuche eine andere Stimme vom selben Anbieter
- Versuche einen völlig anderen Stimmenanbieter
- Füge benutzerdefinierte Aussprachen für Problemwörter hinzu
- Passe Stabilitäts-/Klarheitseinstellungen an (ElevenLabs)
- Passe die Sprechgeschwindigkeit an
- Ändere die Textausgabe, um TTS zu verbessern
- Höre dir die Audioaufzeichnung an
- Vergleiche Text vs. wie es gesprochen wurde
- Überprüfe auf SSML-Tags (falls verwendet)
- Verifiziere, dass Stimmeinstellungen angewendet wurden
Aktions-/Tool-Ausführungsprobleme
Aktions-/Tool-Ausführungsprobleme
Wie man identifiziert:
- Aktion wird nicht ausgelöst, wenn erwartet
- Aktion wird ausgelöst, schlägt aber fehl
- Falsche Daten an Aktion gesendet
- Aktion gibt Fehler zurück
- Aktion nicht ordnungsgemäß konfiguriert
- API-Endpunkt ausgefallen oder langsam
- Authentifizierungsfehler
- Inkorrekte Parameter-Extraktion
- Netzwerk-Timeout
- Überprüfe, ob Aktion in Gesprächsprotokollen ausgelöst wurde
- Überprüfe Aktions-Payload (JSON an API gesendet)
- Überprüfe API-Antwort und Statuscode
- Teste API-Endpunkt direkt (Postman, curl)
- Verifiziere Authentifizierungsdaten
- Überprüfe Parameter-Extraktion aus Gespräch
- Überprüfe Aktionsanweisungen im Agenten-Prompt
custom_data.actionsoder ähnliche Felder- API-Request-Payload
- API-Response-Body
- Fehlermeldungen und Stack-Traces
- Zeitstempel (Timeout aufgetreten?)
Gesprächsprotokolle zeigen vollständige Aktions-Payloads einschließlich Request-/Response-Daten.
Wissensabruf-Probleme
Wissensabruf-Probleme
Wie man identifiziert:
- Agent kann Fragen nicht beantworten, die er wissen sollte
- Agent ruft falsches Wissen ab
- Agent mischt irrelevante Informationen in Antworten
- Wissen noch nicht indiziert
- RAG-Abruf findet keine relevanten Elemente
- Wissensdatenbank nicht dem Agenten zugewiesen
- Verifiziere, dass Wissensdatenbank dem Agenten zugewiesen ist
- Überprüfe, dass Wissenselemente INDEXIERT sind (nicht nur ABGESCHLOSSEN)
- Überprüfe Wissenselemente-Titel - mache sie beschreibend
- Teste mit kleinerer Wissensdatenbank
- Versuche Kontext-Modus vs. RAG-Modus
- Überprüfe Gesprächsprotokolle auf abgerufenes Wissen
Verwendung von Gesprächsprotokollen für Debugging
Jeder Testanruf erstellt ein detailliertes Protokoll, das unter Gespräche zugänglich ist.Was in den Protokollen enthalten ist:
Grundlegende Informationen:- Anrufdatum, Uhrzeit, Dauer
- Verwendeter Agent
- Telefonnummer (bei Telefon-Test)
- Anrufstatus (abgeschlossen, fehlgeschlagen, etc.)
- Vollständiges Transkript (Benutzer + Agent)
- Zeitstempel für jede Nachricht
- Audioaufzeichnung (falls verfügbar)
- Ausgelöste Aktionen mit Payloads
- Erfasste DTMF-Eingaben
- Zielanalyseergebnisse
- Antworten nach Gesprächsanalyse
- Benutzerdefinierte Datenfelder
- Fehlermeldungen
- Filtere nach Agentenname, um Testanrufe zu finden
- Öffne spezifischen Anruf, um vollständige Details zu sehen
- Lies das Transkript, um zu identifizieren, wo es schief ging
- Überprüfe Aktions-Payloads, wenn Aktionen fehlgeschlagen sind
- Höre dir das Audio an, wenn Transkript korrekt aussieht, aber Audio falsch war
- Überprüfe Zeitstempel, um Latenzprobleme zu identifizieren
Hilfe erhalten
Wenn du zusätzliche Unterstützung benötigst:Dokumentation überprüfen
Überprüfe spezifische Feature-Dokumentation für Konfigurationsdetails
Anbieter-Status überprüfen
Besuche Statusseiten für OpenAI, Deepgram, ElevenLabs, Azure
Support kontaktieren
E-Mail an support@itellico.ai mit Anrufprotokollen und Fehlerdetails
- Agenten-ID oder Name
- Konversations-ID aus Protokollen
- Spezifische Fehlermeldungen
- Schritte zur Reproduktion
- Screenshots, falls zutreffend
Nächste Schritte
Launch-Checkliste
Sobald du deinen Agenten debuggt hast, überprüfe die Launch-Checkliste, um dich auf die Produktion vorzubereiten