Aperçu
Le débogage des agents vocaux nécessite une investigation systématique de plusieurs composants fonctionnant ensemble : la transcription, le raisonnement LLM, la synthèse vocale et l’exécution d’actions. Le tableau de bord itellicoAI fournit des journaux détaillés et des outils pour vous aider à identifier rapidement la cause profonde des problèmes.Outils de débogage du tableau de bord
Journaux de conversation
Historique complet de chaque conversation avec transcriptions, actions et métadonnées
Transcription en temps réel
Vue en direct de la transcription et des réponses de l’agent pendant les appels de test
Charges utiles d'actions
JSON détaillé de chaque appel API, exécution d’outil et webhook
Messages d'erreur
Détails d’erreur spécifiques lorsque les composants échouent
Approche de débogage systématique
Lorsque quelque chose ne va pas, suivez ce processus systématique :Reproduire le problème
Testez à nouveau pour confirmer que le problème est cohérentNotez les conditions exactes lorsqu’il se produit
Identifier le composant
Déterminez quelle partie du pipeline a échoué :
- Transcripteur (parole → texte)
- LLM (compréhension → réponse)
- TTS (texte → parole)
- Exécution d’action/outil
- Récupération de connaissances
Examiner les journaux
Ouvrez Conversations et trouvez l’appel problématiqueExaminez les transcriptions, les charges utiles d’actions et les erreurs
Tester les composants individuellement
Isolez le composant défaillant :
- Essayez un transcripteur différent
- Testez le LLM avec des invites plus simples
- Essayez une voix différente
- Testez les actions directement via l’API
Débogage au niveau des composants
Problèmes de transcripteur
Problèmes de transcripteur
Comment identifier :
- Vérifiez la transcription dans les journaux de conversation
- Comparez ce qui a été dit avec ce qui a été transcrit
- Recherchez des mots manquants, des mots incorrects ou du charabia
- Bruit de fond
- Accent ou langue inadaptée
- Problèmes de qualité audio
- Mauvais modèle de transcripteur sélectionné
- Accédez à Modèles → Transcripteur
- Essayez un autre fournisseur de transcripteur (Deepgram ↔ Azure)
- Essayez un modèle différent (par ex., Nova-2 ↔ Nova-3)
- Vérifiez que le paramètre de langue correspond au locuteur
- Testez dans un environnement plus calme
- Vérifiez la qualité de l’entrée audio
- Précision de la transcription
- Synchronisation de la transcription (retards ?)
- Transcriptions vides ou partielles
- Problèmes de détection de langue
Problèmes de réponse LLM
Problèmes de réponse LLM
Comment identifier :
- L’agent donne de mauvaises réponses
- L’agent sort du sujet
- L’agent se répète
- L’agent refuse de répondre à des questions valides
- L’agent hallucine des informations
- Instructions trop vagues ou contradictoires
- Base de connaissances manquant d’informations
- Débordement de fenêtre de contexte
- Modèle non adapté à la tâche
- Température trop élevée/basse
- Examinez les instructions de l’agent dans Capacités → Instructions
- Simplifiez les instructions pour isoler le problème
- Vérifiez la base de connaissances pour les informations manquantes
- Essayez un modèle LLM différent (Claude Haiku 4.5 ↔ GPT-4.1 mini)
- Ajustez la température dans les paramètres du modèle
- Examinez les journaux de conversation pour voir le contexte complet
- Historique complet de la conversation menant à une mauvaise réponse
- Éléments de connaissance récupérés (si utilisation de RAG)
- Invites système et injection de contexte
Problèmes de voix/TTS
Problèmes de voix/TTS
Comment identifier :
- Modèles de parole non naturels
- Mauvaise prononciation
- Mauvaise emphase ou intonation
- Son robotique
- Vitesse trop rapide/lente
- Voix non adaptée au type de contenu
- Ponctuation affectant le rythme
- Nombres ou acronymes mal gérés
- Limitations du fournisseur de voix
- Accédez à Modèles → Voix
- Essayez une voix différente du même fournisseur
- Essayez un fournisseur de voix totalement différent
- Ajoutez des prononciations personnalisées pour les mots problématiques
- Ajustez les paramètres de stabilité/clarté (ElevenLabs)
- Ajustez le débit de parole
- Modifiez la sortie texte pour améliorer le TTS
- Écoutez l’enregistrement audio
- Comparez le texte avec la façon dont il a été prononcé
- Vérifiez les balises SSML (si utilisées)
- Vérifiez que les paramètres de voix sont appliqués
Problèmes d'exécution d'action/outil
Problèmes d'exécution d'action/outil
Comment identifier :
- L’action ne se déclenche pas comme prévu
- L’action se déclenche mais échoue
- Mauvaises données envoyées à l’action
- L’action retourne une erreur
- Action mal configurée
- Point de terminaison API hors ligne ou lent
- Échec d’authentification
- Extraction de paramètres incorrecte
- Dépassement de délai réseau
- Vérifiez si l’action a été déclenchée dans les journaux de conversation
- Examinez la charge utile de l’action (JSON envoyé à l’API)
- Vérifiez la réponse de l’API et le code de statut
- Testez le point de terminaison API directement (Postman, curl)
- Vérifiez les identifiants d’authentification
- Vérifiez l’extraction des paramètres de la conversation
- Examinez les instructions d’action dans l’invite de l’agent
- Champs
custom_data.actionsou similaires - Charge utile de la requête API
- Corps de la réponse API
- Messages d’erreur et traces de pile
- Horodatage (y a-t-il eu un dépassement de délai ?)
Les journaux de conversation affichent les charges utiles d’actions complètes, y compris les données de requête/réponse.
Problèmes de récupération de connaissances
Problèmes de récupération de connaissances
Comment identifier :
- L’agent ne peut pas répondre aux questions qu’il devrait connaître
- L’agent récupère de mauvaises connaissances
- L’agent mélange des informations non pertinentes dans les réponses
- Connaissances pas encore indexées
- La récupération RAG ne trouve pas les éléments pertinents
- Base de connaissances non attribuée à l’agent
- Vérifiez que la base de connaissances est attribuée à l’agent
- Vérifiez que les éléments de connaissance sont INDEXÉS (pas seulement COMPLÉTÉS)
- Examinez les titres des éléments de connaissance—rendez-les descriptifs
- Testez avec une base de connaissances plus petite
- Essayez le mode Contexte vs le mode RAG
- Vérifiez les journaux de conversation pour les connaissances récupérées
Utilisation des journaux de conversation pour le débogage
Chaque appel de test crée un journal détaillé accessible dans Conversations.Contenu des journaux :
Informations de base :- Date, heure, durée de l’appel
- Agent utilisé
- Numéro de téléphone (si test téléphonique)
- Statut de l’appel (terminé, échoué, etc.)
- Transcription complète (utilisateur + agent)
- Horodatages pour chaque message
- Enregistrement audio (si disponible)
- Actions déclenchées avec charges utiles
- Entrées DTMF capturées
- Résultats d’analyse des objectifs
- Réponses d’analyse post-appel
- Champs de données personnalisées
- Messages d’erreur
- Filtrez par nom d’agent pour trouver les appels de test
- Ouvrez un appel spécifique pour voir tous les détails
- Lisez la transcription pour identifier où cela s’est mal passé
- Vérifiez les charges utiles d’actions si des actions ont échoué
- Écoutez l’audio si la transcription semble correcte mais l’audio était mauvais
- Examinez les horodatages pour identifier les problèmes de latence
Obtenir de l’aide
Lorsque vous avez besoin d’un soutien supplémentaire :Consulter la documentation
Vérifiez la documentation des fonctionnalités spécifiques pour les détails de configuration
Vérifier l'état du fournisseur
Visitez les pages d’état pour OpenAI, Deepgram, ElevenLabs, Azure
Contacter le support
Envoyez un e-mail à support@itellico.ai avec les journaux d’appel et les détails d’erreur
- ID ou nom de l’agent
- ID de conversation des journaux
- Messages d’erreur spécifiques
- Étapes pour reproduire
- Captures d’écran si applicable
Prochaines étapes
Liste de vérification de lancement
Une fois que vous avez débogué votre agent, consultez la liste de vérification de lancement pour préparer la production