# Métriques d'évaluation

**Précision** : Mesure la capacité du modèle à ne pas se tromper. Une précision élevée signifie que si le modèle extrait un champ, alors il avait probablement raison.

**Rappel** : Mesure la capacité du modèle à ne pas rater des informations. Un rappel élevé signifie que si un champ est dans un document, le modèle va probablement bien l'extraire.

**F1-Score** : C'est une combinaison entre la précision et le rappel. Dans la plupart des cas d'usage, c'est cette métrique que l'on souhaite optimiser.
