Métriques d'évaluation

Précision : Mesure la capacité du modèle à ne pas se tromper. Une précision élevée signifie que si le modèle extrait un champ, alors il avait probablement raison.

Rappel : Mesure la capacité du modèle à ne pas rater des informations. Un rappel élevé signifie que si un champ est dans un document, le modèle va probablement bien l'extraire.

F1-Score : C'est une combinaison entre la précision et le rappel. Dans la plupart des cas d'usage, c'est cette métrique que l'on souhaite optimiser.

Dernière mise à jour