Le fondement mathématique de l'analyse de matrice de confusion fournit le cadre rigoureux pour l'évaluation quantitative de la performance de classification dans divers domaines.
Formulations des Métriques de Base :
Précision = (VP + VN) / (VP + FP + VN + FN) mesure la justesse globale comme la proportion de prédictions correctes parmi les prédictions totales.
Précision = VP / (VP + FP) quantifie la proportion de prédictions positives qui étaient réellement correctes, répondant à "De toutes les prédictions positives, combien étaient justes ?"
Rappel (Sensibilité) = VP / (VP + FN) mesure la proportion de cas positifs réels correctement identifiés, répondant à "De tous les positifs réels, combien avons-nous trouvés ?"
Spécificité = VN / (VN + FP) quantifie la proportion de cas négatifs réels correctement identifiés, complétant la sensibilité pour une évaluation complète.
Score F1 = 2 × (Précision × Rappel) / (Précision + Rappel) fournit la moyenne harmonique de la précision et du rappel, donnant un poids égal aux deux métriques.
Métriques Avancées et Extensions :
Coefficient de Corrélation de Matthews (MCC) = (VP×VN - FP×FN) / √[(VP+FP)(VP+FN)(VN+FP)(VN+FN)] fournit une mesure équilibrée même pour les ensembles de données déséquilibrés.
Précision Équilibrée = (Sensibilité + Spécificité) / 2 ajuste la précision pour les ensembles de données déséquilibrés en moyennant les précisions de chaque classe.
Pour les problèmes multi-classes, les matrices de confusion s'étendent à des tableaux n×n, avec des métriques calculées en utilisant des approches un-contre-tous ou un-contre-un pour chaque classe individuellement.