Все метрики оценки, которые вы можете себе представить, приведены в Scikit-learn
У вас есть две возможности, либо вы вычисляете матрицу путаницы
и вы смотрите диагональные значения.
y_true = ["cat", "ant", "cat", "cat", "ant", "bird"]
y_pred = ["ant", "ant", "cat", "cat", "ant", "cat"]
confusion_matrix(y_true, y_pred, labels=["ant", "bird", "cat"])
array([[2, 0, 0],
[0, 0, 1],
[1, 0, 2]])
Или вы вычисляете F1 балл метка за меткой
from sklearn.metrics import f1_score
y_true = [0, 1, 2, 0, 1, 2]
y_pred = [0, 2, 1, 0, 0, 1]
f1_score(y_true, y_pred, average=None)