如何在智能告警平台CA触发测试告警
608
2022-11-21
分类算法测试方法
正确率(accuracy)
正确率是我们最常见的评价指标, accuracy = (TP+TN)/(P+N),即被分对的样本数除以所有的样本数,正确率越高,分类器越好;
错误率(error rate)
错误率则与正确率相反,描述被分类器错分的比例,error rate = (FP+FN)/(P+N),对某一个实例来说,分对与分错是互斥事件,所以 accuracy =1 - error rate;
灵敏度(sensitive)
sensitive = TP/P,表示的是所有正例中被分对的比例,衡量了分类器对正例的识别能力;
特效度(specificity)
specificity = TN/N, 表示的是所有负例中被分对的比例,衡量了分类器对负例的识别能力;
精度(precision)
精度是精确性的度量,表示被分为正例的示例中实际为正例的比例, precision=TP/(TP+FP);
召回率(recall)
召回率是覆盖面的度量,度量有多个正例被分为正例, recall=TP/(TP+FN)=TP/P= sensitive,可以看到召回率与灵敏度是一样的。
上述常见的模型评价术语备注如下:
假设分类目标只有两类,计为正例(positive)和负例(negtive)。
True positives(TP): 被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);
False positives(FP): 被错误地划分为 正 例的个数,即 实际为负例但被分类器划分为正例的实例数;
False negatives(FN):被 错误地划分为 负 例的个数,即 实际为 正 例但被分类器划分为 负例的实例数;
True negatives(TN): 被正确地划分为 负 例 的个数 ,即实际为 负 例且被分类器划分为 负例的实例数。
发表评论
暂时没有评论,来抢沙发吧~