Открытие фигуры богини
Предисловие: Трудность заключается в AUC
1. Оффлайн-оценка
1) Метрики для предсказания результатов
1.MAE
MAE(Mean absolute error)
-
прогнозируемый балл,
это реальный рейтинг
2.MSE
MSE (среднеквадратичная ошибка), среднеквадратическая ошибка
3.RMSE
RMSE (среднеквадратичная ошибка), среднеквадратическая ошибка (также известная как стандартная ошибка)
Чем он отличается от МСЭ?
4.NMAE
NMAE (нормализованная средняя абсолютная ошибка), один пользователь uстандартная средняя абсолютная ошибка
2) Метрики на основе классификации
1.Precision & Recall
Для задач бинарной классификации: матрица путаницы (матрица путаницы)
образец положительный класс | положительный образец | образец отрицательный класс | отрицательный образец | |
---|---|---|
Модель предсказывает положительный | TP (истинно положительный, истинный пример) | FP (ложноположительный, ложноположительный) |
Модель предсказывает отрицательный | FN (ложноотрицательный, ложноотрицательный) | TN (истинно отрицательный, истинно отрицательный) |
- Точность: отношение количества образцов, которые действительно являются положительными, среди всех образцов, которые, по прогнозам, будут положительными.
Популярное понимание: меня интересуют только положительные образцы, какая часть предсказанных положительных образцов верна
- Отзыв (уровень отзыва): доля числа образцов, которые, по прогнозам, будут положительными среди всех положительных образцов.
Популярное понимание: меня интересуют только положительные образцы, какую долю положительных образцов я предсказываю правильно
- ACC (точность): точность (обычно не используется)
- F-score
F-оценка используется для синтеза точности и отзыва
когда, то это
среднее геометрическое
2. ROC AUC
Концепция ОКР
ROC (Receiver Operating Characteristic), кривая рабочих характеристик приемника.вики объяснил
Пространство ROC определяет частоту ложных срабатываний (FPR) какXось, истинная положительная скорость (TPR) определяется какYось.
-
TPR(истинно положительный показатель): Из всех образцов, которые были действительно положительными,ПравильноСтавка признана положительной
-
TNR (истинно отрицательный показатель): TN / (FP + TN) = 1-FPR.
-
FPR(Коэффициент ложноотрицательных результатов): Среди всех образцов, которые действительно являются отрицательными,ошибочноСтавка признана положительной
-
Всегда забывайте значение координат кривой ROC, следующий метод запоминания: сначала запомнитеВертикальная ось - это TPR, что напоминает. Важно понимать, что отзыв основан на наблюдении за положительными образцами и о том, сколько положительных образцов вспоминается. Соответственно, он также должен быть сосредоточен на отрицательном образце,Скорость отзыва отрицательных образцов — это абсцисса, а скорость отзыва положительных образцов — это ордината..
-
данныйбинарная классификацияМодельИ егоПорог**, координатная точка (X=FPR, Y=TPR) может быть рассчитана из (положительных/отрицательных) истинных и прогнозируемых значений всех выборок.
-
Диагональная линия от (0, 0) до (1, 1) делит пространство ROC на верхнюю левую/нижнюю правую области, точки над этой линией представляют хороший результат классификации (лучше, чем случайная классификация), а точки под этой линией представляют плохие результаты классификации (хуже, чем случайная классификация).
-
идеальный прогноз- точка в верхнем левом углу, в точке пространственной координаты ROC (0,1), X=0 означает отсутствие ложных срабатываний, Y=1 означает отсутствие ложных срабатываний (все положительные значения являются истинными положительными)
Концепция АУК
- Единственная точка в приведенном выше пространстве ROC получается после заданной модели классификации и заданного порога. но то же самоемодель бинарной классификацииизпорогМожет быть установлено как высокое, так и низкое значение, каждая настройка порога приведет к разным значениям FPR и TPR.
- будетодна и та же модель для каждого порогаКоординаты (FPR, TPR) рисуются в пространстве ROC, которое становитсяКривая ROC для конкретной модели.
- Площадь под кривой ROC (AUC ROC)
- Мое понимание: TPR — это частота повторения положительных образцов, а FPR — частота ошибок отрицательных образцов. Следовательно, чем больше TPR, тем лучше, а чем меньше FPR, тем лучше.
- Если случайным образом выбраны один положительный образец и один отрицательный образец, классификаторправильное суждениеПоложительные образцы имеют более высокие значения, чем отрицательные образцывероятность = AUC
Два способа найти AUC
- Приблизительная площадь трапеции
- Вероятностный метод (Ссылаться на)
-
Для задач бинарной классификации модель предсказания предсказывает оценку s или вероятность p для каждой выборки. Затем пороговое значение t может быть выбрано таким образом, чтобы образцы с оценкой s>t прогнозировались как положительные, а выборки с оценкой s
-
Для TPR истинной скорости числитель — это количество положительных образцов в балле > t, а знаменатель — общее количество положительных образцов. Для частоты ложноположительных результатов FPR числитель — это количество отрицательных образцов в балле > t, а знаменатель — общее количество отрицательных образцов.
-
если определено
количество положительных образцов в score>t,
количество отрицательных выборок в score>t; определение
общее количество положительных образцов,
- общее количество отрицательных образцов, тогда TPR и FPR можно выразить как:
-
При изменении порога t TPR и FPR образуют кривую на графике координат, и эта кривая является ROC-кривой.
-
Если модель является случайной и оценка модели не различает положительные и отрицательные выборки, то в выборках с оценками больше t доля положительных и отрицательных выборок и доля положительных и отрицательных выборок в популяции должны быть в основном равными такой же. это
Комбинируя приведенную выше формулу, мы видим, что TPR и FPR равны, а соответствующая кривая ROC представляет собой прямую линию!
Интерпретация вероятности AUC
- Для классификатора C для любой выборки существует модель, предсказывающая выходное значение s. Для пары положительных и отрицательных выборок классификатор предсказывает оценку положительной выборки как
Прогнозируемый отрицательный показатель выборки равен
.
- Предполагая, что порог равен t, отрицательный показатель выборки равен
Вероятность между:
- Отрицательный показатель выборки равен
, а вероятность того, что оценка положительных образцов выше, чем у отрицательных, равна
Приведенный выше расчет относится к случаю определенного порога.Для всех случаев удобно получить вероятность того, что оценка положительных образцов выше, чем оценка отрицательных образцов для любого порога.
Интегральный член на самом деле представляет собой вероятность такого события:Случайным образом возьмите пару положительных и отрицательных образцов, оценка отрицательного образца равна t, а положительного образца больше t.. Следовательно, интегрирование этого исчисления вероятности дает вероятность того, что положительная выборка наберет больше баллов, чем отрицательная. Следовательно, площадь под ROC-кривой равна: случайным образом выбирают пару положительных и отрицательных образцов, и вероятность того, что оценка положительного образца выше, чем у отрицательного образца
Сортировка свойств AUC
- AUC относится к вероятности того, что модель ранжирует положительные образцы перед отрицательными, поэтому AUC часто используется для оценки модели в сценариях сортировки, таких как сценарии поиска и рекомендаций.
- В соответствии с вероятностной интерпретацией добавление дополнительной константы к оценкам всех образцов не меняет вероятность, поэтому AUC не изменяется. Поэтому в рекламе и других сценариях, требующих абсолютной кликабельности, AUC не подходит в качестве оценочного показателя, а используются такие показатели, как logloss.
- Используя вероятностную интерпретацию, можно получить еще одно свойство AUC, нечувствительное к соотношению положительных и отрицательных образцов. Если выполняется случайная отрицательная выборка, в новой выборке отрицательной выборки
и
Доля α остается неизменной (поскольку это случайная выборка), не влияет на PFR и влияет на AUC, AUC не изменяется.
Рассчитать AUC методом сортировки
- Предположим, что тестовый набор имеет
положительные образцы,
Есть отрицательные выборки, а сами положительные выборки изначально отсортированы (например, в результатах поиска есть лучшие и вторые лучшие). Положительные образцы сами сортируются как 1, 2, 3...j...
. Для всех положительных и отрицательных образцов модель имеет оценку прогноза, ранжированную как 1, 2, 3...
...
.
- Для j-го положительного образца модель предсказывает оценку, а ее ранг оценки равен
(От малого к большому, наименьший балл — первый. Высшему баллу также можно присвоить 1, и идея остается неизменной), а значит, есть
отрицательные образцы (с меньшим баллом, чем он) ранжируются перед этим положительным образцом. Затем случайным образом возьмите отрицательную выборку, вероятность того, что ее оценка ниже, чем оценка положительной выборки (случайное распределение вероятностей):
- Таким образом, в среднем вероятность случайного выбора положительных образцов выше, чем вероятность случайного выбора отрицательных образцов.
Конкретно:
- Во-первых, все выборки сортируются в соответствии с оценкой предсказания модели, и они, в свою очередь, представлены по рангу.
- Например, выборка с наибольшим количеством баллов, rank=n (где
, N — количество отрицательных образцов, M — количество положительных образцов), за которыми следует n-1
- Затем добавьте ранг всех положительных образцов и вычтите комбинацию двух положительных образцов.
- Получите, сколько из всех образцов имеют более высокий балл для положительных образцов, чем для отрицательных, а затем разделите на
3) Метрики на основе сортировки
1.MAP
- AP (средняя точность): среднее значение различных точек отзыва является «отзывом с учетом порядка». В результате поиска и сортировки имеется r положительных образцов, сортировка очень важна, и каждая позиция имеет различный вес.
- отсортированная позиция j-го положительного образца
- MAP (средняя средняя точность) — это среднее значение всех пользовательских точек доступа.Ссылаться на
2.NDCG
-
G (выигрыш): оценка релевантности элементов в списке (определяется сценарием).
-
CG (кумулятивный прирост): совокупный прирост, совокупный прирост для K элементов
-
DCG (дисконтированная совокупная прибыль): дисконтированная совокупная прибыль. С учетом фактора местоположения логарифмические скидки для разных местоположений
- NDCG(Normalized Discounted Cumulative Gain)
DCG можно рассчитать для списка рекомендаций пользователя, но разные пользователи имеют разные суждения и должны быть нормализованы, прежде чем их можно будет сравнивать. IDCG (оптимально отсортированные DCG, например, положительные образцы ранжируются первыми).
3.MRR
- MRR(Mean Reciprocal Rank):
- Q - количество пользователей,
— ранжирование первого элемента в достоверном результате в списке рекомендаций для i-го пользователя.
- Пример: Есть три пользователя, и минимальные ранговые значения положительных примеров в списке рекомендаций равны 3, 2 и 1 соответственно, тогда MRR=(1 + 0,5 + 0,33) / 3 = 0,61
4) Другие показатели
1.Coverage
Простейшее определение охвата — это доля элементов, рекомендованных рекомендательной системой, к общему количеству элементов. Более высокий коэффициент охвата указывает на то, что модель может генерировать рекомендации для большего количества элементов, тем самым способствуя анализу длинных хвостов.
2.HR
- Частота попаданий в рекомендации Top-K – это часто используемый индикатор для измерения скорости отзыва. В знаменателе представлены все наборы тестов, а в числителе – сумма количества наборов тестов в списке рекомендаций Top-K каждого пользователя.
- Знаменатель — это все наборы тестов, а числитель — сумма количества наборов тестов в списке лучших K рекомендаций каждого пользователя.
- Например: количество продуктов в тестовом наборе для трех пользователей равно 10, 12 и 8 соответственно.В топ-10 рекомендаций, полученных моделью, в тестовом наборе 6, 5 и 4 соответственно. Тогда значение ЧСС в это время равно (6+5+4)/(10+12+8) = 0,5.Ссылаться на
3. ARHR
ARHR (Average Reciprocal Hit Rank) также является очень популярным показателем в текущих рекомендациях Top-N. Это взвешенная версия HR, которая измеряет силу рекомендуемого элемента.