0x00 сводка
Двухклассовая оценка предназначена для оценки влияния результатов прогнозирования двухклассового алгоритма. В этой статье будет представлен конкретный пример Шуйбо Ляншань, который поможет вам разобраться в соответствующих концепциях.
0x01 Причина этой статьи
В настоящее время автор исследует исходный код Alink, изначально я планировал проанализировать двухкатегорийную оценку, в итоге открыл соответствующие документы Alink и обнаружил, что в ней много понятий и формул. Поэтому эта статья сначала познакомит вас с некоторыми концепциями и формулами и заложит хорошую основу для последующего анализа исходного кода.
Ниже приводится описание «оценки бинарной классификации» в Alink.
-
Поддержка кривой Roc, кривой LiftChart, рисования кривой Recall-Precision.
-
Потоковые эксперименты поддерживают кумулятивную и оконную статистику.
-
К общим показателям оценки относятся: AUC, KS, PRC, точность, полнота, F-мера, чувствительность, точность, специфичность и каппа при различных пороговых значениях.
Эти понятия в основном являются индикаторами оценки, которые являются количественными индикаторами производительности модели. Индекс оценки может отражать только часть характеристик модели.Если выбранный оценочный индекс необоснован, это может привести к неверным выводам.Поэтому для конкретных данных и моделей следует выбирать разные оценочные индексы.
Далее мы проанализируем и разберем некоторые из этих понятий.
0x02 Пример сборки
-
**Цель**: поскольку Лу Чжишэнь возражал против плана вербовки, Сун Гунмин надеется найти людей, связанных с Лу Чжишенем, в Ляншане.
-
**Все образцы**: Линь Чун, Ву Сун, Ши Цзинь, Ян Чжи, Чжан Цин, Сунь Эрнян, Ху Яньчжуо, Гуань Шэн, Ши Сю, Ян Сюн.
Сун Цзян сказал Цзян Цзину: Брат Сянь, ты бог, помоги моему брату подумать о том, как найти кого-то, кто связан с великим монахом.
Цзян Цзин сказал: «Просьба брата представляет собой «задачу двух категорий» (например, предсказать, страдаете ли вы сердечным заболеванием, рост или падение цен на акции и т. д. Есть только два типа проблем), есть много способов, брат, слушайте меня медленно Приходите.
Матрица путаницы 0x03
Цзян Цзин сказал: Прежде всего, понятие, введенное младшим братом, представляет собой матрицу путаницы, которая представляет собой 2-мерную квадратную матрицу, которая в основном используется для оценки качества задачи бинарной классификации.
3.1 Четыре ситуации классификации
Для задачи бинарной классификации, т. е. классификации экземпляров по положительным или отрицательным классам, в фактической классификации возникнут следующие четыре ситуации:
-
TN (True Negative): Алгоритм предсказывает, что это отрицательный пример (N), что на самом деле является количеством отрицательных примеров (N), то есть алгоритм предсказывает правильно (True).
-
FP (ложноположительный): алгоритм предсказывает положительный пример (P), что на самом деле является количеством отрицательных примеров (N), то есть алгоритм предсказывает неверный (ложный) результат.
Это относится к количеству экземпляров, которые на самом деле являются отрицательными, но классифицируются классификатором как положительные.
-
FN (False Negative): Алгоритм предсказывает отрицательный пример (N), что на самом деле является количеством положительных примеров (P), то есть алгоритм предсказывает неправильный (False)
Это относится к количеству экземпляров, которые на самом деле являются положительными, но классифицируются классификатором как отрицательные.
-
TP (True Positive): Алгоритм предсказывает положительный пример (P), что на самом деле является количеством положительных примеров (P), то есть алгоритм предсказывает правильно (True).
Сун Цзяндао: Таким образом, «люди, связанные с Лу Чжишэнем», являются TP + FP.
Цзян Цзин сказал: Брат неправильно понял, фактическое количество положительных образцов должно быть TP + FN.
Вот трюк памяти, чтобы слушать младшего брата.
трюк с памятьюДа: Эти 4 определения состоят из двух букв:
-
Первая буква указывает на то, что алгоритм предсказывает правильно или неправильно, то есть True и False описывают, верен классификатор или нет.
-
Вторая буква представляет результат, предсказанный алгоритмом, то есть Положительный и Отрицательный — это результаты классификации этого классификатора.
Итак, чтобы уточнить еще раз:
-
ТП: Прогнозируется как положительный образец, который на самом деле является положительным образцом.
-
FP: Прогнозируется как положительный образец, но на самом деле отрицательный образец.
-
FN : Прогнозируется как отрицательный образец, который на самом деле является положительным образцом.
-
ТН: Прогноз — это отрицательная выборка, и фактическая — тоже отрицательная выборка.
-
P = TP + FN: количество всех «действительно положительных» образцов.
-
N = FP + TN: количество всех «действительно отрицательных» образцов.
-
P~ = TP + FP: количество всех «прогнозируемых положительных» образцов.
-
N~ = TN + FN: количество всех «прогнозируемых отрицательных» образцов.
3.2 Матрица путаницы
Матрица путаницы — это перекрестная таблица, в которой указано количество выборок, соответствующих истинному значению и прогнозируемому значению. Таким образом, все правильные прогнозы находятся на его диагонали, поэтому из матрицы путаницы очень легко увидеть, где есть ошибка.
Каждая строка матрицы — это предсказанная классификация выборки, а каждый столбец — истинная классификация выборки (и наоборот).
Прогнозируемое значение 0 (не имеет отношения к Лу Чжишеню) | Прогнозируемое значение 1 (относится к Лу Чжишеню) | |
---|---|---|
**Истинное значение равно 0 (не связано с Лу Чжишенем)** | TN | FP |
**Истинное значение 1 (относится к Лу Чжишеню)** | FN | TP |
метод памяти: истинное значение более важно, поэтому истинное значение находится в первом измерении, то есть в строке.
0x04 Точность
Цзян Цзин сказал: Второе понятие, введенное моим братом, — это Точность. Эта Точность относится к проценту от общего числа выборок, предсказания которых верны.
4.1 Формула
Согласно нашему определению выше: первая буква указывает на то, что алгоритм предсказал правильно или неправильно, а вторая буква указывает на результат предсказания алгоритма.
Таким образом, знаменатель — это все четыре типа данных; первая буква в числителе — Т, что означает «алгоритм предсказал это правильно».
4.2 Особенности
Точность имеетнедостаток, то есть выборки данных не сбалансированы, и этот показатель не может оценить работоспособность модели.
Предположим, тестовый набор содержит 99 положительных образцов и 1 отрицательный образец. Модель, которую мы разработали, является безмозговой моделью, то есть, если все образцы прогнозируются как положительные образцы, то Точность модели составляет 99%.Глядя на оценочные показатели, модель работает хорошо, но на самом деле модель не имеет предиктивных характеристик. способность.
0x05 Точность
Цзян Цзин сказал: Третье понятие, введенное младшим братом, — это уровень точности, также известный какточность, что является количеством «правильно предсказанных» данных в «прогнозированных положительных» данных. которыйПроцент положительных образцов, предсказанный моделью как положительные образцы. Или насколько точны результаты, предсказанные как положительные образцы.
5.1 Формула
Согласно нашему определению выше: первая буква указывает на то, что алгоритм предсказал правильно или неправильно, а вторая буква указывает на результат предсказания алгоритма.
Таким образом, в знаменателе TP означает: алгоритм предсказывает правильно и предсказывает положительный пример, FP означает: алгоритм предсказывает неправильно и предсказывает положительный пример (на самом деле отрицательный пример).
5.2 Особенности
Этот показатель более осторожен и имеет высокий порог классификации.
5.3 Сценарии применения
Необходимо как можно точнее определять требуемые категории, независимо от того, обнаруживаются ли эти категории. Например, для предсказания преступников мы надеемся, что результаты предсказания будут очень точными.Даже если некоторые настоящие преступники будут пощажены, хорошего человека нельзя винить.
0x06 Точность VS Точность
Сун Цзян сказал, что два китайских слова «сяньди» слишком похожи друг на друга, и мне трудно отличить своего брата.
Цзян Цзин сказал: Брат, эти два слова переведены с английского, давай внимательно их рассмотрим.
Давайте посмотрим на его первоначальное значение на английском языке.
-
Определение точности в словаре: качество или состояние правильности или точности
-
Определение точности в словаре: качество, состояние или факт точности и точности.
Точность прежде всего правильная, а точность прежде всего точная. Сначала точно, потом точно. Чтобы считаться точным, результат должен соответствовать как условиям точности, так и прецизионности.
Эти два слова также чем-то похожи на смещение и дисперсию.
-
Смещение отражает разрыв между ожидаемым выходом модели на выборке и реальной оценкой, то есть точность самой модели, и отражает подгоночную способность самой модели. Это очень похоже на Precision.
-
Дисперсия отражает ошибку между выходом функции, изученной моделью при разных наборах обучающих данных, и ожидаемым результатом, то есть стабильностью модели, которая отражает колебания модели. Это что-то вроде Точности.
Сун Цзян сказал: «Брат Сянь, ты предвзят и непоследователен, и твой брат тоже звучит как книга с небес».
Цзян Цзин сказал: «Подожди, пока младший брат не найдет подходящий пример для старшего брата».
Например, это можно сравнить со стрельбой из лука: точность зависит от вероятности попадания в яблочко, а точность зависит от того, в какое положение области «яблочка» вы попали.
0x07 Отзыв Отзыв
Это показатель оценки исходного образца. скорость отзываотзывать,этоПроцент положительных образцов, которые прогнозируются как положительные.то есть всеПоложительный пример, сколько былоправильныйоценивается как положительный.
7.1 Формула
Согласно нашему определению выше: первая буква указывает на то, что алгоритм предсказал правильно или неправильно, а вторая буква указывает на результат предсказания алгоритма.
Таким образом, TP+FN в знаменателе означает «прогноз правильный, и прогноз является положительной выборкой» + «прогноз неверен, а прогноз является отрицательной выборкой (фактически реальный положительный пример)». т. е. количество всех «действительно положительных» образцов
Числитель: предсказание правильное и, по прогнозам, будет положительной выборкой.
7.2 Особенности
Порог классификации отзыва низкий. Попробуйте проверить данные и не пропустите данные.Так называемые скорее убьют тысячу по ошибке, чем отпустят одного.
Давайте посмотрим на английское объяснение: Вспомнить: вспомнить что-то; заставить кого-то подумать о чем-то; приказать кому-то вернуться; попросить вернуть что-то, часто потому, что с этим что-то не так.
Поскольку Recall имеет значение памяти, вы можете попытаться понять Recall как «частоту памяти». Это то, сколько деталей требуется, чтобы запомнить событие, когда мы запрашиваем у поисковой системы все детали определенного события (входной поисковый запрос), сколько деталей поисковая система может «вызвать» из тех событий, которые обычно упоминается как способность «воспоминания». Количество деталей, которые можно вспомнить, деленное на все детали, которые система знает об этом событии, представляет собой «скорость запоминания», которую также называют скоростью воспоминаний.
7.3 Сценарии применения
Сценарий применения отзыва таков: нужно максимально точно обнаружить нужную категорию, независимо от того, точен ли результат.
Например, при прогнозировании землетрясений мы надеемся, что каждое землетрясение можно предсказать, а в настоящее время можно пожертвовать точностью. Если всего 10 землетрясений, мы предпочитаем подавать 1000 сигналов тревоги, чтобы можно было охватить все 10 землетрясений (отзыв 100%, точность 1%), и мы не хотим подавать 100 сигналов тревоги, из которых 8 ар Землетрясение было предсказано, но дважды пропущено (отзывность 80%, точность 8%).
7.4 Sensitivity
чувствительный = TP / P, который представляет собой долю всех положительных примеров, которые являются парными, и измеряет способность классификатора идентифицировать положительные примеры; видно, что чувствительный и отзыв - это одно и то же.
0x08 Точность против отзыва
Сун Цзян сказал: «Брат Сянь, пожалуйста, объясни своему брату понятия точности и отзыва».
Цзян Цзин сказал: «Подожди, пока младший брат заговорит медленно».
8.1 Концептуальные различия
Во-первых, используйте легенду, чтобы увидеть концептуальную разницу.Эллипс на рисунке — это «прогнозируемый положительный» образец. Также можно увидеть определения этих двух понятий.
8.2 Другой фокус
Отзыв — это мера охвата, которая имеет несколько истинных положительных результатов, предсказанных как положительные. Точность является мерой точности и представляет собой долю примеров, которые были предсказаны как положительные, но которые были фактически положительными.
В разных сценариях применения наши проблемы разные, например:
-
При прогнозировании акций нас больше беспокоит **коэффициент точности**, то есть, насколько акции, которые мы предсказывали, вырастут, потому что все эти акции, которые мы предсказывали, были инвестированы нами.
-
В сценарии прогнозирования больных больше внимания уделяем **уровню отзыва**, то есть среди действительно больных следует предсказывать как можно меньше ошибок, т. к. при не выявлении настоящего заболевания результаты На самом деле, это очень серьезно: скорость отзыва безмозглого алгоритма раньше равнялась 0.
При поиске информации точность и полнота влияют друг на друга. Хотя оба они высоки, это идеальная ситуация для ожидания. Однако на практике, если порог высок, точность будет высокой, но будет упущено много данных. ; если порог низкий, скорость отзыва высокая, но предсказание будет очень неточным. Поэтому на практике часто приходится идти на компромиссы в зависимости от конкретных обстоятельств, например:
-
В случае общего поиска точность повышается, а скорость отзыва гарантируется.
-
Если это мониторинг заболеваний, защита от спама и т. д., это должно повысить скорость отзыва при условии обеспечения скорости точности.
-
Иногда вам нужно сбалансировать оба, тогда вы можете использоватьF
-оценочные показатели.
8.3 Почему точность и полнота влияют друг на друга
Сун Цзян сказал, увидев это, у меня возник вопрос, почему точность и память влияют друг на друга?
Цзян Цзин сказал: «Эта проблема более сложная».
Сначала поговорим об общем принципе.
-
Отзыв и точность противоречат друг другу. Если вам нужна более высокая полнота, вам нужно, чтобы прогноз модели охватывал больше выборок, но тогда модель с большей вероятностью будет совершать ошибки, а это означает, что точность будет ниже. Если модель консервативна и может обнаруживать только образцы, в которых она очень уверена, то ее точность будет высокой, но ее полнота будет относительно низкой.
-
Знаменатель полноты (TPR) представляет собой количество положительных классов в выборке, поэтому после определения выборки ее знаменатель является фиксированным значением, то есть изменение полноты монотонно возрастает с увеличением числителя; знаменатель точность прогнозируемый в выборке положительный класс, число будет меняться с изменением порога классификации, поэтому на изменение точности влияет комплексное влияние ТП и ФП, которое не монотонно и изменение непредсказуемо.
8.3 Пример описания
Цзян Цзин сказал: Лучше всего использовать реальные данные, чтобы объяснить это, давайте сделаем это в реальности.
8.3.1 Матрица путаницы
Образец всего: Линь Чун, Ву Сун, Ши Цзинь, Ян Чжи, Чжан Цин, Сунь Эрнян, Ху Яньчжо, Гуань Шэн, Ши Сю, Ян Сюн.
Эти герои будут разделены на четыре категории:
-
TP: найдено, связано (найдено и разыскивается)
-
FP: найдено, но неактуально (найдено, но бесполезно)
-
ФН: не найдено, но актуально (не найдено, но на самом деле разыскивается)
-
TN: Не найдено и не актуально (не найдено и бесполезно)
Давайте снова посмотрим на матрицу путаницы:
Прогнозируемое значение 0 (не имеет отношения к Лу Чжишеню) | Прогнозируемое значение 1 (относится к Лу Чжишеню) | |
---|---|---|
**Истинное значение равно 0 (не связано с Лу Чжишенем)** | TN | FP |
**Истинное значение 1 (относится к Лу Чжишеню)** | FN | TP |
8.3.2 Зачем отзывать
Прежде всего, давайте разберемся, для чего нужен показатель вспоминаемости?
Найдите людей, связанных с Лу Чжишеном, в Liangshan Heroes. Например, 18 человек связаны с Лу Чжишенем, а 90 человек не связаны с Лу Чжишенем.
Давайте составим алгоритм предсказаний: то есть предсказано, что все герои не связаны между собой. Таким образом, 90 предсказаний определенно верны, и уровень точности кажется очень высоким.
Но точность предсказания этого алгоритма для «людей, связанных с Лу Чжишенем» равна 0, поэтому этот алгоритм не имеет смысла.
Поэтому необходимо ввести Recall. В этих 18 можно найти отзыв. Например, если найдено 12, то отзыв = 66%.
8.3.3 Анализ
Давайте рассмотрим определения ниже:
-
Точность (точная скорость) Точность = TP / (TP+FP): найдены связанные герои / все найдены герои. Стремление к точности (точность) означает, что среди найденных героев чем релевантнее, тем лучше, и чем менее неактуально, тем лучше.
-
Скорость отзыва (скорость отзыва) Отзыв = TP / (TP+FN): Соответствующие найденные герои / все значимые герои во всей выборке. Погоня за коэффициентом отзыва (количество отзывов) означает, что чем больше релевантных героев в выборке будет найдено, тем лучше.
Зачем ограничивать друг друга?
-
Поскольку «стратегия поиска» не идеальна, когда есть надежда, что будут извлечены более подходящие герои, когда «стратегия поиска» ослаблена, часто будут появляться некоторые нерелевантные результаты, что повлияет на точность.
-
Если вы хотите удалить нерелевантных героев из результатов поиска, вы должны установить более строгую «стратегию поиска», что также приведет к тому, что некоторые связанные герои больше не будут найдены, что повлияет на скорость отзыва.
8.3.4 Первоначальная «стратегия поиска»
Первой «стратегией поиска» Цзян Цзина была: Гора цветущего персика + офицеры. Это легко понять: Лу Чжишэнь жил на Горе цветущего персика, был тию и мог иметь личные отношения с генералами армии Сун.
Получите следующую матрицу путаницы
Прогнозируемое значение 0 (не имеет отношения к Лу Чжишеню) | Прогнозируемое значение 1 (относится к Лу Чжишеню) | |
---|---|---|
**Истинное значение равно 0 (не связано с Лу Чжишенем)** | ТН Ши Сю, Ян Сюн, Пей Сюань, Тан Лун, Лю Тан, Тао Цзунван | FP Гуань Шэн, Хуянжуо |
**Истинное значение 1 (относится к Лу Чжишеню)** | FN Ши Цзинь, Ян Чун, Чен Да, Чжоу Тонг | ТП Ву Сонг, Ян Чжи, Чжан Цин, Сунь Эрнян |
Итак, подсчитано, что:
Precision = TP / (TP + FP) = 4 / (4 + 2) = 2/3
Recall = TP / (TP + FN) = 4 / (4 + 4) = 1/2
8.3.5 Продолжайте вспоминать/расслабляться «Поиск стратегии»
Сун Цзяндао: Мы нашли слишком мало связанных людей, поэтому нам нужно увеличить скорость отзыва (скорость отзыва).
Погоня за скоростью отзыва (recall rate) означает, что все соответствующие герои в выборке будут найдены как можно больше, поэтому «стратегию поиска» следует ослабить. При ослаблении «стратегии поиска» часто сопровождаются некоторые нерелевантные результаты, что влияет на точность.
Так что брат Гунмин должен ослабить свою «стратегию поиска»: Ши Далан с горы Шаохуа и Лу Чжишэнь уже поклялись раньше; Лу Чжишэнь раньше находился под командованием «Лао Чжунцзин Лю Сянгун», и он командовал Шэньси, поэтому Лу Чжишен может иметь контакты с людьми с северо-запада.
Расслабленная «стратегия поиска»: Гора Персикового Цветка + Гора Шаохуа + Офицер + Северо-Запад (Пей Сюань, Тан Лун, Лю Тан, Тао Цзунван)
Итак, матрица путаницы получается как:
Прогнозируемое значение 0 (не имеет отношения к Лу Чжишеню) | Прогнозируемое значение 1 (относится к Лу Чжишеню) | |
---|---|---|
**Истинное значение равно 0 (не связано с Лу Чжишенем)** | TN Ши Сю, Ян Сюн | ФП Гуань Шэн, Ху Яньчжо, Пей Сюань, Тан Лун, Лю Тан, Тао Цзунван |
**Истинное значение 1 (относится к Лу Чжишеню)** | ФН Чжоутун | ТП Ву Сун, Ян Чжи, Чжан Цин, Сунь Эрнян, Ши Цзинь, Ян Чун, Чен Да |
так получить
Precision = TP / (TP + FP) = 7 / (7 + 6) = 7/13 ---- 降低
Recall = TP / (TP + FN) = 7 / (7 + 1) = 7/8 ---- 提高
Видно, что мы хотим увеличить TP и уменьшить FN, поэтому мы ослабляем «стратегию поиска», что приводит к увеличению FP.
8.3.6 Следить за уровнем точности/усилить «стратегию поиска»
Сун Цзяндао: Мы нашли слишком много связанных людей, нам нужно повысить точность.
Надеюсь удалить неактуальных героев из результатов поиска. В это время «стратегия поиска» должна быть установлена более строго, чтобы некоторые связанные герои больше не могли быть найдены, что повлияет на скорость отзыва.
Таким образом, чтобы усилить «стратегию поиска», новая «стратегия поиска»: Герои Таохуашань, мужчина.
Итак, матрица путаницы получается как:
Прогнозируемое значение 0 (не имеет отношения к Лу Чжишеню) | Прогнозируемое значение 1 (относится к Лу Чжишеню) | |
---|---|---|
**Истинное значение равно 0 (не связано с Лу Чжишенем)** | ТН Ши Сю, Ян Сюн, Пей Сюань, Тан Лун, Лю Тан, Тао Цзунван, Гуань Шэн, Хуянчжуо | FP |
**Истинное значение 1 (относится к Лу Чжишеню)** | FN Чжоу Тонг, Сунь Эрнян, Ши Цзинь, Ян Чун, Чен Да | ТП Ву Сонг, Ян Чжи, Чжан Цин |
так получить
Precision = TP / (TP + FP) = 3 / (3 + 0) = 3/3 ---- 提高
Recall = TP / (TP + FN) = 3 / (3 + 5) = 3/8 --- 降低
Видно, что я надеюсь увеличить TP и уменьшить FP, поэтому усилить «стратегию поиска», что приведет к увеличению FN.
0x09 F-Measure / F1 Score
宋江道:精准率和召回率看来是此消彼长的,这便如何是好?
蒋敬说:我们有其他指标可以考虑,比如 F1 Score
В некоторых сценариях, чтобы принять во внимание уровень точности и уровень отзыва, существует оценка F1. Значение F1 является гармоническим средним значением точности и полноты.
9.1 Формула
9.2 Особенности
При определенных обстоятельствах точность отражает способность модели контролировать количество ложноположительных FP, значение Recall отражает частоту обнаружения положительных образцов, а значение F1 объединяет два аспекта.
На самом деле показатель F1 представляет собой гармоническое среднее точности и полноты.Природа гармонического среднего заключается в том, что только когда и точность, и полнота очень высоки, их среднее гармоническое значение будет высоким. Если одно из них низкое, среднее гармоническое будет приближаться к этому низкому числу.
Зачем? Поскольку среднее гармоническое является произведением, оно ближе к меньшему значению, поэтому независимо от того, какое значение точности или полноты меньше, среднее гармоническое ближе к этому значению, и это измерение является более строгим.
метод памяти: Смесь масел Arowana.
9.3 Сценарии применения
В случае, когда и точность, и полнота одинаково высоки, для измерения можно использовать F1.
0x10 TPR, FPR, TNR, FNR
Наконец, мы представляем четверняшек, которых особенно легко спутать.
истинная ставкаИстинная положительная ставка, TPR = TP / (TP+FN);
Он отображает долю положительных экземпляров, правильно классифицированных классификатором, по отношению ко всем положительным экземплярам. то есть всеПоложительный пример, сколько былоправильныйоценивается как положительный. Мы видим, что TPR равенsensitivity.
ложноположительный показатель / ложноположительный показательЧастота ложных срабатываний, FPR = FP / (TN+FP);
Он отображает долю ошибок предсказания во всех фактически отрицательных выборках, т.отрицательный пример, сколько былоОшибкаоценивается как положительный. с медицинской точки зренияЧастота ошибочных диагнозов(люди, которые не больны, тестируются на больные), равно1 - Специфика.
истинно отрицательный показатель True Negative Rate, TNR= TN / N = 1 - FPR;
Он отображает долю отрицательных экземпляров, правильно классифицированных классификатором, по отношению ко всем отрицательным экземплярам, также известную какспецифичность. Он измеряет способность классификатора идентифицировать отрицательные примеры.
ложноотрицательный показательЧастота ложноотрицательных результатов, FNR = FN / (TP + FN);
Это доля ложных предсказаний среди всех проб, которые на самом деле положительны, и также известна в медицине.частота пропущенных диагнозов(заболевших не выявляют), что равно1 - Чувствительность.
Подведем итоги с таблицей
сокращение | китайское имя | эквивалент | медицинское значение |
---|---|---|---|
TPR | истинная ставка | Sensitivity | Чем больше, тем лучше, если он равен 1, значит, врач разбирается в медицине и с диагнозом все в порядке. |
FPR | ложноположительный показатель | 1 - Specificity | Частота ошибочных диагнозов (люди, которые не больны, выявляются как больные). Чем меньше, тем лучше |
TNR | истинно отрицательный показатель | Specificity | |
FNR | ложноотрицательный показатель | 1 - Sensitivity | Частота пропущенных диагнозов (больные не выявляются) |
Вот еще одинтрюк с памятью:
-
Слово «чувствительность» имеет значение «аллергия», что соответствует заболеванию, поэтому его легче запомнить, когда оно связано.
-
Слово «специфичность» имеет значение «иммунитет» и может ассоциироваться с отсутствием заболевания, поэтому его также легко запомнить.
0x11 TPR vs FPR
Чем больше TPR, тем лучше, а чем меньше FPR, тем лучше, но эти два показателя часто противоречат друг другу. Чтобы увеличить TPR, можно предсказать, что больше образцов будут положительными примерами, и в то же время большее количество отрицательных примеров можно ошибочно принять за положительные примеры.
Чтобы понять два вышеуказанных показателя в конкретных областях. Например, при медицинском диагностировании это считается больным образцом.
Затем постараться выяснить заболевание – это основная задача, то есть первый показатель ТПР, чем выше, тем лучше.
И ошибочно диагностировать небольной образец как больной, то есть второй индекс ФПР, чем ниже, тем лучше.
Нетрудно обнаружить, что эти два показателя взаимно ограничивают друг друга. Если врач более чувствителен к симптомам болезни, и даже малейшие симптомы расцениваются как больные, то у него должен быть высокий первый показатель, но соответственно будет высоким и второй показатель. В самом крайнем случае он считает все образцы больными, тогда первый показатель достигает 1, а второй показатель также равен 1.
-
(TPR=1, FPR=0), это идеальная классификация, то есть врач разбирается в медицине и с диагнозом все в порядке.
-
(TPR > FPR) заключение врача в целом правильное.
-
(TPR = FPR), точка на средней линии, то есть врачи все слепы, наполовину правы, наполовину не правы;
-
(TPR
В отличие от отзыва и точности, которые противоречат друг другу, TPR и FPR положительно коррелируют, то есть с увеличением TPR увеличивается и FPR. Мы хотим, чтобы TPR был как можно больше (1) и FPR как можно меньше (0), но обычно это невозможно.
ссылка 0x12
Показатели оценки двухклассового алгоритма: точность, прецизионность, полнота, матрица путаницы, AUC
Подробное объяснение индекса оценки алгоритма классификации
Сценарии применения отзыва, точности, чувствительности, специфичности, F1, кривой PR, ROC, AUC
Двухклассовые индикаторы оценки F1 & AUC & LogLoss
Кривая ROC и кривая Precision-Recall
Один из методов оценки мультиклассификационных моделей в машинном обучении — коэффициент каппа.
ROC, кривая KS, кривая подъема, кривая PR
Двухклассовая оценка, начиная с матрицы путаницы
Методы тестирования, матрицы путаницы, оценка модели
★★★★★★Думая о жизни и технологиях★★★★★★
Публичный аккаунт WeChat: мысли Росси
Если вы хотите получать своевременные новости о статьях, написанных отдельными лицами, или хотите видеть технические материалы, рекомендованные отдельными лицами, обратите внимание.
В этой статье используетсяmdniceнабор текста