Машинное обучение вики
Редактировать страницу
Внимание: Вы не вошли в систему. Ваш IP-адрес будет общедоступен, если вы запишете какие-либо изменения. Если вы войдёте или создадите учётную запись, её имя будет использоваться вместо IP-адреса, наряду с другими преимуществами.

Правка может быть отменена. Пожалуйста, просмотрите сравнение версий ниже, чтобы убедиться, что это нужная вам правка, и запишите страницу ниже, чтобы отменить правку.

Текущая версия Ваш текст
Строка 28: Строка 28:
 
<math>Recall(a) = \frac{TP}{TP+FN}</math>.
 
<math>Recall(a) = \frac{TP}{TP+FN}</math>.
   
Полнота показывает, какую долю объектов, '''реально''' относящихся к положительному классу, мы предсказали верно.
+
Полнота показывает какую долю объектов, '''реально''' относящихся к положительному классу, мы предсказали верно.
   
 
На примере: полнота &mdash; это сколько из сумасшедших людей, которых мы проверили, мы посадили в психушку.
 
На примере: полнота &mdash; это сколько из сумасшедших людей, которых мы проверили, мы посадили в психушку.
Строка 43: Строка 43:
 
<math>Fmeasure_{\beta} = \frac {(1 + \beta^2) Precision \cdot Recall}{\beta^2 Precision + Recall}</math>.
 
<math>Fmeasure_{\beta} = \frac {(1 + \beta^2) Precision \cdot Recall}{\beta^2 Precision + Recall}</math>.
   
Где <math>\beta \in [0, \infty)</math>, при <math>\beta = 0</math> получаем точность, при <math>\beta = 1</math> &mdash; непараметрическую F-меру, при <math>\beta = \infty</math> &mdash; полноту.
+
Где <math>\beta \in [0, \infty)</math>, при <math>\beta = 0</math> получаем точность, при <math>\beta = 1</math> непараметрическую F-меру, при <math>\beta = \infty</math> полноту.
   
 
== Кросс-энтропия ==
 
== Кросс-энтропия ==
Обратите внимание, что все правки на Машинное обучение вики публикуются по лицензии CC-BY-SA