- Статьи
76 результатов
-
Критерий информативности (Impurity function)
Критерий информативности (или критерий "перемешанности" классов, Impurity function) - эвристика того, насколько классы перемешаны в некотором подмножестве выборки. Используется для нахождения оптимального разбиения в узлах решающих деревьев., где - априорная вероятность встретить объект класса в (то есть -
Машинное обучение вики
Обучаемся учить машину учиться. Старайтесь следовать стилю вики — разбивать материал на статьи согласно здравому смыслу, а не билетам. Прочитайте правила оформления статей. -
Бустинг: AdaBoost
Это процедура с целью построения ансамбля из базовых (иногда говорят, слабых) алгоритмов, имеющего качество, превосходящее качество базового алгоритма. В отличие от бэггинга, это детерминированная процедура, выполняющаяся последовательно, основанная на результатах предыдущей итерации. Рассматривается задача классификации -
Метрики "важности" признаков (Importances)
Везде далее метрики рассматриваются как функция от двух переменных: признака ( — столбец матрицы объект-признак) и целевой переменной ( — столбец ответов для каждого объекта), таким образом, где зависит от конкретного метода подсчета метрики., обычная корреляция, ничего нового -
Метод опорных векторов (Support vector machine)
Пусть дана выборка Линейный классификатор: -
Разложение среднеквадратичной ошибки на смещение и дисперсию (Bias-Variance decomposition)
Пусть и производится обучение алгоритма на некоторой выборке. Тогда среднеквадратичный риск можно выразить, как: Более короткая запись: -
Метод максимального правдоподобия (Maximum likelihood estimation)
. Обучающие объекты и ответы на них независимо выбираются из некоторого распределения: Необходимо минимизировать функционал: -
Классификация с кодированием целевой переменной
Рассмотрим задачу многоклассовой классификации. — количество классов. Для применения кодов, исправляющих ошибки, в задаче классификации предлагается представить метку каждого класса бинарным вектором длины, естественно,. Точное значение зависит от метода исправления ошибок в коде и количества классов -
Робастная регрессия (Robust regression)
Использование весов для прецедентов с целью снижения влияния "выбросов" в выборке при настройке модели. — число объектов в выборке; -
Байесовский подход минимальной цены (Bayes decision rule)
СТАТЬЯ ДЛЯ ТЕОРМИНА Пусть: выборка,: множество всех возможных объектов,: множество ответов (метки классов) на. В байесовском подходе предполагается, что выборка берётся независимо из некоторого распределения:. -
Теоретический минимум к экзамену по ММРО (МГУ ВМК ММП, 5 семестр, 2016-2017)
Принцип минимизации эмпирического риска. Типичные функции потерь для регрессии и бинарной классификации. Классификация с помощью дискриминантных функций -
Задача классификации
Бинарное решающее дерево – алгоритм классификации, задающийся бинарным деревом: N – число объектов. D – размерность признакового пространства. Ядерное сглаживание (Метод Парзеновского окна): Ядерное сглаживание для оценки плотности Гауссов классификатор: – матрица ковариации. – вектор математических ожиданий. Гауссов классификатор -
Проклятие размерности
Проклятие размерности — проблема, связанная с экспоненциальным возрастанием количества данных из-за увеличения размерности пространства. Термин «проклятие размерности» был введен Ричардом Беллманом в 1961 году. Проблема «проклятия размерности» часто возникает в машинном обучении, например, при применении -
Метрики
Это метрика схожести, использующая тот факт, что, где — это угол между и. Это расстояние между множествами. -
Регуляризация
добавить вероятностную модель, соответствующую регуляризации Регуляризация — способ предотвратить переобучение модели. -
Ансамблирование простым голосованием: предельный случай
Рассмотрим задачу бинарной классификации. Пусть — бинарные классификаторы, решающие данную задачу. Введём случайные величины ошибся (допустим, смогли задать соответствующее вероятностное пространство).. Пусть независимые. Введём, тогда. -
Теория выпуклости
Немного матана для дальнейших математических изысканий Множество называется выпуклым, если -
Декоррелирующее преобразование (Whitening)
Пусть некоторая случайная величина. — ковариационная матрица. Следующее преобразование называется декоррелирующим: -
Модель Бернулли
Пусть — объект из выборки, — его -й признак. -
Линейная регрессия
Регрессия - частный случай задачи обучения с учителем, при котором целевая переменная принадлежит бесконечному подмножеству вещественной оси. Линейной моделью регрессии называется линейная комбинация признаков с коэффициентами:. -
Мультиномиальная модель
Пусть — объект из выборки — его -й признак -
Метод минимизации эмпирического риска (Empirical risk minimization)
По-честному, мы должны минимизировать следующий функционал: Китовослайд 19 -
Ядра (Kernels)
Мы хотим совершить преобразование признаков. При этом мы зададим не преобразование, а скалярное произведение в новом пространстве признаков. Функция называется ядром, если она может быть представлена в виде для какой либо функции -
Дискриминантная функция
Рассмотрим бинарную классификацию:. Зачастую, любой классификатор можно представить в виде:, где — это вектор параметров. -
Байесовский подход минимальной цены (теормин)
Рассматривается классификатор с конечным числом классов и матрица штрафов, — истинный класс объекта, — предсказанный класс объекта. Наша задача заключается в том, чтобы минимизировать математическое ожидание потерь при неправильной классификации (потери задаются матрицей штрафов).
Близкая по теме вики
The Elder Scrolls Wiki
games
30тыс.
страниц100тыс.
изображений100
видео
The Elder Scrolls — серия компьютерных ролевых игр, созданная компанией Bethesda Softworks. Наша основная задача — качественное, понятное и красочное предоставление информации о вселенной The Elder Scrolls, а также освещение последних новостей о ней.