Вопрос 1[]
Принцип минимизации эмпирического риска. Типичные функции потерь для регрессии и бинарной классификации.
Вопрос 2[]
Классификация с помощью дискриминантных функций
Вопрос 3[]
Определение линейного классификатора (бинарный / многоклассовый)
Вопрос 4[]
Отступ для классификатора (бинарного / многоклассового)
Вопрос 5[]
В чём заключается проклятие размерности?
Вопрос 6[]
Вопрос 7[]
Байесовское правило минимальной цены и минимальной ошибки (максимальной апостериорной вероятности)
>> Специальная статья по теормину
Вопрос 8[]
Матрица ошибок. Точность, полнота, F-мера.
Вопрос 9[]
Вопрос 10[]
Вопрос 11[]
Метод главных компонент (определение)
Вопрос 12[]
Обобщение методов через ядра. Типичные ядра: линейное, полиномиальное, Гауссово (RBF)
Вопрос 13[]
Сингулярное разложение (SVD) - определение
Вопрос 14[]
Сокращённое сингулярное разложение порядка k. В каком смысле это разложение даёт оптимальную аппроксимацию матрицы?
Вопрос 15[]
Решающие правила в алгоритме CART и алгоритм их выбора. Возможные критерии перемешанности классов и откликов в задаче регрессии.
>> Специальная статья по теормину.
Вопрос 16[]
Типичные регуляризаторы, какой из них может отбирать признаки и почему?
Вопрос 17[]
Типичные функции потерь для бинарной классификации. Какие из них порождают оптимальные веса, зависящие только от части объектов обучающей выборки?
Вопрос 18[]
Логистическая регрессия (бинарная, многоклассовая)
Вопрос 19[]
Метод опорных векторов (бинарный)
Вопрос 20[]
Ядерное сглаживание для оценки плотности
>>Специальная статья по теормину.
Вопрос 21[]
Гребневая регрессия и вывод оптимальных весов для неё