Регрессия опорных векторов (SVR)

Регрессия опорных векторов (SVR) является типом машины опорных векторов (SVM), специально разработанной для задач регрессии. Хотя SVM широко известна своим применением в задачах классификации, SVR расширяет базу SVM для прогнозирования непрерывных значений, что делает ее мощным инструментом регрессии в машинном обучении и науке о данных.

Основы регрессии опорных векторов

Основная идея SVR состоит в том, чтобы найти функцию, которая приблизительно отображает входное пространство в непрерывное выходное пространство, сохраняя допуск на отклонение (нечувствительная к эпсилону зона) вокруг предсказанной функции. SVR стремится минимизировать ошибку в этом диапазоне, игнорируя ошибки, превышающие этот порог, чтобы достичь баланса между недостаточным и чрезмерным подгонкой.

Математическое формулирование

Целевая функция

Основной целью SVR является минимизация следующей целевой функции:

[ \min_{\mathbf{w}, \xi, \xi^} \frac{1}{2} |\mathbf{w}|^2 + C \sum_{i=1}^{n} (\xi_i + \xi_i^) ]

При условии: [ y_i - (\mathbf{w} \cdot \phi(\mathbf{x}_i) + b) \leq \epsilon + \xi_i ] [ (\mathbf{w} \cdot \phi(\mathbf{x}_i) + b) - y_i \leq \epsilon + \xi_i^* ] [ \xi_i, \xi_i^* \geq 0 ]

Здесь:

Трюк ядра

SVR может справляться с нелинейными отношениями, применяя трюк ядра. Ядра неявно отображают входные данные в высокомерное пространство признаков, где можно выполнять линейную регрессию. Обычно используемые ядра включают:

Процедура алгоритма

  1. Подготовка данных: начните с набора данных, состоящего из пар вход-выход ((\mathbf{x}_1, y_1), (\mathbf{x}_2, y_2), \ldots, (\mathbf{x}_n, y_n)).

  2. Выбор ядра: выберите подходящую функцию ядра на основе распределения данных и природы проблемы регрессии.

  3. Настройка параметров: определите значения эпсилона ((\epsilon)) и параметра регуляризации (C) с помощью методов, таких как перекрестная проверка.

  4. Обучение модели: решите задачу квадратичного программирования, чтобы определить вектор весов ((\mathbf{w})) и смещение (b), которые минимизируют целевую функцию.

  5. Прогнозирование: используйте обученную модель для прогнозирования новых данных. Функция прогнозирования: [ f(\mathbf{x}) = \mathbf{w} \cdot \phi(\mathbf{x}) + b ]

Применение SVR

Регрессия опорных векторов используется в различных реальных приложениях, таких как:

Преимущества и недостатки

Преимущества

Недостатки

Реализация SVR

SVR реализована в различных библиотеках и платформах машинного обучения:

Заключение

Регрессия опорных векторов является универсальным и мощным методом для анализа регрессии, способным справляться с линейными и нелинейными отношениями благодаря использованию различных функций ядра. Его применение охватывает многочисленные области, от финансов до здравоохранения, подчеркивая его полезность и эффективность. Несмотря на некоторые трудности с вычислительной сложностью и настройкой параметров, SVR остается ценным инструментом для прогностического моделирования в машинном обучении.