Оригинальная ссылка на личный блог
1. Математическая основа
1. Функция правдоподобия
Вероятность: описывает выход случайной величины, когда параметры известны;
Функция правдоподобия (правдоподобие): используется для описания возможных значений неизвестных параметров, когда известен выход известных случайных величин.
Функция правдоподобия и функция плотности - это два совершенно разных математических объекта, первая примернофункция, последняя примерноФункция.
2. Распределение Гаусса
Математическое ожидание (среднее): В испытании вероятность каждого возможного исхода, умноженная на сумму его исходов.
(Бернулли) Закон больших чисел: Когда количество испытаний достаточно велико, частота события бесконечно близка к вероятности возникновения события.
тест Бернулли: Предположим, что эксперимент E имеет только два возможных исхода: «А» и «не А».
n повторный тест Бернулли: Если E повторяется n раз независимо, то этот независимый тест на повторение ношения называется n-кратным тестом Бернулли.
Биномиальное распределение (распределение Бернулли): Эксперимент Бернулли повторяется n раз, и количество успехов k в этом n эксперименте, k является случайной величиной, называемой квадратичной случайной величиной, а ее распределение называется биномиальным распределением
нормальное распределение: Также известно как «распределение Гаусса».
3. Логарифмическая формула
4. Матричный расчет
Транспонирование матрицы: строка в столбец, столбец в строку.
умножение матриц: количество столбцов A должно быть равно количеству строк B
Вывод матрицы
2. Вывод
1. Формула линейной регрессии
При наличии нескольких параметров признаков разные параметры признаков имеют разные весовые параметры для значения целевой функции.
Используйте матрицу для представления
2. Ошибка расчета
Термин ошибки: ошибка между фактическим значением и прогнозируемым значением, мы обычно хотим, чтобы ошибка была как можно меньше.
Член ошибки следует распределению Гаусса, поэтому
Для расчета определенных комбинаций параметров и признаков для минимизации ошибки здесь вводится функция правдоподобия.
Поскольку фиксированное значение не рассматривается, получаетсяЧем меньше, тем лучше
3. Частные производные матрицы
В соответствии с знанием матрицы преобразуйте приведенную выше формулу
Частная производная матрицы
4. Окончательное решение
В лучшем случае частная производная равна 0, что указывает на то, что снижение градиента достигло дна.
Оптимальный вес линейной регрессии решается следующим образом: