В логистической регрессии тета (θ) - это вектор, представляющий параметры (или веса) линейной функции x.
![enter image description here](https://i.stack.imgur.com/tzSoD.png)
Теперь, учитывая тренировочный набор, один из способов узнать параметры тета (θ) - сделать h (x) близким к yПо крайней мере для обучающих примеров, которые мы имеем.Это определяется с использованием функции стоимости или функции ошибки (J (θ)) для каждого значения θ, которое мы хотим минимизировать.
![enter image description here](https://i.stack.imgur.com/b79mQ.png)
Первый параметр theta1 инициализируется как ноль.Позже, используя градиентный спуск, вычисляется следующий тета-параметр.При градиентном спуске параметр J (θ) рассчитывается с использованием частичного дифференцирования, поскольку мы хотим минимизировать его.
![enter image description here](https://i.stack.imgur.com/ZVPCw.png)
Здесь \ alpha - скорость обучения скакой алгоритм градиентного спуска работает.Он начинается с начального значения в массиве - theta1 как ноль, а затем следующее значение рассчитывается с использованием приведенного выше уравнения.и т. д. для других тэта-параметров.
РЕДАКТИРОВАТЬ:
Объяснение кода:
theta1 = [0 ; theta(2:end, :)];
Приведенный выше код является кодом MATLAB.Здесь theta1 - массив (векторное или матричное представление).Он создается с использованием горизонтального объединения двух полей.
Во-первых, этоскалярное значение 0
Во-вторых, это означает, что все значения принимаются такими, как есть, кроме первой строки из массива theta
.(Обратите внимание, что тэта является входным массивом LRCOSTFUNCTION(theta, X, y, lambda)
)