Персептрон

глубокое обучение

Персептрон

простой случай

y={0(w1x1+w2x2)θ1(w1x1+w2x2)>θy= \begin{cases} 0& (w_1x_1 + w_2x_2)\leq \theta \\ 1& (w_1x_1 + w_2x_2)>\theta \end{cases}

感知机1.png

Функции

  • Входные и выходные сигналы равны 0 или 1.

  • Невозможно автоматически настроить весww

  • Однослойный перцептрон эквивалентен линейной функции

в целом

[y1y2yn]=[w11w12w1mw21w22w2mwn1wn2wnm][x1x2xn]\begin{bmatrix} y_1 \\ y_2 \\ \vdots \\ y_n \\ \end{bmatrix} = \begin{bmatrix} w_{11} & w_{12} & \cdots & w_{1m} \\ w_{21} & w_{22} & \cdots & w_{2m} \\ \vdots & \vdots & & \vdots \\ w_{n1} & w_{n2} & \cdots & w_{nm} \\ \end{bmatrix} \begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \\ \end{bmatrix}

wwОдна строка матрицы представляет веса нейрона

nnпредставитель рядаnnвеса нейронов

y=wxy = wx

神经网络1.png