Искусственный нейрон. Математическая модель нейрона. Обучение нейронной сети
Выбери формат для чтения
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
1
ИНС
1. Исскуственный нейрон
Математическая модель нейрона
Нейрон имеет три входа и один выход, функция активации сигмоидная
Функция активации нейрона:
Входной вектор:
0.5
x 0.5
1
g t
1
1e
Синапсы:
t
a 1 1 1
Результирующая математическая модель простейшего нейрона:
Смещение:
b 2
y g a x b 0.982
Модифицируем модель для использования матричного умножения, где первый элемент вектора входа
паразитный и всегда равен 1, а первый элемент вектора синапсов - первоначальное смещение:
1
0.5
xm
0.5
1
am 2 1 1 1
yne g am xm 0.982
2. Исскуственная нейронная сеть
Математическая модель нейронной сети прямого распространения
1
0.5
xm
0.5
1
2 1 1 1
am 2 1 1 1
2 1 1 1
0.953
ynet g am xm 0.881
0.953
Первый столбец матрицы - столбец коэффициентов смещения b, а первый элемент вектора это паразитно
решение, которое всегда равно единице.
Заданная ИНС состоит из одного слоя нейронов с сигмоидной функцией активации и имеет три входа, а
также три выхода.
Математическая модель нейронной сети с несколькими слоями
Слой 1:
1
0.5
xm
0.5
1
2 1 1 1
amnet1 2 1 1 1
2 1 1 1
0.953
ynet1 g amnet1 xm 0.881 xn xm
0.953
2
Слой 2:
2 1 1 1
amnet2
2 1 1 1
amnet3 3 1 1
xm stack 1 ynet1
0.947
ynet2 g amnet2 xm
0.992
Слой 3:
xm stack 1 ynet2
ynet3 g amnet3 xm 0.993
Таким образом, обобщенная модель сети будет:
0.993
y g amnet3 stack 1 g amnet2 stack 1 g amnet1 xn
3. Обучение ИНС
Обучение нейронной сети с несколькими слоями - один пример
Дано:
- вход сети в виде вектора входа
- топология сети
- выход сети в виде вектора выхода ydata
- начальные смещения
Найти:
Синаптические коэффициенты каждого слоя, которые обеспечать минимальную ошибку работы сети.
Решение:
1. Задаем целевую функцию для поиска синапсов
Ошибка работы сети ynet - разница между заданным выходом и подобранным.
W1 - матрица синаптических весов каждого слоя
ydata 0.993
ynet W1 W2 W3 ydata g W3 stack 1 g W2 stack 1 g W1 xn
2. Задаем начальные значения синапсов
2 1 1 1
W1 2 1 1 1
2 1 1 1
2 1 1 1
2 1 1 1
W2
W3 3 1 1
3. Формируем ограничения и выполняем поиск коэффициентов
Given
W10 0 = 2
W20 0 = 2
W11 0 = 2
W21 0 = 2
W12 0 = 2
W30 0 = 3
2
3
W1 0
W2 0
W3 0
rez Minimize ynet W1 W2 W3
Результирующие матрицы будут:
2 0.5 0.25 0.501
2 0.519 0.255 0.519
rez0 2 0.5 0.25 0.5 rez1
2 0.51 0.252 0.51
2 0.5 0.25 0.501
Ошибка вычислений:
ynet rez0 rez1 rez2 0
y g rez2 stack 1 g rez1 stack 1 g rez0 xn 0.993
rez2 3 1.526 0.507
4
ое