![]() |
Главная Случайная страница Контакты | Мы поможем в написании вашей работы! | |
|
Последовательность действий при создании нейронной модели в среде MatLAB можно представить состоящей из следующих основных операций: инициализация, обучение, оценка погрешности модели и использование сети для решения прикладных задач [25].
1. Первый шаг – создание НС:
net=newff(PR, [s1 s2], {‘tansig’ ‘purelin’}); - создание двухслойной НС, первый слой которой состоит из s1 нейронов, а второй – из s2. Как было упомянуто выше, для корректной работы любой НС необходимы активационные функции. Воспользуемся функциями ‘tansig’ (сигмоидальной функцией) и ‘purelin’ (линейной функцией). С помощью оператора net выведем основные операции, выполненные функцией newff при создании сети:
|
Neural Network object:
architecture:
numInputs: 1
numLayers: 2
biasConnect: [1; 1]
inputConnect: [1; 0]
layerConnect: [0 0; 1 0]
outputConnect: [0 1]
targetConnect: [0 1]
numOutputs: 1 (read-only)
numTargets: 1 (read-only)
numInputDelays: 0 (read-only)
numLayerDelays: 0 (read-only)
subobject structures:
inputs: {1x1 cell} of inputs
layers: {2x1 cell} of layers
outputs: {1x2 cell} containing 1 output
targets: {1x2 cell} containing 1 target
biases: {2x1 cell} containing 2 biases
inputWeights: {2x1 cell} containing 1 input weight
layerWeights: {2x2 cell} containing 1 layer weight
functions: Используемые функции
adaptFcn: 'trains'
initFcn: 'initlay'
performFcn: 'mse'
trainFcn: 'trainlm'
parameters:
adaptParam:.passes
initParam: (none)
performParam: (none)
trainParam:.epochs,.goal,.max_fail,.mem_reduc,
.min_grad,.mu,.mu_dec,.mu_inc,
.mu_max,.show,.time
weight and bias values: значения весов
IW: {2x1 cell} containing 1 input weight matrix
LW: {2x2 cell} containing 1 layer weight matrix
b: {2x1 cell} containing 2 bias vectors
other:
userdata: (user stuff)
2. Второй шаг – процесс обучения сети.
Цель обучения состоит в определении весовых коэффициентов синаптических связей. Необходимо выбрать число циклов обучения (epochs) для воспроизведения выходного вектора по заданному входу (матрице входов):
net.trainParam.epochs = 3000; Количество проходов (экспериментов)
net=train(net,X,Y); X,Y – матрицы
Чем больше используется экспериментальных данных при обучении, тем меньше вероятность воздействия погрешности измерений на конечный результат: весовые коэффициенты синаптических связей корректируются до тех пор, пока выходы не стабилизируются или пока не будет пройдено заданное количество циклов обучения.
Дата публикования: 2014-11-03; Прочитано: 987 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!