ISSN 0236-235X (P)
ISSN 2311-2735 (E)
3

13 Сентября 2024

Обучение нейронной сети с запаздыванием


Большакова И.С. (Bolshakova.I.S@gmail.com) - Тверской государственный университет, Шаронов Д.А. (sharonov.demets@gmail.com) - Тверской государственный университет
Ключевые слова: методы оптимизации, дискретная задача оптимального управления, искусственные нейронные сети
Keywords: optimization methods, discrete task of optimum control, artificial neural networks


     

Искусственные нейронные сети являются эффективным инструментом при решении ряда прикладных задач. Несмотря на это, широкое распространение метод получил относительно недавно, в основном благодаря интенсивному развитию вычислительной техники, позволяющей получить решение задачи в приемлемые сроки. Круг решаемых искусственными нейронными сетями задач постоянно расширяется, в результате повышается актуальность работ в данном направлении.

Часто при решении конкретной прикладной задачи методом искусственных нейронных сетей возникает потребность в моделировании сети нетривиальной топологии. Стандартные методы обучения нейронных сетей могут оказаться в данной ситуации неприменимыми, и поэтому необходимо сформулировать и реализовать индивидуальный алгоритм.

В данной работе рассматривается сеть, динамика которой описывается нелинейной системой рекуррентных уравнений с запаздыванием, задача ее обучения формулируется как дискретная задача оптимального управления.

Цель статьи – описание построения и реализации алгоритма обучения сети указанной топологии.

Динамика работы рассматриваемой нейронной сети описывается следующей системой рекуррентных соотношений:

             (1)

k=0, …, q–1, i=1, …, n,

где  – состояние нейрона i в слое k;  – весовой коэффициент, связывающий нейрон i слоя s с нейроном j слоя s–1; – внешнее воздействие на нейрон i слоя k;  – коэффициент затухания для нейрона i (одинаков для всех слоев); gi – коэффициент передачи внешнего управления на нейрон i; v, vi – глобальная и индивидуальная задержки в передаче сигналов.

Заданы начальные условия:

 k= –v–max(vi), …, 0, i=1, …, n. (2)

На управление наложены ограничения:

,                                                               (3)

,                                                                (4)

где aij, bi – заданные положительные параметры модели.

Дискретная задача оптимального управления состоит в построении оптимальных значений весовых коэффициентов, минимизирующих следующую функцию:

,         (5)

где  – энергия искусственной нейронной сети;  – характеристика состояния системы в конечный момент.

Функция Лагранжа для данной задачи может быть представлена в следующем виде:

(6)

Вычислим градиент минимизируемой функции по управлению:

   (7)

m=0, …, q–1, l=1, …, n, p=1, …, n,

 m=0, …, q–1, l=1, …, n, (8)

где сопряженные векторы удовлетворяют соотношениям

 (9)

m=0, …, q–1, l=1, …, n,

 l=1, …, n.                  (10)

Задача решается методом проекции градиента.

Алгоритм решения сформулированной задачи средствами аппарата математической теории оптимального управления будет следующим.

1.   Инициализируем номер итерации: l:=0. Задаем начальное значение шага градиентного спуска s, точность e.

2.   Подпись:   Рис. 1. Зависимость значения минимизируемой функции от номера итерации работы алгоритма Задаем произвольный набор матриц , на диагоналях которых стоят нулевые элементы, . Кроме того, зададим произвольный набор векторов , .

3.   С использованием начальных значений  и текущих  и  вычисляются , i=1, …, n, k=1, …, q. В результате получим набор векторов x1, …, xq, который обозначим x(l).

4.   Вычисляем значение минимизируемого функционала, используя текущие значения x(l),  и . Обозначим его I(l).

5.   Вычисляем сопряженные векторы p(l).

6.   Определяем новые весовые коэффициенты и величины внешних воздействий по формулам

Подпись:  а) б) в) Рис. 2. Динамика изменения первой (а), второй (б) и третьей (в) компонент входного сигнала при проходе по слоям сети,

.

Если ,

то ,

если ,

то .

7.   Для полученных значений весовых коэффициентов и значений внешнего воздействия вычисляем значения векторов x(l+1), а затем значение минимизируемого функционала, которое обозначим I(l+1). Вычисляем значение .

8.   Если , присваиваем s:=0,5s и переходим к шагу 6.

9.   Если , увеличиваем счетчик итераций l:=l+1 и переходим к шагу 5. В противном случае удовлетворяющая требуемым условиям траектория найдена.

Полученный алгоритм был реализован в программной среде Borland Delphi 7. Анализ результатов работы программы проводился при следующих входных данных: n=3, q=15, s=0,1, e=0,000001, IterMAX=10000, v=2, vi=2, bi=0,1, aij=1, bi=0,5, gi=0,5, M=10, a=0,1, di=1.

Входной вектор: (2  1  –3).

Целевой вектор: (1  0  5).

Начальные условия: Qk1=2, Qk2=1, Qk3= –3, k= –4, …, 0.

На рисунке 1 изображен график зависимости значения минимизируемой функции от номера итерации работы алгоритма для трех различных начальных наборов  и .

Подпись:  а) б) в) Рис. 3. Зависимость   (а),   (б) и   (в) от номера итерации работы алгоритмадля различных величин отношения a:MНа рисунке 2 изображены траектории, отражающие динамику изменения входного сигнала при проходе по слоям сети на последней итерации работы алгоритма. Графики показывают, что выходной вектор нейронной сети стремится к целевому. Метод завершает свою работу по достижении требуемой точности. Однако видно, что траектории приближенного оптимального решения поставленной задачи значительно отличаются друг от друга для различных начальных точек.

В одних прикладных задачах более приоритетным оказывается минимизирование энергии нейронной сети, в других – как можно более точное попадание в целевую точку. Для управления процессом обучения в пользу минимизации интегрального либо терминального слагаемого в задачу введены штрафные коэффициенты a и M. На рисунке 3 изображены графики зависимости значений отдельных компонент выходного вектора от номера итерации работы алгоритма при различных отношениях величин штрафов интегрального и терминального слагаемых.

При увеличении штрафа терминального слагаемого точность попадания в целевую точку увеличивается, при этом растет энергия сети. Относительное увеличение штрафа интегрального слагаемого ведет к обратному эффекту.

Стоит отметить, что на результат работы алгоритма в значительной степени влияет вид активационной функции. Использование линейной функции активации f(x)=kx приводит к повы- шению точности попадания в целевую точку. Использование же функции активации f(x)= =k×arctg(x) при снижении точности попадания в целевую точку уменьшает время работы алгорит- ма при одних и тех же параметрах задачи и метода.

Предложенная модель является дискретным аналогом нейронной сети, описываемой системой интегро-дифференциальных уравнений с запаздывающим аргументом. Она может использоваться при моделировании управляемых процессов, в которых информационный сигнал, воздействующий на систему в данный момент, накапливается на некотором предшествующем интервале времени.

Литература

1.   Применение функционального анализа в теории приближений: Сб. науч. тр. Тверь, Изд-во ТвГУ. 2000.

2.   Андреева Е.А., Цирулева В.М. Вариационное исчисление и методы оптимизации. М.: Высш. школа, 2006.

3.   Андреева Е.А. Оптимальное управление динамическими системами. Тверь, Изд-во ТвГУ. 1999.



http://swsys.ru/index.php?id=2757&lang=%E2%8C%A9%3Den&like=1&page=article


Perhaps, you might be interested in the following articles of similar topics: