На правах рекламы:
ISSN 0236-235X (P)
ISSN 2311-2735 (E)

Авторитетность издания

ВАК - К1
RSCI, ядро РИНЦ

Добавить в закладки

Следующий номер на сайте

4
Ожидается:
09 Декабря 2024

Гибридный нейросетевой алгоритм идентификации сложных объектов

Статья опубликована в выпуске журнала № 1 за 2006 год.
Аннотация:
Abstract:
Авторы: Усков А.А. (prof.uskov@gmail.com) - Российский университет кооперации, г. Мытищи, Россия, доктор технических наук, Санатин Д.В. () -
Ключевое слово:
Ключевое слово:
Количество просмотров: 12727
Версия для печати
Выпуск в формате PDF (1.26Мб)

Размер шрифта:       Шрифт:

Как известно, выделяют два основных вида аппроксимационных моделей: параметрические и непараметрические (локально-параметрические) [1,2].

При параметрическом подходе вначале выбирается аппроксимирующая зависимость, затем на основе обучающей выборки адаптируются ее параметры. К параметрическим методам моделирования относятся полиномиальные нейронные сети (Σ-Π нейронные сети), многослойные персептроны [3,4] и др. Если правильно подобрана аппроксимирующая зависимость, то качество моделирования весьма высоко даже в случае небольшой или зашумленной обучающей выборки [1,2] и наоборот.

При непараметрическом подходе вначале выбирается тип аппроксимирующей зависимости, но в данном случае по экспериментальным данным строится большое количество указанных зависимостей, каждая из которых имеет свои параметры. К непараметрическим методам моделирования относятся метод М-ближайших узлов [1,2], нейронные сети с радиальными базисными элементами [3,4]. Достоинством непараметрических методов является отсутствие необходимости выбирать тип глобальной аппроксимирующей зависимости. Отклик модели в непараметрических методах определяется не всей, а лишь частью обучающей выборки, что делает такие модели малоэффективными при значительной зашумленности обучающей выборки.

Подпись:  
РН r  – радиальные нейроны,   – блоки умножения,  – блоки сумми-рования,   – блок деления,  – пи-нейроны
Рис. 1. Структура гибридной полиномиально-радиальнобазисной ней-ронной сети
В настоящей статье предложена гибридная полиномиально-радиальнобазисная нейронная сеть, позволяющая совместить достоинства как параметрического, так и непараметрического подходов.

Предположим, что исследуемый статический объект имеет  входов (векторный вход ) и один выход . Связь между  и  в n-мерной области  может быть адекватно представлена моделью:

,                                                           (1)

где  – функция неизвестного вида;  – аддитивная случайная помеха (отражает действие неучитываемых факторов) с нулевым математическим ожиданием и неизвестным распределением на .

Функция представима в виде:

,                                                 (2)

где  – полиномиальная функция:

,                      (3)

(в которой  – постоянные параметры;  – целый положительный параметр;  – целые неотрицательные параметры);  – нелинейная функция общего вида.

Для функций  и  выполняется соотношение:

,                                                    (4)

где  – функционал, возвращающий среднеквадратичное значение функции-аргумента в области :

, .

Предположим далее, что на объекте реализован эксперимент, заключающийся в регистрации  пар значений:

,                                         (5)

при этом значения  и  измерены без ошибок; .

Требуется на основе экспериментальных данных (5) восстановить неизвестную зависимость .

Гибридная полиномиально-радиальнобазисная искусственная нейронная сеть

В работе [5] сформулирован принцип адекватности, согласно которому объект и его система моделирования или управления для наиболее оптимального решения задачи должны обладать рядом общих черт. В соответствии с принципом адекватности для решения рассматриваемой задачи предложена гибридная полиномиально-радиальнобазисная искусственная нейронная сеть (HPRBFN, от Hybrid polynomial radial basis function network), структурно состоящая из радиально-базисной части (РБЧ), полиномиальной части (ПЧ) и блока взвешенного суммирования (БВС) (рис. 1).

Предложенная искусственная нейронная сеть реализует следующую нелинейную зависимость:

,                                (6)

где ,  – весовые коэффициенты; ,  – функции, реализуемые радиальными нейронами и ПЧ сети соответственно:

,                                     (7)

,                    (8)

 – евклидова векторная норма; , ,  – постоянные параметры;  – целый положительный параметр;  – целые неотрицательные параметры.

Подходы к формированию HPRBFN и базовый алгоритм ее обучения

Формирование HPRBFN на основе обучающей выборки (5) состоит в последовательной реализации трех этапов.

1. Формирование ПЧ сети в предположении, что РБЧ отсутствует (). В рассматриваемом случае выражение (6) принимает вид:

,                   (9)

где , .

Из формулы (9) видно, что формирование ПЧ заключается в определении количества пи-нейронов L и значений параметров данных нейронов , а также весовых коэффициентов .

Структура полиномиальной зависимости может выбираться как на основе информации о предметной области, так и путем оптимизации вида данной зависимости, например с использованием метода группового учета аргументов [4].

2. Формирование РБЧ сети в предположении, что ПЧ отсутствует (). В рассматриваемом случае выражение (6) принимает вид:

.                         (10)

Из формулы (10) видно, что формирование РБЧ заключается в определении числа радиальных нейронов M, значений параметров  и  данных нейронов, а также весовых коэффициентов .

При формировании РБЧ сети могут использоваться методы, разработанные для создания и обучения RBFN сетей [3,4].

3. Настройка параметра , определяющего соотношение между влиянием РБЧ и ПЧ на выход сети.

Рассмотрим базовый алгоритм обучения HPRBFN.

Шаг 0 (предварительный). Обучающая выборка (5) разбивается на две части: собственно обучающую

                                           (11)

и контрольную

                                        (12)

выборки (H+L=N). Размер контрольной выборки , где заданный параметр ; по умолчанию выбирается . Устанавливается параметр R – минимально допустимое расстояние между центрами радиальных нейронов.

Шаг 1. Определение вектора параметров  ПЧ сети.

Вариант А. С использованием нерекуррентного метода наименьших квадратов (МНК) [3,4]:

,                                             (13)

где , .

Вариант B. С использованием рекуррентного МНК [3, 4]:

,             (14)

где ,

,

.

Шаг 2. Определение числа радиальных нейронов M, значений параметров  и весов .

1)  Устанавливаются переменные i=1 и M=0.

2)        Из обучающей выборки извлекается элемент  и находится минимальное расстояние:

,                                     (15)

где  – центры радиальных нейронов. Если радиальных нейронов нет (M=0), считается .

3)  Если , то добавляется радиальный нейрон с параметрами , устанавливаются  и M =M+1.

4)  Если i= N, то останов, иначе i=i+1 и переход к пункту 2.

Шаг 3. Определение значения параметра отклонения радиальных нейронов .

Вариант А. С использованием эмпирической формулы:

,                                                          (16)

где ,  – максимальное и минимальное значения компонент входного вектора  соответственно.

Вариант B. С использованием алгоритма оптимизации. Нейронная сеть обучается по обучающей выборке (11), после чего параметр  определяется путем минимизации ошибки на тестирующей выборке (12):

,                  (17)

где  – отклик обученной сети при подаче на ее вход . Для решения задачи (17) используется метод золотого сечения [6].

4. Настройка параметра u с использованием алгоритма оптимизации. Нейронная сеть обучается по обучающей выборке (11), после чего параметр u определяется путем минимизации ошибки на тестирующей выборке (12):

,                  (18)

где  – отклик обученной сети при подаче на ее вход . Для решения задачи (18) используется метод золотого сечения [6].

Метод золотого сечения [6]. Предположим, необходимо найти минимум функции  на отрезке  с заданной точностью . Алгоритм состоит в реализации следующих шагов.

Шаг 1. Устанавливаются переменные: k=1, , , , . Вычисляются значения:

 

Шаг 2. Если , то , , , ,

, ,

иначе , , ,

Подпись:  
Рис. 2. Зависимость СКО аппроксимации
от параметра q при СКО шума σε=0.5
 ,

.

Шаг 3. Проверяется критерий останова . Если указанный критерий не выполнен, то  и переход к шагу 2. В противном случае останов, решением считается .

Вычислительный эксперимент

Предположим, что объект имитируется зависимостью вида (1), при этом

где  – постоянный параметр, .

Аддитивная помеха  имеет нормальное распределение с математическим ожиданием  и среднеквадратичной ошибкой (СКО) . Аппроксимация производится в области : . Обучающая выборка расположена в области  равномерно случайным образом и содержит 324 точки. Тестирующая выборка содержит 1600 точек, расположенных по равномерному закону в .

На рисунке 2 показан график СКО моделей в зависимости от параметра  для различных методов (полиномиальная МНК модель 2-го порядка (P) [4]; обобщенно-регрессионная нейронная сеть (GRNN) [3]; метод локальной аппроксимации с числом ближайших узлов  (LA5) [2]; многослойный персептрон со структурой 12-5-1 (MLP) [3]).

Для обучения HPRBFN используется базовый алгоритм, описанный выше.

Из приведенных на рисунке 2 зависимостей видно, что предложенная HPRBFN при малых значениях параметра q обеспечивает точность модели, близкую к полиномиальной МНК модели, при больших значениях q – близкую к точности GRNN, и в среднем дает наилучший из всех методов результат.

Сложные объекты, имеющие существенную полиномиальную составляющую (см. (2)) достаточно широко распространены на практике в экономике, медицине, технике и т.п., вследствие чего предложенные полиномиально-радиальнобазисные нейронные сети могут найти широкое применение в системах моделирования и управления.

Список литературы

1.  Катковник В.Я. Непараметрическая идентификация и сглаживание данных. - М.: Наука, 1985.

2.  Дли М.И. Локально-аппроксимационные модели сложных объектов. - М.: Наука; Физматлит, 1999.

3. Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. - М.: Горячая линия – Телеком, 2001.

4. Дюк В., Самойленко А. Data Mining: Учебный курс. - СПб.: Питер, 2001.

5. Ивахненко А.Г. Самообучающиеся системы распознавания и автоматического управления. - К.: Технiка, 1969.

6.  Банди Б. Методы оптимизации: Вводный курс. - М.: Радио и связь, 1988.


Постоянный адрес статьи:
http://swsys.ru/index.php?id=465&page=article
Версия для печати
Выпуск в формате PDF (1.26Мб)
Статья опубликована в выпуске журнала № 1 за 2006 год.

Возможно, Вас заинтересуют следующие статьи схожих тематик: