Journal influence
Bookmark
Next issue
Abstract:
Аннотация:
Authors: Uskov A.A. (prof.uskov@gmail.com) - Russian Federationn University of Cooperation, Mytishchi, Russia, Ph.D, () - | |
Ключевое слово: |
|
Page views: 12479 |
Print version Full issue in PDF (1.26Mb) |
Как известно, выделяют два основных вида аппроксимационных моделей: параметрические и непараметрические (локально-параметрические) [1,2]. При параметрическом подходе вначале выбирается аппроксимирующая зависимость, затем на основе обучающей выборки адаптируются ее параметры. К параметрическим методам моделирования относятся полиномиальные нейронные сети (Σ-Π нейронные сети), многослойные персептроны [3,4] и др. Если правильно подобрана аппроксимирующая зависимость, то качество моделирования весьма высоко даже в случае небольшой или зашумленной обучающей выборки [1,2] и наоборот. При непараметрическом подходе вначале выбирается тип аппроксимирующей зависимости, но в данном случае по экспериментальным данным строится большое количество указанных зависимостей, каждая из которых имеет свои параметры. К непараметрическим методам моделирования относятся метод М-ближайших узлов [1,2], нейронные сети с радиальными базисными элементами [3,4]. Достоинством непараметрических методов является отсутствие необходимости выбирать тип глобальной аппроксимирующей зависимости. Отклик модели в непараметрических методах определяется не всей, а лишь частью обучающей выборки, что делает такие модели малоэффективными при значительной зашумленности обучающей выборки. В настоящей статье предложена гибридная полиномиально-радиальнобазисная нейронная сеть, позволяющая совместить достоинства как параметрического, так и непараметрического подходов. Предположим, что исследуемый статический объект имеет входов (векторный вход ) и один выход . Связь между и в n-мерной области может быть адекватно представлена моделью: , (1) где – функция неизвестного вида; – аддитивная случайная помеха (отражает действие неучитываемых факторов) с нулевым математическим ожиданием и неизвестным распределением на . Функция представима в виде: , (2) где – полиномиальная функция: , (3) (в которой – постоянные параметры; – целый положительный параметр; – целые неотрицательные параметры); – нелинейная функция общего вида. Для функций и выполняется соотношение: , (4) где – функционал, возвращающий среднеквадратичное значение функции-аргумента в области : , . Предположим далее, что на объекте реализован эксперимент, заключающийся в регистрации пар значений: , (5) при этом значения и измерены без ошибок; . Требуется на основе экспериментальных данных (5) восстановить неизвестную зависимость . Гибридная полиномиально-радиальнобазисная искусственная нейронная сеть В работе [5] сформулирован принцип адекватности, согласно которому объект и его система моделирования или управления для наиболее оптимального решения задачи должны обладать рядом общих черт. В соответствии с принципом адекватности для решения рассматриваемой задачи предложена гибридная полиномиально-радиальнобазисная искусственная нейронная сеть (HPRBFN, от Hybrid polynomial radial basis function network), структурно состоящая из радиально-базисной части (РБЧ), полиномиальной части (ПЧ) и блока взвешенного суммирования (БВС) (рис. 1). Предложенная искусственная нейронная сеть реализует следующую нелинейную зависимость: , (6) где , – весовые коэффициенты; , – функции, реализуемые радиальными нейронами и ПЧ сети соответственно: , (7) , (8) – евклидова векторная норма; , , – постоянные параметры; – целый положительный параметр; – целые неотрицательные параметры. Подходы к формированию HPRBFN и базовый алгоритм ее обучения Формирование HPRBFN на основе обучающей выборки (5) состоит в последовательной реализации трех этапов. 1. Формирование ПЧ сети в предположении, что РБЧ отсутствует (). В рассматриваемом случае выражение (6) принимает вид: , (9) где , . Из формулы (9) видно, что формирование ПЧ заключается в определении количества пи-нейронов L и значений параметров данных нейронов , а также весовых коэффициентов . Структура полиномиальной зависимости может выбираться как на основе информации о предметной области, так и путем оптимизации вида данной зависимости, например с использованием метода группового учета аргументов [4]. 2. Формирование РБЧ сети в предположении, что ПЧ отсутствует (). В рассматриваемом случае выражение (6) принимает вид: . (10) Из формулы (10) видно, что формирование РБЧ заключается в определении числа радиальных нейронов M, значений параметров и данных нейронов, а также весовых коэффициентов . При формировании РБЧ сети могут использоваться методы, разработанные для создания и обучения RBFN сетей [3,4]. 3. Настройка параметра , определяющего соотношение между влиянием РБЧ и ПЧ на выход сети. Рассмотрим базовый алгоритм обучения HPRBFN. Шаг 0 (предварительный). Обучающая выборка (5) разбивается на две части: собственно обучающую (11) и контрольную (12) выборки (H+L=N). Размер контрольной выборки , где заданный параметр ; по умолчанию выбирается . Устанавливается параметр R – минимально допустимое расстояние между центрами радиальных нейронов. Шаг 1. Определение вектора параметров ПЧ сети. Вариант А. С использованием нерекуррентного метода наименьших квадратов (МНК) [3,4]: , (13) где , . Вариант B. С использованием рекуррентного МНК [3, 4]: , (14) где , , . Шаг 2. Определение числа радиальных нейронов M, значений параметров и весов . 1) Устанавливаются переменные i=1 и M=0. 2) Из обучающей выборки извлекается элемент и находится минимальное расстояние: , (15) где – центры радиальных нейронов. Если радиальных нейронов нет (M=0), считается . 3) Если , то добавляется радиальный нейрон с параметрами , устанавливаются и M =M+1. 4) Если i= N, то останов, иначе i=i+1 и переход к пункту 2. Шаг 3. Определение значения параметра отклонения радиальных нейронов . Вариант А. С использованием эмпирической формулы: , (16) где , – максимальное и минимальное значения компонент входного вектора соответственно. Вариант B. С использованием алгоритма оптимизации. Нейронная сеть обучается по обучающей выборке (11), после чего параметр определяется путем минимизации ошибки на тестирующей выборке (12): , (17) где – отклик обученной сети при подаче на ее вход . Для решения задачи (17) используется метод золотого сечения [6]. 4. Настройка параметра u с использованием алгоритма оптимизации. Нейронная сеть обучается по обучающей выборке (11), после чего параметр u определяется путем минимизации ошибки на тестирующей выборке (12): , (18) где – отклик обученной сети при подаче на ее вход . Для решения задачи (18) используется метод золотого сечения [6]. Метод золотого сечения [6]. Предположим, необходимо найти минимум функции на отрезке с заданной точностью . Алгоритм состоит в реализации следующих шагов. Шаг 1. Устанавливаются переменные: k=1, , , , . Вычисляются значения:
Шаг 2. Если , то , , , , , , иначе , , , , . Шаг 3. Проверяется критерий останова . Если указанный критерий не выполнен, то и переход к шагу 2. В противном случае останов, решением считается . Вычислительный эксперимент Предположим, что объект имитируется зависимостью вида (1), при этом где – постоянный параметр, . Аддитивная помеха имеет нормальное распределение с математическим ожиданием и среднеквадратичной ошибкой (СКО) . Аппроксимация производится в области : . Обучающая выборка расположена в области равномерно случайным образом и содержит 324 точки. Тестирующая выборка содержит 1600 точек, расположенных по равномерному закону в . На рисунке 2 показан график СКО моделей в зависимости от параметра для различных методов (полиномиальная МНК модель 2-го порядка (P) [4]; обобщенно-регрессионная нейронная сеть (GRNN) [3]; метод локальной аппроксимации с числом ближайших узлов (LA5) [2]; многослойный персептрон со структурой 12-5-1 (MLP) [3]). Для обучения HPRBFN используется базовый алгоритм, описанный выше. Из приведенных на рисунке 2 зависимостей видно, что предложенная HPRBFN при малых значениях параметра q обеспечивает точность модели, близкую к полиномиальной МНК модели, при больших значениях q – близкую к точности GRNN, и в среднем дает наилучший из всех методов результат. Сложные объекты, имеющие существенную полиномиальную составляющую (см. (2)) достаточно широко распространены на практике в экономике, медицине, технике и т.п., вследствие чего предложенные полиномиально-радиальнобазисные нейронные сети могут найти широкое применение в системах моделирования и управления. Список литературы 1. Катковник В.Я. Непараметрическая идентификация и сглаживание данных. - М.: Наука, 1985. 2. Дли М.И. Локально-аппроксимационные модели сложных объектов. - М.: Наука; Физматлит, 1999. 3. Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. - М.: Горячая линия – Телеком, 2001. 4. Дюк В., Самойленко А. Data Mining: Учебный курс. - СПб.: Питер, 2001. 5. Ивахненко А.Г. Самообучающиеся системы распознавания и автоматического управления. - К.: Технiка, 1969. 6. Банди Б. Методы оптимизации: Вводный курс. - М.: Радио и связь, 1988. |
Permanent link: http://swsys.ru/index.php?id=465&lang=en&page=article |
Print version Full issue in PDF (1.26Mb) |
The article was published in issue no. № 1, 2006 |
Perhaps, you might be interested in the following articles of similar topics:
- Оценка защищенности информации от несанкционированного доступа при помощи имитационной модели системы защиты информации
- Эволюционная модель формирования структур виртуальных предприятий
- Формирование программ развития больших систем административно-организационного управления
- Оптимизация структуры базы данных информационной системы ПАТЕНТ
- Интеллектуальная поддержка реинжиниринга конфигураций производственных систем
Back to the list of articles