Авторитетность издания
Добавить в закладки
Следующий номер на сайте
Гибридный нейросетевой алгоритм идентификации сложных объектов
Аннотация:
Abstract:
Авторы: Усков А.А. (prof.uskov@gmail.com) - Российский университет кооперации, г. Мытищи, Россия, доктор технических наук, Санатин Д.В. () - | |
Ключевое слово: |
|
Ключевое слово: |
|
Количество просмотров: 14133 |
Версия для печати Выпуск в формате PDF (1.26Мб) |
Как известно, выделяют два основных вида аппроксимационных моделей: параметрические и непараметрические (локально-параметрические) [1,2]. При параметрическом подходе вначале выбирается аппроксимирующая зависимость, затем на основе обучающей выборки адаптируются ее параметры. К параметрическим методам моделирования относятся полиномиальные нейронные сети (Σ-Π нейронные сети), многослойные персептроны [3,4] и др. Если правильно подобрана аппроксимирующая зависимость, то качество моделирования весьма высоко даже в случае небольшой или зашумленной обучающей выборки [1,2] и наоборот. При непараметрическом подходе вначале выбирается тип аппроксимирующей зависимости, но в данном случае по экспериментальным данным строится большое количество указанных зависимостей, каждая из которых имеет свои параметры. К непараметрическим методам моделирования относятся метод М-ближайших узлов [1,2], нейронные сети с радиальными базисными элементами [3,4]. Достоинством непараметрических методов является отсутствие необходимости выбирать тип глобальной аппроксимирующей зависимости. Отклик модели в непараметрических методах определяется не всей, а лишь частью обучающей выборки, что делает такие модели малоэффективными при значительной зашумленности обучающей выборки.
Предположим, что исследуемый статический объект имеет
где Функция
где
(в которой Для функций
где
Предположим далее, что на объекте реализован эксперимент, заключающийся в регистрации
при этом значения Требуется на основе экспериментальных данных (5) восстановить неизвестную зависимость Гибридная полиномиально-радиальнобазисная искусственная нейронная сеть В работе [5] сформулирован принцип адекватности, согласно которому объект и его система моделирования или управления для наиболее оптимального решения задачи должны обладать рядом общих черт. В соответствии с принципом адекватности для решения рассматриваемой задачи предложена гибридная полиномиально-радиальнобазисная искусственная нейронная сеть (HPRBFN, от Hybrid polynomial radial basis function network), структурно состоящая из радиально-базисной части (РБЧ), полиномиальной части (ПЧ) и блока взвешенного суммирования (БВС) (рис. 1). Предложенная искусственная нейронная сеть реализует следующую нелинейную зависимость:
где
Подходы к формированию HPRBFN и базовый алгоритм ее обучения Формирование HPRBFN на основе обучающей выборки (5) состоит в последовательной реализации трех этапов. 1. Формирование ПЧ сети в предположении, что РБЧ отсутствует (
где Из формулы (9) видно, что формирование ПЧ заключается в определении количества пи-нейронов L и значений параметров данных нейронов Структура полиномиальной зависимости может выбираться как на основе информации о предметной области, так и путем оптимизации вида данной зависимости, например с использованием метода группового учета аргументов [4]. 2. Формирование РБЧ сети в предположении, что ПЧ отсутствует (
Из формулы (10) видно, что формирование РБЧ заключается в определении числа радиальных нейронов M, значений параметров При формировании РБЧ сети могут использоваться методы, разработанные для создания и обучения RBFN сетей [3,4]. 3. Настройка параметра Рассмотрим базовый алгоритм обучения HPRBFN. Шаг 0 (предварительный). Обучающая выборка (5) разбивается на две части: собственно обучающую
и контрольную
выборки (H+L=N). Размер контрольной выборки Шаг 1. Определение вектора параметров Вариант А. С использованием нерекуррентного метода наименьших квадратов (МНК) [3,4]:
где Вариант B. С использованием рекуррентного МНК [3, 4]:
где
Шаг 2. Определение числа радиальных нейронов M, значений параметров 1) Устанавливаются переменные i=1 и M=0. 2) Из обучающей выборки извлекается элемент
где 3) Если 4) Если i= N, то останов, иначе i=i+1 и переход к пункту 2. Шаг 3. Определение значения параметра отклонения радиальных нейронов Вариант А. С использованием эмпирической формулы:
где Вариант B. С использованием алгоритма оптимизации. Нейронная сеть обучается по обучающей выборке (11), после чего параметр
где 4. Настройка параметра u с использованием алгоритма оптимизации. Нейронная сеть обучается по обучающей выборке (11), после чего параметр u определяется путем минимизации ошибки на тестирующей выборке (12):
где Метод золотого сечения [6]. Предположим, необходимо найти минимум функции Шаг 1. Устанавливаются переменные: k=1,
Шаг 2. Если
иначе
Шаг 3. Проверяется критерий останова Вычислительный эксперимент Предположим, что объект имитируется зависимостью вида (1), при этом где Аддитивная помеха На рисунке 2 показан график СКО моделей в зависимости от параметра Для обучения HPRBFN используется базовый алгоритм, описанный выше. Из приведенных на рисунке 2 зависимостей видно, что предложенная HPRBFN при малых значениях параметра q обеспечивает точность модели, близкую к полиномиальной МНК модели, при больших значениях q – близкую к точности GRNN, и в среднем дает наилучший из всех методов результат. Сложные объекты, имеющие существенную полиномиальную составляющую (см. (2)) достаточно широко распространены на практике в экономике, медицине, технике и т.п., вследствие чего предложенные полиномиально-радиальнобазисные нейронные сети могут найти широкое применение в системах моделирования и управления. Список литературы 1. Катковник В.Я. Непараметрическая идентификация и сглаживание данных. - М.: Наука, 1985. 2. Дли М.И. Локально-аппроксимационные модели сложных объектов. - М.: Наука; Физматлит, 1999. 3. Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. - М.: Горячая линия – Телеком, 2001. 4. Дюк В., Самойленко А. Data Mining: Учебный курс. - СПб.: Питер, 2001. 5. Ивахненко А.Г. Самообучающиеся системы распознавания и автоматического управления. - К.: Технiка, 1969. 6. Банди Б. Методы оптимизации: Вводный курс. - М.: Радио и связь, 1988. |
Постоянный адрес статьи: http://swsys.ru/index.php?page=article&id=465&lang= |
Версия для печати Выпуск в формате PDF (1.26Мб) |
Статья опубликована в выпуске журнала № 1 за 2006 год. |
Возможно, Вас заинтересуют следующие статьи схожих тематик:
- Системы компьютерной поддержки процессов анализа, синтеза и планирования решений в условиях неопределенности
- Средства обеспечения надежности функционирования информационных систем
- К вопросу параметризации свойств программных средств обучения
- Расчет нечеткого сбалансированного показателя в задачах взвешивания терминов электронных документов
- Методы и средства моделирования wormhole сетей передачи данных
Назад, к списку статей