ISSN 0236-235X (P)
ISSN 2311-2735 (E)

Публикационная активность

(сведения по итогам 2016 г.)
2-летний импакт-фактор РИНЦ: 0,493
2-летний импакт-фактор РИНЦ без самоцитирования: 0,389
Двухлетний импакт-фактор РИНЦ с учетом цитирования из всех
источников: 0,732
5-летний импакт-фактор РИНЦ: 0,364
5-летний импакт-фактор РИНЦ без самоцитирования: 0,303
Суммарное число цитирований журнала в РИНЦ: 5022
Пятилетний индекс Херфиндаля по цитирующим журналам: 355
Индекс Херфиндаля по организациям авторов: 499
Десятилетний индекс Хирша: 11
Место в общем рейтинге SCIENCE INDEX за 2016 год: 304
Место в рейтинге SCIENCE INDEX за 2016 год по тематике "Автоматика. Вычислительная техника": 11

Больше данных по публикационной активности нашего журнале за 2008-2016 гг. на сайте РИНЦ

Вход


Забыли пароль? / Регистрация

Добавить в закладки

Следующий номер на сайте

3
Ожидается:
16 Июня 2018

Нейросетевой алгоритм и модели нечеткой логики для задачи классификации

Статья опубликована в выпуске журнала № 4 за 2008 год.[ 23.12.2008 ]
Аннотация:
Abstract:
Авторы: Филатова Н.Н. (nfilatova99@mail.ru) - Тверской государственный технический университет, Тверь, Россия, доктор технических наук, Спиридонов А.В. () - , ,
Ключевые слова: нейронная сеть, нечеткая логика, классификация, исследование
Keywords: neural network, fuzzy logic, classification,
Количество просмотров: 6683
Версия для печати
Выпуск в формате PDF (8.40Мб)

Размер шрифта:       Шрифт:

Применение искусственных нейронных сетей (ИНС) вместо обычно используемых математических методов анализа позволяет на основе описания объекта в виде набора признаков (признакового пространства) построить классификатор, который будет разделять классы объектов с учетом имеющихся различий между ними. Для принятия решения об отнесении распознаваемого объекта, представленного набором признаков, к одному из заданных классов системы диагностики используют специализированные базы знаний (БЗ). Классификатор на основе ИНС способен расширять БЗ при предъявлении ему заранее неизвестных (значительно отличающихся от уже известных в соответствии с выбранным критерием близости) объектов. Это связано со следующими особенностями нейронных сетей:

 

–   ИНС в состоянии одновременно работать с большим количеством входных параметров (порядка сотен и выше), что практически не может быть оценено человеком;

–   ИНС способны обобщать полученную информацию и на основе этого обобщения принимать решения, основываясь на выявляемых ими скрытых закономерностях в данных.

Модель нейронной сети для классификации спектров дыхательных шумов

Для построения и исследования ИНС создана выборка дыхательных шумов (ДШ) Х, включающая N векторов вида , , где  – ордината спектра при ; ; n=511 [1]. Предлагаемая методика построения ИНС, которая явилась развитием предложенного в [2] подхода, включает этапы формирования выборок: обучающая (ОВ), контрольная (КВ), тестовая (ТВ) и обучения ИНС.

На первом этапе осуществляется нормализация значений признаков:

,                                                      (1)

где , .

На основе множества Х формируется множество Хн, в котором  . Для ОВХн определяется размахом значений для каждого признака:

,                                   (2)

где , .

Нормализованные векторы Хнj сохраняются в БД DB1 как основа для формирования ОВ, КВ и ТВ.

Состояние каждого k-го нейрона сети задается весовым  и эталонным  векторами, где  – вес i-го признака в k-м нейроне (0 – незначимый признак, 1 – значимый);  – значение i-го признака эталона для k-го класса.

Для реализации второго этапа используется парадигма обучения без учителя. При построении обучающего правила за основу взят метод соревнования. Цикл обучения включает подачу на вход сети очередного объекта ХнjDB1. После этого устанавливается высокий уровень управляющего сигнала sel, инициирующего выполнение цикла обучения ИНС. В цикле обучения рассчитывается значение функции активации  каждого k-го нейрона, ; L – количество нейронов в нейронном слое ИНС. Функция активации определяет степень подобия объекта классу.

Определяем степень подобия j-го образца каждому k-му описанию класса:

,                    (3)

где L – текущее количество нейронов в слое;  – функция подобия i-го признака j-го объекта эталонному значению этого признака в k-м классе, рассчитываемая следующим образом:

,                                (4)

где Р1 – порог допустимого отклонения значения признака от эталона (задается эмпирически как параметр алгоритма).

Модуль Comp1 сравнивает активности всех нейронов слоя и определяет нейрон-победитель, для которого формируется высокий уровень соответствующего управляющего сигнала corrk, активирующего механизм корректировки весового и эталонного векторов нейрона-победителя. Если  , , ,  и , где Р2 – минимальная степень соответствия образца эталону (задается эмпирически как параметр алгоритма); Р3 – минимально необходимое преимущество нейрона-победителя (задается эмпирически как параметр алгоритма), то для k-го класса выполняется корректировка весового и эталонного векторов:

,                                             (5а)

,                              (5б)

где  – количество уже выполненных итераций обучения для k-го нейрона. Иначе (или если j=1 ‑ выполняется первая итерация построения текущего слоя нейронной сети) создается новый k-й нейрон, k=L+1, в котором .

Определяем R-множество. Если  , где Р4 – минимально необходимое количество объектов обучающей выборки для формирования класса (задается эмпирически как параметр алгоритма), то объекты для каждого k-го класса, для кото- рого данное условие соблюдается, относятся к R-множеству, представляющему собой выборку неклассифицированных объектов, а сами классы удаляются. Цикл обучения повторяется для каждого последующего объекта ОВ.

Если объектов ОВ больше нет, обучающий цикл выполняется рекурсивно для каждого из созданных нейронов. В качестве ОВ рассматривается совокупность объектов, отнесенных к нейрону, для которого выполняется обучение. Остальные объекты игнорируются. Для каждого нового рекурсивного процесса обучения устанавливаются собственные значения параметров Р1–Р4. В процессе формируются дочерние нейроны, для которых, в свою очередь, также выполняется обучение. Процесс заканчивается, если количество объектов в нейроне не превышает значения  или количество дочерних классов после определения R-множества не превысило одного.

Построение правил вывода и классификация ДШ

На основе полученного разбиения обучающей выборки автоматически формируются правила для каждого полученного класса, которые используются в процессе классификации новых объектов. Построение правил вывода выполняется для каждого k-го описания класса. На каждом уровне процессы построения правил вывода и классификации ДШ идентичны.

Правила вывода формируются на основе нечетких множеств. Для каждого i-го признака определим лингвистическую переменную (ЛП) «СПМ на частоте ». Терм-множество каждой ЛП создается в виде тройки:

Ti,2 – средняя оценка,

Ti,3 – высокая оценка>.                                           (6)

Значение ЛП определяется одним или несколькими термами – от соответствующего значению dkimin до соответствующего значению dkimax, где  и . Функции принадлежности каждого терма имеют вид: , .

Для каждого k-го класса высказывание будет иметь вид:

ЕСЛИ  И  И…

И  И…И  ТО ,                                 (7)

где Ai,k – посылка, определяемая в соответствии с функцией принадлежности для i-го признака;  – заключение об отнесении объекта к k-му классу, .

Функцию принадлежности для заключения  определим в виде:

.                                          (8)

Функцию принадлежности для всей предпосылки в высказывании (7) определим как:

.                                          (9)

Функцию принадлежности для k-го правила определим в виде:

.                         (10)

Если , , ,  и , где Р5 – минимально необходимое значение функции принадлежности импликации (задается эмпирически как параметр алгоритма); Р6 – минимально необходимое преимущество правила-победителя (задается эмпирически как параметр алгоритма), то j-й объект относится к k-му классу.

Для автоматизации процессов построения классификатора и классификации по правилам было разработано программное средство (ПС), реализующее описанный алгоритм. Данное программное средство функционирует в 4 режимах:

1)     инициализация классификатора и нормализация ОВ (формула (1));

2)     обучение классификатора и построение отношения между классами в виде иерархической структуры (формулы (2)–(5а),(5б));

3)     построение правил классификации на основе теории нечетких множеств (формулы (6)–(7));

4)     классификация объектов на основе построенных правил (формулы (8)–(10)).

ПС отображает используемую выборку в виде таблицы, позволяет отобразить построенные правила классификации, включая значения диапазонов для каждого терма лингвистической переменной, в таблице и графическом представлении.

Результаты классификации спектров ДШ

Была использована выборка из N=56 спектральных характеристик ДШ, представленных объектами классов НОРМА и ПАТОЛОГИЯ, из которых 46 объектов использовались в качестве ОВ, 10 в качестве ТВ. Из 46 объектов ОВ 30 использовались в качестве КВ. Набор объектов класса ПАТОЛОГИЯ был представлен тремя типами патологий: ПНЕВМОНИЯ, БРОНХИТ и АСТМА.

С помощью предложенного алгоритма (при параметрах, указанных в таблице 1) удалось разбить ОВ на 4 класса (таблица 2). Ошибки первого рода отсутствовали полностью. Классификация объектов КВ и ТВ выполнялась на основе построенных правил вывода.

Таблица 1

Значения параметров обучения ИНС

Количество классов, L

Р1

Р2

Р3

Р4

Р5

Р6

2

0,26

0,21

0,06

8

0,30

0,06

4

0,21

0,12

0,06

5

0,30

0,06

Построенные эталоны позволили сделать вывод, что различия выделенных классов находятся в области частот от 600 Гц и ниже, то есть классы имеют значимые отличия в первых 56 признаках. Это существенно снижает требования к размерности ОВ, позволяет считать размерность имеющейся ОВ достаточной, а полученные на основе данной выборки результаты достоверными.

Введение R-множества позволило свести к нулю ошибки первого и второго рода при классификации объектов. Это также привело к появлению показателя, определяющего количество неклассифицированных (отнесенных к R-множеству) объектов.

Таблица 2

Результаты обучения ИНС

Количество классов, L

Показатель

ОВ

КВ

ТВ

Количество объектов в выборке

46

30

10

2

Нераспознанных объектов НОРМА

0 (0,0 %)

0 (0,0 %)

0 (0,0 %)

Нераспознанных объектов ПАТОЛОГИЯ

12 (26,1 %)

12 (40,0 %)

4 (40,0 %)

4

Нераспознанных объектов НОРМА

0 (0,0 %)

0 (0,0 %)

0 (0,0 %)

Нераспознанных объектов ПНЕВМОНИЯ

1 (2,2 %)

1 (3,3 %)

0 (0,0 %)

Нераспознанных объектов БРОНХИТ

2 (4,3 %)

2 (4,3 %)

5 (50,0 %)

Нераспознанных объектов АСТМА

3 (6,5 %)

3 (10,0 %)

0 (0,0 %)

Во всех экспериментах также достоверно (без ошибок) удалось отделить объекты класса НОРМА от остальных типов объектов для каждой выборки (ОВ, КВ и ТВ).

Список литературы

1. Филатова Н.Н., Спиридонов А.В. О возможности применения искусственных нейронных сетей в пульмонологии. // Информатика и процессы управления. Компьютерные системы и технологии.: Сб. науч. тр. – М.: МИФИ, 2008. – С. 46–47.

2. Филатова Н.Н., Вальдес А., Аль-Нажжар Н.К. Алгоритм распознавания класса дыхательных шумов на основе нечетких правил. // Нечеткие системы и мягкие вычисления. – 2007. – Т. 2. – № 3.


Постоянный адрес статьи:
http://swsys.ru/index.php?page=article&id=1650
Версия для печати
Выпуск в формате PDF (8.40Мб)
Статья опубликована в выпуске журнала № 4 за 2008 год.

Возможно, Вас заинтересуют следующие статьи схожих тематик: