ISSN 0236-235X (P)
ISSN 2311-2735 (E)

Публикационная активность

(сведения по итогам 2016 г.)
2-летний импакт-фактор РИНЦ: 0,493
2-летний импакт-фактор РИНЦ без самоцитирования: 0,389
Двухлетний импакт-фактор РИНЦ с учетом цитирования из всех
источников: 0,732
5-летний импакт-фактор РИНЦ: 0,364
5-летний импакт-фактор РИНЦ без самоцитирования: 0,303
Суммарное число цитирований журнала в РИНЦ: 5022
Пятилетний индекс Херфиндаля по цитирующим журналам: 355
Индекс Херфиндаля по организациям авторов: 499
Десятилетний индекс Хирша: 11
Место в общем рейтинге SCIENCE INDEX за 2016 год: 304
Место в рейтинге SCIENCE INDEX за 2016 год по тематике "Автоматика. Вычислительная техника": 11

Больше данных по публикационной активности нашего журнале за 2008-2016 гг. на сайте РИНЦ

Вход


Забыли пароль? / Регистрация

Добавить в закладки

Следующий номер на сайте

1
Ожидается:
16 Марта 2018

Использование энтропийных мер в задачах оценки информативности признаков распознавания образов

Entropy measures adaption in images identification criterions informativity estimation tasks
Статья опубликована в выпуске журнала № 4 за 2009 год.[ 16.12.2009 ]
Аннотация:В статье обоснована возможность использования энтропийных мер для решения задачи оценки информативности признаков распознавания ограниченной совокупности образов, характеризующих ограниченную систему объектов. Формализованы аналитические выражения для расчета граничных значений количества информации, заключенного в системе образов объектов.
Abstract:In the materials of the article is substantiated an entropy measures adaption opportunity to solve a task of limited images assemblage identification criterions informativity estimation, characterizing a limited subjects system. There are formalized analytical expressions to design border values of information quantity, contained in a subject’s images system.
Авторы: Машкин А.В. (arep@cps.tver.ru) - 2 ЦНИИ Минобороны России, г. Тверь, , , кандидат технических наук
Ключевые слова: образ, объект, распознавание, информативность, энтропийная мера, энтропия
Keywords: image, subject, identification, informativity, entropy measures, entropy
Количество просмотров: 7875
Версия для печати
Выпуск в формате PDF (4.85Мб)

Размер шрифта:       Шрифт:

Мерам оценки информативности признаков распознавания посвящено достаточное количество работ, например [1, 2]. Известный подход к оценке информативности признаков основан на вычислении вероятностных или информационных мер [3, 4]. Присущими ему основными недостатками следует считать:

-    необходимость попарной оценки схожести образов (меры типа Махаланобиса), что не позволяет представлять совокупность заданных образов в виде системы;

-    большую размерность матриц вероятностных мер, проблематичных для проведения сравнительного анализа, и другие.

Для устранения этих недостатков можно использовать системные энтропийные меры оценки информативности признаков распознавания.

Цель данной работы состоит в формализации этих мер.

Для представления совокупности M образов, заданных соответствующими плотностями распределения вероятностей , одномерного признака xj из N-мерного признакового пространства, в виде системы используется выражение для системной плотности распределения:

                                               (1)

где Pi – априорная вероятность появления в области наблюдения i-го образа.

Как правило, на момент формирования словаря признаков распределение априорных вероятностей неизвестно, поэтому можно воспользоваться равномерным представлением. Следовательно, Pi=1/N. Физический смысл данного показателя заключается в оценке изрезанности и протяженности совокупности распределений, определяющих различающие свойства образов. Для оценки информативности признака xj в системе образов используется энтропийная мера Iи, представляемая как

      (2)

Рассчитав значения меры информативности для всех признаков, можно построить вариационный ряд по вкладу в общую эффективность распознавания, не прибегая к вероятностным оценкам. Здесь важно определить возможные пределы изменения меры информативности. При оценке образов можно выделить два предельных случая: когда все образы абсолютно идентичны и когда образы не пересекаются.

Теорема 1. При абсолютной идентичности совокупности образов объектов распознавания  мера информативности признака равна энтропии одного образа.

Доказательство. Приняв за основу выражения (1) и (2), можно обозначить  и провести преобразования следующего вида:

                      (3)

где H – энтропия одного из идентичных образов.

Анализ формулы (3) показывает, что мера информативности не зависит от распределения априорных вероятностей и равна энтропии любого из идентичных образов, а это доказывает теорему.

Теорема 2. При непересекающихся образах мера информативности признака распознавания равна сумме энтропии априорных состояний системы и средневзвешенной энтропии признаковых образов.

Доказательство. Когда образы не пересекаются, преобразования формулы (2) будут следующего вида:

 (4)

где Hсост – энтропия состояний системы образов; Hi – энтропия i-го образа.

Выражение (4) доказывает известное положение о конечности информации, заключенное в замкнутой системе [4].

Корректное использование меры информативности (2) возможно лишь при условии, что законы всех анализируемых признаков распознавания идентичны по своему виду. В противном случае необходимо применять либо условные энтропийные меры, либо вероятностные меры для устранения свойства инвариантности. Условная энтропийная мера информативности выражается следующим образом:

.                     (5)

Другой мерой может выступать взаимная информация

.                              (6)

Между (5) и (6) существует соотношение , характеризующее априорную энтропию, равную неопределенности априорных состояний системы наблюдаемых образов. Проведенные исследования показали примерно одинаковую эффективность мер (2), (5) и (6) для основных видов законов распределения непрерывных величин. Эффективность данных мер не меньше используемых вероятностных мер, таких как обобщенное расстояние Колмогорова и Байеса.

Таким образом, с использованием формализованных системных энтропийных мер можно получать оценки информативности признаков для построения их вариационного ряда при синтезе алгоритмов распознавания, использующих информационные критерии принятия решений.

Литература

1.   Аркадьев А.Г., Браверманн Э.М. Обучение машины классификации объектов. М.: Наука, 1971.

2.   Фор А. Восприятие и распознавание образов. М.: Машиностроение, 1989.

3.   Елисеева И.И., Рукавишников В.О. Группировка, корреляция, распознавание образов. М.: Статистика, 1977.

4.   Кульбак С. Теория информации и статистика. М.: Наука, 1967.


Постоянный адрес статьи:
http://swsys.ru/index.php?page=article&id=2377
Версия для печати
Выпуск в формате PDF (4.85Мб)
Статья опубликована в выпуске журнала № 4 за 2009 год.

Возможно, Вас заинтересуют следующие статьи схожих тематик: