На правах рекламы:
ISSN 0236-235X (P)
ISSN 2311-2735 (E)

Авторитетность издания

ВАК - К1
RSCI, ядро РИНЦ

Добавить в закладки

Следующий номер на сайте

4
Ожидается:
09 Декабря 2024

Использование энтропийных мер в задачах оценки информативности признаков распознавания образов

Entropy measures adaption in images identification criterions informativity estimation tasks
Статья опубликована в выпуске журнала № 4 за 2009 год.
Аннотация:В статье обоснована возможность использования энтропийных мер для решения задачи оценки информативности признаков распознавания ограниченной совокупности образов, характеризующих ограниченную систему объектов. Формализованы аналитические выражения для расчета граничных значений количества информации, заключенного в системе образов объектов.
Abstract:In the materials of the article is substantiated an entropy measures adaption opportunity to solve a task of limited images assemblage identification criterions informativity estimation, characterizing a limited subjects system. There are formalized analytical expressions to design border values of information quantity, contained in a subject’s images system.
Авторы: Машкин А.В. (arep@cps.tver.ru) - 2 ЦНИИ Минобороны России, г. Тверь, кандидат технических наук
Ключевые слова: образ, объект, распознавание, информативность, энтропийная мера, энтропия
Keywords: image, subject, identification, informativity, entropy measures, entropy
Количество просмотров: 15842
Версия для печати
Выпуск в формате PDF (4.85Мб)

Размер шрифта:       Шрифт:

Мерам оценки информативности признаков распознавания посвящено достаточное количество работ, например [1, 2]. Известный подход к оценке информативности признаков основан на вычислении вероятностных или информационных мер [3, 4]. Присущими ему основными недостатками следует считать:

-    необходимость попарной оценки схожести образов (меры типа Махаланобиса), что не позволяет представлять совокупность заданных образов в виде системы;

-    большую размерность матриц вероятностных мер, проблематичных для проведения сравнительного анализа, и другие.

Для устранения этих недостатков можно использовать системные энтропийные меры оценки информативности признаков распознавания.

Цель данной работы состоит в формализации этих мер.

Для представления совокупности M образов, заданных соответствующими плотностями распределения вероятностей , одномерного признака xj из N-мерного признакового пространства, в виде системы используется выражение для системной плотности распределения:

                                               (1)

где Pi – априорная вероятность появления в области наблюдения i-го образа.

Как правило, на момент формирования словаря признаков распределение априорных вероятностей неизвестно, поэтому можно воспользоваться равномерным представлением. Следовательно, Pi=1/N. Физический смысл данного показателя заключается в оценке изрезанности и протяженности совокупности распределений, определяющих различающие свойства образов. Для оценки информативности признака xj в системе образов используется энтропийная мера Iи, представляемая как

      (2)

Рассчитав значения меры информативности для всех признаков, можно построить вариационный ряд по вкладу в общую эффективность распознавания, не прибегая к вероятностным оценкам. Здесь важно определить возможные пределы изменения меры информативности. При оценке образов можно выделить два предельных случая: когда все образы абсолютно идентичны и когда образы не пересекаются.

Теорема 1. При абсолютной идентичности совокупности образов объектов распознавания  мера информативности признака равна энтропии одного образа.

Доказательство. Приняв за основу выражения (1) и (2), можно обозначить  и провести преобразования следующего вида:

                      (3)

где H – энтропия одного из идентичных образов.

Анализ формулы (3) показывает, что мера информативности не зависит от распределения априорных вероятностей и равна энтропии любого из идентичных образов, а это доказывает теорему.

Теорема 2. При непересекающихся образах мера информативности признака распознавания равна сумме энтропии априорных состояний системы и средневзвешенной энтропии признаковых образов.

Доказательство. Когда образы не пересекаются, преобразования формулы (2) будут следующего вида:

 (4)

где Hсост – энтропия состояний системы образов; Hi – энтропия i-го образа.

Выражение (4) доказывает известное положение о конечности информации, заключенное в замкнутой системе [4].

Корректное использование меры информативности (2) возможно лишь при условии, что законы всех анализируемых признаков распознавания идентичны по своему виду. В противном случае необходимо применять либо условные энтропийные меры, либо вероятностные меры для устранения свойства инвариантности. Условная энтропийная мера информативности выражается следующим образом:

.                     (5)

Другой мерой может выступать взаимная информация

.                              (6)

Между (5) и (6) существует соотношение , характеризующее априорную энтропию, равную неопределенности априорных состояний системы наблюдаемых образов. Проведенные исследования показали примерно одинаковую эффективность мер (2), (5) и (6) для основных видов законов распределения непрерывных величин. Эффективность данных мер не меньше используемых вероятностных мер, таких как обобщенное расстояние Колмогорова и Байеса.

Таким образом, с использованием формализованных системных энтропийных мер можно получать оценки информативности признаков для построения их вариационного ряда при синтезе алгоритмов распознавания, использующих информационные критерии принятия решений.

Литература

1.   Аркадьев А.Г., Браверманн Э.М. Обучение машины классификации объектов. М.: Наука, 1971.

2.   Фор А. Восприятие и распознавание образов. М.: Машиностроение, 1989.

3.   Елисеева И.И., Рукавишников В.О. Группировка, корреляция, распознавание образов. М.: Статистика, 1977.

4.   Кульбак С. Теория информации и статистика. М.: Наука, 1967.


Постоянный адрес статьи:
http://swsys.ru/index.php?page=article&id=2377&lang=&lang=&like=1
Версия для печати
Выпуск в формате PDF (4.85Мб)
Статья опубликована в выпуске журнала № 4 за 2009 год.

Возможно, Вас заинтересуют следующие статьи схожих тематик: