ISSN 0236-235X (P)
ISSN 2311-2735 (E)
3

13 Сентября 2024

Использование энтропийных мер в задачах оценки информативности признаков распознавания образов


Машкин А.В. (arep@cps.tver.ru) - 2 ЦНИИ Минобороны России, г. Тверь, кандидат технических наук
Ключевые слова: образ, объект, распознавание, информативность, энтропийная мера, энтропия
Keywords: image, subject, identification, informativity, entropy measures, entropy


     

Мерам оценки информативности признаков распознавания посвящено достаточное количество работ, например [1, 2]. Известный подход к оценке информативности признаков основан на вычислении вероятностных или информационных мер [3, 4]. Присущими ему основными недостатками следует считать:

-    необходимость попарной оценки схожести образов (меры типа Махаланобиса), что не позволяет представлять совокупность заданных образов в виде системы;

-    большую размерность матриц вероятностных мер, проблематичных для проведения сравнительного анализа, и другие.

Для устранения этих недостатков можно использовать системные энтропийные меры оценки информативности признаков распознавания.

Цель данной работы состоит в формализации этих мер.

Для представления совокупности M образов, заданных соответствующими плотностями распределения вероятностей , одномерного признака xj из N-мерного признакового пространства, в виде системы используется выражение для системной плотности распределения:

                                               (1)

где Pi – априорная вероятность появления в области наблюдения i-го образа.

Как правило, на момент формирования словаря признаков распределение априорных вероятностей неизвестно, поэтому можно воспользоваться равномерным представлением. Следовательно, Pi=1/N. Физический смысл данного показателя заключается в оценке изрезанности и протяженности совокупности распределений, определяющих различающие свойства образов. Для оценки информативности признака xj в системе образов используется энтропийная мера Iи, представляемая как

      (2)

Рассчитав значения меры информативности для всех признаков, можно построить вариационный ряд по вкладу в общую эффективность распознавания, не прибегая к вероятностным оценкам. Здесь важно определить возможные пределы изменения меры информативности. При оценке образов можно выделить два предельных случая: когда все образы абсолютно идентичны и когда образы не пересекаются.

Теорема 1. При абсолютной идентичности совокупности образов объектов распознавания  мера информативности признака равна энтропии одного образа.

Доказательство. Приняв за основу выражения (1) и (2), можно обозначить  и провести преобразования следующего вида:

                      (3)

где H – энтропия одного из идентичных образов.

Анализ формулы (3) показывает, что мера информативности не зависит от распределения априорных вероятностей и равна энтропии любого из идентичных образов, а это доказывает теорему.

Теорема 2. При непересекающихся образах мера информативности признака распознавания равна сумме энтропии априорных состояний системы и средневзвешенной энтропии признаковых образов.

Доказательство. Когда образы не пересекаются, преобразования формулы (2) будут следующего вида:

 (4)

где Hсост – энтропия состояний системы образов; Hi – энтропия i-го образа.

Выражение (4) доказывает известное положение о конечности информации, заключенное в замкнутой системе [4].

Корректное использование меры информативности (2) возможно лишь при условии, что законы всех анализируемых признаков распознавания идентичны по своему виду. В противном случае необходимо применять либо условные энтропийные меры, либо вероятностные меры для устранения свойства инвариантности. Условная энтропийная мера информативности выражается следующим образом:

.                     (5)

Другой мерой может выступать взаимная информация

.                              (6)

Между (5) и (6) существует соотношение , характеризующее априорную энтропию, равную неопределенности априорных состояний системы наблюдаемых образов. Проведенные исследования показали примерно одинаковую эффективность мер (2), (5) и (6) для основных видов законов распределения непрерывных величин. Эффективность данных мер не меньше используемых вероятностных мер, таких как обобщенное расстояние Колмогорова и Байеса.

Таким образом, с использованием формализованных системных энтропийных мер можно получать оценки информативности признаков для построения их вариационного ряда при синтезе алгоритмов распознавания, использующих информационные критерии принятия решений.

Литература

1.   Аркадьев А.Г., Браверманн Э.М. Обучение машины классификации объектов. М.: Наука, 1971.

2.   Фор А. Восприятие и распознавание образов. М.: Машиностроение, 1989.

3.   Елисеева И.И., Рукавишников В.О. Группировка, корреляция, распознавание образов. М.: Статистика, 1977.

4.   Кульбак С. Теория информации и статистика. М.: Наука, 1967.



http://swsys.ru/index.php?id=2377&lang=%E2%8C%A9%3Den&like=1&page=article


Perhaps, you might be interested in the following articles of similar topics: