ISSN 0236-235X (P)
ISSN 2311-2735 (E)

Journal influence

Higher Attestation Commission (VAK) - К1 quartile
Russian Science Citation Index (RSCI)

Bookmark

Next issue

2
Publication date:
16 June 2024

Entropy measures adaption in images identification criterions informativity estimation tasks

The article was published in issue no. № 4, 2009
Abstract:In the materials of the article is substantiated an entropy measures adaption opportunity to solve a task of limited images assemblage identification criterions informativity estimation, characterizing a limited subjects system. There are formalized analytical expressions to design border values of information quantity, contained in a subject’s images system.
Аннотация:В статье обоснована возможность использования энтропийных мер для решения задачи оценки информативности признаков распознавания ограниченной совокупности образов, характеризующих ограниченную систему объектов. Формализованы аналитические выражения для расчета граничных значений количества информации, заключенного в системе образов объектов.
Authors: (arep@cps.tver.ru) - , Ph.D
Keywords: image, subject, identification, informativity, entropy measures, entropy
Page views: 14030
Print version
Full issue in PDF (4.85Mb)

Font size:       Font:

Мерам оценки информативности признаков распознавания посвящено достаточное количество работ, например [1, 2]. Известный подход к оценке информативности признаков основан на вычислении вероятностных или информационных мер [3, 4]. Присущими ему основными недостатками следует считать:

-    необходимость попарной оценки схожести образов (меры типа Махаланобиса), что не позволяет представлять совокупность заданных образов в виде системы;

-    большую размерность матриц вероятностных мер, проблематичных для проведения сравнительного анализа, и другие.

Для устранения этих недостатков можно использовать системные энтропийные меры оценки информативности признаков распознавания.

Цель данной работы состоит в формализации этих мер.

Для представления совокупности M образов, заданных соответствующими плотностями распределения вероятностей , одномерного признака xj из N-мерного признакового пространства, в виде системы используется выражение для системной плотности распределения:

                                               (1)

где Pi – априорная вероятность появления в области наблюдения i-го образа.

Как правило, на момент формирования словаря признаков распределение априорных вероятностей неизвестно, поэтому можно воспользоваться равномерным представлением. Следовательно, Pi=1/N. Физический смысл данного показателя заключается в оценке изрезанности и протяженности совокупности распределений, определяющих различающие свойства образов. Для оценки информативности признака xj в системе образов используется энтропийная мера Iи, представляемая как

      (2)

Рассчитав значения меры информативности для всех признаков, можно построить вариационный ряд по вкладу в общую эффективность распознавания, не прибегая к вероятностным оценкам. Здесь важно определить возможные пределы изменения меры информативности. При оценке образов можно выделить два предельных случая: когда все образы абсолютно идентичны и когда образы не пересекаются.

Теорема 1. При абсолютной идентичности совокупности образов объектов распознавания  мера информативности признака равна энтропии одного образа.

Доказательство. Приняв за основу выражения (1) и (2), можно обозначить  и провести преобразования следующего вида:

                      (3)

где H – энтропия одного из идентичных образов.

Анализ формулы (3) показывает, что мера информативности не зависит от распределения априорных вероятностей и равна энтропии любого из идентичных образов, а это доказывает теорему.

Теорема 2. При непересекающихся образах мера информативности признака распознавания равна сумме энтропии априорных состояний системы и средневзвешенной энтропии признаковых образов.

Доказательство. Когда образы не пересекаются, преобразования формулы (2) будут следующего вида:

 (4)

где Hсост – энтропия состояний системы образов; Hi – энтропия i-го образа.

Выражение (4) доказывает известное положение о конечности информации, заключенное в замкнутой системе [4].

Корректное использование меры информативности (2) возможно лишь при условии, что законы всех анализируемых признаков распознавания идентичны по своему виду. В противном случае необходимо применять либо условные энтропийные меры, либо вероятностные меры для устранения свойства инвариантности. Условная энтропийная мера информативности выражается следующим образом:

.                     (5)

Другой мерой может выступать взаимная информация

.                              (6)

Между (5) и (6) существует соотношение , характеризующее априорную энтропию, равную неопределенности априорных состояний системы наблюдаемых образов. Проведенные исследования показали примерно одинаковую эффективность мер (2), (5) и (6) для основных видов законов распределения непрерывных величин. Эффективность данных мер не меньше используемых вероятностных мер, таких как обобщенное расстояние Колмогорова и Байеса.

Таким образом, с использованием формализованных системных энтропийных мер можно получать оценки информативности признаков для построения их вариационного ряда при синтезе алгоритмов распознавания, использующих информационные критерии принятия решений.

Литература

1.   Аркадьев А.Г., Браверманн Э.М. Обучение машины классификации объектов. М.: Наука, 1971.

2.   Фор А. Восприятие и распознавание образов. М.: Машиностроение, 1989.

3.   Елисеева И.И., Рукавишников В.О. Группировка, корреляция, распознавание образов. М.: Статистика, 1977.

4.   Кульбак С. Теория информации и статистика. М.: Наука, 1967.


Permanent link:
http://swsys.ru/index.php?page=article&id=2377&lang=&lang=en
Print version
Full issue in PDF (4.85Mb)
The article was published in issue no. № 4, 2009

Perhaps, you might be interested in the following articles of similar topics: