На правах рекламы:
ISSN 0236-235X (P)
ISSN 2311-2735 (E)

Авторитетность издания

ВАК - К1
RSCI, ядро РИНЦ

Добавить в закладки

Следующий номер на сайте

4
Ожидается:
09 Декабря 2024

Оптимальная энтропийная кластеризация в информационных системах

Optimum entropy clustering in information systems
Дата подачи статьи: 31.03.2017
УДК: 510.63; 519.68
Статья опубликована в выпуске журнала № 4 за 2017 год. [ на стр. 643-646 ]
Аннотация:В данной работе исследована возможность разработки нового метода кластеризации данных в информационных системах. Кластеризация – это процесс нахождения возможных групп в заданном множестве с учетом признаков схожести или различия элементов этого множества. Существующий метод энтропийной кластеризации представляет собой информационно-теоретический подход к задаче кластеризации. В статье предлагается метод оптимальной энтропийной кластеризации высокоразмерных данных в информационных системах, который базируется на энтропийном подходе к выбору состояния элементов сообщений. Дано его математическое обоснование. Разработанный метод оптимальной энтропийной кластеризации базируется на известном принципе «малая величина энтропии соответствует большому количеству информационного содержания» и позволяет формировать режим не только оптимальной кластеризации, но и сокращения признакового пространства. Предложены методики вычисления степени оптимальности проведенной кластеризации, а также сокращения признакового пространства высокоразмерных данных при их первичной обработке.
Abstract:The paper researches the possibility of developing a new method for data clustering in information systems. Clustering is a process of searching possible groups in a given set using signs of similarity or difference between elements of this set. The existing entropy clustering method includes an information theoretic approach to a clustering task. The paper suggests a clustering method based on an entropy approach to selecting message items. The paper suggests a method of optimum entropy clustering of high-dimensional data in information systems. It also gives mathematical grounding of the method. The suggested method of optimum entropy clustering is based on the known principle “low entropy corresponds to big information content”. This make it possible to form an optimum clustering regime, as well as an attribute space reduction regime. The paper proposes a method for calculating a level of clustering optimality. It also describes a method for reducting attribute space of high-dimensional data upon their initial processing.
Авторы: Аскерова Б.Г. (Bahar287@mail.ru) - Азербайджанский государственный университет нефти и промышленности (доцент), Баку, Азербайджан, кандидат технических наук
Ключевые слова: энтропия, информационные системы, высокоразмерные данные, оптимизация, кластеризация
Keywords: entropy, information systems, high-dimensional data, optimisation, clusterization
Количество просмотров: 10291
Статья в формате PDF
Выпуск в формате PDF (29.80Мб)

Размер шрифта:       Шрифт:

Кластеризация объектов сложной природы с высокой размерностью признакового пространства является актуальной задачей во многих областях научных исследований [1–5]. Среди методов сокращения размерности пространства признаков в качестве основных выделяются методы главных компонент и нормализации [1]. Первый из указанных методов чересчур чувствителен к методам предобработки данных, а второй требует обоснованного выбора метода нормализации высокоразмерных данных. Согласно [1], важной и актуальной задачей является разработка эффективных методов предобработки данных и сокращения размерности признакового пространства без существенной потери информации.

Кластеризация – это процесс нахождения различных групп в заданном множестве с учетом признаков схожести или различия элементов этого множества [3]. При этом в качестве меры схожести или различия используют метрику в виде расстояния между векторами x и y:

,    

где xi, yi – i-я координата векторов x, y,   wi – i-й весовой коэффициент. При w = 1 выражение представляет собой расстояние Минковского порядка p, при p = 2 получаем расстояние Эвклида, при p = 1 – расстояние Манхеттена, при l = ∞ – расстояние Чебышева.

В работе [4] кластеризация представляется как первичный анализ большого объема данных высокой размерности при отсутствии априорных знаний о них.

В методе SEC [4] кластеры организуются по признаку эффективности сжатия бинарных векторов при использовании отдельного кодера для каждой группы.

В работе [5] решена задача подбора признака для кластеризации на основе количественной характеристики, вырабатываемой с помощью четырех предложенных алгоритмов классификации. При этом подбор признака осуществляется методом, позволяющим определить подмножества исходных признаков, имеющих одинаковую смысловую информацию в отношении БД.

Качественная предобработка признаков объекта может быть осуществлена по методу энтропии, используя условие минимума энтропии Шеннона, что соответствует максимальной информации об изучаемых объектах [1, 6, 7]. Что касается практической пользы кластеризации, то, например, согласно [2, 8], она помогает идентифицировать группы генов, имеющих сходные образы экспрессии при различных условиях. Такие гены типичным образом вовлечены в выполнение связанных функций. В работе [2] предлагается информационно-теоретический подход к кластеризации данных экспрессии генов. Известно, что энтропия является мерой информации и неопределенности случайного переменного. Следовательно, критерием кластеризации может стать условие достижения минимума энтропии. При использовании критерия минимальной энтропии проблема кластеризации имеет две субпроблемы: оценка a posteriori вероятности и минимизация энтропии. При этом, так как энтропия является мерой беспорядка в системе, каждый кластер должен иметь минимальную энтропию. Другими словами, данные в одном и том же кластере должны иметь схожие числовые характеристики. Существующий метод энтро- пийной кластеризации представляет собой информационно-теоретический подход к задаче кластеризации. Например, в простом случае каждый отдельный кластер должен содержать объекты с одинаковой величиной энтропии [9, 10], однако су- ществующий метод энтропийной кластеризации может быть подкреплен известным принципом «малая величина энтропии соответствует большому количеству информационного содержания». Учет данного принципа позволяет по-новому подойти к методу энтропийной кластеризации и в сущности разработать новый метод оптимальной энтропийной кластеризации.

Предлагаемый метод оптимальной энтропийной кластеризации

Предлагаемый в настоящей статье метод кластеризации базируется на энтропийном подходе к выбору состояния элементов сообщения. Допустим, имеется множество Х независимых элементов хi, , то есть X = {xi}.

При этом формируются кластеры K(Pj), .

Порядок формирования кластеров такой, что в кластер K(Pj) включаются элементы, имеющие Pj состояний.

Если обозначить количество элементов в каждом j-м кластере как nj, то общее количество информации, содержащейся во всех элементах одного j-го кластера, вычислим как

.                                                (1)

Суммируя (1) по всем j, получим

.                                      (2)

Далее допустим существование функциональной связи между переменными nj и Pj, то есть

.                                                          (3)

Также допускается существование определенного ограничения на сумму , то есть

 где C = const.               (4)

Кластеризацию элементов xi по предлагаемому информационно-вариационному критерию будем считать оптимальной, если при вычисленной оптимальной функции φ(n)opt общее количество информации, определяемое выражением

,           (5)

где λ – множитель Лагранжа, с учетом условия (4) достигает максимальной величины.

Для оценки степени оптимальности реальной кластеризации введем на рассмотрение коэффициент оптимальности, определяемый как

,           (6)

где φ(nj)real – реальная функция зависимости Pi от количества элементов nj в кластере Pj.

Покажем порядок вычисления оптимальной функции φ(nj). Выражение (5) в условно-непрерывном виде может быть записано следующим образом:

                 (7)

при                                                    (8)

где C = const.

Согласно уравнению Эйлера [11], оптимальная функция φ(n)opt, приводящая функционал (7) к его экстремальному значению, должна удовлетворить условию

.             (9)

С учетом выражений (7) и (8) получаем

.                                                       (10)

Из выражения (10) находим

.                                                          (11)

С учетом выражений (8) и (11) получаем

.                                                        (12)

Из выражения (12) получим

.                                                                  (13)

С учетом выражений (10) и (13) получаем

.                                                  (14)

Таким образом, при оптимальной функции φ(n)opt, определяемой выражением (14), информационное содержание идеально кластерированного множества Х, определяемое выражением (7), достигает экстремума. При этом экстремум является максимумом, так как выражение

                        (15)

имеет отрицательное значение.

Сокращение признакового пространства

Как видно из выражения (14), оптимальная функция φ(n)opt зависит от переменного n и от параметра С, исходно задаваемого при решении задачи оптимальной кластеризации. Рассмотрим возможность сокращения признакового пространства в предложенном методе кластеризации. Предлагается следующий алгоритм сокращения признакового пространства.

1. Определяется максимальная величина функ- ционала:

.                                     (16)

С учетом выражений (14) и (16) имеем

.                            (17)

2. Определяется реальная величина функционала (16).

С учетом выражения (16) и φ=φ(n)real получаем

.                          (18)

3. Критерий сокращения признакового пространства имеет вид .

Принимается, что по достижении условия β ≥ a0, где a0 – заранее заданное число, a0 ≤ 1, элементы xi с количеством состояний, определяющих величину F1.H.1.real, могут быть исключены из рассмотрения.

Заключение

Таким образом, предлагаемый метод оптимальной энтропийной кластеризации, базируясь на известном принципе «малая величина энтропии соответствует большому количеству информационного содержания», позволяет формировать режим не только оптимальной кластеризации, но и сокращения признакового пространства. Предлагаемый алгоритм может быть реализован в среде MATLAB методом последовательных приближений. Преимуществом среды MATLAB является возможность быстрой по сравнению с ФОРТРАН разработки рабочего алгоритма, а также альтернативных решений с использованием существующего пакета программ в этой среде.

Таким образом, были предложены метод опти- мальной энтропийной кластеризации высокоразмерных данных в информационных системах с его математическим обоснованием, а также методика сокращения признакового пространства высокоразмерных данных при первичной обработке.

Литература

1.     Бабичев С.А. Оптимизация процесса предобработки информации в системах кластеризации высокоразмерных данных // Radioelektronika, informatika, управлiння. 2014. № 2. С. 135–142.

2.     Li H., Zhang K., Jiang T. Minimum entropy clustering and applications to gene expression analysis. URL: https://www.ncbi. nlm.nih.gov/pubmed/16448008 (дата обращения: 30.03.2017).

3.     Santos J.M., Sa J.M., Alexandre L.A. LEGClust – a clustering algorithm based on layered entropic subgraphs. IEEE Transactions on pattern analysis and machine intelligence, 2008, vol. 30, no. 1, pp. 1–13.

4.     Smieja M., Nakoneczny S., Tabor J. Fast entropy clustering in sparse high dimensional binary data. URL: http://ww2.ii.uj.edu. pl/~smieja/publications/SEC.pdf (дата обращения: 30.03.2017).

5.     Singh B., Kushwaha N., Vyas O.P. A feature subset selection technique for high dimensional data using symmetric uncertainty. Jour. of Data Analysis and Information Processing, 2014, no. 2, pp. 95–105.

6.     Выбор компонентов (интеллектуальный анализ данных). URL: http://msdn.microsoft.com/ru-ru/library/ms175382 (d=printer).aspx (дата обращения: 30.03.2017).

7.     Zimmermann A. Objectively evaluating interestingness measures for frequent item set mining. URL: http://zimmermanna. users.greyc.fr/papers/international-workshops/pakdd2013objectively-evaluating.pdf (дата обращения: 30.03.2017).

8.     Sahar S. What is interesting: studies on interestingness in knowledge discovery. URL: http://www.cs.tau.acil/~mansour/students/SigalSaharPhD.pdf (дата обращения: 30.03.2017).

9.     Tew C., Giraud-Carrier C., Tanner K., Burton S. Behavior – based clustering and analysis of interestingness measures for association rule mining. URL: http://dml.cs.byu.edu/~cgc/docs/mldm_ tools/Slides/10.1--7_s10618-013-0326-x.pdf (дата обращения: 30.03.2017).

10.   Malik H.H., Kender J.R. Instance Driven Hierarchical Clustering of Document Collections. URL: http://www.ke.tu-darmstadt. de/events/LeGo-08/8.pdf (дата обращения: 30.03.2017).

11.   Эльцгольц Л.П. Дифференциальные уравнения и вариационное исчисление. М.: Наука, 1974. 432 с.

References

  1. Babichev S.A. Optimization of information preprocessing in clustering systems of high dimension data. Radio Electronics, Computer Science, Control. 2014, no. 2, pp. 135–142 (in Ukr.).
  2. Li H., Zhang K., Jiang T. Minimum entropy clustering and applications to gene expression analysis. Proc. Conf. Computational Systems Bioinformatics (CSB 2004). 2004, IEEE, pp. 142–151.
  3. Santos J.M., Sa J.M., Alexandre L.A. LEGClust – A clustering algorithm based on layered entropic subgraphs. IEEE Trans. on Pattern Analysis and Machine Intelligence. 2008, vol. 30, no. 1, pp. 1–13.
  4. Smieja M., Nakoneczny S., Tabor J. Fast entropy clustering in sparse high dimensional binary data. Available at: http://ww2.ii.uj.edu.pl/~smieja/publications/SEC.pdf (accessed March 30, 2017).
  5. Singh B., Kushwaha N., Vyas O.P. A feature subset selection technique for high dimensional data using symmetric uncertainty. Jour. of Data Analysis and Information Processing. 2014, no. 2, pp. 95–105.
  6. Vybor komponentov (intellektualny analiz dannykh) [Selecting Components (Data Mining)]. Available at: http://msdn.microsoft.com/ru-ru/library/ms175382(d=printer).aspx (accessed March 30, 2017).
  7. Zimmermann A. Objectively evaluating interestingness measures for frequent item set mining. Proc. Pacific-Asia Conf. Knowledge Discovery and Data Mining, 2013, pp. 354–366.
  8. Sahar S. What is interesting: studies on interestingness in knowledge discovery. PhD Thesis, Tel-Aviv Univ., 181 p.
  9. Tew C., Giraud-Carrier C., Tanner K., Burton S. Behavior – based clustering and analysis of interestingness measures for association rule mining. Jour. of Data Min. Knowl. Disc., 2014, vol. 28, no. 4, pp. 1004–1045.
  10. Malik H.H., Kender J.R. Instance driven hierarchical clustering of document collections. Proc. Conf. Local Patterns to Global Models (ECML/PKDD-08), 2008.
  11. Eltsgolts L.P. Differential Equations and Variational Calculus. Moscow, Nauka Publ., 1974, 432 p. (in Russ.).

Постоянный адрес статьи:
http://swsys.ru/index.php?id=4360&like=1&page=article
Статья в формате PDF
Выпуск в формате PDF (29.80Мб)
Статья опубликована в выпуске журнала № 4 за 2017 год. [ на стр. 643-646 ]

Возможно, Вас заинтересуют следующие статьи схожих тематик: