На правах рекламы:
ISSN 0236-235X (P)
ISSN 2311-2735 (E)

Авторитетность издания

ВАК - К1
RSCI, ядро РИНЦ

Добавить в закладки

Следующий номер на сайте

2
Ожидается:
16 Июня 2024

Статьи журнала №4 2017

11. Оптимальная энтропийная кластеризация в информационных системах [№4 за 2017 год]
Авторы: Аскерова Б.Г. (Bahar287@mail.ru) - Азербайджанский государственный университет нефти и промышленности (доцент), кандидат технических наук;
Аннотация: В данной работе исследована возможность разработки нового метода кластеризации данных в информационных системах. Кластеризация – это процесс нахождения возможных групп в заданном множестве с учетом признаков схожести или различия элементов этого множества. Существующий метод энтропийной кластеризации представляет собой информационно-теоретический подход к задаче кластеризации. В статье предлагается метод оптимальной энтропийной кластеризации высокоразмерных данных в информационных системах, который базируется на энтропийном подходе к выбору состояния элементов сообщений. Дано его математическое обоснование. Разработанный метод оптимальной энтропийной кластеризации базируется на известном принципе «малая величина энтропии соответствует большому количеству информационного содержания» и позволяет формировать режим не только оптимальной кластеризации, но и сокращения признакового пространства. Предложены методики вычисления степени оптимальности проведенной кластеризации, а также сокращения признакового пространства высокоразмерных данных при их первичной обработке.
Abstract: The paper researches the possibility of developing a new method for data clustering in information systems. Clustering is a process of searching possible groups in a given set using signs of similarity or difference between elements of this set. The existing entropy clustering method includes an information theoretic approach to a clustering task. The paper suggests a clustering method based on an entropy approach to selecting message items. The paper suggests a method of optimum entropy clustering of high-dimensional data in information systems. It also gives mathematical grounding of the method. The suggested method of optimum entropy clustering is based on the known principle “low entropy corresponds to big information content”. This make it possible to form an optimum clustering regime, as well as an attribute space reduction regime. The paper proposes a method for calculating a level of clustering optimality. It also describes a method for reducting attribute space of high-dimensional data upon their initial processing.
Ключевые слова: энтропия, информационные системы, высокоразмерные данные, оптимизация, кластеризация
Keywords: entropy, information systems, high-dimensional data, optimisation, clusterization
Просмотров: 8520

12. Оценка состояния безопасности интернет-сайтов как плохо формализуемых объектов на основе методов нечеткой логики [№4 за 2017 год]
Авторы: Дим Д.Т. (dim.dike@yahoo.com) - Тверской государственный технический университет (аспирант); Богатиков В.Н. (VNBGTK@mail.ru) - Тверской государственный технический университет (профессор), доктор технических наук; Клюшин А.Ю. (klalex@inbox.ru) - Тверской государственный технический университет (доцент), кандидат технических наук;
Аннотация: Статья посвящена анализу времени загрузки страницы, что является важным показателем для любого web-сайта. Как правило, сайты размещены на web-серверах с определенными характеристиками. Они взаимодействуют с окружающей средой, которая в большей части агрессивна и неопределенна (внешние угрозы, такие как проникновение, отказ в обслуживании, внедрение кода в язык структурированных запросов SQL и т.д.). Нужно отметить, что существуют и неопределенности, порождаемые аппаратным и программным обеспечением. Любой сайт может быть подвержен влиянию внешнего окружения и различных подсистем обслуживания функций web-сайтов, что приводит к возникновению нештатных ситуаций и порождает неопределенность его работы. Степень неопределенности практически не всегда можно оценить только на основании статистического материала. Это приводит к увеличению количества методов и средств интеллектуализации выполнения оценок на основе методов искусственного интеллекта, в частности, методов, построенных на применении нечетких оценок.
Abstract: The article analyzes page load time, which is an important indicator for any website. Websites are typically hosted on web servers with certain characteristics. These websites interact with the environment, which is mostly aggressive and undefined (external threats, such as penetration, service denial, SQL code injection, etc.). It should be noted that there are uncertainties caused by hardware and software, which arise due to the reliability properties of software and hardware products. Thus, any website can be influenced by external factors and various subsystems serving website functions, which leads to abnormal situations and website operation uncertainty. The degree of uncertainty is not always practically feasible to estimate only based on statistical material. This leads to increasing the number of methods and means for intellectualizing the performance of estimations based on artificial intelligence methods, particularly fuzzy estimate methods.
Ключевые слова: метрики, анализ и особенности web-сайта, нечеткая логика, методы системного анализа, принятие решений, интеллектуальная система
Keywords: metrics, website analysis and characteristics, fuzzy logic, system analysis methods, decision making, intellectual system
Просмотров: 8422

13. Analysis of website security status based on performance metrics [№4 за 2017 год]
Авторы: Дим Д.Т. (dim.dike@yahoo.com) - Тверской государственный технический университет (аспирант); Богатиков В.Н. (VNBGTK@mail.ru) - Тверской государственный технический университет (профессор), доктор технических наук;
Abstract: The paper is relevant due to the constant evolution of Internet infrastructure including conditions for optimal operation of web systems, information sources, e-commerce and various types of services. During the past twenty years, general information in the World Wide Web (WWW) and the number of users has increaseв almost two hundredfold. With this growth, requirements for technology has become even more critical. However, current research is more about a commercial aspect then the technical one. The paper pays special attention to assessing website performance quality regarding information technology indicators. It also considers a fuzzy Markov chain to define specific website productivity states.
Аннотация: Актуальность работы заключается в анализе современных трендов развития web-сайтов и интернет-инфраструктуры, а также в отражении условий для оптимальной работы систем, представляющих информацию, выполняющих функции электронной коммерции и предоставляющих различные виды услуг. В последние два десятилетия общая информация во всемирной паутине WWW и количество пользователей увеличились почти в двести раз. С их ростом требования к технике стали еще критичнее, но оценке с коммерческой точкой зрения уделяется больше внимания, чем с технической. В работе особое внимание уделяется оценке качества работы web-сайтов с точки зрения информационно-технологических показателей, рассмотрена нечеткая цепь Маркова с выделением конкретных состояний производительности web-сайтов.
Keywords: цепь маркова, тестирование веб-сайта, анализ сайта, метрики, web-сайта
Ключевые слова: markov chain, website testing, website analysis, metrics, website
Просмотров: 4314

14. Использование концепт-карт для автоматизированного создания продукционных баз знаний [№4 за 2017 год]
Авторы: Дородных Н.О. (tualatin32@mail.ru) - Институт динамики систем и теории управления СО РАН (младший научный сотрудник), кандидат технических наук; Юрин А.Ю. (iskander@irk.ru) - Институт динамики систем и теории управления СО РАН, г. Иркутск (доцент, зав. лабораторией), кандидат технических наук;
Аннотация: Актуальность использования концептуальных моделей в форме концепт-карт для автоматизированного формирования баз знаний интеллектуальных систем обусловливает необходимость разработки специализированного алгоритмического и программного обеспечения. В данной работе рассмотрен подход, обеспечивающий прототипирование баз знаний экспертных систем продукционного типа на основе анализа концепт-карт IHMC CmapTools. Подход основан на выделении исходных структурных элементов концепт-карт из файлов формата Concept Mapping Extensible Language (CXL) и на их преобразовании в конструкции целевого языка программирования баз знаний, в частности, C Language Production System (CLIPS). Приведены описание основных этапов подхода, анализируемых конструкций CXL (в частности, concept-list, linking-phrase-list, connection-list), а также иллюстративный пример преобразований. Особенностью предлагаемого подхода является использование онтологической модели в качестве универсальной промежуточной формы представления знаний, полученных из концепт-карт, не зависящей от языка программирования баз знаний, и авторской графической нотации – Rule Visual Modeling Language (RVML), обеспечивающей наглядное отображение и уточнение причинно-следственных отношений в виде логических правил (продукций). Рассмотренное алгоритмическое обеспечение реализовано в составе исследовательского прототипа программного средства Personal Knowledge Based Designer (PKBD), которое в настоящий момент используется в учебном процессе в Иркутском национальном исследовательском техническом университете.
Abstract: Using conceptual models in the form of concept maps for engineering rule-based knowledge bases of intelligent systems remains relevant. This relevance demands the development of specialized algorithmic and software. This paper considers an approach to prototyping of rule-based knowledge bases of expert systems based on analysis of IHMC CmapTools concept maps. The approach is based on the extracting structural elements of concept maps from the CXL files (Concept Mapping Extensible Language) and their transformation to the elements of a programming language, in particular, the C Language Production System (CLIPS). The paper describes the main stages of the approach, analyzed constructions of CXL files (in particular, concept-list, linking-phrase-list, connection-list). It also presents an illustrative example of transformations. A distinctive feature of the proposed approach is using an ontological model as a universal intermediate form of knowledge rep-resentation derived from concept maps, which is independent to the knowledge base programming language. Another feature is the author’s graphic notation – Rule Visual Modeling Language (RVML) that provides visualization and modification of cause-effect re-lations as logical rules. The considered algorithms are implemented as a part of a software research prototype called the Personal Knowledge Based De-signer (PKBD). Currently, it is used in the educational process at the Irkutsk National Research Technical University (INRTU) in “CASE-tools” and “Sowtware tools of information systems” courses.
Ключевые слова: ihmc cmaptools, база знаний, концепт-карта, онтология, правила, преобразования, генерация кода, clips, rvml, получение знаний
Keywords: ihmc cmaptools, knowledge base, concept map, ontology, rules, transformations, code generation, CLIPS, rvml, knowledge acquisition
Просмотров: 11869

15. Программный комплекс для управления распределенной базой данных [№4 за 2017 год]
Автор: Тимофеева Н.Е. (timofeevane@yandex.ru) - Саратовский национальный исследовательский государственный университет им. Н.Г. Чернышевского (зав. лабораторией); Полулях К.А. (krismail95@gmail.com) - Саратовский национальный исследовательский государственный университет им. Н.Г. Чернышевского (лаборант);
Аннотация: Предлагается программное решение для управления и тестирования распределенной БД, позволяющее сделать распределенность БД прозрачной для пользователя. В статье освещаются основные теоретические аспекты распределенного хранения данных, а именно такие понятия, как распределенная БД, однородная и неоднородная распределенная БД, фрагментация таблиц, основные критерии распределенности БД, клиент-серверная технология проектирования распределенной БД. Проводится анализ тестов быстродействия и надежности БД. Даются критерии оценки производительности СУБД, влияющие на скорость обработки данных и их алгоритмические решения. Актуальность представленной темы обусловлена отсутствием необходимых тестов для тестирования производительности СУБД, а также универсального программного комплекса для проектирования распределенной БД. В статье описаны схема и структуры серверной и клиентской частей приложения программного комплекса. Разработан программный комплекс для управления и тестирования распределенной БД, который позволяет управлять однородной реляционной распределенной БД. Особенностями приложения являются возможность тестирования СУБД во всех узлах сети, которые принимают участие в создании распределенной БД, а также возможность включения любых других СУБД с помощью минимального добавления функционала в программный комплекс.
Abstract: The paper considers a software solution to manage and test a distributed database, which also allows making the database distribution transparent to the user. The authors highlight the main theoretical aspects of distributed data storage, namely such concepts as a distributed database, a homogeneous and heterogeneous distributed database, table fragmentation, main criteria of database distribution, a client-server technology of distributed database design. The paper analyzes database test performance and reliability. It also gives database management system performance evaluation criteria that affect data processing speed and algorithmic solutions. The presented topic is relevant due to the lack of necessary tests for testing database management system performance, as well as the lack of a universal software package for distributed database design. The article describes the scheme and structure of server and client parts of the application software package. The authors have developed a software package for managing and testing a distributed database, which allows managing a homogeneous relational distributed database. The features of the application are the ability to test the database management system in all network nodes that participate in the creation of a distributed database, as well as the ability to include any other database management systems using a minimal addition of functionality to the software package.
Ключевые слова: субд, серверная часть, клиентская часть, тестирование системы управления бд, тестирование распределенной бд, программный комплекс, однородная распределенная бд, распределенная бд
Keywords: DBMS, server side, client side, testing dbms, testing distributed database, software package, homogeneous distributed database, distributed database
Просмотров: 10243

16. Программный комплекс анализа неэквидистантных временных рядов на основе непрерывного вейвлет-преобразования [№4 за 2017 год]
Авторы: Прохоров С.А. (sp.prokhorov@gmail.com) - Самарский государственный аэрокосмический университет им. С.П. Королева (национальный исследовательский университет) (профессор, зав. кафедрой), доктор технических наук; Столбова А.А. (anastasiya.stolbova@bk.ru) - Самарский национальный исследовательский университет им. академика С.П. Королева (ассистент);
Аннотация: На практике исследователю часто приходится иметь дело с неэквидистантными (нерегулярными) временными рядами. В данной статье рассматриваются алгоритмы их непрерывного вейвлет-преобразования, которое является одним из методов частотно-временного анализа данных. Предлагается алгоритм для получения массива регулярных сдвигов преобразования, учитывающий нерегулярность исходных данных: выбирается интервал принудительной дискретизации, определяется число сдвигов и вычисляются их значения. На основе предложенного алгоритма разработан алгоритм непрерывного вейвлет-преобразования неэквидистантных временных рядов. В процессе вычисления оценки коэффициентов преобразования учитываются лишь те отсчеты временного ряда, которые попадают в ширину вейвлета. Преимуществом данного алгоритма является то, что результат преобразования носит регулярный характер. Разработанные алгоритмы реализованы в комплексе программ. Показаны результаты экспериментов для моделей неэквидистантных временных рядов с p-преобразованием и с дрожанием (с распределением случайной величины по равномерному закону и закону Симпсона). Быстродействие алгоритма повышается за счет учета эффективного радиуса базового вейвлета и вычисления его ширины.
Abstract: Wavelet transformation is one of the methods of data time-frequency analysis. In practice, the researcher often has to analyse nonequidistant (uneven) time series. For this reason, the paper considers algorithms for their continuous wavelet transformation. The authors propose an algorithm for obtaining an array of transformation even shifts, taking into account uneven source date. It means that they choose the interval of involuntary discretization, determine the number of shifts and then calculate their value. The proposed algorithm is the base for an algorithm of continuous wavelet transformation of nonequidistant time series. The process of estimating transformation coefficients uses only samples of time series that are in the width of a wavelet. The advantage of thу proposed algorithm is that the result of the transformation is an even representation. The developed algorithms are used in a complex of programs. The paper shows the results of experiments for models of nonuniform time series with p-transformation and with “jitter” (with uniform distribution and triangular distribution). The velocity of the algorithm can be increased by taking into account the effective radius of the mother wavelet and calculating its width.
Ключевые слова: эффективный радиус, неэквидистантные временные ряды, непрерывное вейвлет-преобразование
Keywords: effective radius, nonuniform time series, continuous wavelet transformation
Просмотров: 7440

17. Методы и средства построения алгоритмов логического управления по графическим моделям [№4 за 2017 год]
Автор: Парамонов А.В. (paramonov-andrew@rambler.ru) - Машиностроительный концерн «ОРМЕТО-ЮУМЗ» (ведущий инженер-программист);
Аннотация: В статье рассматриваются проблемы, возникающие при составлении алгоритмов управления в автоматизированных системах управления технологическими процессами на базе программируемых логических контроллеров, а именно алгоритмов логического управления. Такие алгоритмы реализуются, например, в системах управления электроприводом верхнего уровня. Процесс составления алгоритмов будем называть алгоритмизацией. Одной из основных проблем алгоритмизации задач логического управления является отсутствие визуальных, интуитивно понятных форм представления алгоритмов, не требующих от пользователя знаний сверх его компетенции. Под пользователем алгоритма здесь подразумеваются и программист, и эксперт в предметной области. В случае программиста знаниями сверх компетенции являются знания о предметной области, а в случае эксперта – знания о формальных теориях, лежащих в основе форм представления алгоритмов, навыки корректной постановки задачи управления. Целью данного исследования является повышение уровня абстракции процессов алгоритмизации задач логического управления. Для достижения поставленной цели в статье предлагаются графические модели автоматизированных технологических установок как средство алгоритмизации указанных задач, формализуется понятие алгоритма логического управления применительно к графическим моделям, дается детальное описание методов получения по графическим моделям алгоритмов логического управления в форме таблиц решений с ограниченными входами и в форме таблиц, реализующих автоматы Мура. Приводится описание специализированной среды разработки графических моделей и алгоритмов логического управления Logic Algorithm Designer. Описываются интерфейс программы, основные функциональные возможности, принципы работы программы. Приводятся примеры алгоритма логического управления и программного кода функционального блока МЭК 61131-3, генерируемого автоматически из алгоритма. Предложенные в статье методы и средства алгоритмизации позволяют улучшить связь разработчика программ с экспертами предметной области, сохраняя при этом высокое качество этих программ, обеспечивая их полноту и непротиворечивость. Использование предложенных методов и средств позволяет снизить затраты времени на разработку за счет автоматического получения кода и значительно более детальной проработки алгоритма управления.
Abstract: The paper discusses the problems of designing algorithms in automated control systems based on programmable logic controllers, in particular logic control algorithms. For example, these algorithms are implemented at the upper level of drive control systems. The algorithm designing process is called algorithmization. One of the main problems of algorith-mization of logic control tasks is a lack of visual, intuitive forms of algorithms, which do not require specific knowledge from a user. Here a user of an algorithm is both a programmer and an expert in the domain. In the case of a programmer, extra knowledge is problem area knowledge, in the case of an expert extra knowledge is knowledge about the formal theories behind algorithm representation forms and the skills of correct setting of a control problem. The aim of this research is increasing the abstraction level of logic control tasks design processes. To achieve this goal, the paper describes graphic models of automated processing stations as a tool for algorithmization of logic control tasks. It also formalizes the concept of a logic control algorithm in the context of graphic models and gives a detailed explanation of methods for obtaining logic control algorithms using graphic models in the form of the limited-entry decision tables and Moore automatic machine tables. The paper considers specialized environment for developing graphic models and logic control algorithms called Logic Algorithm Designer. It also describes the program interface, the main functionality and working principles. There are the examples of a logic control algorithm and the program code of IEC 61131-3 function block generated automatically from the algorithm. The proposed methods and tools of algorithmization allow improving the connection between a program developer and domain experts while maintaining high quality of these programs, ensuring their completeness and consistency. They also make it possible to reduce the development time due to automatic code generation and a much more detailed elaboration of a control algorithm.
Ключевые слова: предметно-ориентированное проектирование, графическая модель, алгоритм логического управления, программируемый логический контроллер, автоматизация программирования
Keywords: domain-driven design, graphical model, logic control algorithm, programmable logic controller, automation of programming
Просмотров: 7145

18. Способы представления текстовой информации при автоматизированном рубрицировании коротких текстовых документов [№4 за 2017 год]
Автор: Козлов П.Ю. (originaldod@gmail.com) - Смоленский филиал Национального исследовательского университета МЭИ (аспирант);
Аннотация: Электронные сообщения граждан (жалобы, обращения, предложения и т.д.) с точки зрения возможности их автоматизированной обработки обладают рядом специфических особенностей: в значительной части случаев небольшой объем документа, что затрудняет его статистический анализ; отсутствие структуризации, что усложняет процедуры извлечения информации; наличие большого количества грамматических и синтаксических ошибок, что обусловливает необходимость реализации нескольких дополнительных этапов обработки; нестационарность тезауруса (состава и важности слов), зависящего от выхода новых нормативных документов, выступлений должностных лиц и политических деятелей и т.д., что вызывает необходимость использования процедур динамической классификации рубрик. В статье описываются этапы автоматизированного анализа и методы формализации текстовых документов. Предлагается метод рубрицирования, который использует результаты морфологического и синтаксического этапов с модифицированной лингвистической разметкой текстовых документов. В качестве синтаксического парcера рассматриваются современные программные продукты MaltParser и LinkGrammar, которые строят деревья зависимостей для всех предложений в документе. Приводятся стандартные лингвистические разметки MaltParser и LinkGrammar применительно к коротким текстовым документам, а также модификация разметки LinkGrammar для использования их рубрицирования. В процессе использования известных программных продуктов для проведения дополнительных этапов анализа придется столкнуться с проблемой разнообразия лингвистических разметок. Например, большинство синтаксических парсеров на выходе представляет каждое предложение текста в виде деревьев зависимостей, которые описывают лингвистической разметкой. Лингвистическую разметку для дальнейшей классификации и назначения весовых коэффициентов необходимо модифицировать, тем самым увеличивая размерность метрики. Описывается разработанный метод рубрицирования, который учитывает экспертную оценку важности слов для каждой рубрики, а также синтаксическую роль слов в предложениях. Приведена диаграмма процесса автоматизированного рубрицирования жалоб и предложений в разработанной системе анализа. Описан эксперимент, который подтверждает целесообразность использования синтаксических парсеров в подобных системах, что приводит к увеличению точности рубрицирования. Даны рекомендации по улучшению точности разработанного метода и использованию аппарата теории нечетких множеств и методов когнитивного моделирования для разрешения проблемы нестационарности тезауруса систем, которые зависят от выхода нормативных документов и выступлений должностных лиц.
Abstract: The paper shows that citizens’ electronic messages (complaints, appeals, proposals, etc.) in terms of the possibility of their automated processing have a number of specific features. They are: usually a small document capacity, which makes it difficult to analyze it statistically, a lack of structuring, which complicates extracting information, a big number of grammatical and syntactic errors that lead to implementing several additional processing steps, thesaurus non-stationarity (composition and importance of words), which depends on the issuance of new normative documents, officials’ and politicians’ speeches, etc. All this leads to the necessity of using procedures for headings dynamic classification. The paper describes the stages of automated analysis and methods for formalizing text documents. It also proposes a developed rubrication method that uses the results of the morphological and syntactic stages with modified linguistic markup of text documents. The syntactic parser is MaltParser or LinkGrammar software that build dependency trees for all sentences in a document. The paper shows standard linguistic markings of MaltParser and LinkGrammar applied to short text documents, as well as a modification of the LinkGrammar markup to use for rubrication. Using known software for additional stages of analysis shows the problem of the diversity of linguistic markings. For example, most of the syntactic parsers at the output represent each sentence as dependency trees, which are described by linguistic markup. For further classification and assignment of weighting factors, linguistic markup should be modified, so it will increase the dimension of the metric. The developed method of rubrication takes into account the expert evaluation of the importance of words for each rubric, as well as the syntactic role of words in sentences. The paper shows a diagram of the process of automated rubrication of complaints and proposals in the developed analysis system. It also describes an experiment that confirms the expediency of using syntactic parsers in such systems, which leads to increasing accuracy of rubrication. There are recommendations to improve the accuracy of the developed method and use the theory of fuzzy sets and methods of cognitive modeling in order to solve the problem of thesaurus nonstationarity in the systems that depend on the issue of normative documents and officials’ speeches.
Ключевые слова: методы формализации текстовых документов., динамичный тезаурус, автоматизированный анализ текстов
Keywords: methods for formalizing text documents, dynamic thesaurus, analysis automated analysis of texts
Просмотров: 9006

19. О задаче ретроконверсии неформатных документов в системах формирования и предоставления цифрового контента [№4 за 2017 год]
Авторы: Сотников А.Н. (asotnikov@iscc.ru) - Федеральный исследовательский центр «Информатика и управление» РАН, ул. Вавилова, 44-2, г. Москва, 119333, Россия (главный научный сотрудник), доктор физико-математических наук; Чередниченко И.Н. (inch@jscc.ru) - Межведомственный суперкомпьютерный центр РАН, кандидат технических наук;
Аннотация: Рассматривается математическое обоснование решения задачи ретроконверсии (восстановления) сканированных неформатных документов применительно к задаче наполнения и публикации цифровых фондов электронных библиотек. Рассмотрены алгоритмы автоматической кластеризации и формирования автоадаптивных шрифтов, используемые для ретроконверсии документов. В качестве механизма работы с кластеризуемыми объектами используется классический подход для формирования вектора признаков на основе модели алгоритма вычисления оценок, описывающего каждый рассматриваемый объект. Алгоритм автоматической кластеризации построен на основе статистического подхода к формированию характеристических векторов каждого кластера и к динамическому построению разделяющих гиперплоскостей. В связи со спецификой решаемых задач используется контурный подход к обработке графических объектов, который позволяет применить методы частотного анализа на основе преобразования Фурье. Представлены оценки необходимой и достаточной размерности вектора признаков, используемого как для описания графических объектов, так и для их восстановления с минимальными искажениями в результате формирования выходных документов, полученных при выполнении ретроконверсии. Приведены возможные перспективы развития описанного метода ретроконверсии неформатных документов в области организации контекстного поиска внутри графических документов.
Abstract: The paper considers mathematical reasoning of solving the problem of scanned non-format documents retro-conversion (documents recovery), as applied to the task of filling and publishing collections of digital libraries. It also describes the algorithms of automatic clustering and forming auto-adaptive fonts for documents retro-conversion. As a mechanism for working with clustered objects, the authors use a classical approach to form a feature vector based on the estimates calculating algorithm model that describes each object under consideration. The algorithm for automatic clustering is based on a statistical approach to forming characteristic vectors of each cluster and to the dynamic correction of separating hyperplanes. Due to the specifics of the tasks being solved, the authors use a contour approach to graphic objects processing, which allows applying frequency analysis methods based on the Fourier transform. The paper presents estimates of the necessary and sufficient dimension of a feature vector used both for describing graphic objects and for their recovery with minimal distortion after generating output documents during a retro-conversion procedure. Finally, the article shows possible prospects for development of the described method of non-format documents retro-conversion in the field of organization of contextual search within graphic documents.
Ключевые слова: электронная библиотека, автоматическая кластеризация, неформатные документы, автоадаптивные шрифты, ретроконверсия
Keywords: electronic libraries, automatic clustering, non-format documents, auto-adaptive fonts, retro-conversion
Просмотров: 6482

20. Методический подход к формированию функциональных требований к системе защиты от компьютерных атак для автоматизированных систем управления и его программная реализация [№4 за 2017 год]
Авторы: Дроботун Е.Б. (drobotun@xakep.ru) - Военная академия воздушно-космической обороны им. Маршала Советского Союза Г.К. Жукова (докторант), кандидат технических наук;
Аннотация: Одной из основных стадий разработки и построения автоматизированных систем управления различного назначения в защищенном исполнении является формирование функциональных требований к разрабатываемой автоматизированной системе, в том числе и функциональных требований к защите автоматизированной системы от компьютерных атак и других видов информационно-технического воздействия. Оптимально сформированные и обоснованные функциональные требования к системе защиты от компьютерных атак позволят, с одной стороны, обеспечить необходимый уровень защиты автоматизированной системы, а с другой – минимизировать потребление вычислительных и человеческих ресурсов защищаемой автоматизированной системы, объем которых в любой автоматизированной системе ограничен и конечен. Одним из возможных путей формирования и обоснования оптимальных функциональных требований к системе защиты от компьютерных атак является применение риск-ориентированного подхода к формированию и обоснованию этих требований, который заключается в выявлении степени опасности и вероятности проявления возможных угроз безопасности в отношении защищаемой автоматизированной системы. В статье предлагается методический подход к формированию функциональных требований к системам защиты от компьютерных атак для автоматизированных систем управления, основанный на оценке риска угроз безопасности информации в автоматизированной системе и угроз ее безопасного функционирования. Применение предложенного методического подхода позволит сформировать оптимальные функциональные требования к системе защиты от компьютерных атак для автоматизированных систем управления различного назначения, реализация которых дает возможность достичь оптимального распределения ресурсов автоматизированной системы для обеспечения функционирования системы защиты от компьютерных атак.
Abstract: One of the main stages of development and building of secured automated control systems for various purposes is the stage of forming requirements for the developed automated system including security requirements against computer attacks and other information technology impact. Effectively developed and reasonable functional requirements for a computer attacks protection system will allow on the one hand providing the necessary level of automated system protection, on the other hand minimizing consumption of computing and human resources of the protected automated system, the amount of which is limited and finite in any automated system. One of the possible ways to form and prove optimal functional requirements for a computer attacks protection system is using a risk-oriented approach to forming and reasoning of these requirements. The approach includes identifying the severity and probability of possible security threats against the protected automated system. The article offers a methodical approach to formation of functional requirements for computer attacks protection systems for automated control systems. It is based on a risk assessment of information security threats in the automated system and its safe operation threats. The application of the proposed approach will allow forming optimal functional requirements for a computer attacks protection system for automated control systems for various purposes. It will help to achieve optimal resource allocation in an automated system to ensure functioning of the computer attacks protection system.
Ключевые слова: анализ риска, функциональные требования, компьютерная атака, угроза безопасности автоматизированной системы, автоматизированная система
Keywords: risk analysis, functional requirements, computer attack, automated system security threat, an automated system issue
Просмотров: 6688

← Предыдущая | 1 | 2 | 3 | 4 | Следующая →