На правах рекламы:
www.play-name.com
ISSN 0236-235X (P)
ISSN 2311-2735 (E)

Публикационная активность

(сведения по итогам 2021 г.)
2-летний импакт-фактор РИНЦ: 0,441
2-летний импакт-фактор РИНЦ без самоцитирования: 0,408
Двухлетний импакт-фактор РИНЦ с учетом цитирования из всех
источников: 0,704
5-летний импакт-фактор РИНЦ: 0,417
5-летний импакт-фактор РИНЦ без самоцитирования: 0,382
Суммарное число цитирований журнала в РИНЦ: 9837
Пятилетний индекс Херфиндаля по цитирующим журналам: 149
Индекс Херфиндаля по организациям авторов: 384
Десятилетний индекс Хирша: 71
Место в общем рейтинге SCIENCE INDEX за 2021 год: 196
Место в рейтинге SCIENCE INDEX за 2021 год по тематике "Автоматика. Вычислительная техника": 4
Место в рейтинге SCIENCE INDEX за 2021 год по тематике "Кибернетика" 2

Больше данных по публикационной активности нашего журнале за 2008-2021 гг. на сайте РИНЦ

Добавить в закладки

Следующий номер на сайте

1
Ожидается:
19 Марта 2023

Статьи журнала №4 2022

1. Организационные проблемы реализации гибких подходов  в разработке прикладного программного обеспечения [№4 за 2022 год]
Авторы: Саяпин О.В. (tow65@yandex.ru) - 27 Центральный научно-исследовательский институт Минобороны России (доцент, ведущий научный сотрудник), доктор технических наук; Тиханычев О.В. (tow65@yandex.ru) - 27 Центральный научно-исследовательский институт Минобороны России (старший научный сотрудник), кандидат технических наук; Безвесильная А.А. (a.bezvesilnaia@amchs.ru) - Академия гражданской защиты МЧС России (зав. кафедрой), кандидат педагогических наук;
Аннотация: В статье рассмотрены особенности каскадных и гибких подходов к организации разработки прикладного программного обеспечения автоматизированных систем управления, выявлены их положительные стороны и недостатки. Особенно критичными из недостатков представляются увеличение сроков разработки и слабое взаимодействие между заказчиком и разработчиком при использовании каскадного подхода. В то же время существующими нормативными документами именно такой под-ход определяется как основной. С использованием общенаучных методов анализа и синтеза обеспечено получение количественных и качественных оценок по времени и ожидаемому результату применения при разработке ПО каскадного и гибкого подходов. По результатам сравнения полученных оценок сформирован вывод о том, что рациональным решением может служить замена каскадного подхода на гибкий. В то же время, как показал анализ нормативно-технической документации, применению при разработке прикладных программ гибких подходов препятствуют имеющиеся организационные проблемы, связанные не только с требованиями нормативных документов, но и со сложностью координации работ, выполняемых распределенными коллективами исполнителей. По результатам анализа типового процесса разработки прикладного ПО автоматизированных систем управления авторами сформулированы предложения о возможных вариантах замены каскадных подходов на гибкие или комбинированные. Новизна предложенного подхода к организации разработки заключается в обеспечении гибкости реализации требований заказчика, а его внедрение позволит выстроить систему разработки, обеспечивающую повышение заинтересованности всех участников процесса в конечном результате и осуществляющую процесс непрерывного уточнения требований.
Abstract: The article analyzes and considers the features of cascade and flexible approaches to organizing applied software development for automated control systems, their positive aspects and disadvantages. The most critical shortcomings are the increase in development time and poor interaction between a customer and a developer when using the cascade approach. At the same time, the existing regulatory documents define this approach as the main one. The use of general scientific methods of analysis and synthesis provides obtaining quantitative and qual-itative estimates in terms of time and the expected result of using cascade and flexible approaches in soft-ware development. Based on the results of comparing the obtained estimates, the authors make a conclu-sion that a replacement of the cascade approach with a flexible one could be a rational solution. At the same time, the analysis of regulatory and technical documentation showed that the use of flexible ap-proaches in developing application programs is hindered by existing organizational problems associated not only with the regulatory requirements, but also with the complexity of coordinating the work performed by distributed teams of performers. Based on the results of the analysis of a typical process of developing ap-plication software for automated control systems, the authors formulate proposals on possible options for replacing cascade approaches with flexible or combined ones. The novelty of the proposed approach is in its complexity. Its implementation will allow building a de-velopment system that will increase the interest of all participants in the process as a result and implement this system through a process of continuous specification of requirements.
Ключевые слова: организационные проблемы, поддержка принятия решений, гибкая методология разработки, разработка программного обеспечения, автоматизация управления
Keywords: organizational development problems, decision support, agile, software development, control automation
Просмотров: 484

2. Развитие системы «Экспертиза» как инструмента для формирования энциклопедий и наполнения Единого цифрового пространства научных знаний [№4 за 2022 год]
Авторы: Власова С.А. (svlasova@jscc.ru) - Межведомственный суперкомпьютерный центр (МСЦ) РАН – филиал ФГУ ФНЦ Научно-исследовательский институт системных исследований (НИИСИ) РАН (ведущий научный сотрудник), кандидат технических наук; Калёнов Н.Е. (nkalenov@jscc.ru) - Межведомственный суперкомпьютерный центр (МСЦ) РАН – филиал ФГУ ФНЦ Научно-исследовательский институт системных исследований (НИИСИ) РАН (профессор, главный научный сотрудник), доктор технических наук; Сотников А.Н. (asotnikov@iscc.ru) - Федеральный исследовательский центр «Информатика и управление» РАН, ул. Вавилова, 44-2, г. Москва, 119333, Россия (главный научный сотрудник), доктор физико-математических наук;
Аннотация: В статье отражены результаты работ по развитию универсальной настраиваемой web-ориентированной системы экспертизы, предназначенной для выделения из множества объектов тех, которые в максимальной степени отвечают заданным критериям. Оценку каждого объекта осуществляют авторизованные эксперты, которые подбираются на основе характеризующих их структурированных данных, введенных в систему при регистрации эксперта. Система может быть использована для экспертного отбора любых объектов, свойства которых представлены в цифровой форме, а сформулированные критерии оценки определяются этими свойствами. Задача экспертного отбора объектов различного рода является одной из важнейших при формировании контента Единого цифрового пространства научных знаний (ЕЦПНЗ). В основе концепции включения печатных материалов в ЕЦПНЗ лежит принцип точечного отражения (но с глубокой смысловой разметкой текста) наиболее важных фундаментальных изданий в каждой научной области. Отбор таких изданий должен базироваться на экспертном мнении ведущих специалистов в данной области знаний. Принцип экспертного отбора необходимо использовать и при решении вопроса о создании 3D-моделей музейных объектов, а также отражении в ЕЦПНЗ кино-, фото- и аудиоматериалов. Система «Экспертиза» может быть использована для отбора изданий, подлежащих включению в Национальную электронную библиотеку, для отбора авторов статей для Большой российской энциклопедии, для рецензирования статей, поступающих в редакции научных журналов, для проведения конкурсов научных работ, фотографий, видеоматериалов и других объектов, оцениваемые свойства которых могут быть представлены в Интернет. Новая версия системы, представленная в данной статье, по сравнению с предыдущей (2020 г.) обладает более гибким инструментарием настройки – она может быть настроена на экспертизу раз-личных групп (совокупностей) объектов. Объекты каждой совокупности оцениваются по своим критериям своей системой оценок. Под совокупностью можно понимать опубликованные в разные годы фундаментальные монографии, относящиеся к одному научному направлению; статьи, предлагаемые для публикации в определенном журнале; группу специалистов, выразивших желание выступить в качестве авторов заказных научных статей; БД, отражающие объекты одного вида, и т.п. Для каждой совокупности настраивается своя система оценок объектов и существует свой круг экспертов. Результатом работы системы являются различные рейтинговые списки объектов, построенные на основе обработки экспертных оценок. В систему также встроен специальный аппарат, позволяющий пользователю со статусом «администратор» анализировать рейтинговые списки и активность экспертов. В статье дано подробное описание структуры системы, ее функциональности, приводятся примеры использования.
Abstract: The article reflects the results of work on the development of a universal customizable WEB-based expert system designed to distinguish from a variety of objects those that meet the specified criteria to the maxi-mum extent. Authorized experts, who are selected based on structured data characterizing them, which are entered into the system when registering an expert, assess each object. The system can be used for expert selection of any objects whose properties are presented in digital form, and the formulated assessment criteria are determined by these properties. The task of expert selection of objects of various kinds is one of the most important in the formation of the content of the Common digital space of scientific knowledge (CDSSK). The concept of including printed materials in CDSSK is based on the principle of point reflection (but with deep semantic text markup) of the most important fundamental publi-cations in each scientific field. The selection of such publications should be based on the expert opinion of leading experts in this field of knowledge. It is also necessary to use the principle of expert selection when deciding on the creation of 3D models of museum objects as well as reflections in the CDSSK of film, photo and audio materials. The Expertise sys-tem can be used for selecting publications to be included in the National Electronic Library (NEL); for select-ing authors of articles for the Great Russian Encyclopedia; for reviewing articles submitted to the editorial offices of scientific journals; for reviewing articles submitted to the editorial boards of scientific journals; for conducting contests of scientific papers, photographs, video materials and other objects, the evaluated prop-erties of which can be presented on the Internet. Compared to the previous version of the system, the description of which was published in 2020, the new version presented in this article has more flexible configuration tools. It can be configured to the expert re-view of various object groups. The objects of each group are assessed according to their own criteria using their own rating system. By group is meant fundamental monographs published in different years related to the same scientific field; articles proposed for publication in a particular journal; a group of specialists who have expressed a desire to act as authors of commissioned scientific articles, databases reflecting objects of the same type, etc. Each group has its own system of object assessment and own circle experts. The result of the system operation is various rating lists of objects based on processing expert assess-ments. The system also has a special built-in application that allows a user with the “administrator” status to analyze rating lists and the activity of experts. The article provides a detailed description of the system struc-ture, its functionality, and examples of its use.
Ключевые слова: конкурс, отбор информационных ресурсов, программное обеспечение, web-технология, рейтинговый список, экспертная оценка, цифровое пространство научных знаний
Keywords: content formation, selection of information resources, the software, WEB technologies, rating list, expert estimation, digital space of scientific knowledge
Просмотров: 437

3. Унификация модели представления данных и преобразование форматов на основе нереляционной СУБД Neo4j [№4 за 2022 год]
Авторы: Еремеев А.П. (eremeev@appmat.ru) - Национальный исследовательский университет «Московский энергетический институт» (профессор), доктор технических наук; Панявин Н.А. (paniavinna@mpei.com) - 1 Национальный исследовательский университет «Московский энергетический институт» (аспирант);
Аннотация: Реализация концепции цифровизации обусловила появление множества программных средств, в том числе использующих и методы искусственного интеллекта, обрабатывающие большие потоки данных различной степени сложности. Голосовые помощники, чат-боты, поисковые рекомендательные системы не только используют поступающие актуальные данные, но также хранят и анализируют изменения в этих данных, количество которых постоянно растет. В условиях опасности возникновения комбинаторного взрыва возникают задачи многомерного моделирования, эффективной обработки запросов и извлечения необходимой информации. В статье проводится анализ возможности повышения эффективности многомерного OLAP-моделирования и извлечения темпоральных данных на основе программных компонентов с применением нереляционной СУБД Neo4j. Выбор графовой СУБД основан на отсутствии необходимости строго фиксировать структуру данных на начальном этапе, а также на гибкости самой структуры представления данных, которая может меняться по мере поступления новой информации, в то время как внесение изменений в строгие, заранее фиксированные табличные представления в реляционных СУБД является достаточно дорогостоящей операцией. Классическим способом хранения темпоральных данных (временных моментов и интервалов) является хранение временных меток в качестве атрибутов узлов графа. В то же время данный вариант хранения и оперирования событиями может оказаться недостаточно эффективным в случае большой размерности представления данных. Экспериментальные результаты показали, что граф многомерного куба данных может быть спроецирован на оси координат в виде отдельных темпоральных срезов, где ось абсцисс будет отображать время начала события, а ось ординат время его окончания. Дополнительные оси при необходимости могут вводиться для определения причинно-следственной взаимосвязи процессов, параллельно происходящих во времени. При этом будут поддерживаться правила темпоральной логики Аллена. Рассматривается возможность унификации модели представления внутренней структуры данных различной сложности на основе графов.
Abstract: Nowadays, due to the digitalization concept, a lot of software tools have appeared, including those using ar-tificial intelligence methods that process large data streams (big data) of varying degrees of complexity. Voice assistants, chat bots, search recommender systems not only use incoming up-to-date data, but also store and analyze changes in this data, the number of which is constantly growing. Under the conditions of a combinatorial explosion hazard, the multidimensional modeling problems, the efficient requests processing, and the necessary information extraction arise. This article presents the analysis of the possibility of increasing the efficiency of multidimensional OLAP modeling and temporal data extraction based on built-in software components offered by the non-relational DBMS Neo4j. The choice of a graph DBMS is due to the absence of the need to strictly fix the da-ta structure at the initial stage, as well as on the flexibility of the data presentation structure itself, which can change as new information becomes available. Making changes to strict pre-fixed relational table views is an expensive operation. The typical way to store temporal data (time moments and intervals) is to store timestamps as node at-tributes. At the same time, this option for storing and handling events may not be effective enough in the case of a large dimension of the data representation. The experimental results have shown that the graph of a multidimensional data cube can be projected onto the coordinate axes in the form of separate temporal slices, where the abscissa axis displays the event start time, and the ordinate axis displays its end time. Additional axes, if necessary, can be introduced to de-termine the cause-effect relationship of processes occurring simultaneously in time. At the same time, the rules of Allen's temporal logic will be supported. The paper considers the possibility of unifying the representation model of the internal data structure of varying complexity based on graphs.
Ключевые слова: модель данных, анализ данных, представление данных, база данных
Keywords: Data Model, data analysis, data presentation, database
Просмотров: 565

4. Требования к программной реализации системы Индустрии 4.0 для создания сетевых предприятий [№4 за 2022 год]
Авторы: Тельнов Ю.Ф. (Telnov.YUF@rea.ru) - Российский экономический университет им. Г.В. Плеханова (профессор, зав. кафедрой), доктор экономических наук; Казаков В.А. (Kazakov.VA@rea.ru) - Российский экономический университет им. Г.В. Плеханова (доцент), кандидат экономических наук; Данилов А.В. (Danilov.AV@rea.ru) - Российский экономический университет им. Г.В. Плеханова (ст. преподаватель); Денисов А.А. (aadenisov88@gmail.com) - Московский государственный университет технологий и управления им. К.Г. Разумовского (Первый казачий университет) (аспирант);
Аннотация: В статье определяются требования к программной реализации систем Индустрии 4.0 (i4.0-систем) для создания сетевых предприятий на основе цифровых платформ с использованием многоагентной технологии взаимодействия i4.0-компонентов и онтологического подхода к построению общей концептуальной модели предметной области. В качестве метода исследования предлагается использовать метод декомпозиции i4.0-системы на платформенные программные сервисы и программные административные оболочки, связанные с управлением и функционированием ресурсов (активов) сетевого предприятия, – i4.0-компоненты. За основу построения архитектуры i4.0-системы выбрана эталонная архитектурная модель Индустрии 4.0 RAMI 4.0. Для реализации многоагентного взаимодействия i4.0-компонентов в рамках построения цепочки создания стоимости сетевого предприятия предлагается использовать онтологический под-ход. Основными результатами исследования являются сформулированные требования к программной реализации i4.0-системы с позиции формирования программных сервисов i4.0-платформы и программных административных оболочек i4.0-компонентов по уровням архитектуры RAMI. В качестве программного механизма взаимодействия i4.0-компонентов предложен алгоритм взаимодействия i4.0-компонентов с использованием предметной онтологии. В результате программной реализации сформулированных требований к построению архитектуры i4.0-системы повысятся гибкость и эффективность создания и функционирования цепочек создания стоимости сетевых предприятий в динамично развивающейся бизнес-экосистеме промышленного производства продукции и услуг.
Abstract: The digital transformation of enterprises based on the digital technologies leads to a radical change in busi-ness models and the formation of new organizational and production structures, which include network en-terprises. Network enterprises as dynamically formed production structures in the business ecosystem that unite many enterprises participating in joint economic activity; in modern conditions they are based on digi-tal platforms. Nowadays, an approach to building digital platforms is actively developing within the frame-work of the Industrie 4.0. The subject of the study is to determine the requirements for software implementa-tion of Industrie 4.0 systems (i4.0 systems) based on digital platforms using multi-agent technologies and an ontological approach. As a research method, the authors propose to use the method of decomposing the i4.0 system into plat-form software components and software administrative shells related to managing and functioning of net-work enterprise resources (assets) – i4.0 components. The reference architectural model of the Industrie 4.0 (RAMI 4.0) is chosen as the basis for building the architecture of the i4.0 system. It is proposed to use an on-tological approach in order to implement multi-agent interaction of i4.0 components within the framework of building the value-added chain of a network enterprise. The main results of the study are the formulated requirements for the software implementation of the i4.0 system with regard to the i4.0 platform software components formation and the software administrative shells of the i4.0 components at the levels of the RAMI architecture. As a software mechanism for the inter-action of i4.0 components the paper proposes an algorithm for the i4.0-components interaction using a do-main ontology. The software implementation of the formulated requirements for constructing the i4.0 system architec-ture will increase the flexibility and efficiency of creating and functioning of value-added chains of network enterprises in the dynamically developing business ecosystem of industrial manufacturing of products and services.
Ключевые слова: онтология предметной области, требования к программной реализации, архитектура rami, административная оболочка, i4.0-компонент, i4.0-платформа, система индустрии 4.0 (i4.0-система), цифровая платформа, бизнес-экосистема
Keywords: domain ontology, requirements for the program implementation, rami architecture, administrative shell (as), industrie 4.0 component (i4.0-component), industrie 4.0 platform (i4.0-platform), industrie 4.0 system (i4.0-system), digital platform, business ecosystem
Просмотров: 536

5. Защита от DDoS-атак своими руками: оперативные разработка и внедрение сервиса в Национальной исследовательской компьютерной сети России [№4 за 2022 год]
Авторы: Абрамов А.Г. (abramov@niks.su) - Санкт-Петербургское отделение Межведомственного суперкомпьютерного центра РАН (доцент, ведущий научный сотрудник), кандидат физико-математических наук;
Аннотация: Вопросам защиты цифровых инфраструктур организаций и устройств конечных пользователей от постоянно растущих по численности и становящихся все более изощренными киберугроз уделяется сегодня повышенное внимание на самых разных уровнях. Крайне важная задача – обеспечение надежной и эффективной защиты критических инфраструктур крупных операторов связи. Одним из распространенных типов киберугроз являются распределенные сетевые атаки, направленные на отказ в обслуживании (Distributed Denial of Service, DDoS), которые совершаются на разных уровнях сетевого взаимодействия (от инфраструктуры до приложений) и нацелены на различные ресурсы и сервисы. В настоящей работе проведен обзор современных методов и технологий борьбы с DDoS-атаками с акцентом на защиту сетей операторов связи и их пользователей. Обсуждаются использующие механизмы и протоколы динамической маршрутизации методы BGP Blackhole и BGP FlowSpec, а также методы, основанные на интеллектуальном анализе и фильтрации сетевого трафика специализированными системами очистки. Обозначены основные технические требования, критерии качества и некоторые количественные характеристики решений защиты от DDoS-атак, приведены примеры коммерческих и свободно распространяемых систем. Детально описан разработанный и внедренный в эксплуатацию относительно простой сервис за-щиты от DDoS-атак. Сервис базируется на оперативной обработке и анализе в режиме реального времени собираемых с граничных маршрутизаторов данных о сетевых потоках NetFlow и использовании протокола BGP FlowSpec. Приведены общие сведения об аппаратно-программном комплексе, архитектуре и основных компонентах сервиса, задействованных программных пакетах и технологиях, некоторые статистические данные по результатам детектирования DDoS-атак в сетевой инфраструктуре НИКС.
Abstract: Nowadays, the protection of digital infrastructures of organizations and end users from constantly growing in number and becoming more sophisticated cybersecurity threats is receiving increased attention at various levels. An extremely important task is to ensure reliable and effective protection of critical infrastructures of large telecommunications companies. One of the most common types of cybersecurity threats is Distributed Denial of Service (DDoS) performed at different levels of network interaction, from infrastructure to applica-tions, and aimed at different resources and services. This paper provides an overview of modern methods and technologies to prevent and mitigate DDoS at-tacks with an emphasis on protecting the networks of telecom operators and their users. It also discusses such methods as BGP Blackhole and BGP FlowSpec based on dynamic routing mechanisms and protocols, as well as the methods based on network traffic intelligent analysis and filtering by specialized cleaning sys-tems. The main technical requirements, quality criteria and some quantitative characteristics of DDoS pro-tection solutions are outlined. There are examples of commercial and freely distributed systems. A separate section of the paper is devoted to a detailed description of a relatively simple service for pro-tecting against DDoS attacks. The service is developed and put into operation by specialists of the National Research Computer Network of Russia (NIKS) based on real-time processing and analysis of NetFlow data collected from boundary routers and on the BGP FlowSpec protocol. The is also general information about the hardware and software complex, architecture and main components of the service, involved software packages and technologies along with some statistical data on the results of detecting DDoS attacks in the NIKS network infrastructure.
Ключевые слова: национальная исследовательская компьютерная сеть, bgp flowspec, netflow, анализ сетевого трафика, защита от сетевых атак, ddos-атака, киберугроза, информационная безопасность, никс, elk stack
Keywords: national research computer network, bgp flowspec, netflow, network traffic analysis, protection against network attacks, ddos attack, cybersecurity threats, infosecurity, niks, elk stack
Просмотров: 518

6. Программное средство GraphHunter поиска отображения параллельной программы на структуру суперкомпьютерной системы [№4 за 2022 год]
Авторы: Баранов А.В. (antbar@mail.ru, abaranov@jscc.ru ) - Межведомственный суперкомпьютерный центр РАН (доцент, ведущий научный сотрудник), кандидат технических наук; Киселёв Е.А. (kiselev@jscc.ru) - Межведомственный суперкомпьютерный центр РАН, г. Москва (стажер-исследователь); Телегин П.Н. (pnt@jscc.ru) - Межведомственный суперкомпьютерный центр РАН (ведущий научный сотрудник), кандидат технических наук; Сорокин А.А. (rexantmaster@yandex.ru) - МИРЭА – Российский технологический университет (студент);
Аннотация: Одной из известных задач в области высокопроизводительных вычислений является поиск оптимального отображения процессов параллельной программы на узлы суперкомпьютерной системы. Решение такой задачи позволяет минимизировать накладные расходы на информационные обмены между выполняющимися процессами и, как следствие, повысить производительность вычислений. При поиске отображения суперкомпьютерная система и параллельная программа представляются в виде графов. В настоящей статье задача отображения решается применительно к системе коллективного пользования суперкомпьютером, которая ведет очередь параллельных программ. После прохождения очереди параллельной программе выделяется новое, заранее неизвестное подмножество узлов суперкомпьютера. В этих условиях необходимо за приемлемое время построить граф выделенного подмножества узлов и найти подходящее отображение параллельной программы на этот граф. При поиске отображения предлагается задействовать параллельные алгоритмы, для выполнения которых использовать выделенные узлы суперкомпьютера. Для исследования свойств алгоритмов отображения было разработано программное средство GraphHunter, позволившее провести эксперименты с тремя параллельными алгоритмами: имитации отжига, генетическим алгоритмом и их комбинацией. В настоящей статье рассмотрена структура разработанного программного средства GraphHunter, приведены результаты экспериментов с запусками GraphHunter на суперкомпьютере МВС-10П ОП.
Abstract: One of well-known problems in high-performance computing is optimal mapping of parallel program pro-cesses to supercomputer system nodes. A solution for this problem minimizes the overhead for information exchanges between the processes of a parallel program and thus increases the performance of calculations. When solving a mapping problem, both a supercomputer system and a parallel program are represented as graphs. The paper shows solving the mapping problem in relation to a system for collective use of a supercom-puter that handles a queue of parallel programs. After passing the queue, a new previously unknown subset of supercomputer nodes is allocated to the parallel program. In this case, it is necessary to construct a graph of a selected subset of nodes and find a suitable mapping of the parallel program onto this graph in a rea-sonable time. It is suggested to run parallel mapping algorithms on the supercomputer nodes allocated for parallel program. To study the properties of mapping algorithms, the GraphHunter software tool was developed. This tool makes it possible to conduct experiments with three parallel algorithms: simulated annealing, genetic algo-rithm, and their combination. This article discusses the structure of the GraphHunter software tool, and pre-sents the results of experiments with GraphHunter runs on the MVS-10P OP supercomputer at the Joint Su-percomputing Center of the Russian Academy of Sciences.
Ключевые слова: высокопроизводительные вычисления, параллельные алгоритмы отображения, имитация отжига, генетический алгоритм, планирование заданий
Keywords: high-performance computing, parallel mapping algorithm, simulated annealing, generic algorithm, job scheduling
Просмотров: 409

7. Разработка программных моделей доверенного универсального микропроцессора и микропроцессорной системы на его основе [№4 за 2022 год]
Авторы: Аряшев С.И. (aserg@cs.niisi.ras.ru) - Федеральный научный центр Научно-исследовательский институт системных исследований РАН (ФНЦ НИИСИ РАН) (зав. отделением), кандидат технических наук; Гревцев Н.А. (ngrevcev@cs.niisi.ras.ru) - Федеральный научный центр Научно-исследовательский институт системных исследований РАН (аспирант, научный сотрудник); Зубковский П.С. (zubkovsky@niisi.ras.ru) - Федеральный научный центр Научно-исследовательский институт системных исследований РАН (ФНЦ НИИСИ РАН) (зав. отделом); Чибисов П.А. (chibisov@cs.niisi.ras.ru) - Федеральный научный центр Научно-исследовательский институт системных исследований РАН (старший научный сотрудник), кандидат технических наук; Кулешов А.С. (rndfax@cs.niisi.ras.ru) - ФНЦ НИИСИ РАН (аспирант); Петров К.А. (petrovk@cs.niisi.ras.ru) - Федеральный научный центр Научно-исследовательский институт системных исследований РАН (зам. зав. ОРВС), кандидат технических наук;
Аннотация: При разработке доверенного микропроцессора для цифровых систем управления (систем с критической миссией) требуется разработать программную модель (эмулятор) доверенного микропроцессора и эмулятор системы на его основе для утверждения архитектурной модели и изучения возможностей парирования угроз. Покомандный и поведенческий эмуляторы микропроцессора являются инструментами моделирования микропроцессорной архитектуры и системы в целом и играют фундаментальную роль в различных областях микроархитектурного проектирования. В работе приведены критерии, необходимые для создания доверенных систем, разработаны по-командный эмулятор микроархитектуры доверенного микропроцессора (VMIPS), а также поведенческий эмулятор архитектуры микропроцессорной системы (QEMU) на основе доверенного микропроцессора для утверждения архитектурной модели и изучения возможностей парирования угроз. Поскольку по отдельности эмуляторы QEMU и VMIPS в целом не являются доверенными системами из-за того, что в эмуляторе QEMU отсутствует поддержка виртуализации, а в эмуляторе VMIPS поддержка IOMMU, в работе предложено использовать связки обоих эмуляторов: эмулятор QEMU запускает эмулятор VMIPS для эмуляции процессорных ядер. Для создания полноценной доверенной среды эмулятор VMIPS был представлен в виде библиотеки с API по эмуляции процессорных ядер, которая динамически подгружается эмулятором QEMU. На основе анализа трасс подтверждаются те или иные ситуации угроз и их парирование. Для апробации использовано ПО, проверяющее функции эмулятора по обеспечению выполнения критериев доверенности системы путем парирования угроз из банка данных угроз безопасности информации ФСТЭК, а также произведен запуск демонстрационной задачи в виртуальной среде на виртуальном программируемом логическом контроллере с доверенным микропроцессором с применением SCADA для мониторинга и контроля. Использование виртуального ПЛК с виртуальной средой позволяет проводить тестирование и от-ладку, исследования безопасности, строить модели существующих и будущих узлов, отрабатывать различные сценарии, получать полную информацию о ходе работы. Предварительное тестирование в виртуальной среде также позволяет снизить риски ввода в эксплуатацию и отработать различные модели угроз и их парирования до разработки микропроцессора. На основе результатов выполнен-ной работы будет произведена разработка MIPS-подобного доверенного микропроцессора для цифровых систем управления СКМ.
Abstract: When developing a trusted microprocessor for digital SCM control systems (systems with a critical mission), it is necessary to develop a software model (emulator) of a trusted microprocessor and a system emulator based on it to approve the architectural model and to study the possibilities of parrying threats. Instruction-based and behavioral microprocessor emulators are tools for modeling the microprocessor architecture and the system as a whole. They play a fundamental role in various areas of microarchitecture design. Emulators are used as a reference model for functional verification and for assessing the contribution of new ideas in-troduced by developers at the microarchitecture level to the performance of the system as a whole, as well as for understanding the behavior of user programs and identifying hardware elements that limit the system ef-fectiveness. The paper presents the criteria necessary for creating trusted systems, a developed instruction-based emulator of the trusted microprocessor microarchitecture (vmips), as well as a behavioral emulator of the microprocessor system architecture (QEMU) based on a trusted microprocessor to approve the architectural model and study the possibilities of parrying threats. There is a demonstration of software that tests the functions of the emulator to ensure the fulfillment of the system’s trusted execution environment criteria by parrying threats from the FSTEC information security threats data bank. The paper also describes launching a demonstration task in a virtual environment on a virtual programmable logic controller with a trusted microprocessor using SCADA for monitoring and con-trol. Using a virtual PLC with a virtual environment allows testing and debugging, conducting security studies, building models of existing and future nodes, working out various scenarios, and getting complete infor-mation about the work progress. Preliminary testing in a virtual environment also allows reducing the risks of commissioning and working out various threat models and their parrying before developing a microproces-sor. Based on the results of the work performed, the development of a trusted microprocessor with a MIPS-like architecture for digital control systems of the SCM is planned in the future.
Ключевые слова: qemu, mips, виртуализация, программируемые логические контроллеры, поведенческий эмулятор, покомандный эмулятор
Keywords: qemu, mips, virtualization, programmable logic controllers, behavioral emulator, command emulator
Просмотров: 454

8. Демонстратор программной платформы для настройки гиперпараметров нечеткой нейронной сети [№4 за 2022 год]
Авторы: Иванов В.К. (mtivk@mail.ru) - Тверской государственный технический университет, кандидат технических наук; Палюх Б.В. (pboris@tstu.tver.ru) - Тверской государственный технический университет (профессор), доктор технических наук;
Аннотация: В статье приводится описание исследовательского демонстратора для экспериментальной проверки и оценки вариантов применения нечетких алгоритмов и нейронных сетей в экспертной системе для диагностики сложных многостадийных технологических процессов. Цель разработки демонстратора – создание научно-технического задела для передачи готовых к внедрению решений на следующие этапы проекта. Демонстратор позволяет оценить уровень системной готовности разрабатываемых компонентов, провести исследовательские испытания, проверить работоспособность и эффективность функционирования программных реализаций при различных значениях параметров и их сочетаниях. Диагностика состояния сложного многостадийного технологического процесса предполагает совместную обработку первичных данных для получения вероятностных характеристик аномальных критиче-ских событий или инцидентов в условиях неопределенности. Авторами предложен вариант использования нечеткой нейронной сети, обучение которой происходит данными, сгенерированными с помощью функций доверия. Подход дает возможность значительно ускорить вычисления и минимизировать ресурсную базу. В статье основное внимание уделяется описанию функций управления моделями нейронной сети и обучающими наборами данных, обучения нейронной сети и проверки его качества, диагностики технологического процесса в раз-личных режимах. Подробно описаны настраиваемые гиперпараметры нейронной сети. Приведены примеры реализации диагностических процедур в различных режимах. Показано, что при функционировании программной диагностической системы в условиях, близких к реальным, могут быть проверены и экспериментально обоснованы исходные предположения, касающиеся сокращения времени обнаружения и прогнозирования инцидентов, и более точно определены множества технологических цепей, являющихся причинами инцидентов.
Abstract: This article describes the research demonstrator for experimental verification and evaluation of fuzzy algo-rithms and neural networks in an expert system for complex multi-stage technological processes. The de-monstrator development purpose is to create a scientific and technical foundation for the ready-to-implement solutions transfer to the next project stages. The demonstrator allows assessing the readiness level of the components being developed, conducting re-search tests, checking the operability and efficiency of the software implementations functioning proposed at various parameter values and their combinations. A complex multi-stage technological process state di-agnostics involves the joint primary data processing to obtain probabilistic abnormal critical events or inci-dents characteristics under conditions of uncertainty. The authors propose a way of using a fuzzy neural network, which is trained with data generated by be-lief functions. The approach makes it possible to significantly speed up calculations and to minimize the re-source base. The article focuses on describing the neural network models and training datasets management, neural network training and quality control, the technological process diagnostics in various modes. The con-figurable hyper-parameters of the neural network are described in detail. There are examples of the diagnos-tic procedures implementation in various modes. It is shown that with the software diagnostic system func-tioning in conditions close to real, the initial assumptions concerning the time reduction for detecting and predicting incidents can be verified and experimentally substantiated. In addition, the technological chains sets that are the incidents causes can be more accurately determined.
Ключевые слова: демонстратор, anfis, функция принадлежности, функция доверия, технологическая цепь, теория свидетельств, продукционное правило, нечеткая нейронная сеть, нечеткая логика, многостадийный технологический процесс, инцидент, диагностическая система, tsk
Keywords: demonstrator, anfis, fuzzy set function, membership function, technological chain, evidence theory, production rule, fuzzy neural network, fuzzy logic, multistage production process, incident, diagnostic system, tsk
Просмотров: 423

9. Оценка возможностей классических компьютеров при реализации симуляторов квантовых алгоритмов [№4 за 2022 год]
Авторы: Зрелов П.В. (zrelov@jinr.ru) - Объединенный институт ядерных исследований, Лаборатория информационных тех-нологий им. М.Г. Мещерякова, Университет «Дубна», Институт системного анализа и управления,Российский экономический университет им. Г.В. Плеханова (начальник отдела), кандидат физико-математических наук; Иванцова О.В. (ivancova@jinr.ru) - Объединенный институт ядерных исследований, Лаборатория информационных тех-нологий им. М.Г. Мещерякова, Университет «Дубна», Институт системного анализа и управления (научный сотрудник); Кореньков В.В. (korenkov@jinr.ru) - Объединенный институт ядерных исследований, Лаборатория информационных тех-нологий им. М.Г. Мещерякова, Университет «Дубна», Институт системного анализа и управления,Российский экономический университет им. Г.В. Плеханова (директор лаборатории), доктор технических наук; Рябов Н.В. (ryabov_nv95@mail.ru) - Государственный университет «Дубна», Институт системного анализа и управления (аспирант); Ульянов С.В. (ulyanovsv46_46@mail.ru) - Государственный университет «Дубна» – Институт системного анализа и управления, Объединенный институт ядерных исследований – лаборатория информационных технологий (профессор), доктор физико-математических наук;
Аннотация: Современные квантовые устройства имеют серьезные ограничения на количество кубитов, ширину и глубину квантовой схемы. К тому же для них характерны сильные шумовые процессы, которые затрудняют получение корректного результата, заставляют проектировать квантовые схемы под конкретное квантовое устройство с учетом связи между кубитами, требуют квантовой коррекции ошибок. Применение классических компьютеров для симуляции квантовых вычислений позволяет из-бежать этих проблем. Они могут использоваться не только для быстрой проверки гипотез перед за-пуском на квантовых устройствах, но и для решения реальных задач. В работе описаны проектирование и эффективное моделирование квантовых алгоритмов, подходы к разработке алгоритмов квантового поиска, алгоритм Гровера. С помощью квантовых симуляторов Qiskit и QuEST проведено исследование эффективности использования суперкомпьютера для симуляции квантовых схем на CPU и GPU на примере тестовой квантовой схемы и алгоритма Гровера. В статье дано описание алгоритма квантовой оценки фазы, являющейся базовым блоком в некоторых квантовых алгоритмах квантовой вычислительной физики и химии. Симуляция алгоритма выполнена при помощи новейшего квантового симулятора cuQuantum от компании NVIDIA, который позволяет эффективно моделировать квантовые схемы на GPU с использованием множества графических процессоров, что существенно увеличивает скорость и позволяет выполнить алгоритм квантовой оценки фазы с достаточной точностью вычислений. В работе также отмечены сложности, с которыми можно столкнуться при симуляции различных алгоритмов с использованием большого количества кубитов или глубины схемы.
Abstract: Modern quantum devices have severe limitations in the number of qubits, which limit the width and depth of the quantum circuit and have strong noise processes that make it difficult to obtain correct results. It is also necessary to design quantum circuits for a particular quantum device taking into account the coupling be-tween qubits and to apply quantum error mitigation. It is possible to avoid these problems using classical computers to simulate quantum computation. Classical computers are used both for quick testing of hy-potheses before running on quantum devices and for solving real-world problems. The paper describes the process of designing and efficient modeling of quantum algorithms, approaches to developing quantum search algorithms, Grover's algorithm. Qiskit and QuEST quantum simulators were used to study the efficiency of using a supercomputer to simulate quantum circuits on CPUs and GPUs using the example of the quantum test circuit and Grover's algorithm. This paper describes a quantum phase esti-mation algorithm, which is a basic unit in some quantum algorithms of quantum computational physics and chemistry. The algorithm is simulated using NVIDIA's newest cuQuantum quantum simulator. It allows efficient simulation of quantum circuits on GPUs using multiple GPUs, which significantly increases speed and allows the quantum phase estimation algorithm to be executed with sufficient computational accuracy. The paper also notes the difficulties when simulating different algorithms using a large number of qubits or circuit depth.
Ключевые слова: суперкомпьютер, квантовый симулятор, квантовая оценка фазы, алгоритм гровера, квантовые вычисления
Keywords: supercomputer, quantum simulator, quantum phase estimation, grover’s algorithm, quantum computing
Просмотров: 427

10. Имитационная модель системы пакетирования суперкомпьютерных заданий на базе симулятора Alea [№4 за 2022 год]
Авторы: Баранов А.В. (antbar@mail.ru, abaranov@jscc.ru ) - Межведомственный суперкомпьютерный центр РАН (доцент, ведущий научный сотрудник), кандидат технических наук; Ляховец Д.С. (anetto@inbox.ru) - Научно-исследовательский институт «Квант» (научный сотрудник);
Аннотация: Современные системы управления заданиями суперкомпьютера представляют собой сложные программные комплексы с множеством различных алгоритмов планирования и их параметров, влияние которых на показатели эффективности системы невозможно точно предсказать или рассчитать. По этой причине для определения оптимальных параметров системы управления заданиями применяют имитационное моделирование. Настоящая статья посвящена задаче построения имитационной модели системы управления суперкомпьютерными заданиями на базе известного симулятора Alea. В качестве объекта исследования выступил разработанный алгоритм планирования, на основе которого построена программная система пакетирования суперкомпьютерных заданий. Суть алгоритма состоит в объединении заданий с длительным временем инициализации в пакеты по типам заданий. Для каждого пакета инициализация производится однократно, после чего одно за другим выполняются задания пакета. За счет применения системы пакетирования удается сократить долю накладных расходов на инициализацию и повысить эффективность планирования заданий. Алгоритм пакетирования реализован в составе симулятора Alea, исследование характеристик этого алгоритма для различных входных потоков заданий произведено путем сравнительного имитационного моделирования. В сравнении участвовали встроенные в Alea алгоритмы планирования FCFS и Backfill. Для моделирования сгенерировано несколько входных потоков заданий с различной интенсивностью. По результатам моделирования для этих потоков удалось определить минимальные пороги доли инициализации задания, начиная с которых система пакетирования заметным образом улучшает показатели эффективности планирования по сравнению с алгоритмами FCFS и Backfill. Результаты исследования показали, что построенная имитационная модель может быть применена в качестве инструментального программного средства для сравнительного анализа различных алгоритмов планирования суперкомпьютерных заданий.
Abstract: Modern supercomputer job management systems (JMS) are complex software using many different sched-uling algorithms with various parameters. We cannot predict or calculate the impact of changing these pa-rameters on JMS quality metrics. For this reason, researchers use simulation modelling to determine the op-timal JMS parameters. This article discusses the problem of developing a supercomputer job management system model based on the well-known Alea simulator. The object of study is our scheduling algorithm used for developing the supercomputer job bundling system. The algorithm bundles jobs with a long initialization time into groups (packets) according to job types. Initialization is performed once for each group, and then the jobs of the group are executed one after the other. By using a bundling system, it is possible to reduce the initialization overhead and increase the job scheduling efficiency. We implemented the bundling algorithm as a part of the Alea simulator. We have done comparative simulation of implemented algorithm for various workloads. The comparison involved the FCFS and Backfill scheduling algorithms built into Alea. Several workloads with different intensities were generated for the simulation. The minimum job initialization share thresholds for these workloads were determined based on the simulation results. The bundling system noticeably im-proves the scheduling efficiency compared to the FCFS and Backfill algorithms starting from these thresh-olds. The study results showed that the developed simulation model could be used as a software tool for a comparative analysis of various algorithms for supercomputer job scheduling.
Ключевые слова: высокопроизводительные вычисления, системы управления заданиями, имитационное моделирование, пакетирование заданий, alea
Keywords: high-performance computing, job management system, simulation, job bundling, alea
Просмотров: 530

| 1 | 2 | 3 | Следующая →