На правах рекламы:
ISSN 0236-235X (P)
ISSN 2311-2735 (E)

Авторитетность издания

ВАК - К1
RSCI, ядро РИНЦ

Добавить в закладки

Следующий номер на сайте

2
Ожидается:
17 Июня 2024

Статьи из выпуска № 4 за 2019 год.

Упорядочить результаты по:
Дате публикации | Заголовку статьи | Авторам

1. Эволюция и особенности гиперконвергентных инфраструктур [№4 за 2019 год]
Автор: Лисецкий Ю.М.
Просмотров: 7219
Статья посвящена гиперковергентным инфраструктурам, которые в настоящее время весьма востребованы предприятиями и организациями для построения гибкой ИТ-инфраструктуры об-лачного уровня, не используя для этого публичные ресурсы, а размещая оборудование в собственных центрах обработки данных или в частных облаках. Рассмотрены эволюция гиперконвергентных инфраструктур, их особенности и преимущества. Появление гиперконвергентных инфраструктур является закономерным этапом развития ИТ-инфраструктур и следующим логическим шагом от конвергентных инфраструктур. Концепция конвергентных инфраструктур предполагает комбинирование нескольких инфраструктурных компонентов в предварительно интегрированный комплекс с помощью связующего ПО. Эта кон-цепция, в свою очередь, является развитием традиционных подходов к построению ИТ-инфраструктуры. Гиперконвергентные инфраструкутры развивают концепцию конвергентных структур, добавляя в нее понятие модульности. Благодаря этому все необходимые виртуализиро-ванные вычислительные ресурсы, сетевые системы и системы хранения данных работают автономно внутри отдельных модулей, которые представляют собой готовые виртуализированные вычислительные ресурсы. Они, как правило, объединяются в группы, чтобы обеспечить отказо-устойчивость, высокую производительность и гибкость в создании ресурсных пулов. Одна из основных причин актуальности гиперконвергентных инфраструкутр заключается в том, что не все организации и предприятия для снижения затрат на построение собственной ИТ-инфраструктуры готовы перевести свои сервисы и приложения в публичное облако, хотя многие из них заинтересованы в реализации преимуществ облачных технологий в собственной инфраструктуре, а гиперконвергентные инфраструктуры дают возможность это сделать. Они являются альтернативой аренды облачных сервисов у сторонних компаний-провайдеров услуг, так как с их помощью стало возможным развертывание собственных частных облаков, которыми полностью распоряжаются организации и предприятия. Поэтому гиперконвергентная инфраструктура стала доминирующей аппаратной платформой для размещения частных облаков, виртуальных рабочих мест и сред разработки новых приложений.

2. Верификация моделей систем на базе эквациональной характеристики формул CTL [№4 за 2019 год]
Авторы: Кораблин Ю.П., Шипов А.А.
Просмотров: 5096
В статье предложена и рассмотрена RTL-нотация, основанная на системах рекурсивных уравнений и привычных семантических определениях логики линейного времени LTL и логики ветвящегося времени CTL. В предыдущих работах авторов, когда данная нотация еще называлась RLTL-нотацией, было показано, что с ее помощью можно легко формулировать и верифицировать свойства логики линейного времени, в том числе и относительно моделей систем, заданных с по-мощью той же нотации. Затем были расширены возможности RLTL-нотации, благодаря чему с ее помощью стало возможным формулировать выражения не только логики LTL, но и логики ветвя-щегося времени. В результате этого появилась первая версия RTL-нотации. В данной статье представлена вторая версия RTL как результат доработки и упрощения семантических определений нотации, позволивших повысить наглядность и читаемость ее выражений. Целью статьи является демонстрация возможности использования RTL-нотации в качестве инструмента для формулировки и верификации свойств, задаваемых формулами обеих логик, на базе единых аксиом и правил. Это дает возможность RTL выступать в роли единой универсальной нотации данных логик. При этом за счет незначительных дополнений ее базовых определений нотация способна включать в себя выразительные особенности и других временных логик, что в перспективе позволит RTL стать полноценной универсальной временной логикой, обладающей всеми необходимыми инструментами и средствами для реализации всех этапов верификации.

3. Метод трансляции первопорядковых логических формул в позитивно-образованные формулы [№4 за 2019 год]
Авторы: Давыдов А.В., Ларионов А.А., Черкашин Е.А.
Просмотров: 4787
В статье рассматриваются логическое исчисление позитивно-образованных формул (ПОФ-исчисление) и построенный на его основе метод автоматического доказательства теорем. ПОФ-исчисление впервые появилось в работах академиков РАН С.Н. Васильева и А.К. Жерлова в результате рассмотрения и решения задач теории управления и было описано как логический формализм первого порядка. Имеются примеры описания и решения задач теории управления, эффективно (с точки зрения выразительности языка и производительности средств доказательств теорем) решенных с помощью ПОФ-исчисления, например, управление группой лифтов, наведение телескопа на центр планеты, находящейся в неполной фазе, управление мобильным роботом. ПОФ-исчисление выгодно отличается от возможностей других, логических, средств формализации предметной области и поиска логических выводов выразительностью в сочетании с компактностью представления знаний, естественным параллелизмом их обработки, крупноблочностью и меньшей комбинаторной сложностью выводов, высокой совместимостью с эвристиками и широкими возможностями для интерактивного доказательства. В выделенном классе формул возможно построение конструктивного доказательства. Данный класс формул существенно шире класса хорновских дизъюнктов, используемых в языке Пролог: на логическую формализацию аксиоматической базы предметной области не накладываются никакие ограничения, а целевое утверждение – это конъюнкция запросов (в смысле языка Пролог). Для тестирования программной системы автоматического доказательства теорем (прувера), основанной на ПОФ-исчислении, использовалась библиотека задач TPTP (Thousands of Problems for Theorem Provers). Формат, в котором представлены задачи TPTP (называемые проблемами), де-факто стал стандартом среди сообщества, изучающего автоматизацию рассуждений. Возникает естественная необходимость в том, чтобы разрабатываемый прувер принимал на вход задачи в этом формате. Таким образом, возникла задача трансляции формул логики предикатов первого порядка, представленных в формате TPTP, в формат ПОФ. Эта задача нетривиальна из-за особой структуры формул ПОФ-исчисления. В данной работе предложены более эффективный (в сравнении с ранее разработанным алгоритмом в первой реализации системы автоматического доказательства теорем для ПОФ-исчисления) метод трансляции формул первопорядкового языка исчисления предикатов с сохранением исходной эвристической структуры знаний и его упрощенная версия для задач, представ-ленных на языке дизъюнктов. Под эффективностью понимаются количество шагов и длина получаемых формул. Предложенный метод был реализован в виде программной системы – транслятора языка первопорядковых логических формул в формате ТРТР в язык ПОФ. Приведены результа-ты тестирования разработанного метода, которые позволяют сделать вывод о том, что существует определенный класс первопорядковых формул, не принимаемый во внимание как особый существующими системами автоматического доказательства теорем, в то время как в ПОФ-исчислении для данного класса формул существуют специальные стратегии, повышающие эффективность поиска вывода.

4. Интеллектуальный сбор информации из распределенных источников [№4 за 2019 год]
Автор: Ефимова М.С.
Просмотров: 6548
В статье рассмотрена задача сбора данных из распределенных источников на примере анализа разнородной распределенной финансовой информации, сделаны анализ и сравнение существующих подходов к сбору информации. Большинство из них для решения проблемы предполагают сбор данных в единое хранилище с последующим их анализом, однако это вызывает задержку от момента генерации данных до момента применения к ним методов анализа, связанную с необходимостью передачи от источника к месту хранения. В результате существенно снижается оперативность принятия решений и увеличивается трафик в сети. Кроме того, сбор данных от всех источников может привести к значительным расходам в случае, если доступ к некоторым из них платный или ограничен тарифным планом. Рассмотренные подходы предполагают включение хранилищ данных, средств ETL (излечения, трансформации и загрузки), лямбда-архитектуры, облачных вычислений, туманных вычислений, а также анализ распределенных данных на основе модели акторов. Однако выявлено, что они не учитывают стоимость и приоритеты источников данных и не позволяют обращаться к ним динамически, следовательно, не удовлетворяют всем условиям поставленной задачи. В статье предложен и описан метод интеллектуального сбора информации с динамическим обращением к источникам данных в зависимости от текущей необходимости, стоимости и приоритета источников. Разработанный метод позволяет сократить трафик в сети, ускорить процесс анализа данных и снизить стоимость обращения к источникам данных.

5. Исследование оптимального количества процессорных ядер для алгоритма многократной маркировки перколяционных кластеров на суперкомпьютерных вычислительных системах [№4 за 2019 год]
Авторы: Лапшина С.Ю., Сотников А.Н., Логинова В.Е., Юдинцев К.Ю.
Просмотров: 5600
Статья посвящена выбору оптимального количества запрашиваемых процессорных ядер для запуска алгоритма многократной маркировки перколяционных кластеров. Работа выполнена в ходе проведения имитационных экспериментов задачи мультиагентного моделирования процессов распространения массовых эпидемий на современных суперкомпьютерных системах, установ-ленных в Межведомственном суперкомпьютерном центре РАН. Алгоритм может быть использован в любой области в качестве инструмента дифференцирования кластеров решетки большого размера, так как ему на вход подаются данные в формате, не за-висящем от приложения. В МСЦ РАН этот инструмент использовался для изучения задачи распространения эпидемий, для чего была разработана соответствующая мультиагентная модель. В модели рассматривается абстрактное заболевание, передаваемое контактным путем. В ходе моделирования определяется пороговое значение вероятности инфицирования (то есть сама вероятность инфицирования является изменяемым параметром), при котором возникает эффект перко-ляции на решетке распространения заболевания. Если это значение близко к индексу контагиозности конкретного заболевания, то следует ожидать распространения эпидемии в планетарном масштабе. В процессе имитационных экспериментов применялся усовершенствованный для многопроцессорной системы вариант алгоритма многократной маркировки перколяционных кластеров Хошена–Копельмана, связанный с механизмом линковки меток, который также может быть использован в любой области в качестве инструмента дифференцирования кластеров решетки большого размера. В статье дана оценка времени выполнения алгоритма многократной маркировки перколяционных кластеров Хошена–Копельмана при различных значениях входных параметров на четырех основных высокопроизводительных вычислительных системах, установленных в Межведомственном суперкомпьютерном центре РАН: суперкомпьютерах МВС-10П МП2 KNL, МВС-10П ОП, МВС 10П Торнадо, МВС-100К.

6. Методы и средства моделирования системы управления суперкомпьютерными заданиями [№4 за 2019 год]
Авторы: Баранов А.В., Ляховец Д.С.
Просмотров: 6566
В статье рассматриваются методы и средства моделирования систем управления суперкомпьютерными заданиями (СУЗ), таких как SLURM, PBS, Moab и отечественная система управления прохождением параллельных заданий (СУППЗ). Среди методов моделирования СУЗ выделены натурный эксперимент, моделирование СУЗ с виртуальным вычислителем, имитационное моделирование. Рассмотрены методы и способы по-строения модельного потока заданий. На примере СУППЗ показана невозможность точного воспроизведения натурного эксперимента. Поставлен вопрос об адекватности модели СУЗ, введены понятия адекватности в широком и узком смыслах. Показано, что адекватная в узком смысле модель СУЗ обеспечивает соответствие только интервальных показателей и не может быть использована в качестве прогнозной модели. Для определения адекватности в широком смысле рассмотрена численная оценка близости двух потоков событий СУЗ – реального и полученного в результате моделирования. В качестве меры близости двух потоков предложено нормализованное евклидово расстояние между двумя векторами, соответствующими сравниваемым потокам. Размерность векторов равна числу обработан-ных заданий, а компоненты векторов представляют собой времена пребывания заданий в системе. Для меры адекватности предложена методика ее определения, основанная на сравнении статистики работы реальной системы и модели СУЗ. На примере СУППЗ определено эталонное значение меры адекватности как нормированное евклидово расстояние между векторами времен пребывания заданий в системе, полученными от реальной СУППЗ и модели СУППЗ с виртуальным вычислителем.

7. Подходы к разработке и отладке симуляторов на основе QEMU с помощью высокоуровневого языка описания архитектур PPDL [№4 за 2019 год]
Авторы: Дроздов А.Ю., Фонин Ю.Н., Перов М.Н., Герасимов А.С.
Просмотров: 5956
В статье описывается подход к разработке и отладке симуляторов на базе бинарной трансляции QEMU (Quick EMUlator), основанный на использовании высокоуровневого языка описания архитектур PPDL (Processor and Periphery Description Language). Применение бинарной трансля-ции в симуляторах позволяет ускорить работу на несколько порядков относительно симуляторов-интерпретаторов инструкции, а использование именно QEMU предоставляет широкий спектр возможностей как для отладки ПО, так и для динамического анализа приложений. Поэтому симуля-торы на основе бинарной трансляции, в частности QEMU, представляют интерес для разработчиков как систем на кристалле уровня системы, так и встроенного ПО. Однако процесс разработки бинарных трансляторов более сложен и трудоемок, чем разработка симулятора-интерпретатора инструкций. В отличие от симулятора-интерпретатора для создания QEMU-симулятора инструкции моделируемого процессора необходимо описать в виде последовательности так называемых tcg-микроинструкций. Основная сложность заключается в отладке такого симулятора, поскольку последовательность tcg-инструкций не исполняется непо-средственно, а транслируется в двоичный код хост-машины. Поэтому в отличие от интерпретатора невозможно использовать стандартные средства отладки для локализации ошибок, допускаемых программистом при описании инструкций в виде tcg-кода. Упростить задачу разработки QEMU-симулятора можно с помощью языка описания архитектур PPDL. Компилятор PPDL автоматически генерирует как симулятор-интерпретатор, так и набор компонент для QEMU-симулятора. Симулятор-интерпретатор генерируется в виде исходного кода на С++, что дает возможность отладки PPDL-описания ядра с помощью стандартного отладчика С\С++, например gdb или Microsoft Visual Studio. После отладки с помощью интерпретатора PPDL-описания посредством компилятора PPDL можно сгенерировать tcg-описания инструкций для QEMU. Таким образом, использование PPDL позволяет избежать отладки симулятора на уровне tcg-кода и, как следствие, существенно ускорить и упростить процесс разработки.

8. Особенности применения предметно-ориентированных языков для тестирования веб-приложений [№4 за 2019 год]
Авторы: Федоренков В.Г., Балакшин П.В.
Просмотров: 6188
Перед разработчиками как крупных, так и небольших проектов, стремящихся выпустить по-настоящему качественный, хороший продукт с минимальным числом ошибок, часто встает немало вопросов относительно реализации процесса его тестирования. Данная работа посвящена поиску ответов на эти вопросы. В статье сравниваются основные методы, а также существующие программные средства создания и поддержки доменно-ориентированных языков (англ. DSL, domain specific language), нацеленных на использование в контексте работы с тестовыми сценариями для тестирования ин-терфейсов веб-приложений. Определены наиболее подходящие технические приемы и средства для решения подобных задач на основе опыта авторов и результатов схожих исследований других специалистов. Проведен обзор существующих подходов к работе с инструментом Selenium, ак-тивно использующимся (как в данной работе, так и в большинстве подобных проектов) при автоматизации процесса тестирования для имитации действий пользователя в веб-браузере. Описаны преимущества использования DSL в тестировании, определены функциональные и нефункциональные требования к созданию предметно-ориентированных языков для их дальнейшего эффек-тивного использования, рассмотрены различные методы создания DSL с точки зрения структуры языка. В качестве одного из основных критериев для работы было выбрано вовлечение нетехнических специалистов на каждом этапе тестирования (решение так называемой проблемы перевода), что особенно важно для реализации всестороннего тестирования программного продукта. Одной из ключевых особенностей статьи является демонстрация реализации прототипа DSL на основе Selenium с последующим тестированием и оценкой применимости реализованного прототипа. В упрощенном виде продемонстрирована структура внутреннего устройства языка по Java-пакетам. Сформулированы рекомендации по написанию DSL на основе ранее определенных тре-бований и произведенной оценки прототипа. Показан способ разработки дополнительного инструмента метапрограммирования для дальнейшего упрощения создания, поддержки, модификации тестовых сценариев и их миграции на новые платформы.

9. Метод обнаружения веб-роботов на основе анализа графа пользовательского поведения [№4 за 2019 год]
Авторы: Менщиков А.А., Гатчин Ю.А.
Просмотров: 7414
Согласно отчетам компаний, занимающихся защитой веб-ресурсов, каждый пятый запрос к типовому сайту в сети Интернет направлен вредоносными автоматизированными системами – веб-роботами. Веб-роботы по объему трафика уже преобладают над рядовыми пользователями веб-ресурсов. Своими действиями они угрожают приватности данных, авторскому праву, несут угро-зы несанкционированного сбора информации, влияют на статистики и приводят к ухудшению производительности веб-ресурса. Возникает необходимость обнаружения и блокирования источников таких средств. Существующие методы предполагают использование синтаксической и аналитической обработки логов веб-сервера для обнаружения веб-роботов. Этого недостаточно, чтобы надежно вы-являть веб-роботов, скрывающих свое присутствие и имитирующих поведение легитимных пользователей. В статье предлагается новый метод, отличительной особенностью которого является использование характеристик графа связности страниц защищаемого веб-ресурса для формирования признаков роботизированных пользовательских сессий. Характеристики анализируемых сессий включают не только особенности графа перемещений самого пользователя, но и признаки каждого из посещенных им узлов веб-ресурса (степени входа и исхода, меры центральности и другие). Для расчета таких характеристик строится граф связности страниц веб-ресурса. Данный метод заключается в анализе характеристик перемещений для каждой пользовательской сессии с целью классификации ее на роботизированную или принадлежащую легитимному пользователю. В статье проводится анализ шаблонов поведения пользователей веб-ресурса, описываются основные принципы извлечения необходимых данных из логов веб-сервера, способ построения графа связности страниц веб-ресурса, а также наиболее значимые характеристики сессий. Обсуждаются процедура обнаружения и выбор подходящей классификационной модели. Для каждой из исследуемых моделей производятся отбор гиперпараметров и перекрестная проверка результатов. Анализ точности и полноты обнаружения показывает, что при использовании библиотеки XGboost можно получить F1-меру порядка 0.96.

10. Разработка импульсной нейронной сети с возможностью скоростного обучения для нейтрализации DDoS-атак [№4 за 2019 год]
Авторы: Пальчевский Е.В., Христодуло О.И.
Просмотров: 7561
Эффективное обеспечение доступности данных является одной из ключевых задач в области информационной безопасности. Зачастую доступность информации нарушают DDoS-атаки. Несовершенство современных методов защиты от атак внешним несанкционированным трафиком при-водит к тому, что многие компании, ресурсы которых имеют выход в сеть Интернет, сталкиваются с недоступностью собственных сервисов, предоставляющих различные услуги/информацию. Как следствие – финансовые потери компании от простоя оборудования. Для решения данной проблемы разработана импульсная (спайковая) нейронная сеть для защиты от атак внешним несанкционированным трафиком. Основными преимуществами разработанной спайковой нейронной сети являются высокая скорость самообучения и быстрое реагирование на DDoS-атаки (в том числе и на неизвестные). Разработан новый метод самообучения импульсной нейронной сети, в основу которого входит равномерная обработка спайков каждым нейроном. За счет этого нейронная сеть в кратчайшие сроки обучается, как следствие – быстро и эффективно отфильтровывает атаки внешним несанкционированным трафиком. Также проведено сравнение разработанной спайковой нейронной сети с аналогичными решениями по защите от DDoS-атак. В результате сравнения выявлено, что разработанная нейронная сеть более оптимизирована под высокие нагрузки и способна в кратчайшие сроки обнаружить и нейтрализовать DDoS-атаки. Проведена апробация разработанной импульсной нейронной сети в условиях простоя и в режиме защиты от DDoS-атак. В результате данного тестирования получены нагрузочные значения на ресурсы вычислительного кластера. Длительное тестирование импульсной нейронной сети показывает достаточно низкую нагрузку на центральный процессор, оперативную память и твердо-тельный накопитель при массивных DDoS-атаках. Таким образом, оптимальная нагрузка не только повышает доступность каждого физического сервера, но и предоставляет возможность параллельного запуска ресурсоемких вычислительных процессов без какого-либо нарушения функционирования рабочей среды. Тестирование проводилось на серверах вычислительного кластера, где импульсная нейронная сеть показала стабильную работу и эффективно защищала от DDoS-атак.

| 1 | 2 | 3 | Следующая →