На правах рекламы:
ISSN 0236-235X (P)
ISSN 2311-2735 (E)

Авторитетность издания

ВАК - К1
RSCI, ядро РИНЦ

Добавить в закладки

Следующий номер на сайте

3
Ожидается:
13 Сентября 2024

Статьи журнала №3 2012

21. Способы повышения эффективности отладки и тестирования многопроцессорных систем [№3 за 2012 год]
Авторы: Лавринов Г.А. (lavrinov@cs.niisi.ras.ru) - НИИСИ РАН, г. Москва;
Аннотация: Важнейшей компонентой многопроцессорной вычислительной системы является коммуникационная сеть, или сеть обмена, с помощью которой процессоры соединяются друг с другом или с памятью. Наряду с шинами VME, PCI Express, HyperTransport и другими, для обеспечения межпроцессорного обмена бурно развивается интерфейс RapidIO. При разработке многопроцессорных систем на базе RapidIO отладка и первоначальное тестирование макетных и опытных образцов систем составляют серьезную самостоятельную проблему. Полноразмерное тестирование выполняется под операционными системами (в рассматриваемом случае – Linux и ОС РВ Багет 2.0 и 3.0), однако для успешного запуска операционных систем необходимо обеспечить достаточный уровень работоспособности и ком-муникационной сети, и процессорных узлов. В распоряжении разработчика тестов есть только сама аппаратура и программа ПЗУ, автоматически получающая управление при включении питания и поступлении сигнала RESET. В данной статье предложены два способа тестирования и отладки многопроцессорных систем, реализуемых на базе интерфейса RapidIO, позволяющие обходиться минимумом дополнительной аппаратуры. А также приводятся срав-нение этих способов с точки зрения эффективности применения и этапы построения тестирования на их основе. С помощью диаграмм последовательности UML представлены протокол для реализации встроенной RapidIO-консоли и протокол обмена данными с оконечными устройствами RapidIO для получения информации о результатах тести-рования. Для этих протоколов поясняется использование конкретных типов пакетов RapidIO. Данные способы тес-тирования многопроцессорных систем легли в основу тестирования систем на базе процессорных микросхем 1890ВМ6Я.
Abstract: Very important element of multiprocessor computing system is communication network used by process to provide communication with other processors or memory. Together with VME, PCI Express, HyperTransport and other buses of inter-processor communication, RapidIO interface is developed as well. Microprocessor systems based on RapidIO suffer significant difficulty and present a serious problem at debugging and beginning testing stage of trial and developmental models. Full scale testing is made with operating systems (in this case – Linux and OS PB Baget 2.0 and 3.0), however, successful start of operating systems, communication network and processor units are supposed to provide proper operating performance. Test designer has only hardware and ROM program that gets control automatically after power is on or RESET signal is received. This article provides two testing and debugging techniques of multiprocessor systems realized with RapidIO interface that can work with minimum amount of hardware. The article also provides comparison of these techniques viewing effectiveness in use and testing stage made on its basis. Using UML sequence chart, the article presents protocol that implements integrated RapidIO console and I/O RapidIO communication protocol for gathering information about testing results. It is shown how to use specific RapidIO packages. These testing techniques of multiprocessor systems became a basis for performing system test based on 1890BM6YA chips .
Ключевые слова: консоль., метод, многопроцессорные системы, тестирование, rapidio
Keywords: console, the method, multiprocessor systems, testing, RapidIO
Просмотров: 11369

22. Методы сокращения количества уязвимостей в специальном программном обеспечении реального времени [№3 за 2012 год]
Авторы: Нархов К.Г. (kostas@niisi.ras.ru) - НИИСИ РАН, г. Москва;
Аннотация: Настоящая статья посвящена вопросам автоматизации деятельности программиста, в частности, сокращению ко-личества уязвимостей и ошибок в программном коде. Рассмотрены особенности разработки программ в среде техно-логических средств автоматизированной генерации специального программного обеспечения (ТСАГ СПО), а также приемы использования библиотеки, входящей в состав ТСАГ СПО для сокращений потенциальных уязвимостей в разрабатываемых программах. Приводится классификация типовых уязвимостей в программном обеспечении реаль-ного времени, анализируется каждый класс потенциальных уязвимостей с точки зрения частоты появления в про-граммах, причин возникновения и методов их предотвращения средствами ТСАГ СПО. Некоторые потенциальные уязвимости рассмотрены с учетом особенностей конфигурации операционной системы реального времени. Для классификации уязвимостей были использованы статический анализатор и набор исходных текстов программ реаль-ного времени, разработанных в НИИСИ РАН. Общая база исходных текстов насчитывает 204 программных модуля (более 111 700 строк). Представлен пример сокращения потенциальных уязвимостей в программе генерации исходных текстов реального времени (ПГЕН РВ), которая входит в состав ТСАГ СПО. Продемонстрирован способ сокращения уязвимостей за счет использования в библиотеке ТСАГ СПО типовых шаблонов программ, который позволил устранить все найденные статическим анализатором уязвимости в ПГЕН РВ. Основными перспективами развития изложенных в статье решений являются расширение библиотеки типовых шаблонов ТСАГ СПО и дополнение правил статического анализатора, в которые необходимо включить специфичные для операционной системы реального времени проверки и условия.
Abstract: This article is dedicated to automation of a programmer’s work, particularly in the area of vulnerabilities reduction and bugs in the program code. The article reviews details of the program design in technical facilities of automated code generation for special software (TFACG SS) and use of library contained in TFACG SS that reduces potential vulnerabilities appearing in new programs. The author provides taxonomy of typical vulnerabilities in real time programs, he makes review of each class of vulnerability, how often and why does the vulnerability occur, and its prevention using TFACG SS facilities. Some potential vulnerabilities take in account configuration of real time operating system. Taxonomy of vulnerabilities was made with a static estimating device and set of real time source code designed by Institute for Scientific Research of Russian Academy of Sciences. Set of the source codes includes 204 of the program modules (more than 111700 lines). The article finishes with example of reduction of potential vulnerabilities in real time source code generation program (PVSC RT), which is a part of TFACG SS. The article shows method of reduction of vulnerabilities using standard program patterns provided by TFACG SS, this method repaired all vulnerabilities that were found by static estimating device in PVSC RT. The library expansion for standard TFACG SS patterns and the supplementation of the static analyzer rules, which will include tests and conditions specific for real time operating system, are the main prospects of solutions presented in the article.
Ключевые слова: исходный код., системы реального времени, генерация исходных текстов, уязвимости в программах, ошибки среды выполнения, xml, uml, моделирование, модель, надежность, программирование
Keywords: source code, realtime systems, source code generation, software vulnerabilities, runtime errors, xml, uml, modeling, mathematical model, reliability, programming
Просмотров: 13273

23. Алгоритм роста X-графа и принципы физики [№3 за 2012 год]
Авторы: Коганов А.В. (koganow@niisi.msk.ru) - НИИСИ РАН, г. Москва, кандидат физико-математических наук; Круглый А.Л. (koganow@niisi.msk.ru) - НИИСИ РАН, Москва, кандидат физико-математических наук;
Аннотация: Работа посвящена современному направлению, лежащему на стыке теории автоматов и алгоритмов, теории графов, а также математической физики. В последние годы развивается теория растущих Х-графов, которые каждой своей точкой (Х-элементом) моделируют элементарное взаимодействие двух исходных частиц с рождением двух ре-зультирующих частиц. Рост такого графа моделирует получение наблюдателем информации о происходящих в его пространственно-временной окрестности физических процессах. Рассматривается алгоритм поэтапного формирования Х-графа, удовлетворяющий ряду требований, необходимых для модели дискретного пространства-времени в квантовой физике. Особое внимание уделяется выполнению принципа причинности для алгоритма, что делает кор-ректной его интерпретацию как модели наблюдателя за физическим процессом. Новый алгоритм обладает полезными свойствами, которых не было в ранее предлагавшихся аналогичных алгоритмах. Главным из них является неза-висимость вероятности достройки множества причинно не связанных попарно вершин от порядка введения этих вершин. В основе алгоритма лежит новый способ выбора ребер для пристройки нового Х-элемента. Это делается с помощью случайных путей до границы от случайно выбранной вершины из числа уже имеющихся в графе. Алгоритм интересен с точки зрения теории самоорганизации сложных растущих систем. Его модификации и вариации начальных состояний позволяют строить модели различных систем парных взаимодействий.
Abstract: The work is focused on the current trend at the intersection of theory of automata and algorithms, graph theory, as well as mathematical physics. Over the last years the theory of growing X-graphs is developed, with regard to which the X-graphs by each of their points (X-element) simulate elementary interaction of two initial particles with generation of two resulting particles. Growth of such graph simulates obtaining by the observer of information on physical processes taking place in its space-time neighborhood. The algorithm of incremental formation of X-graph is studied, which meets a set of requirements necessary for discrete space-time model in quantum physics. Special attention is given to implementation of causality principle for the algorithm that makes its interpretation as a physical process observer model to be correct. A new algorithm possesses useful properties, which were not present in the earlier proposed analogous algorithms. The main of them is independence of probability of completion of cause-unbounded by pairs peaks set from the order of introduction of those peaks. The basis of this algorithm is a new way of selection of edges for addition of a new X-element. This is done by means of random paths to the boundary from the randomly chosen peak from the number of peaks which are already present in the graph. Algorithm is interesting from the point of view of the theory of self-organizing of complex growing systems. Its modification and variations of initial states allow models of various systems of pair-wise interactions to be built.
Ключевые слова: случайный алгоритм., принцип причинности, растущий граф, пространство-время, ориентированный граф
Keywords: randomize algorithm, causality principle, increasing graph, space-time, oriented graph
Просмотров: 8366

24. Микротесты для оценки производительности RTL-моделей микропроцессоров [№3 за 2012 год]
Авторы: Николина Н.В. (nikolina@cs.niisi.ras.ru) - НИИСИ РАН, г. Москва;
Аннотация: Рассматривается подход к оценке и контролю производительности микропроцессоров на стадии их разработки. Предложена методика, позволяющая оценить производительность отдельных блоков, при этом игнорируется любое потенциальное влияние других. Представлен состав тестового набора для оценки производительности RTL-моделей микропроцессоров (моделей на уровне регистровых передач). Тестовый набор состоит из коротких программ (мик-ротестов), направленных на оценку производительности отдельных блоков. Выбор тестового набора для разных бло-ков осуществляется с учетом особенностей его работы. В статье рассмотрены наборы микротестов для блока веще-ственной арифметики, блока выборки/выдачи инструкций (буфера инструкций) и подсистемы памяти, реализованные для MIPS-подобной архитектуры. Для анализа времени выполнения кода используются счетчики производительности, входящие в состав регистров управляющего сопроцессора микропроцессора. Предложена система для автоматизации создания тестовых ситуаций, регрессионного запуска тестов и визуализации результатов оценки производительности. Тестовая система позволяет в разумное время получить результат оценки производительности и сравнить его либо с результатами предыдущих версий RTL-модели, либо с эталонными значениями. Проводится также анализ влияния оценки производительности на архитектуру будущей микросхемы. Показана возможность исследования влияния на производительность таких факторов, как изменение частоты памяти при постоянной частоте процессора. Результаты измерений даны на примере оценки производительности разрабатываемых в НИИСИ РАН 64-разрядных суперскалярных микропроцессоров и подтверждены на готовых микросхемах.
Abstract: An approach for evaluating and monitoring performance of the microprocessor on design stage is considered. The technique to estimate performance of separate blocks is offered, any potential influence of others is thus ignored. We propose a test suite for evaluating performance of microprocessor RTL-models (Register transfer level). The test set consists of the short programs (microtestbenches) directed on performance evaluating of separate blocks. A choice of test set for different modules is realized on taking into account features of its work. An article presents a number of test situations for evaluating such modules as instruction fetch and dispatch buffer (IFDB), floating point unit (FPU) and memory management unit (MMU) for MIPS-like architecture. For the analysis of run time performance counters are used, which are the parts of control coprocessor registers of microprocessor. Automation for creating test cases, regression performance measurement and visualization of performance evaluation results are proposed. During reasonable time the test system allows to receive results of a performance evaluation and to compare it with results of the previous versions of RTL model, or with reference values. Also the impact of performance measurements on architecture of future chip is considered. The possibility to investigate the influence on microprocessor performance of such factors as changing memory frequency is shown. The results of measurements are shown on example of performance evaluation of superscalar microprocessor which is developed in SRISA RAS. The results were confirmed on final crystal.
Ключевые слова: организация регрессионного процесса оценки производительности., оценка производительности, микротесты
Keywords: regression performance evaluation, performance evaluation, microbenchmarks
Просмотров: 6246

25. Роль стохастического тестирования в функциональной верификации микропроцессоров [№3 за 2012 год]
Авторы: Хисамбеев И.Ш. (osipa68@yahoo.com) - НИИСИ РАН, г. Москва;
Аннотация: С ростом требований к характеристикам современных ИС, в том числе микропроцессоров и систем на кристалле, существенно усложняется их проектирование. Оно превратилось в многоступенчатый процесс, на каждой стадии ко-торого от разработчиков требуется решение все более и более сложных задач. Одной из самых трудоемких из них является функциональная верификация проекта. Задача заключается в установлении соответствия между некоторым уровнем реализации проекта и функциональными требованиями его спецификации. Для проектов ИС современного уровня сложности отсутствует универсальный способ функциональной верификации, однако существует несколько взаимодополняющих подходов к проблеме. Одним из методов, применяемых в НИИСИ РАН при разработке микро-процессоров архитектуры MIPS64, является стохастическое тестирование. В его основе лежит симуляция выполнения тестовых программ на модели микропроцессора. Тесты (тестовые программы) генерируются автоматически по заданному шаблону с параметризованным случайным выбором инструкций тела теста и их аргументов. В данной статье уделяется внимание роли метода стохастического тестирования, области его применения, преимуществам и недостаткам. Функциональная верификация рассматривается как составная часть процесса проектирования ИС. Описываются наиболее известные в мировой практике подходы к верификации и коротко рассматриваются лежащие в их основе идеи. Дается информация о классе методов, основанных на симуляции, и методе стохастического тести-рования. Делаются выводы о преимуществах и недостатках данного метода, иллюстрируемые некоторыми результа-тами его применения в НИИСИ.
Abstract: With the growth of the performance requirements of modern IC, including microprocessors and Systems-on-Chip, their development complicates considerably. It has become a multistage process, and there are many sophisticated tasks to be done on each stage. One of the most labor-consuming tasks is design functional verification. Its goal is to approve a conformity between implementation of a design and it's specification functional requirements. While it does not yet have a general solution, considering modern IC designs complexity, several complementary approaches were developed to address it. One of them is stochastic testing. It was applied for researching of the MIPS64 architecture microprocessors in Science research Institute for system analysis of RAS. The method is based on the test program execution simulation. Test programs are generated automatically from the given template. Instructions, arguments and settings for the test are chosen randomly considering given biases and constraints. This paper is a review, aiming at specifying the role of stochastic testing with its application scope, advantages and disadvantages. In the introduction functional verification is considered in general, as a part of IC design workflow. Then, most well-known verification approaches are reviewed, their underlying ideas analyzed briefly. Particularly, simulation-based methods are considered. Finally, stochastic testing method is described in the given background. Conclusions concerning its advantages and disadvantages are illustrated with some results of its application in SRISA RAS.
Ключевые слова: метрики тестового покрытия., генерация случайных тестов, стохастическое тестирование, симуляция, rtl-модель, функциональная верификация, микропроцессор
Keywords: test coverage metrics, random test generation, stochastic testing, simulation, RTL model, functional verification, microprocessor
Просмотров: 10661

26. Тестирование микропроцессоров и их RTL-моделей приложениями пользователя под ОС Linux [№3 за 2012 год]
Авторы: Чибисов П.А. (chibisov@cs.niisi.ras.ru) - Федеральный научный центр Научно-исследовательский институт системных исследований РАН (старший научный сотрудник), кандидат технических наук;
Аннотация: Рассматриваются методы верификации и тестирования современных микропроцессоров. Особое внимание уде-ляется методу тестирования RTL-моделей (модель на уровне регистровых передач), ПЛИС-прототипов и тестовых кристаллов микропроцессоров реальными пользовательскими приложениями под операционную систему Linux. Описываются взаимосвязь этих объектов и степень применимости обсуждаемой методики к каждому из них в кон-тексте общего плана верификации. Перечисляются достоинства и недостатки метода. Так как скорость выполнения программ на RTL-модели микропроцессора крайне мала, предлагается использовать механизм среза-восстановления состояния модели микропроцессора для разбиения всей последовательности команд загрузки операционной системы на множество подпоследовательностей, которые выполняются параллельно на разных вычислительных устройствах. Наличие огромного количества свободно распространяемых программ с открытым исходным кодом, большинство из которых имеют встроенные автоматизированные механизмы самопроверки, делает возможным выделение запуска приложений под ОС Linux в отдельный подход к тестированию универсальных микропроцессоров. Применение описываемого метода не исключает, а лишь дополняет современный набор методов и средств тестирования и верификации микропроцессоров и их моделей. Многие авторитетные фирмы-разработчики микропроцессоров признают полезность как можно более ранней загрузки какой-либо операционной системы на разрабатываемой RTL-модели. Успешность этой операции зачастую дает разработчикам больше уверенности в правильности уже проделанной работы, чем десятки тысяч прошедших тестов. В статье рассматривается пример репрезентативного тестового набора, позволяющего использовать готовые пакеты программ пользователя, приводятся примеры источ-ников тестовых программ. Кроме того, предложен общий алгоритм действий при нахождении ошибки в микропро-цессоре, даются примеры найденных ошибок в микропроцессоре с архитектурой MIPS64.
Abstract: This article covers the methods of verification and testing of modern microprocessors. The special attention is given to a method of testing the RTL-models, FPGA-prototypes and test crystals of microprocessors by real user applications for the Linux operating system. The interrelation of these objects and degree of a discussed technique applicability to each of them in a context of the general verification plan are considered either. The article lists the merits and demerits of the method. As simulation speed of programs on RTL-model of a microprocessor is extremely slow, it is offered to use the cut-restore mechanism of a model state for splitting all instruction sequence of an operating system booting into a set of subsequences which are carried out in parallel on different computers. Existence of a large quantity of freely distributed programs with an open source code with the built-in automated self-test mechanisms makes it possible to mark out an applications launch for Linux OS in a separate approach for testing of universal microprocessors. The described method doesn't exclude, but serves as a supplement to a modern set of methods and means of testing and verification of microprocessors and their models. Many authoritative developers and manufacturers of microprocessors recognize the usefulness of the earlier booting of any operating system on the RTL-model under development. Success in this operation often makes the developers more confident that their work is done correctly, than tens of thousands of executed tests. The article provides the example of the representative test set which makes it possible to use the ready-made user software packages, as well as the examples of the test program sources. Besides, it considers the general algorithm of actions to find a bug in the microprocessor and gives examples of bugs revealed in the microprocessor with MIPS64 architecture.
Ключевые слова: oc linux., тестовый кристалл, плис-прототип, rtl-модель, тестирование микропроцессора
Keywords: Linux, post-silicon validation, first-pass silicon, FPGA-prototype, RTL model, microprocessor verification
Просмотров: 11581

27. Метаописания и каталогизация научно-информационных ресурсов РАН [№3 за 2012 год]
Авторы: Еркимбаев А.О. () - Объединенный институт высоких температур РАН (ОИВТ РАН), г. Москва, кандидат технических наук; Жижченко А.Б. () - Федеральный исследовательский центр «Информатика и управление» РАН, ул. Вавилова, 44-2, г. Москва, 119333, Россия (зав. отделом), доктор физико-математических наук; Зицерман В.Ю. () - Объединенный институт высоких температур РАН (ОИВТ РАН), г. Москва, кандидат физико-математических наук; Кобзев Г.А. () - Объединенный институт высоких температур РАН (ОИВТ РАН), г. Москва, доктор физико-математических наук; Серебряков В.А. (serebr@ultimeta.ru) - Вычислительный центр им. А. А. Дородницына РАН (профессор, зав. отделом), доктор физико-математических наук; Сотников А.Н. (asotnikov@iscc.ru) - Федеральный исследовательский центр «Информатика и управление» РАН, ул. Вавилова, 44-2, г. Москва, 119333, Россия (главный научный сотрудник), доктор физико-математических наук; Шиолашвили Л.Н. () - Вычислительный центр им. Дородницына РАН (ВЦ РАН), г. Москва;
Аннотация: Значительная часть научных знаний оформляется в виде электронных ресурсов – баз данных и знаний, электрон-ных справочников и прочего. Работа с электронными ресурсами, включая их адаптацию к предметной области, сис-тематизацию и накопление данных, стала занимать равноправное с теорией и экспериментом положение. Возникли такие дисциплины, как био- и геоинформатика, предмет изучения которых полностью сводится к представлению сложноорганизованных данных. Однако по мере распространения баз данных и аналогичных средств стали нарастать глубокие проблемы, обусловленные неразвитостью интероперабельности. Автономность функционирования ресурсов, многообразие форматов и структур данных, отсутствие стандартов представления – далеко не все факторы, затрудняющие обмен данными. В мировой и отечественной практике в последние годы наметились подходы к возможному разрешению указанных проблем с помощью версий XML-языка, позволяющих стандартизовать систему метаданных и словари понятий в пределах некоторой области знаний, например, версии CML для представления химических данных, MatML – для материаловедения, ThermoML – для термодинамики. Острая необходимость в де-тальной разработке принципов и технологических решений для интеграции многочисленных ресурсов РАН обусловила формирование обширной программы работ по созданию так называемого Data Centre. Предполагается, что реализация этого проекта позволит преодолеть разрозненность и ограниченную доступность компьютерных фондов в виде БД, электронных изданий, информационно-вычислительных средств, поддерживаемых различными институтами РАН. В данной работе в качестве первого этапа интеграции предложена система паспортизации ресурсов, адекватно отражающая предметную область, типологию ресурса, условия доступа и др. Разработан портал, на котором имеется обширный набор метаданных для каждого из зарегистрированных ресурсов.
Abstract: A large part of scientific knowledge is formalized in the form of electronic resources – data and knowledge bases, electronic reference books, etc. Work with electronic resources, including their adaptation to the subject area, systematization and accumulation of data, achieved an equal status with theory and experiment. There appeared such subjects as bio- and geoinformatics, which subject of study is submission of complex data. However, with the spreading of databases and similar means deep problems arose caused by lack of interoperability. Autonomy of resources functioning, diversity of data formats and structures, lack of data presentation standards – not all the reasons complicating the data exchange. In the global and domestic practice in recent years there have been selected approaches to possible resolving problems using versions of XML language, for standardizing of metadata system and terms dictionaries within a certain area of expertise, such as CML versions for submission of chemical data, MatML – for material science, ThermoML – for thermodynamics. An insistent in elaborating principles and technologies for integration of many RAS resources led to the formation of an extensive program on creation of so-called Data Centre. It is expected that this project will help to overcome the fragmentation and limited availability of digital resources in the form of databases, electronic publications, data-processing tools, supported by various institutes of the Russian Academy of Sciences. In this work as the first phase of the integration is offered the system of resources certification, adequately reflecting the subject area, resource types, access conditions, etc. A portal is developed on which there is an extensive set of metadata for each registered resource.
Ключевые слова: xml., онтоло¬гия, портал, метаописание, метаданные, интеграция данных, информационные ресурсы
Keywords: XML, ontology, portal, metadescription, metadata, data integration, information resources
Просмотров: 10732

28. Интеграция данных и язык запросов в масштабных информационных инфраструктурах [№3 за 2012 год]
Авторы: Коваленко В.Н. (kvn@keldysh.ru) - Институт прикладной математики им. М.В. Келдыша РАН, г. Москва, кандидат физико-математических наук; Куликов А.Ю. (akul87@mail.ru) - Институт прикладной математики им. М.В. Келдыша РАН, г. Москва;
Аннотация: Автоматизация различных форм профессиональной деятельности с помощью компьютерных технологий порож-дает массивы информации, которые сохраняются в базах данных. Эта информация используется, в первую очередь, внутри учреждений, но может быть полезной для решения важных задач, выходящих за их границы. Создание соот-ветствующих приложений значительно затрудняется при отсутствии специализированных системных средств, на-значение которых – обеспечение доступа к данным из множества баз. В этом направлении, получившем название «интеграция данных», разработаны общие, не зависящие от приложений методы, позволяющие объединять гетеро-генные БД. Созданные на такой основе системы используются на практике, однако проблема их масштабируемости по числу интегрируемых баз остается нерешенной. В статье излагается подход к решению задачи массовой интеграции десятков и сотен БД. Рассматриваются два вопроса, наиболее существенные для таких условий: метод интеграции и форма информационных запросов. Метод интеграции позволяет определить представление (глобальную схему), в котором данные интегрируемых баз образуют единое унифицированное пространство. Метод направлен на создание информационных инфраструктур с динамически меняющимся составом баз: изменение состава не требует модификации глобальной схемы и су-ществующих приложений. Язык поисковых запросов является расширением SQL-92, отличаясь тем, что операции в запросах выполняются над подмножествами баз инфраструктуры. Источники не адресуются явно: для выделения баз используется дескрип-тивная информация – метаатрибуты. Такой способ позволяет создавать приложения, способные обрабатывать данные из различных совокупностей источников.
Abstract: Automation of various forms of professional activity by means of computer technologies generates arrays of information stored in databases. This information is used, first, inside organizations, but can be helpful for solving important tasks outside their borders. Development of the corresponding applications is considerably complicated in the absence of the specialized system tools supporting access to data from multiple databases. In this direction, named data integration, the general, application-independent methods, allowing consolidation of heterogeneous databases are developed. The tools created on such basis are used in practice, however the problem of their scalability on the number of integrated databases remains open. In the paper, an approach to the problem of mass integration (tens and hundred databases) is described. The two questions are considered that seems to be the most essential under these conditions: the method of data integration and the type of informational queries. The integration method allows defining a representation (the global scheme) in which the data of the integrated databases form a common unified space. The method is aimed at the creation of information infrastructures with dynamically changing database set: change of a set does not require modification of the global scheme or existing applications. The language of search queries is an SQL-92 extension, with the difference that the operations are executed on subsets of databases. In addition, databases are not addressed explicitly: descriptive information – meta-attributes – is used for their se-lection. Such type of queries allows creating applications capable of processing data from varied sets of sources.
Ключевые слова: ogsa-dqp., ogsa-dai, массовая интеграция данных, распределенный запрос, информационный грид
Keywords: OGSA-DQP, OGSA-DAI, massive data integration, distributed query, informational grid
Просмотров: 6851

29. Прогнозирование надежности программного обеспечения на основе модели неоднородного пуассоновского процесса и бутстреп-методов [№3 за 2012 год]
Авторы: Гуда А.Н. (guda@rgups.ru ) - Ростовский государственный университет путей сообщения (профессор, проректор), доктор технических наук; Чубейко С.В. (greyc@mail.ru) - Ростовский государственный университет путей сообщения, кандидат технических наук;
Аннотация: Описывается новая математическая модель надежности ПО, построенная на основе математической модели не-однородного пуассоновского процесса. Основной идеей предлагаемого в статье метода прогнозирования является метод размножения выборок данных, содержащих два исходных набора: кумулятивное время исполнения программ и количество ошибок, зафиксированных за это время. В качестве метода размножения рандомизированных выборок взята бутстреп-технология, использующая формирование случайных величин, имеющих распределение Пуассона. Предложены алгоритмы нахождения оценок параметров и прогнозирования показателей надежности ПО. Первый алгоритм служит для оценки интенсивности ошибок, ожидаемых при последующих исполнениях программ. В алго-ритме используется датчик случайных чисел, на основе которого строятся рандомизированные выборки и формиру-ются массивы случайных чисел, распределенных по пуассоновскому закону. Второй алгоритм позволяет оценивать интенсивность обнаружения ошибок. Он использует данные выборок из первого алгоритма и действует по методу максимального правдоподобия. В статье описывается общая процедура прогнозирования ожидаемого количества ошибок, которые могут проявиться при последующем исполнении программ на некотором интервале времени, сле-дующем за кумулятивным интервалом наблюдения. Предложенный метод прогнозирования был реализован в виде программы, написанной на языке программирования Паскаль в свободной среде программирования PascalABC.NET. Кроме того, описаны примеры использования программы прогнозирования при некоторых тестовых данных.
Abstract: A new mathematical model of software reliability is described, based on mathematical model of inhomogeneous Poisson process. The basic idea of the proposed in the article forecasting method is a method of reproduction of data samplings, containing two original sets: the cumulative program execution time and number of errors committed during this time. As a method of a randomized sampling reproduction a bootstrap technology is taking which uses random quantities, having a Poisson distribution. Algorithms of parameter estimate and forecasting indicators of software reliability are suggested. The first algorithm is used to assess the intensity of errors expected in subsequent versions of the software. The algorithm uses a random number sensor on which basis randomized sampling and random arrays are arranged under Poisson law. The second algorithm makes it possible to evaluate the intensity of error detection. He uses data samples from the first algorithm and operates according to the method of maximum likelihood. The article describes the general procedure for forecasting the expected number of errors that can occur during a subsequent program run at a certain time interval, following a cumulative period of observation. The proposed forecasting method was realized in the form of a program written in Pascal programming language in the free programming environment PascalABC.NET. It also describes examples of using forecasting software with some test data.
Ключевые слова: бутстреп-технология., неоднородный пуассоновский процесс, надежность по
Keywords: the non-homogenous Poisson process, the non-homogenous Poisson process, reliability of the software
Просмотров: 7310

30. Синхронизация профилей пользователей MS SharePoint Portal Server 2003 с внешним источником данных [№3 за 2012 год]
Авторы: Ермаков Д.Г. (Ermak@imm.uran.ru) - Институт математики и механики УрО РАН, г. Екатеринбург;
Аннотация: При построении корпоративных порталов одной из важных задач является синхронизация данных, публикуемых на портале, с данными, используемыми другими приложениями и хранимыми в различных форматах средствами различных СУБД. В случае, когда данные на портале могут редактироваться пользователями или сторонними при-ложениями, необходимо организовать их синхронизацию. Когда один из источников данных назначается главным, а другой подчиненным, синхронизация не представляет трудностей. В том случае, когда может потребоваться двуна-правленность, необходимо обеспечить как прямую, так и обратную синхронизацию. В статье рассматриваются решение задачи синхронизации профилей пользователей MS SharePoint Portal Server 2003 (SPS) с внешним источником данных – унаследованной подсистемой отдела кадров и обратная синхронизация этого источника с данными профилей пользователей SPS. Рассмотрены два варианта получения данных из пользовательских профилей: с помощью SQL-запроса и с применением объектной модели SPS. Для организации синхронизации предлагается использовать промежуточный файл в формате XML. Такое решение позволяет заменить источник синхронизируемых данных без существенных изменений в уже имеющемся программном обеспечении. Кроме того, он предоставляет возможность передать данные третьей стороне или получить их от нее. Приводятся примеры скриптов на языке сценариев PowerShell, входящем в стандартную поставку MS Windows, реализующие прямую и обратную синхронизацию. Кроме задачи синхронизации, рассмотренный подход может использоваться для переноса данных при переходе с MS SharePoint на другую платформу.
Abstract: In the process of development of enterprise portals one of most important problems is data synchronization published in such portal with data used by other applications and stored in different formats in DBMS. When the data placed in portal can be edited by a user or other application, they should be synchronized. When one of the data sources assigned as the master source and the other one is assigned as a slave source it is not difficult to arrange synchronization. When bidirectional structure is needed, it shall be necessary to provide «direct» and «reverse» synchronization. The article discusses synchronization solution of MS SharePoint Portal Server 2003 (SPS) users with a data source – inherited personnel department subsystem and «reverse» synchronization of this external source with profile data of SPS users. The article presents two ways of data collection from user profiles: with SQL query and use of object SPS model. Synchronization is made with temporary XML file. Such solution changes source of synchronized data without significant change in existing software. In addition, it provides opportunity to the third party to transfer or receive the data from it. The article contains some scripts written in PowerShell scenario language included in standard MS Windows package with implementation of «direct» and «reverse» synchronization. Beside synchronization, this approach can be used for the data transfer in case of changing MS SharePoint platform to a different one.
Ключевые слова: sql., ms sharepoint portal server 2003 (sps), ms windows powershell, профиль пользователя, обратная синхронизация, синхронизация, экспорт данных, импорт данных
Keywords: SQL, MS SharePoint Portal Server 2003 (SPS), SQL, ms windows powershell, user profile, reverse synchronization, synchronization, back synchronization, synchronization
Просмотров: 9042

← Предыдущая | 1 | 2 | 3 | 4 | 5 | 6 | Следующая →