ISSN 0236-235X (P)
ISSN 2311-2735 (E)

Публикационная активность

(сведения по итогам 2015 г.)
2-летний импакт-фактор РИНЦ: 0,339
2-летний импакт-фактор РИНЦ без самоцитирования: 0,227
Двухлетний импакт-фактор РИНЦ с учетом цитирования из всех
источников: 0,454
5-летний импакт-фактор РИНЦ: 0,324
5-летний импакт-фактор РИНЦ без самоцитирования: 0,251
Суммарное число цитирований журнала в РИНЦ: 3278
Пятилетний индекс Херфиндаля по цитирующим журналам: 571
Индекс Херфиндаля по организациям авторов: 420
Десятилетний индекс Хирша: 10
Место в общем рейтинге SCIENCE INDEX за 2014 год: 267
Место в рейтинге SCIENCE INDEX за 2014 год по тематике "Автоматика. Вычислительная техника": 11

Больше данных по публикационной активности нашего журнале за 2008-2015 гг. на сайте РИНЦ

Вход


Забыли пароль? / Регистрация

Добавить в закладки

Следующий номер на сайте

2
Ожидается:
16 Июня 2017

Статьи журнала №1 2017

11. Многопроцессорная обработка в задаче пространственной реконструкции по множеству видов [2017-03-13]
Авторы: Бобков В.А. (bobkov@iacp.dvo.ru) - Институт автоматики и процессов управления ДВО РАН, доктор технических наук Ph.D; Кудряшов А.П. (kudryashova@dvo.ru) - Институт автоматики и процессов управления ДВО РАН, кандидат технических наук Ph.D; Мельман С.В. (melman@dvo.ru) - Институт автоматики и процессов управления ДВО РАН, кандидат технических наук Ph.D;
Аннотация: Предлагается схема многопроцессорной обработки больших объемов пространственных данных на базе гибридного вычислительного кластера применительно к воксельному методу построения и визуализации 3D-модели сцены подводной обстановки. Рассматривается вычислительная схема воксельного метода, которая состоит из нескольких этапов обработки данных, включая загрузку исходных карт глубин многих видов, построение воксельного представления скалярного поля и построение изоповерхности по воксельному пространству. Вычислительная схема анализируется с точки зрения выявления наиболее вычислительно трудоемких этапов работы и целесообразности организации многопроцессорной обработки. Также рассматривается архитектура используемого гибридного вычислительного кластера, объединяющая три уровня многопроцессорной обработки: вычислительные узлы кластера, многоядерность и графические процессоры видеоплаты. Используются два типа параллельных архитектур: MPI (параллелизм в рамках кластера) и CUDA (параллелизм на графическом ускорителе). Предложенное решение по распределению вычислительной нагрузки основывается на учете характера вычислений на каждом этапе и особенностях используемых параллельных архитектур. Приводится обоснование реализуемой схемы многопроцессорной обработки с качественными и количественными оценками. Реализованная схема обработки данных обеспечивает максимальное ускорение процесса счета применительно к решению задачи 3D-реконструкции сцены на базе рассмотренного вычислительного кластера. Приведены результаты вычислительных экспериментов с реальными данными, полученными со сканера RangeVisionPremium5 Mpix. Анализ результатов тестирования подтвердил возможность принципиального повышения вычислительной производительности в рассматриваемой задаче за счет организации распределенно-параллельной обработки данных. Аналогичная схема может применяться и в других задачах, связанных с обработкой больших объемов пространственных данных.
The paper proposes a scheme for multiprocessing large volumes of spatial data based on the hybrid computing cluster. This scheme uses the voxel approach for reconstruction and visualization of 3D models of underwater scenes. There are several processing steps including loading various types of initial depth maps, construction of voxel representation of a scalar field and construction of an isosurface using voxel space. The authors analyze a computational scheme to identify the most computationally intensive stages and to understand whether multiprocessing is feasible. They also consider the hybrid computing cluster architecture, which combines three levels of multiprocessing: computing nodes, multi-core and GPU video cards. Two types of parallel architectures are used: MPI and CUDA (parallel computing on GPU). The proposed solution of processing load distribution is based on the nature of each stage and the features of used parallel architectures. The paper provides substantiation for the implemented scheme with qualitative and quantitative assessment. The implemented data processing scheme provides a maximum acceleration of a scene 3D reconstruction using the considered computational cluster. The paper presents the results of computational experiments with real data obtained from the scanner RangeVision Premium 5 Mpix. Test result analysis confirms a possibility of a fundamental increasing of computing performance for this problem by organizing distributed parallel processing. A similar scheme can be used to solve other problems related to handling large volumes of spatial data.
Ключевые слова: 3d-реконструкция, гибридный параллелизм, воксельный метод
Keywords: 3D-reconstruction, hybrid multiprocessing, voxel approach
Просмотров: 47

12. Редактирование и внесение информации в XML-документы автоматизированных информационных систем [2017-03-13]
Авторы: Трусов А.Н. (TrusovAlexander@hotmail.com) - Российский экономический университет им. Г.В. Плеханова (Кемеровский филиал), Аспирант ; Иванченко П.Ю. (Pavel-Ivanchenko@hotmail.com) - Российский экономический университет им. Г.В. Плеханова (Кемеровский филиал), Аспирант ; Кацуро Д.А. (Davidkacuro@hotmail.com) - Российский экономический университет им. Г.В. Плеханова (Кемеровский филиал), Аспирант ;
Аннотация: В статье рассматриваются вопросы редактирования и автоматизированного внесения изменений в защищенный от внешнего редактирования конфигурационный файл формата eXtensibleMarkupLanguage (XML) некоторой автоматизированной информационной системы финансово-аналитического содержания. Описываются основная идея и концепция создания модуля для редактирования и внесения информации в исходный XML-файл автоматизированной системы. Рассмотрен способ предоставления конечному пользователю функциональных возможностей информационной системы посредством размещения web-страницы в сети Интернет. Приведен алгоритм взаимодействия пользователя с модулями программы. Описана подробная техническая реализация алгоритма по редактированию и автоматизированному внесению изменений в конфигурационный файл автоматизированной информационной системы без прямого взаимодействия с самим программным продуктом. Детально проанализирована структура конфигурационного файла и сформированы требования к его формированию. Представлены фрагменты сформированной структуры конфигурационного файла информационной системы, а также программного кода обращения к элементу дерева в XML-файле. Выбрана подходящая программная реализация для внесения социальных и экономических параметров в конфигурационный файл без взаимодействия с программным продуктом. Потребность в использовании описанного подхода возникает в случаях необходимости оперативной обработки и визуального представления социально-экономической информации на базе ситуационных центров оперативной поддержки принятия экспертных решений в сфере анализа состояния и развития социально-экономических систем. Авторами реализован программный комплекс, состоящий из описываемого модуля и оптимизационной финансово-аналитической автоматизированной информационной системы, который прошел апробацию при решении задач социально-экономического анализа в Ситуационном центре регионального социально-экономического развития Кемеровского филиала Российского экономического университета имени Г.В. Плеханова.
The article considers the issues of automated editing and amending changes to a eXtensibleMarkupLanguage format (XML) configuration file protected from external editing in some automated information system (AIS) with financial and analytical content. It describes the basic idea and the concept of creating a module for editing and entering the infor-mation in an original XML-file in an automated system. It considers a method of providing information system functionality to an end-user by placing a web page on the Internet. The paper shows the algorithm of interaction between a user and program modules. It also describes in detail the technical implementation of the algorithm for editing and automated changing an AIS configuration file without direct interaction with software. The article analyzes the configuration file structure in detail and forms the requirements for its creation. It presents fragments of the configuration file formed structure in the information system, as well as the code referring to the tree element in the XML-file. The authors select the appropriate software implementation to enter social and economic parameters into a configuration file without interaction with a software product. The described approach is necessary when there is a need in operational processing and visual representation of socio-economic information based on situational centers of operational support decision-making in expert analysis of the state and development of socio-economic systems. The authors implemented a software package consisting of the described module and the optimization of financial and analytical AIS, which has been tested in solving problems of social and economic analysis of the situation center in the regional socio-economic development of the Kemerovo branch of the Russian University of Economics named after G.V. Plekhanov.
Ключевые слова: xml-документ, web-разработка, ситуационный центр, информационные технологии, автоматизированная информационная система
Keywords: xml document, web-development, situational centre, information technologies, automated information system
Просмотров: 48

13. Методы автоматической классификации текстов [2017-03-13]
Авторы: Батура Т.В. (tbatura@ngs.ru) - Институт систем информатики им. А.П. Ершова СО РАН, кандидат физико-математических наук Ph.D;
Аннотация: Классификация текстов является одной из основных задач компьютерной лингвистики, поскольку к ней сводится ряд других задач: определение тематической принадлежности текстов, автора текста, эмоциональной окраски высказываний и др. Для обеспечения информационной и общественной безопасности большое значение имеет анализ в телекоммуникационных сетях контента, содержащего противоправную информацию (в том числе данные, связанные с терроризмом, наркоторговлей, подготовкой протестных движений или массовых беспорядков). Данная статья представляет собой обзор методов классификации текстов, целями которого являются сравнение современных методов решения задачи классификации текстов, обнаружение тенденций развития данного направления, а также выбор наилучших алгоритмов для применения в исследовательских и коммерческих задачах. Широко известный современный подход к классификации основывается на методах машинного обучения. В данной статье описываются наиболее распространенные алгоритмы построения классификаторов, проводимые с ними эксперименты и результаты этих экспериментов. Обзор подготовлен на основе выполненных за 2011–2016 гг. научных работ, находящихся в открытом доступе в сети Интернет и опубликованных в авторитетных журналах или в трудах международных конференций, высоко оцениваемых научным сообществом. В статье произведены анализ и сравнение качества работы различных методов классификации по таким характеристикам, как точность, полнота, время работы алгоритма, возможность работы алгоритма в инкрементном режиме, количество предварительной информации, необходимой для классификации, независимость от языка.
Text classification is one of the main tasks of computer linguistics because it unites a number of other problems: theme identification, authorship identification, sentiment analysis, etc. Content analysis in telecommunication networks is of great importance to ensure information security and public safety. Texts may contain illegal information (including data related to terrorism, drug trafficking, organization of protest movements and mass riots). This article provides a survey of text classification methods. The purpose of this survey is to compare modern methods for solving the text classification problem, detect a trend direction, and select the best algorithm for using in research and commercial problems. A well-known modern approach to text classification is based on machine learning methods. It should take into account the characteristics of each algorithm for selecting a particular classification method. This article describes the most popular algorithms, experiments carried out with them, and the results of these experiments. The survey was prepared on the basis of scientific publications which are publicly available on the Internet, made in the period of 2011–2016, and highly regarded by the scientific community. The article contains an analysis and a comparison of different classification methods with the following characteristics: precision, recall, running time, the possibility of the algorithm in incremental mode, amount of preliminary information necessary for classification, language independence.
Ключевые слова: классификация текстов, анализ текстовой информации, обработка данных, машинное обучение, нейронные сети, качество классификации
Keywords: text categorization, analysis of text information, data processing, machine learning, neural network, quality of classification
Просмотров: 59

14. Методы автоматизированного анализа коротких неструктурированных текстовых документов [2017-03-13]
Авторы: Козлов П.Ю. (originaldod@gmail.com) - Смоленский филиал Национального исследовательского университета МЭИ, Аспирант ;
Аннотация: В работе рассматриваются задачи автоматизированного анализа текстовых документов в органах исполнительной и законодательной власти. Выделяется группа признаков для классификации текстовых документов, приводятся их типы, методы анализа и рубрицирования. Определяется перечень типов документов, которые необходимо классифицировать. Для анализа коротких неструктурированных текстовых документов предлагается использовать метод классификации на основе весовых коэффициентов, экспертной информации, нечеткого логического вывода, для которого усовершенствована вероятностная математическая модель, разработан способ обучения и экспериментально подобрано соотношение весовых коэффициентов. Предварительно разработанный метод необходимо обучить. На этапе обучения слова тезауруса для каждой предметной области разбиваются на три типа: уникальные, редкие и общие, и в зависимости от типа словам присваиваются весовые коэффициенты. Для поддержания актуальности весовых и частотных коэффициентов предлагается использовать динамическую кластеризацию. Разработанный метод позволяет анализировать описанные документы, а также учесть динамичность тезауруса рубрик. Представлена схема работы системы автоматизированного анализа неструктурированных текстовых документов, написанных на естественном языке, различных типов: длинные, короткие, очень короткие. В зависимости от типа документа используется соответствующий метод анализа, который имеет наилучшие показатели точности и полноты при анализе текстовых документов данного типа. В качестве синтаксического анализатора используется парсер MaltParser, обученный на национальном наборе русского языка. Результатом работы всей системы можно считать базу знаний, в которую попадают все извлеченные знания и их отношения. База знаний постоянно пополняется и используется работниками исполнительной и законодательной власти для обработки поступающих запросов.
The paper considers the problem of an automated analysis of text documents in the executive and legislative authorities. It provides a characteristics group in order to classify text documents, their types, methods of analysis and rubricating. There is a list of the types of documents that need to be classified. To analyze short unstructured text documents the authors propose to use a classification method based on weighting factors, expert information, fuzzy inference with a developed probabilistic mathematical model, a way of learning and experimentally chosen ratio of weight coefficients. The pre-developed method should be trained. During learning the thesaurus words for each domain are divided into three types: unique, rare and common. The words are allocated with weights depending on the type. In order to maintain the relevance of weight and frequency coefficients it is proposed to use dynamic clustering. The developed method allows analyzing the disclosed documents, as well as taking into account thesaurus heading agility. The paper presents a scheme of automatic classification system for unstructured text documents written in natural language. There might be various types of text documents: long, short, very short. Depending on the document type the system uses a corresponding method of analysis, which has the best indicators of accuracy and completeness of such text document analysis. MaltParser is a parser which is used here and trained on a national set of the Russian language. The result of the whole system work is a knowledge base, which includes all extracted knowledge and attitudes. The knowledge base is constantly updated and used by employees of the executive and legislative authorities to handle incoming requests.
Ключевые слова: динамичный тезаурус, короткие неструктурированные тексты, автоматизированный анализ текстов
Keywords: dynamic thesaurus, short texts unstructured, analysis automated analysis of texts
Просмотров: 52

15. Использование геометрии сцены для увеличения точности детекторов [2017-03-13]
Авторы: Шальнов Е.В. (eshalnov@graphics.cs.msu.ru ) - Московский государственный университет им. М.В. Ломоносова, Аспирант ; Конушин А.С. (ktosh@graphics.cs.msu.ru) - Московский государственный университет им. М.В. Ломоносова, кандидат физико-математических наук Ph.D;
Аннотация: Ключевым элементом любых систем интеллектуальной видеоаналитики является алгоритм выделения, или детектирования объектов в видео. Недостаточно высокие скорость и точность существующих алгоритмов детектирования являются существенными сдерживающими факторами распространения технологий видеоаналитики. В данной работе предлагается новый алгоритм повышения скорости и точности работы детекторов, основанных на подходе скользящего окна, за счет учета геометрических свойств сцены. В зависимости от расположения камеры относительно сцены для каждой области изображения можно определить, какого размера может быть изображение искомого объекта в данной области. Окна других размеров не могут соответствовать искомым объектам в сцене, поэтому их можно пропускать и за счет этого увеличивать скорость работы детектора. Предлагаемый алгоритм позволяет определить допустимые размеры объекта для каждой области изображения. Сутью алгоритма является нейронная сеть, которая для таких заданных параметров, как калибровка камеры, размер и положение объекта на снимке, определяет, правдоподобна ли данная сцена. Нейронная сеть обучается на множестве синтетических сцен, что позволяет ей работать для произвольных камер. С помощью нейронной сети для каждой видеопоследовательности строится карта допустимых размеров объектов. Детектор затем применяется только к допустимым фрагментам, которые составляют часть от всего множества фрагментов. Экспериментальная оценка предложенного алгоритма на реальных данных показала, что он позволяет повысить скорость работы детектора на 70 % при одновременном увеличении точности его работы.
Object detection algorithms are the key component of any intelligent video content analysis systems. High computation requirements and low precision of existing methods restrain widespread acceptance of intelligent video content analysis. The paper introduces a novel algorithm that accelerates existing sliding window object detectors and increases their precision. This approach is based on the geometric properties of an observed scene. If the camera position in the scene is known, we can determine feasible sizes of detected objects in each location of an input image. Windows of other sizes cannot correspond to objects in a scene and thus could be skipped. It significantly decreases computation time. The proposed algorithm estimates feasible sizes of object for each location of an input image. We apply Neural Network (NN) to solve this task. A NN takes camera calibration parameters and window parameters as the input and determines if this configuration feasible or not. We train the NN on the synthetic dataset. It allows us to take into account a huge range of camera calibration parameters. We apply the NN to construct a map of feasible object sizes for the input scene. Thus the detector processes the feasible subset of windows. The performed evaluation reveals that the proposed algorithm accelerates processing by 70 % and increases precision of a detector.
Ключевые слова: нейронные сети, компьютерное зрение, обнаружение объектов, видеоаналитика, компьютерная графика, распознавание образов
Keywords: neural network, computer vision, objects detection, video analytics, computer graphics, pattern recognition
Просмотров: 49

16. Программный агент определения психологического состояния обучаемого в системах дистанционного обучения [2017-03-13]
Авторы: Е.Л. ХРЯНИН (evgeshah@list.ru) - Вологодский государственный университет, Банк «Вологжанин», Аспирант ; Швецов А.Н. (smithv@mail.ru) - Вологодский государственный технический университет, доктор технических наук Ph.D;
Аннотация: Рассматривается проблема применения программных агентов для оценки психологического состояния студентов в системе дистанционного обучения. Гипотеза исследования: чем лучше психологически материал подходит обучаемому, тем быстрее и качественнее он будет усвоен. Требуется разработать автоматический алгоритм подбора материала. Описывается разработанная система дистанционного обучения, создаваемая более 5 лет и апробированная в одном из государственных вузов. Кратко описана реализация системы дистанционного обучения: схема взаимодействия агентов, основные таблицы БД, реализация серверной и пользовательской частей. Описываются метод и алгоритм определения перцептивной модальности обучаемого в ходе психологического тестирования. Использованы статистические методы для предсказания вероятности входа в систему обучаемым (на основе данных статистики). Предложены весовые коэффициенты частоты использования системы дистанционного обучения обучаемыми для принятия решений агентом определения психологического состояния. Создан алгоритм автоматического решения о необходимости тестирования. Проведено исследование на основе трех групп с участием более 90 человек: контрольная группа, группа с рекомендацией в выборе материала и группа, для которой агент сам выбирает материал. Выведены формулы расчета перцептивной модальности для нескольких последовательных измерений. Приведен пример уточнения расчета при получении противоречивых данных. Эксперимент показал положительные результаты при работе в рекомендательном режиме. С контрольным тестом справились более 61 % обучаемых, а усложненную задачу решили более половины группы (около 42 % и 12 % в контрольной группе соответственно). Сделан вывод о целесообразности применения агента определения психологического состояния в системах дистанционного обучения.
The article considers the problem of using software agents to assess students’ psychological state in an e-learning system. The hypothesis of the study is the following: the more psychologically acceptable material for a student, the faster and better it is learned. It is required to develop an automatic algorithm for selection of material. The article describes the developed e-learning system, which has been developed over 5 years and tested in one of the state universities. There is a brief description of e-learning system implementation that includes the agent interaction scheme, main database tables, backend and frontend implementation. The paper also describes a method and an algorithm to determine student’s perceptual modality during psychological testing. It uses statistical methods to predict the probability of logging-in (based on statistics). The authors propose weight coefficients of frequency of using e-learning system by students for the agent, which determines their psychological state, to make decisions. The paper describes the created algorithm of an automatic decision on the need in testing. The study involved 3 groups: a control group, a group with recommendation of material and a group with material chosen by an agent. The study involved more than 90 people. The study has formed formulas for perceptual modality calculation for several consecutive measurements. There is an example of calculation clarification for contradictory data. The experiment has shown positive results when using a recommendation mode. More than 61 % of students have passed the control test, and more than a half of the group has solved a difficult task (about 42 % and 12 % in the control group respectively). There is a conclusion on expediency of using the psychological state definition agent in e-learning systems.
Ключевые слова: mvc, mysql, php, оценка результатов обучения, перцептивная модальность, диагностика психологического состояния, система дистанционного обучения, интеллектуальная система, агентно-ориентированный подход
Keywords: mvc, MySQL, php, learning outcome assessment, perceptual modality, psychological state diagnostics, e-Learning Management System, intellectual system, agent-oriented approach
Просмотров: 45

17. Мониторинг частотного ресурса геостационарных спутников-ретрансляторов с использованием энтропии покрытия [2017-03-13]
Авторы: Сухов А.В. (avs57@mail.ru) - Московский авиационный институт (национальный исследовательский университет), доктор технических наук Ph.D; Решетников В.Н. (kirillam@ya.ru) - Центр визуализации и спутниковых информационных технологий ФНЦ НИИСИ РАН, доктор физико-математических наук Ph.D; Савилкин С.Б. (savilkin@mail.ru) - Московский авиационный институт (национальный исследовательский университет), Волоколамское шоссе, 4, г. Москва, 125993, Россия, кандидат физико-математических наук Ph.D;
Аннотация: Рассмотрен мониторинг радиочастотного спектра для спутников-ретрансляторов, размещаемых на геостационарных орбитах. При этом решена оптимизационная задача обнаружения источников помех при заданных времени поиска и точности определения координат источников помех. Оптимизационная задача решена в целевом информационном пространстве, основанном на энтропии покрытия. Определение местоположения наземных несанкционированных радиопередатчиков выполняется путем анализа временной задержки сигнала и доплеровского смещения частоты сигнала. Местоположение источника помех на поверхности Земли можно определить, используя сигналы передатчика, ретранслируемые через одиночный спутник связи на геостационарной орбите. Небольшой доплеровский сдвиг несущей частоты сигнала, вызванный небольшим перемещением данного спутника на орбите относительно поверхности Земли, можно использовать для расчета местоположения передатчика. В настоящей работе основное внимание сосредоточено на потенциальной точности оценок и выборе эффективного в смысле минимума энтропии покрытия подхода к оптимизации времени измерений. Время сеанса проведения измерений, отношение сигнал/шум и параметры проведения измерений взаимосвязаны между собой. Отношения между реальными и нормативными параметрами измерений использованы в информационной мере – энтропии покрытия. Энтропия покрытия характеризует эффективность систем, которые могут быть представлены вектором показателей эффективности, в соответствии с их целевым применением. Минимальное значение, равное нулю, означает, что нормативные требования выполнены полностью, а положительные значения характеризуют уровень обобщенного несоответствия нормативным требованиям. С использованием энтропии покрытия проведена оценка информационной потенциальной эффективности при обнаружении координат источника помех с использованием эффекта доплеровского сдвига частоты.
The paper considers radio-frequency spectrum monitoring for repeater satellites placed in geostationary orbits. It solves the optimization problem of interference source detection with the given search time and definition accuracy of in-terference source coordinates. The optimization problem is solved in the target information space based on covering entropy. Positioning of ground unauthorized radio transmitters is performed by analyzing a signal time delay and Doppler shift signal frequency. The location of an interference source on the Earth's surface can be determined by transmitter signals, which are relayed through a single communications satellite to a geostationary orbit. A small Doppler shift of the signal carrier frequency, which is caused by a small displacement of a satellite on the orbit against the Earth's surface, can be used to calculate the transmitter location. The paper focuses on potential accuracy of estimation and the choice of an efficient approach (in the sense of the minimum covering entropy) to optimization of measurement time. Measurement session time, a signal-to-noise ratio and measurement parameters are interrelated. The relationships be-tween real and specified parameters of measurements are used in information measure which is covering entropy (A. Su-khova). The covering entropy characterizes the efficiency of systems that can be represented by a vector of performance indicators in accordance with their intended use. The minimum value of zero means that regulatory requirements are fulfilled, the positive values characterize the level of generalized compliance. The authors evaluated information potential efficiency in detection of interference source coordinates using the Doppler frequency shift effect based on covering entropy.
Ключевые слова: мониторинг радиочастотного спектра, энтропия покрытия, геостационарная орбита, средства измерений, оценка
Keywords: spectrum monitoring, covering entropy, geostationary orbit, measuring tools, estimation
Просмотров: 44

18. Статистический анализ результатов испытаний изделий авиационной техники в условиях случайного цензурирования [2017-03-13]
Авторы: Агамиров Л.В. (avl095@mail.ru) - «МАТИ»-РГТУ им. К.Э. Циолковского, доктор технических наук Ph.D; Агамиров В.Л. (mmk@mati.ru) - Московский авиационный институт (национальный исследовательский университет), Аспирант ; Вестяк В.А. (kaf311@mai.ru) - Московский авиационный институт (национальный исследовательский университет), кандидат физико-математических наук Ph.D;
Аннотация: В работе рассматривается методика точечного и интервального оценивания параметров распределений, применяемых при статистическом анализе усталостных испытаний элементов авиационных конструкций на базе метода наименьших квадратов, учитывающая наличие цензурированных наблюдений. Актуальность работы определяется тем, что при решении задачи оценивания параметров распределений характеристик усталостных свойств для статистического анализа результатов усталостных испытаний изделий авиационной техники необходимо учитывать образцы, для которых произошла остановка испытаний до достижения ими критического состояния. Решение данной задачи с использованием известных методов (метода максимального правдоподобия) затруднено из-за немонотонности целевых функций, наличия ряда локальных экстремумов и т.д. Первая часть статьи посвящена методике оценивания параметров распределения наблюдаемой случайной величины для полной выборки, преобразованной из многократно цензурированной (неполной) выборки путем бутстреп-моделирования, основанного на порядковых статистиках. Преобразование исходной случайно цензурированной выборки в квазиполную осуществляется для того, чтобы можно было использовать метод наименьших квадратов для оценки параметров распределения, поскольку этот метод применим только для полных выборок. Во второй части статьи говорится о построении доверительных границ для квантиля распределения наблюдаемой случайной величины. В авиационной технике это применимо для оценки гарантированного ресурса, нормируемого по нижней доверительной границе квантиля долговечности. Авторами разработана методика приведения в общем случае многократно цензурированной неполной выборки к эквивалентной квазиполной выборке, для которой можно использовать метод наименьших квадратов, а следовательно, получить наиболее устойчивые и эффективные оценки с минимальной дисперсией. Таким образом, решена задача точечного и интервального оценивания параметров распределений характеристик усталостных свойств элементов авиационных конструкций с учетом наличия многократно цензурированных наблюдений.
The article considers a technique of point and interval estimation of distribution parameters applied in statistical analysis of fatigue tests of aircraft structural elements based on the least squares method. The technique considers censored observations. Relevance of the study is defined by the fact that when estimating distribution parameters for fatigue properties characteristics for a statistical analysis of fatigue tests of aircraft equipment it is necessary to take into account the results of the samples with the test finished before reaching a critical condition. The solution of this problem using known methods (maximum likelihood method) is complicated due to objective function nonmonotonicity, a number of local extremes, etc. The first part of the article is devoted to a technique of estimating distribution parameters of observed random variables for a complete sample, which were transformed from repeatedly censored (incomplete) sample by bootstrap simulation based on order statistics. Transformation of an original randomly censored sample into a quasicomplete one is carried out in order to use the least squares method to estimate distribution parameters since this method is applicable only for a complete sample. The second part of the article is devoted to construction of confidence limits for a quintile of observed random variable distribution. In the aircraft engineering it is applicable for assessment of a guaranteed resource normalized on a lower confidence limit of a durability quintile. The article considers a reduction technique of repeatedly censored incomplete sample in a general case to an equivalent quasicomplete sample, for which it is possible to use the least squares method and receive the most stable and efficient evaluation with minimum dispersion. Thus, the problem of point and interval estimation of distribution parameters of fatigue properties characteristics of aircraft structure elements considering multicensored observations is solved.
Ключевые слова: живучесть, бутстреп-моделирование, метод наименьших квадратов, порядковые статистики, случайное цензурирование
Keywords: survivability, bootstrapped modeler, method of least squares, order statistics, random censoring
Просмотров: 52

19. Алгоритм детектирования объектов на фотоснимках с низким качеством изображения [2017-03-13]
Авторы: Викторов А.С. (alsevictor@mail.ru) - Костромской государственный университет, Аспирант ;
Аннотация: В статье рассматривается набор алгоритмов, применяемых для распознавания объектов определенного класса на фотоснимках с некачественным изображением, полученных с видеокамеры низкого разрешения. Особенностью рассматриваемой методики детектирования объектов является возможность обнаружения объектов, размеры изображений которых на фотоснимках не превышают нескольких десятков пикселей. Исследуемое изо- бражение сканируется скользящим окном, считывающим участки изображения с заданным перекрытием между соседними участками. Сканируемые участки изображения предварительно обрабатываются дискриминативным автокодировщиком, извлекающим вектор признаков из участка изображения, который анализируется мультиклассовым классификатором, построенным на основе вероятностной модели регрессии, на предмет наличия изображения или части изображения объекта. Для каждого сканируемого участка изображения классификатор вычисляет значение вероятности обнаружения детектируемого объекта определенного класса на данном участке. На основании результатов сканирования изображения делается вывод о наличии изображения объекта и о его наиболее вероятном положении на фотоснимке. Для повышения точности обнаружения границ изображения значение вероятности обнаружения детектируемого объекта определенного класса интерполируется для каждого анализируемого пикселя изображения. После детектирования пикселей на основании их распределения на изображении уточняются границы изображения детектируемого объекта. В ходе проведенного исследования было обнаружено, что использование дискриминативного автокодировщика значительно повысило робастность алгоритма детектирования. В статье дано подробное описание процесса обучения и настройки параметров алгоритмов, используемых в процессе детектирования. Результаты данного исследования могут найти широкое применение для автоматизации различных процессов, например для сбора и анализа информации в различных аналитических системах.
The article considers a set of algorithms for specified class object recognition in low quality photographs obtained via camera with low resolution. A special feature of the considered method of object detection is the ability to detect objects even if their sizes in images don't exceed several tens of pixels. Each processed image is scanned via sliding window of fixed width and height that reads rectangular image regions with specified overlap between neighboring regions. All scanned image regions are preliminarily processed by a discriminative autoencoder to extract feature vector from a processed image region. Further analysis of an extracted vector includes classifier means on the basis of probabilistic multinomial regression model to check the scanned region of image if there is object image or its parts. The classifier calculates the probability of detection of a certain class detectable object in each scanned image region. On the basis of an image scan result there is a conclusion on the object image presence and its most probable position in the photograph. To improve the accuracy of calculation of detected object image boundaries, the value of a detection probability of a certain detectable object is interpolated for each pixel, which is analyzed for belonging to the image of the object. After that, on the basis of the detected pixel distribution on the image it is possible to estimate the boundaries of the detected object. The experiment has revealed that using a discriminative autoencoder significantly increases detection algorithm robustness. The article also gives a detailed description of a learning and algorithm parameters adjustment process. The results of this research can be widely used to automate various processes, for example, to collect and analyze information in various analytical systems.
Ключевые слова: каскадный шумоподавляющий автокодировщик, метод релевантных векторов, нейронная сеть, функция потерь, обучающая выборка, признаковое описание объекта, детектирование объектов, функции правдоподобия
Keywords: cascading noise-canceling autocoder, relevance vector machine, neural network, loss function, learning sample, feature vector, object detection, likelihood function
Просмотров: 54

20. Автоматический синтаксический анализ китайских предложений при ограниченном словаре [2017-03-13]
Авторы: Юй Чуцяо (yuchuqiao123@gmail.com) - Санкт-Петербургский национальный исследовательский университет информационных технологий, механики и оптики (Университет ИТМО), Аспирант ; Бессмертный И.А. (igor_bessmertny@hotmail.com) - Санкт-Петербургский национальный исследовательский университет информационных технологий, механики и оптики (Университет ИТМО) , доктор технических наук Ph.D;
Аннотация: В работе обсуждается проблема автоматического анализа естественно-языковых текстов на китайском языке. Одной из актуальных задач в этой области является автоматическое извлечение из текстовых документов фактов по запросу, поскольку автоматические переводчики здесь практически бесполезны. Целью работы является прямое извлечение фактов из текстов на языке оригинала без его перевода. Для этого предлагается подход на основе синтаксического анализа предложений анализируемого текста с последующим сопоставлением найденных частей речи с формализованным запросом в форме субъект–предикат–объект. Отличительная особенность предложенного алгоритма синтаксического анализа – отсутствие фазы сегментации последовательности иероглифов, составляющих предложения, на слова. Узким местом при решении данной задачи является словарь, поскольку при отсутствии слова в словаре правильная интерпретация фразы может быть невозможна. Для преодоления этой проблемы в работе предлагается идентификация модели предложения по служебным словам, а ограниченность словаря устраняется предварительным автоматическим построением тезауруса предметной области и словаря общеупотребительных слов на основе статистической обработки корпуса документов. Апробация предложенного подхода выполнена на небольшой предметной области и с ограниченным словарем, где данный метод показал свою работоспособность. Проведен также анализ временных характеристик разработанного алгоритма. Поскольку для синтаксического анализа используется метод простого перебора, скорость работы парсера на реальных задачах может оказаться неприемлемо низкой, что должно стать темой дальнейших исследований.
The paper considers a problem of natural language processing of Chinese texts. One of the relevant tasks in this area is automatic fact acquisition by a query since existing automatic translators are useless for this task. The suggested approach includes a syntactic analysis of phrases and matching parts of speech founded with a formalized query. The purpose of the study is direct fact extracting from original texts without translation. For this purpose the paper suggests to use an approach based on syntactic analysis of sentences from a text with further comparison of the found parts of speech with a formalized subject–object–predicate query. A key feature of the proposed approach is a lack of a segmentation phase of a hieroglyph sequence in a sentence by words. The bottleneck at this task is a dictionary because interpretation of a sentence is impossible without even a single word in the dictionary. To eliminate this problem the authors propose to identify a sentence model by function words while restraint of the dictionary could be compensated by automatic building of a thesaurus using statistical processing of a document corpus. The suggested approach is tested on a small topic where it demonstrates its robustness. There is also an analysis of temporal properties of the developed algorithm. As the proposed algorithm uses a direct-search method, the parsing speed for real tasks could be unacceptably low and this is a subject for further research.
Ключевые слова: естественные языки, синтаксический анализ, извлечение фактов, тезаурус, дерево поиска
Keywords: natural language, syntactic analysis, fact extraction, thesaurus, search tree
Просмотров: 47

← Предыдущая | 1 | 2 | 3 | Следующая →