Авторитетность издания
ВАК - К1
RSCI, ядро РИНЦ
Добавить в закладки
Следующий номер на сайте
№1
Ожидается:
24 Декабря 2024
Статьи журнала №4 2013
51. Контроль ошибочных действий оператора при отработке на тренажере [№4 за 2013 год]Авторы: Кобзев В.В. (avrora-so31@mail.ru) - Концерн «НПО «Аврора» (профессор, главный научный сотрудник), доктор технических наук; Сизов Ю.Н. (avrora-so31@mail.ru) - Концерн «НПО «Аврора» (старший научный сотрудник), доктор технических наук; Скипидарников А.С. (avrora-so31@mail.ru) - Концерн «НПО «Аврора» (инженер-программист 2-й категории); Шилов Д.К. (avrora-so31@mail.ru) - Концерн «НПО «Аврора» (инженер );
Аннотация: Предложен подход к автоматизации контроля ошибок оператора в процессе тренажерной подготовки на основе метода эталона. Под эталоном в данном случае понимается алгоритм, записанный на основе инструкции по управлению. Отклонения обучающегося оператора от эталона и будут его ошибками, минимизация которых является целью обучения. Рассмотрены следующие виды ошибок: пропуск операции, пропуск операции с учетом ее качества, перестановка и добавление операций. Показано определение ошибок в последовательных и ветвящихся структурах. Ветвящиеся структуры описываются с помощью логических операций сравнения, операций функционального контроля и операций контроля работоспособности. В качестве примера ветвящегося алгоритма рассмотрена комплексная операция «Работа–Контроль». Приводится функциональная структура программного обеспечения учебно-тренировочного режима. Подробно рассмотрены вопросы, связанные с формированием эталонного решения учебного задания и сравнением хода тренировки с эталонным решением. Формирование эталонного решения производится редактором эталонных решений, который является встроенной утилитой редактора заданий на тренировку. При наличии в задании на проводимую тренировку эталонного решения предлагается формировать автоматическую оценку выполнения задания путем сравнения фактического хода тренировки с этим решением. Общая оценка выполнения задания определяется оценками отдельных действий, формируется по наихудшей из имеющихся частных оценок с учетом общего лимита времени на выполнение учебного задания.
Abstract: The article offers the approach to automation of operator's error control when simulation training based on a model method. In this case the model is the algorithm written based on operating instructions.
Deviations of an operator from the model are his errors to be minimized as a result of training.
The following types of errors are considered: missing an operation, missing an operation considering its quality, relocation and adding operations.
Detection of errors in serial and branching structures is shown in the article.
The branching structures are described using logic operations of comparison, functional checks operations and performance monitoring operations. Complex operation "Performance-Check" is considered as an example of brunching algorithm.
Functional structure of training mode structure is presented.
The issues are scrutinized considering a formation of model solution of training task and comparison of training process with model solution.
Formation of model solution is performed by model solution editor that is a built-in utility of training task editor.
In case the model solution is present in a current training task, it is offered to form automatic evaluation of task fulfillment by comparing actual training process with this solution.
General evaluation of task fulfillment, determined by evaluation of single actions, is formed according to the worst of existing partial estimates, taking into account total limit of time allotted for fulfillment of training task.
Ключевые слова: управление, операция, функциональная сеть, эталон, инструкция, попарное сравнение, алгоритм, ошибка, операторKeywords: control management, operation, functional network, standard, model, pair- wise comparison, algorithm, mistake (error), operator
Просмотров: 11674
52. Способ трехмерной визуализации эксплуатационных параметров тепловыделяющих элементов реакторов ВВЭР-1000 [№4 за 2013 год]
Авторы: Левщанов В.В. (master_v@inbox.ru) - Ульяновский государственный педагогический университет им. И.Н. Ульянова (старший научный сотрудник), кандидат технических наук; Лавыгин Д.С. (andrew.tsyganov@gmail.com) - Ульяновский государственный педагогический университет (старший научный сотрудник), кандидат технических наук;
Аннотация: Рассматриваются вопросы, касающиеся способов трехмерного отображения эксплуатационных и геометрических характеристик тепловыделяющих элементов и тепловыделяющих сборок реакторов типа ВВЭР-1000, реализованных в авторском программном продукте Fuel Elements Data System. Предложены современные подходы к написанию приложения, обладающего полноценным графическим пользовательским интерфейсом и реализующего функционал клиента системы управления базами данных Firebird, на основе программных открытых библиотек Nokia Qt, QwtPlot и GLC_lib. Таким образом, использование данных средств позволило реализовать ряд новых функциональных возможностей при построении графиков, в числе которых удобное масштабирование графиков распределения величин и автоматическое задание пределов на координатных осях. В качестве основного инструмента при проектировании интерфейса окон визуализатора применялась программная библиотека GLC_lib, что позволило обеспечить широкие функциональные возможности, связанные с отображением сборки тепловыделяющих элементов, включающие в себя возможности управления положением камеры трехмерной сцены, освещением, наложением текстур и цвета, выбор произвольного объекта сцены с помощью курсора. Применение данной программной библиотеки в составе Nokia Qt SDK, включающей в себя программную среду разработки Nokia Qt Creator, позволило снабдить создаваемый программный продукт рядом дополнительных функциональных возможностей. Особое внимание уделено проблемам представления и цветового кодирования извлекаемой из БД информации.
Abstract: The article considers the issues of 3D graphical representation of operational and geometric characteristics of fuel elements and fuel assemblies of VVER-1000, which are implemented in Fuel Elements Data System software. The paper proposes modern approaches to writing an application with a graphical user interface, which implements the Firebird database client, based on open software libraries such as Nokia Qt, QwtPlot and GLC_lib. Thus, using these tools allows creating a number of new features in charts constructing, including: easy chart scaling and automatic setting the limits on the coordinate axes. The main tool in the design of the visualizer window interface was GLC_lib software library. It provided features for the displaying assembly of fuel elements, including the functions to control the position of the three-dimensional scene camera, lighting, texturing and color. Any object in the scene can be selected by a cursor. This software library within Nokia Qt SDK which includes Nokia Qt Creator software environment, provides additional functional features for developing software product.Special attention is paid to problems of representation information extracted from the database.
Ключевые слова: qwtplot, glc_lib, qt, opengl, трехмерное отображение, программные библиотеки, топливные элементы, визуализаторKeywords: qwtplot, glc_lib, qt, opengl, three-dimensional scenes, software libraries, fuel elements, visualizer
Просмотров: 8862
53. Предварительная обработка видеопоследовательности для публикации в электронной библиотеке [№4 за 2013 год]
Авторы: Дамов М.В. (me@damov.pro) - ибирский государственный аэрокосмический университет им. академика М.Ф. Решетнева (доцент), доктор технических наук; Буряченко В.В. (buryachenko@sibsau.ru) - Сибирский государственный аэрокосмический университет им. акад. М.Ф. Решетнева, г. Красноярск (доцент), кандидат технических наук; Пахирка А.И. (pahirka@sibsau.ru) - ибирский государственный аэрокосмический университет им. академика М.Ф. Решетнева (доцент), кандидат технических наук; Зотин А.Г. (zotinkrs@gmail.com) - Сибирский государственный аэрокосмический университет им. акад. М.Ф. Решетнева, г. Красноярск (доцент), кандидат технических наук;
Аннотация: Рассматриваются методы повышения качества встроенных видеопоследовательностей при подготовке электронных книг и других электронных библиотечных мультимедиаресурсов. В качестве этапов обработки видеоматериалов рассмотрены нелинейная коррекция освещенности изображения, детектирование смены сцены с предварительной оценкой движения объектов в сцене, а также с предварительной оценкой качества изображения, стабилизация изображения методами восстановления границ кадра. Нелинейная коррекция освещенности выполняется при помощи модифицированного MSR-алгоритма, позволяющего повысить контрастность деталей изображения в областях высокой яркости. Алгоритм стабилизации видеопоследовательности основан на методе соответствия блоков и позволяет устранить эффекты дрожания камеры. При стабилизации используется интерполяция соседних кадров, что обеспечивает меньшие потери содержимого на границах кадров. Предлагается проводить оценку качества кадров видеопоследовательности, которая позволяет детектировать случаи смены сцены, а также высокий уровень помех. Приведено описание методики тестирования и полученных результатов по повышению качества видеопоследовательности.
Abstract: This paper presents methods for increasing the quality of embedded video sequences when preparing digital books and other digital library multimedia resources. They are presented as processing stages: non-linear correction of image brightness, scene replacement detection with preliminary motion estimation in the scene and preliminary quality estimation of the frame, image stabilization with frame borders restoration methods. Non-linear correction of images brightness performs using modified MSR-algorithm which allows increasing the contrast of image details in of high brightness areas. The algorithm of video sequence stabilization is based on block matching method and allows removing frame-to-frame jitter effect. An interpolation of neighboring frames is used when stabilizing. It provides less image content loss on frame borders. It is offered to evaluate the quality of video sequence frame that allows detecting cases of scene changes and high level noise. A description of testing and results of the increase of video sequences quality it presented.
Ключевые слова: электронные библиотеки, электронные публикации, коррекция движения, коррекция освещенности изображения, интерполяция кадров, оценка движения, стабилизация видеоKeywords: digital libraries, digital publication, motion correction, image brightness correction, frame interpolation, motion evaluation, video stabilization
Просмотров: 13648
54. Формальные методы установления авторства текстов и их реализация в программных продуктах [№4 за 2013 год]
Авторы: Батура Т.В. (tatiana.v.batura@gmail.com) - Институт систем информатики им. А.П. Ершова СО РАН (старший научный сотрудник), кандидат физико-математических наук;
Аннотация: В данной статье делается обзор методов установления авторства текстов. В ней также описаны наиболее известные программные системы для определения авторского стиля, ориентированные на русский язык, предпринята по- пытка произвести их сравнительный анализ, выявить особенности и недостатки рассмотренных подходов. Задачу атрибуции текста чаще всего решают с целью идентификации автора, исходя из того, что автор текста известен. При этом анализ синтаксического, лексико-фразеологического и стилистического уровней текста представляет наибольший интерес и наибольшую сложность. Экспертный анализ авторского стиля является трудоемким процессом, поэтому в работе уделяется внимание именно формальным методам атрибуции. В настоящее время для установления авторства текстов применяются подходы из теории распознавания образов, математической статистики и теории вероятностей, алгоритмы нейронных сетей, кластерного анализа и др. К проблемам, затрудняющим исследования в области атрибуции текстов, относятся выбор лингвостилистических параметров, характеризующих текст и стиль автора, и составление выборки эталонных текстов. Имеющиеся программные продукты не ориентированы на комплексное исследование и сравнение результатов, они применяются для разных задач анализа стилей текстов с использованием различных частотных признаков и различного тестового материала. Необходимо проводить дальнейшие исследования, направленные на поиск новых или совершенствование уже имеющихся методов атрибуции текстов. Не менее важным является осуществление экспериментов, цель которых – поиск характеристик, позволяющих четко разделять стили авторов, в том числе и на малых объемах выборки.
Abstract: The article represents the survey of authorship attribution methods. It also provides a description of the popular software systems to determine the author's style, focused on the Russian language. There was an attempt to make their comparative analysis, to identify advantages and drawbacks of approaches.
An authorship attribution is often based on the assumption that the alleged author is known. The analysis of syntactic, lexical-phraseological and stylistic levels of text is the most interesting and the most difficult. Expert analysis of the author's style is a time consuming process, so the attention is paid to the formal methods of attribution. Currently, to establishing the authorship of texts the following methods are used: the approaches of pattern recognition theory, methods of mathematical statistics and probability theory, neural network algorithms, cluster analysis algorithms, etc.
Among the challenges to research the field of authorship attribution there is a problem of choosing formal parameters characterizing the text and style of the author, the sampling problem of reference texts. The software products are not focused on integrated study and results comparison. They are applied to various problems of analysis of text styles with different frequency characteristics and different test material. To find a new or improve existing methods of attribution of texts further research is needed. It is also important to carry out experiments aimed at finding features that allow to clearly separate the authors styles, including the small sample size.
Ключевые слова: характеристики текста, классификация текстов, авторский стиль, формальные параметры текста, установление авторства, атрибуция текстаKeywords: characteristics of text, text categorization, author's style, formal parameters of the text, authorship attribution, text attribution
Просмотров: 26754
55. Определение весов оценочных слов на основе генетического алгоритма в задаче анализа тональности текстов [№4 за 2013 год]
Авторы: Котельников Е.В. (Kotelnikov.EV@gmail.com) - Вятский государственный гуманитарный университет, доктор технических наук; Клековкина М.В. (klekovkina.mv@gmail.com) - Вятский государственный гуманитарный университет (аспирант );
Аннотация: Статья посвящена проблеме распознавания тональности текстов с использованием словарного метода. Классификация текстов по тональности находит применение во множестве областей: в маркетинговых исследованиях, рекомендательных системах, поисковых системах, в человеко-машинном интерфейсе, при оценке тональности новостей и др. Словарный метод наряду с машинным обучением является одним из наиболее эффективных подходов к решению задачи анализа тональности. Словарный метод основан на словаре оценочной лексики; каждое слово из такого словаря имеет вес, обозначающий степень значимости слова. От правильности назначения весов существенно зависит качество классификации текстов. В статье предлагается новый способ определения весов оценочных слов, входящих в словарь. Проблема назначения весов рассматривается как задача оптимизации многомерной функции. При этом аргументами функции являются веса оценочных слов, а в качестве значений используются значения какой-либо метрики качества классификации, вычисленные при помощи словарного метода на основе данного набора весов. Метрикой качества в работе является F1‑мера. Задача оптимизации решается с использованием генетического алгоритма. Эксперименты проводятся на основе коллекции отзывов о фильмах семинара РОМИП‑2011. Результаты демонстрируют преимущество предложенного способа определения весов перед другими способами, а также превосходство словарного метода над методом опорных векторов.
Abstract: The article is dedicated to the problem of a text sentiment analysis using a dictionary method. The sentiment analysis is used in many areas, for example, in the marketing research, the recommendatory systems, the search engines, the human-computer interaction, the news analysis, etc. The dictionary method along with machine learning is one of the most effective approaches to the sentiment analysis.
The dictionary method is based on the sentiment lexicon; each word from this lexicon has a weight indicating the degree of the word importance. The quality of text sentiment analysis depends significantly on the correct assignment of the words’ weights.
This paper proposes a new method for assignment of the words’ weights. The problem of the weight assignment is considered as a multi-dimensional function optimization task. The arguments of the function are the weights of words; the values of the function are the some metric of the quality of sentiment analysis. This metric is obtained from dictionary method with given weights. In this paper the metric is F1‑measure. The optimization problem is solved using a genetic algorithm.
The experiments were carried out on a collection of movie reviews from the seminar ROMIP‑2011. The results demonstrate the advantage of the proposed method of weight assignment over other ways, as well as the superiority of the dictionary method over the support vector machine.
Ключевые слова: метод опорных векторов, генетический алгоритм, словарный метод, анализ тональности текстовKeywords: support vector machines, generic algorithm, dictionary method, text sentiment analysis
Просмотров: 13174
56. Система автоматического распознавания речи на татарском языке [№4 за 2013 год]
Авторы: Хусаинов А.Ф. (khusainov.aidar@gmail.com) - Казанский (Приволжский) федеральный университет (аспирант, научный сотрудник); Сулейманов Д.Ш. (khusainov.aidar@gmail.com) - Казанский (Приволжский) федеральный университет (профессор), доктор технических наук;
Аннотация: В настоящей работе описывается система распознавания речи на татарском языке. В рамках системы предложен и реализован подход к построению модуля автоматического транскрибирования текстов, разработанный на основе выделенных правил звуковых изменений в татарском языке. Данные акустические правила были использованы благодаря их формальному представлению, полученному в разработанной программной системе. Кроме того, для реализации алгоритма распознавания речи были созданы два уровня анализа: акустический (уровень фонем) и лингвистический (уровень слов). На первом уровне были разработаны акустические модели 57 выделенных фонем татарского языка, каждая из которых базируется на аппарате скрытых марковских моделей. Для обучения каждой из указанных статистических моделей был образован речевой корпус общей продолжительностью 5 часов. Дополнительно был создан и применен алгоритм автоматической фонемной аннотации данного корпуса. В конечном итоге на базе разработанных программных средств и статистических моделей реализован алгоритм распознавания речи. Был проведен эксперимент по распознаванию слов татарского языка, по результатам которого предлагаемая система распознавания продемонстрировала 92-процентное качество распознавания на записях тестового корпуса.
Abstract: The paper describes speech analysis system for the Tatar language. An approach to creating automatic phonetic transcription system for Tatar texts has been developed and implemented. This system is based on acoustic rules for the Tatar language. These acoustic rules have been converted to a formalized form using developed programming tool. The two levels analysis procedure has also been developed in order to create speech recognition algorithm, these levels are: acoustic (phonemes) level, linguistic (words) level. Phonemes level consists of acoustic models for 57 Tatar phonemes, each of this phonemes is represented by a hidden Markov model. To train each of specified statistical model 5 hours speech corpus has been recorded. Additionally, an algorithm to automatically create phoneme-level annotation of this corpus has been developed and applied. Finally, a Tatar speech recognition algorithm has been implemented based on developed programming tools and acoustic models. In total, the proposed system has shown 92% word recognition correctness in test speech subcorpus.
Ключевые слова: скрытые марковские модели, анализ речи, фонетическая транскрипция, татарский язык, корпус звучащей речи, распознавание речиKeywords: hidden Markov models, speech analysis, phonetic transcription, Tatar language, speech corpus, speech recognition
Просмотров: 12133
57. Типологизация локальных максимумов в спектрах электроэнцефалограмм, полученных путем непрерывного вейвлет-преобразования [№4 за 2013 год]
Авторы: Туровский Я.А. (yaroslav_turovsk@mail.ru) - Воронежский государственный университет (доцент, руководитель лаборатории), кандидат медицинских наук; Кургалин С.Д. (kurgalin@bk.ru) - Воронежский государственный университет (зав. кафедрой), доктор физико-математических наук; Семёнов А.Г. (revolusion@mail.ru) - Воронежский государственный университет (студент );
Аннотация: Предложен метод получения функционально значимой информации о работе головного мозга, основанный на анализе цепочек локальных максимумов (ЦЛМ) на наборе вейвлетных энергетических спектров (скейлограмм, локальных спектров), получаемых из матрицы квадратов коэффициентов вейвлет-преобразования данных электроэнцефалограммы. Сущность метода состоит в усреднении ЦЛМ в частотном пространстве. В методе используются два способа усреднения: по первой временнóй координате ЦЛМ и по минимизации различий между ЦЛМ. При использовании первого способа все цепочки синхронизируются по первому значению, которое приравнивается к нулевому отсчету во временной шкале; при использовании второго цепочки сдвигаются относительно друг друга для минимизации различий между ними, и только затем выполняется усреднение. Проведенные исследования показали, что для электроэнцефалограммы человека в состоянии покоя существуют пять основных типов поведения ЦЛМ: 1) возрастающий, характеризующийся увеличением частоты максимумов локального спектра в цепочке; 2) убывающий, характеризующийся снижением частоты локальных максимумов во времени; 3) постоянный, при котором для всей ЦЛМ частота существенно не меняется; 4) возрастающе-убывающий, при котором частота локальных максимумов в цепочке сначала растет, а затем снижается; 5) убывающе-возрастающий, противоположный по поведению четвертому типу. Отношение цепочки к определенному типу является индивидуальным свойством человека и зависит от характера активности мозга в данный момент. Сделан вывод, что проведенная типологизация локальных максимумов матриц вейвлет-коэффициентов для электроэнцефалограммы имеет важное значение для исследования процессов ЭЭГ при различных функциональных состояниях человека.
Abstract: The paper offers a method to obtain a functionally important information about brain work. It is based on the analysis of local maxima chains (LMC) on the set of the wavelet energy spectrum (scalogramm, local spectra) derived from a matrix of squares of the coefficients of the wavelet transformation of electroencephalogram (EEG) data.The method means averaging LMC in frequency space. The method uses two ways of averaging: by the first LMC timing coordinate, and by minimizing the differences between LMC. When using the first way, all chains are synchronized according to the first value which equals to zero scaling reading the timeline; in the second way chains move relatively to each other in order to minimize the differences between them, and only then averaging is run. The research have shown that for the EEG of a human at rest there are five basic types of LMC behavior: 1) the increasing one, characterized by increasing frequency of the local spectrum maxima in the chain, 2) the decreasing one, characterized by reducing frequency of local maxima in time, 3) the constant one, when the whole LMC frequency is not changing significantly, 4) ascending-descending, when the local maxima frequency in the chain first increases and then decreases, 5) the decreasing-increasing one which is opposite to the behavior of the 4th type. It is determined that the relation of the chain to a certain type is an individual property of a human and depends on the nature of the brain activity at the moment. The typology performed for the local maxima of the matrices of the wavelet coefficients for EEG is essential to study the EEG in different functional states of a human.
Ключевые слова: скейлограмма, электроэнцефалограмма, биомедицинская информация, вейвлет-анализKeywords: scalegram, electroencephalogram, medical and biological information, wavelet-analysis
Просмотров: 9166
58. Интерпретатор описаний экспертных систем психофизиологической диагностики [№4 за 2013 год]
Авторы: Ермаков А.Е. (alerma@rambler.ru) - Военно-медицинская академия им. С.М. Кирова, г. Санкт-Петербург, кандидат технических наук; Найденова К.А. (ksennaidd@gmail.com) - Военно-медицинская академия им. С.М. Кирова, г. Санкт-Петербург,, кандидат технических наук;
Аннотация: Описывается разработанный авторами проблемно-ориентированный интерпретатор описаний экспертных систем, являющийся составной частью автоматизированной технологии создания экспертных систем для психологической и физиологической диагностики и обеспечивающий практическое использование этих систем: ведение БД по обследуемым, реализацию диагностических процедур, вывод на экран запросов к пользователю от диагностических средств и информационных сообщений, пошаговую обработку полученных данных, управление ходом обследования, вывод диагностического заключения, отображение на экране монитора и устройстве печати результатов обследования в табличной и графической формах, а также их хранение и просмотр в БД. Интерпретатор описаний позволяет также реализовать диагностико-обучающие системы, предназначенные для подготовки студентов и повышения квалификации молодых специалистов. Функционирование интерпретатора описаний осуществляется на основе предложенных авторами формализованной модели решаемых диагностических задач и комплекса моделей вывода диагностического заключения. В статье описывается автоматизированная технология создания экспертных систем психологической и физиологической диагностики, дается характеристика рассматриваемого класса экспертных систем, описываются вычислительные процедуры и операции, поддерживаемые интерпретатором описаний, а также разновидности используемых правил вывода диагностического заключения. Рассматриваются концепция создания интерпретатора описаний, его основные функциональные возможности и структура на уровне функциональных подсистем, а также особенности программной реализации интерпретатора описаний, разработанного на языке программирования Microsoft Visual Basic 6.0 Service Pack 6 и предназначенного для работы в среде операционной системы Windows XP.
Abstract: The article describes the developed problem-oriented interpreter of expert systems descriptions, which is an integral part of the automated technology of creating expert systems for psychological and physiological diagnostics, providing practical use of these systems: maintaining an inspects database, diagnostic procedures implementation, on-screen display requests to the user with diagnostic tools and information messages, step-by-step data processing, control of the survey course, diagnostic conclusion output, the displaying survey results on the monitor screen and printing device in tabular and graphical form as well as their storage and view in the database. The descriptions interpreter also allows implementing diagnostic-training systems for trainings of students and young professionals. Functioning of the descriptions interpreter is based on the proposed formalized model of solved diagnostic tasks and the complex of diagnostic conclusion output models. The article describes the automated technology of creating expert systems of psychological and physiological diagnostics, characterizes this class of expert systems, describes the computational procedures and operations supported by the descriptions interpreter, the varieties of used diagnostic conclusions inference rules. The article also describes the concept of creating the descriptions interpreter, its basic functionalities and the structure at the functional subsystems level. The article discusses the software implementation features of the descriptions interpreter developed in the Microsoft Visual Basic 6.0 Service Pack 6 programming language and intended for working in Windows XP operating system.
Ключевые слова: психофизиологическая диагностика, база знаний, модель вывода диагностического заключения, формализованная модель знаний, автоматизированное создание экспертных систем, экспертная система, интерпретатор описаний экспертных системKeywords: psycho-physiological diagnostics, knowledge base, model of inference of diagnostic conclusion, formalized model of knowledge, the automated creation of expert systems, expert system, the interpreter descriptions of expert systems
Просмотров: 14717
◄ ← Предыдущая | 1 | 2 | 3 | 4 | 5 | 6