Publication activity
(Information on the results of 2020)
2-year impact factor of the RSCI: 0,493
2-year impact factor of the RSCI without self-citation: 0,425
The two-year impact factor of the RSCI, taking into account citations from all
sources: 0,932
5-year impact factor of the RSCI: 0,455
5-year impact factor of the RSCI without self-citation: 0,414
The total number of citations of the journal in the RSCI: 10613
Herfindahl's five-year index of quoting journals: 165
Herfindahl Index by author organizations: 255
10-year Hirsch Index: 20
Place in the overall SCIENCE INDEX ranking: 166
Place in the SCIENCE INDEX ranking on the topic "Automation. Computer technology": 5
More information on the publication activity of our journal for 2008-2020 on the RSCI website.
Bookmark
Next issue
Investigation of a combined algorithm for learning three-layer neural networks of different topologies
Abstract:When learning a neural network, the weighting factors are adjusted based on minimizing a calculation error. When the objective function has a complex character and a big number of local extremums, network learning using gradient optimization methods does not often guarantee the finding of a global extremum. Nowadays, the solution of this problem for a large class of problems includes using genetic algorithms as the main method for learning backpropagation networks. The development of these algorithms has continued in the study of bioinspired algorithms and their hybrid modifications. The use of bioinspired algorithms, which are based on random search methods, allows solving the problem of bypassing local extremums and has high convergence rate. The paper considers a combined bioinspired algorithm that solves the global optimization problem when there are problems associated with learning artificial neural networks. The network structure and the number of neurons in each hidden layer are important parameters affecting the effectiveness of artificial neural networks learning. Three-layer neural networks can solve many complex problems. However, the effect of the number of neurons in each hidden layer on the convergence rate is under-explored in the general case. The paper studies a combination of the firefly algorithm and gradient descent developed by the authors for the study of three-layer neural networks of various topologies. The conducted research made it possible to identify topology from artificial neural networks. This topology makes it possible to obtain the most optimal solution for fewer steps. The analysis of the learning algorithm performance is based on the exceptional-OR (Xor) function.
Аннотация:При обучении нейронной сети настройка весовых коэффициентов осуществляется на основе минимизации ошибки вычислений. В случаях, когда целевая функция имеет сложный характер и обладает большим количеством локальных экстремумов, обучение сети с применением градиентных методов оптимизации зачастую не гарантирует нахождение глобального экстремума. Решение этой проблемы на сегодняшний день для большого класса задач осуществляется с помощью генетических алгоритмов как основного метода для обучения сетей обратного распространения ошибки. Развитие этих алгоритмов получило свое продолжение в изучении биоинспирированных алгоритмов и их гибридных модификаций. Использование биоинспирированных алгоритмов, основанных на методах случайного поиска, позволяет решить проблему обхода локальных экстремумов и обладает высокой скоростью сходимости. В работе рассматривается комбинированный биоинспирированный алгоритм, реализующий решение задачи глобальной оптимизации в случае проблем, связанных с обучением искусственных нейронных сетей. Структура сети и число нейронов в каждом скрытом слое являются важными параметрами, влияющими на эффективность обучения искусственных нейронных сетей. Трехслойные нейронные сети позволяют решать большинство сложных задач. Однако влияние количества нейронов в каждом из скрытых слоев на скорость сходимости в общем случае мало изучено. В работе исследуется ранее разработанная авторами комбинация алгоритма светлячков и градиентного спуска для обучения трехслойных нейронных сетей различной топологии. Проведенное исследование дало возможность выявить из рассмотренных искусственных нейронных сетей топологию, позволяющую получить наиболее оптимальное решение за меньшее количество шагов. Анализ производительности алгоритма обучения осуществлен на основе функции «исключающее ИЛИ» (Xor).
Authors: Е.N. Ostroukh (eostr@donpac.ru) - Don State Technical University (Associate Professor), Rostov-on-Don, Russia, Ph.D, L.N. Evich (bkln@mail.ru) - Don State Technical University (Associate Professor), Rostov-on-Don, Russia, Ph.D, Chernyshev Yu.O. (sergeev00765@mail.ru) - Don State Technical University, Rostov-on-Don, Russia, Ph.D, S.D. Markin (potate82@ya.ru) - Don State Technical University, Rostov-on-Don, Russia, P.А. Panasenko (we_panasenko_777@mail.ru) - Krasnodar Higher Military Engineering School (Lecturer), Krasnodar, Russia, Ph.D | |
Keywords: optimization algorithms, neural network, Firefly Algorithm, gradient descent |
|
Page views: 5412 |
PDF version article Full issue in PDF (22.98Mb) |
Permanent link: http://swsys.ru/index.php?page=article&id=4523&lang=en |
Print version Full issue in PDF (22.98Mb) |
The article was published in issue no. № 4, 2018 [ pp. 673-676 ] |
Perhaps, you might be interested in the following articles of similar topics:
- Разработка нейронной сети для оценки исправности гидроагрегата по результатам вибромониторинга
- Кластеризация документов проектного репозитария на основе нейронной сети Кохонена
- Интеллектуальные системы и алгоритмы управления объектами обстановки в тренажерах
- Система поддержки принятия решений при определении нозологической формы гепатита
- Нейросетевой поведенческий анализ действий пользователя в целях обнаружения вторжений уровня узла
Back to the list of articles