Journal influence
Higher Attestation Commission (VAK) - К1 quartile
Russian Science Citation Index (RSCI)
Bookmark
Next issue
№3
Publication date:
16 September 2025
Investigation of a combined algorithm for learning three-layer neural networks of different topologies
Date of submission article: 24.07.2018
UDC: 004.852
The article was published in issue no. № 4, 2018 [ pp. 673-676 ]Abstract:When learning a neural network, the weighting factors are adjusted based on minimizing a calculation error. When the objective function has a complex character and a big number of local extremums, network learning using gradient optimization methods does not often guarantee the finding of a global extremum. Nowadays, the solution of this problem for a large class of problems includes using genetic algorithms as the main method for learning backpropagation networks. The development of these algorithms has continued in the study of bioinspired algorithms and their hybrid modifications. The use of bioinspired algorithms, which are based on random search methods, allows solving the problem of bypassing local extremums and has high convergence rate. The paper considers a combined bioinspired algorithm that solves the global optimization problem when there are problems associated with learning artificial neural networks. The network structure and the number of neurons in each hidden layer are important parameters affecting the effectiveness of artificial neural networks learning. Three-layer neural networks can solve many complex problems. However, the effect of the number of neurons in each hidden layer on the convergence rate is under-explored in the general case. The paper studies a combination of the firefly algorithm and gradient descent developed by the authors for the study of three-layer neural networks of various topologies. The conducted research made it possible to identify topology from artificial neural networks. This topology makes it possible to obtain the most optimal solution for fewer steps. The analysis of the learning algorithm performance is based on the exceptional-OR (Xor) function.
Аннотация:При обучении нейронной сети настройка весовых коэффициентов осуществляется на основе минимизации ошибки вычислений. В случаях, когда целевая функция имеет сложный характер и обладает большим количеством локальных экстремумов, обучение сети с применением градиентных методов оптимизации зачастую не гарантирует нахождение глобального экстремума. Решение этой проблемы на сегодняшний день для большого класса задач осуществляется с помощью генетических алгоритмов как основного метода для обучения сетей обратного распространения ошибки. Развитие этих алгоритмов получило свое продолжение в изучении биоинспирированных алгоритмов и их гибридных модификаций. Использование биоинспирированных алгоритмов, основанных на методах случайного поиска, позволяет решить проблему обхода локальных экстремумов и обладает высокой скоростью сходимости. В работе рассматривается комбинированный биоинспирированный алгоритм, реализующий решение задачи глобальной оптимизации в случае проблем, связанных с обучением искусственных нейронных сетей. Структура сети и число нейронов в каждом скрытом слое являются важными параметрами, влияющими на эффективность обучения искусственных нейронных сетей. Трехслойные нейронные сети позволяют решать большинство сложных задач. Однако влияние количества нейронов в каждом из скрытых слоев на скорость сходимости в общем случае мало изучено. В работе исследуется ранее разработанная авторами комбинация алгоритма светлячков и градиентного спуска для обучения трехслойных нейронных сетей различной топологии. Проведенное исследование дало возможность выявить из рассмотренных искусственных нейронных сетей топологию, позволяющую получить наиболее оптимальное решение за меньшее количество шагов. Анализ производительности алгоритма обучения осуществлен на основе функции «исключающее ИЛИ» (Xor).
Authors: Е.N. Ostroukh (eostr@donpac.ru) - Don State Technical University (Associate Professor), Rostov-on-Don, Russia, Ph.D, L.N. Evich (bkln@mail.ru) - Don State Technical University (Associate Professor), Rostov-on-Don, Russia, Ph.D, Chernyshev Yu.O. (sergeev00765@mail.ru) - Don State Technical University, Rostov-on-Don, Russia, Ph.D, S.D. Markin (potate82@ya.ru) - Don State Technical University, Rostov-on-Don, Russia, P.А. Panasenko (we_panasenko_777@mail.ru) - Krasnodar Higher Military Engineering School (Lecturer), Krasnodar, Russia, Ph.D | |
Keywords: optimization algorithms, neural network, Firefly Algorithm, gradient descent |
|
Page views: 12726 |
PDF version article Full issue in PDF (22.98Mb) |
Исследование комбинированного алгоритма при обучении трехслойных нейронных сетей различной топологии
DOI: 10.15827/0236-235X.124.673-676
Date of submission article: 24.07.2018
UDC: 004.852
The article was published in issue no. № 4, 2018. [ pp. 673-676 ]
When learning a neural network, the weighting factors are adjusted based on minimizing a calculation error. When the objective function has a complex character and a big number of local extremums, network learning using gradient optimization methods does not often guarantee the finding of a global extremum. Nowadays, the solution of this problem for a large class of problems includes using genetic algorithms as the main method for learning backpropagation networks. The development of these algorithms has continued in the study of bioinspired algorithms and their hybrid modifications. The use of bioinspired algorithms, which are based on random search methods, allows solving the problem of bypassing local extremums and has high convergence rate.
The paper considers a combined bioinspired algorithm that solves the global optimization problem when there are problems associated with learning artificial neural networks. The network structure and the number of neurons in each hidden layer are important parameters affecting the effectiveness of artificial neural networks learning. Three-layer neural networks can solve many complex problems. However, the effect of the number of neurons in each hidden layer on the convergence rate is under-explored in the general case.
The paper studies a combination of the firefly algorithm and gradient descent developed by the authors for the study of three-layer neural networks of various topologies. The conducted research made it possible to identify topology from artificial neural networks. This topology makes it possible to obtain the most optimal solution for fewer steps. The analysis of the learning algorithm performance is based on the exceptional-OR (Xor) function.
Е.N. Ostroukh (eostr@donpac.ru) - Don State Technical University (Associate Professor), Rostov-on-Don, Russia, Ph.D, L.N. Evich (bkln@mail.ru) - Don State Technical University (Associate Professor), Rostov-on-Don, Russia, Ph.D, Chernyshev Yu.O. (sergeev00765@mail.ru) - Don State Technical University, Rostov-on-Don, Russia, Ph.D, S.D. Markin (potate82@ya.ru) - Don State Technical University, Rostov-on-Don, Russia, P.А. Panasenko (we_panasenko_777@mail.ru) - Krasnodar Higher Military Engineering School (Lecturer), Krasnodar, Russia, Ph.D
Ссылка скопирована!
Permanent link: http://swsys.ru/index.php?page=article&id=4523&lang=en |
Print version Full issue in PDF (22.98Mb) |
The article was published in issue no. № 4, 2018 [ pp. 673-676 ] |
The article was published in issue no. № 4, 2018. [ pp. 673-676 ]
Perhaps, you might be interested in the following articles of similar topics:Perhaps, you might be interested in the following articles of similar topics:
- Нейросетевая инструментальная среда для создания персонализированных интерфейсов прикладных программ
- Диагностирование электромеханических систем на основе нейросетевых технологий
- Исследование влияния алгоритмов инициализации весовых коэффициентов сети Вольтерри на решение задачи прогнозирования
- Разработка нейронной сети для оценки исправности гидроагрегата по результатам вибромониторинга
- Кластеризация документов проектного репозитария на основе нейронной сети Кохонена
Back to the list of articles