Journal influence
Higher Attestation Commission (VAK) - К1 quartile
Russian Science Citation Index (RSCI)
Bookmark
Next issue
№3
Publication date:
16 September 2025
The adaptation of the LSTM neural network model to solve the pattern recognition complex problem
Date of submission article: 30.07.2020
UDC: 004.021
The article was published in issue no. № 1, 2021 [ pp. 151-156 ]Abstract:The paper examines the adaptation of the model of artificial neural networks of direct distribution with blocks of long short-term memory (LSTM) for the complex problem of pattern recognition. For artifi-cial neural networks (ANN), the context can be extracted from the input signal vector and from the weight values of the trained network. However, considering the context of a significant volume, the number of neural connections and the complexity of training procedures and network operation in-crease. Instead of receiving context from input values, the context can also be temporarily stored in a special memory buffer, from where it can later be extracted and used as a signal in the ANN's opera-tion. This type of memory is called LSTM. The advantage of networks of this type is that they use memory blocks associated with each neuron of the latent layer, which allows context-related data to be stored when forming recognition patterns. There is the method of linear switching of LSTM units depending on the value of the transmitted signal in the paper. A computational experiment was conducted aimed at investigating the effectiveness of the proposed method and the previously developed neural network of direct distribution of a similar structure. Machine learning was performed for each type of ANN on the same sequence of training ex-amples. The test results were compared for: an ANN of direct propagation, a recurring neural network (RNS) of a similar architecture: with the same number of neurons on each layer, and a network of neu-romodulating interaction with one feedback delay. The optimization criterion, in this case, is the error of the neural network on the training sample, consisting of examples not presented in the test. The effi-ciency of solving the classification problem is evaluated according to two criteria: learning error on the training sample and testing error on the testing sample.
Аннотация:В статье рассматривается адаптация модели искусственных нейронных сетей прямого распространения с блоками долгой краткосрочной памяти (LSTM) для комплексной задачи распознавания образов. Для искусственных нейронных сетей контекст может быть извлечен из вектора поступающих на вход сигналов и из значений весовых коэффициентов обученной сети. Однако при учете контекста значительного объема растут количество нейронных связей и сложность процедур обучения и работы сети. Контекст может временно храниться в специальном буфере памяти, откуда в дальнейшем извлекаться и использоваться в качестве сигнала при работе искусственных нейронных сетей (LSTM). Преимущество сетей такого типа в том, что они используют блоки памяти, ассоциированные с каждым нейроном скрытого слоя, что позволяет сохранять данные, относящиеся к контексту, при формировании шаблонов распознавания. Предлагается метод линейного переключения блоков LSTM в зависимости от значения проходящего сигнала. Проведен вычислительный эксперимент, направленный на исследование эффективности предложенного метода и ранее разработанной нейронной сети прямого распространения аналогичной структуры. Выполнено машинное обучение для каждого вида искусственных нейронных сетей на одной и той же последовательности обучающих примеров. Проведено сравнение результатов экспериментов для искусственной нейронной сети прямого распространения, рекуррентной нейронной сети аналогичной архитектуры с таким же количеством нейронов на каждом слое и сетью нейромодулирующего взаимодействия с одной задержкой по обратной связи. Критерием оптимизации в данном случае является погрешность работы нейронной сети на обучающей выборке, состоящей из примеров, не представленных в тестирующей выборке. Эффективность решения классификационной задачи оценивается по двум критериям: погрешность обучения на обучающей выборке и погрешность тестирования на тестирующей выборке.
Authors: V.S. Tormozov (007465@pnu.edu.ru) - Pacific National University (Senior Lecturer), Khabarovsk, Russia | |
Keywords: artificial network, artificial intelligence, machine learning, pattern recognition, long short-term memory unit |
|
Page views: 9604 |
PDF version article Full issue in PDF (7.81Mb) |
Адаптация модели нейронной сети LSTM для решения комплексной задачи распознавания образов
DOI: 10.15827/0236-235X.133.151-156
Date of submission article: 30.07.2020
UDC: 004.021
The article was published in issue no. № 1, 2021. [ pp. 151-156 ]
The paper examines the adaptation of the model of artificial neural networks of direct distribution with blocks of long short-term memory (LSTM) for the complex problem of pattern recognition. For artifi-cial neural networks (ANN), the context can be extracted from the input signal vector and from the weight values of the trained network. However, considering the context of a significant volume, the number of neural connections and the complexity of training procedures and network operation in-crease. Instead of receiving context from input values, the context can also be temporarily stored in a special memory buffer, from where it can later be extracted and used as a signal in the ANN's opera-tion. This type of memory is called LSTM. The advantage of networks of this type is that they use memory blocks associated with each neuron of the latent layer, which allows context-related data to be stored when forming recognition patterns.
There is the method of linear switching of LSTM units depending on the value of the transmitted signal in the paper. A computational experiment was conducted aimed at investigating the effectiveness of the proposed method and the previously developed neural network of direct distribution of a similar structure. Machine learning was performed for each type of ANN on the same sequence of training ex-amples. The test results were compared for: an ANN of direct propagation, a recurring neural network (RNS) of a similar architecture: with the same number of neurons on each layer, and a network of neu-romodulating interaction with one feedback delay. The optimization criterion, in this case, is the error of the neural network on the training sample, consisting of examples not presented in the test. The effi-ciency of solving the classification problem is evaluated according to two criteria: learning error on the training sample and testing error on the testing sample.
V.S. Tormozov (007465@pnu.edu.ru) - Pacific National University (Senior Lecturer), Khabarovsk, Russia
Ссылка скопирована!
Permanent link: http://swsys.ru/index.php?page=article&id=4791&lang=&lang=en&like=1 |
Print version Full issue in PDF (7.81Mb) |
The article was published in issue no. № 1, 2021 [ pp. 151-156 ] |
The article was published in issue no. № 1, 2021. [ pp. 151-156 ]
Perhaps, you might be interested in the following articles of similar topics:Perhaps, you might be interested in the following articles of similar topics:
- Настройка и обучение многослойного персептрона для задачи выделения дорожного покрытия на космических снимках города
- Автоматизированное детектирование и классификация объектов в транспортном потоке на спутниковых снимках города
- Конструктивный метод обучения искусственных нейронных сетей со взвешенными коэффициентами
- Моделирование поведения интеллектуальных агентов на основе методов машинного обучения в моделях конкуренции
- Распознавание траекторий струй огнетушащего вещества из пожарного ствола на основе цифровых изображений
Back to the list of articles