ISSN 0236-235X (P)
ISSN 2311-2735 (E)

Journal influence

Higher Attestation Commission (VAK) - К1 quartile
Russian Science Citation Index (RSCI)

Bookmark

Next issue

2
Publication date:
16 June 2024

The article was published in issue no. № 2, 2003
Abstract:
Аннотация:
Authors: Dli M.I. (midli@mail.ru) - (Smolensk Branch of the Moscow Power Engineering Institute, Smolensk, Russia, Ph.D, (feu@sci.smolensk.ru) - , Russia, Ph.D
Ключевое слово:
Page views: 8563
Print version
Full issue in PDF (1.36Mb)

Font size:       Font:

Пусть для каждого объекта a из генеральной совокупности A можно измерить набор его количественных характеристик x(tj)=[x1(tj), x2(tj),…, xn(tj)]T (здесь T – символ транспонирования) в последовательные моменты времени t1, t2,…, tj,…, tN. Предполагается, что в момент времени tN может быть определен номер образа Y(a)=y, который имеет рассматриваемый объект; yÎDy, Dy={1,2,…,r,…S}, S – число образов (классов). Задача состоит в том, чтобы дать прогноз номера образа  для момента tN объекта a на основе эмпирической информации, представляющей для объекта aÎA измерения его характеристик x(tj) в моменты времени tj, j=1,2,…,M; MtM объект может быть отнесен к тому или иному классу) должно быть принято в момент tM (интервал tN-tM между выдачей прогноза и моментом начала реакции на этот прогноз включает в себя подготовительные операции, связанные, например, с прицеливанием средств ПВО на приближающийся летательный аппарат и т.п.).

Другой пример. Пусть некоторый технологический процесс описывается набором характеристик (вектором) x(t), изменяющимся во времени. По окончании технологического процесса полученное изделие может быть забраковано или не забраковано (S=2). Необходимо до окончания технологического процесса оценить возможность получения бракованного изделия для введения соответствующего управляющего воздействия на технологический процесс.

По-видимому, впервые задача прогнозирования номера образа по текущим характеристикам объекта сформулирована в монографии [1], где был предложен один из возможных подходов к ее решению, не налагающий, вообще говоря, каких-либо ограничений на условия проведения эксперимента.

Обсудим возможные ограничения и методы решения исследуемой задачи. Очевидно, в самом "жестком" ее варианте необходимо исходить из следующих допущений:

1)       число имеющихся наблюдений M невелико, например, M£10;

2)       какая-либо информация о вероятностных характеристиках векторов x(tj) отсутствует;

3)       номер образа в момент времени tN по вектору признаков x(tN) определяется без ошибки;

4)       решающее правило формируется на основании некоторой априорной информации и в простейшем случае (при наличии только двух образов 1 и 2 (S=2)) записывается в виде

  (1)

где G(x)=0 – уравнение линии (поверхности), разделяющей объекты двух классов; d – неотрицательная константа, задающая область неопределенности принятия решения (данная константа, вообще говоря, может быть принята равной нулю).

При наличии приведенных ограничений рассматриваемая задача сводится к задаче прогнозирования векторного, в общем случае нестационарного стохастического процесса, решение которой при наличии условий 1 и 2 может осуществляться ограниченным числом методов:

а) трендовым – с применением временных полиномов [2,3];

б) с использованием модели многомерной (векторной) авторегрессии [3-6];

в) с использованием аппарата искусственных нейронных сетей (см., например, [7]).

В первом методе предполагается аппроксимация (трендовая модель)

,                                                        (2)

где f(t) – m-мерный вектор базисных функций времени, например, вида

f(t) = (1, t, t2,…, tm-1)T,                                          (3)

C – матрица размера n´m коэффициентов модели.

Элементы данной матрицы определяются по имеющимся экспериментальным данным методом наименьших квадратов (МНК), причем, как будет показано ниже, для нахождения этих n´m элементов достаточно иметь m наблюдений x(t1), x(t2),…, x(tm) при известных t1¸tm. Отметим, что в условиях рассматриваемой задачи вряд ли целесообразно применять для прогнозирования временной полином степени выше второй-третьей, поэтому этот метод является достаточно экономичным в плане требуемой для его реализации экспериментальной информации.

Прогноз с использованием модели многомерной авторегрессии применяется, как правило, при дополнительном ограничении

tj+1-tj=T=const,                                                      (4)

то есть при эквидистантном расположении моментов времени (здесь T – интервал или такт дискретизации). Прогноз на один такт рассчитывается по формуле

,    (5)

где в данном случае m – порядок модели; xj=x(tj); вектор c0 (размера n´1) и матрицы C1¸Cm (размера n´n) содержат коэффициенты модели.

Как можно показать, для оценивания коэффициентов приведенной модели нужно иметь не менее 1+n×m наблюдений вектора x(tj), то есть эта модель является, вообще говоря, менее экономичной, чем предыдущая. Но основной особенностью такой модели (в данном случае это – недостаток) является то, что она может адекватно отображать (и, соответственно, прогнозировать) только стационарные стохастические процессы.

Использование нейросетевого подхода требует, прежде всего, наличие экспериментальных данных, представленных в форме таблицы обучающей выборки вида таблицы 1.

Таблица 1

Данные обучающей выборки

Номер

примера

Входы

нейронной сети

Целевые

значения

(выходы)

1

. . .

2

. . .

. . .

. . .

. . .

. . .

. . .

. . .

k

. . .

. . .

. . .

. . .

. . .

. . .

. . .

L

. . .

Здесь  = x(k)(tj) – значение вектора признаков объекта в момент времени tj=j×T для k-го примера обучающей выборки.

Не останавливаясь на всех деталях (см. [8,9]), отметим лишь, что данному подходу свойствен- ны недостатки предыдущего метода – большой требуемый объем обучающей выборки (десятки и сотни примеров) и возможность надежного прогнозирования только стационарных случайных процессов.

С учетом изложенного можно сделать вывод, что лучшим методом решения рассматриваемой задачи является метод с использованием трендовых моделей.

Рассмотрим подробнее некоторые его особенности, исходя из общей модели (2), предположив, что вектор базисных функций f(t) задан (например, выражением (3)).

В соответствии с (2) запишем соотношение для i-й компоненты вектора x для произвольного момента времени tj:

xi(tj) =  + ei(tj), ,                         (6)

где  – i-я строка матрицы C; ei – ошибка модели, обусловленная как систематической, так и случайной составляющими.

Полагая в (6) j=1,2,…,M, запишем систему равенств

xi(t1) =  + ei(tj)

xi(t2) =  + ei(t2)

. . .

xi(tM) =  + ei(tM),

на основании которой методом наименьших квадратов (при M³m) найдем оценку  [10]:

,                                          (7)

где матрица FM´m образована строками вида fT(tj), а вектор-строка

=[xi(t1), xi(t2),…, xi(tM)].                                 (8)

Очевидно, равенство (7) справедливо для i=1, 2,…, n. Объединение подобных равенств дает

,                                                    (9)

где матрица X образована векторами-столбцами x(tj), , а i-я строка матрицы  определяются выражением (7).

Как видно из анализа (9), все элементы матрицы C однозначно восстанавливаются (в случае невырожденности матрицы FT×F) при M³m, что и было отмечено выше.

Прогнозирование значения вектора x для момента времени tN (tN>tM) проводится по соотношению (см. (2))

,                                                  (10)

а его отдельной компоненты – по формуле

, .                                (11)

Если моменты наблюдений tj удовлетворяют (4) так, что можно записать

tj = j×T, j=1,2,…,M,…,N,                                     (12)

а в качестве вектора базисных функций выбраны вектор

f(t) = (1, t)T                                                             (13)

или вектор

f(t) = (1, t, t2)T,                                                       (14)

то формулам (7) и (11) можно придать компактный вид, обеспечивающий их быструю вычислительную реализацию (индекс i далее для простоты записи опустим). Так, прогнозирование осуществляется по одному из выражений:

,                                                       (15)

,                                          (16)

а значения коэффициентов  при различных объемах M имеющихся данных приведены в таблицах 2 и 3.

Таблица 2

Коэффициенты  и  линейной модели прогноза (15)

M

3

(4x1+x2-2x3)/3

(-x1+x3)/2

4

(2x1+x2-x4)/2

(-3x1-x2+x3+3x4)/10

5

(8x1+5x2+2x3-x4-4x5)/10

(-2x1-x2+x4+2x5)/10

6

(10x1+7x2+4x3+x4-2x5-5x6)/15

(-5x1-3x2-x3+x4+3x5+5x6)/35

7

(4x1+3x2+2x3+x4-x6-2x7)/7

(-3x1-2x2-x3+x5+2x6+3x7)/28

Таблица 3

Коэффициенты , ,  квадратичной модели прогноза (16)

M

4

(9x1-3x2-5x3+3x4)/4

(-31x1+23x2+

+27x3-9x4)/20

(x1-x2-x3+x4)/4

5

(9x1-4x3-3x4+3x5)/5

(-74x1+23x2+60x3+

+37x4-46x5)/70

(2x1-x2-2x3-x4+x5)/14

6

(6578x1+518x2-

-1426x3-2341x4- -1198x5+2003x6)/4134

(-559x1+111x2+

+285x3+335x4+

+137x5-309x6)/689

(130x1-48x2-

-86x3-89x4-22x5+115x6)/1378

Полученные результаты могут быть полезны как для решения поставленной задачи прогнозирования номера образа, так и для более общей задачи прогнозирования многомерного случайного процесса в условиях экспериментальной выборки малого объема.

Список литературы

1.         Лбов Г.С., Старцева Н.Г. Логические решающие правила и вопросы статистической устойчивости решений. - Новосибирск: Изд-во Ин-та математики, 1999.

2.         Редкозубов С.А. Статистические методы прогнозирования в АСУ. - М.: Энергоиздат, 1981.

3.         Кендэл М. Временные ряды. - М.: Финансы и статистика, 1981.

4.         Schneider T., Neumaier R. Algorithm 808: ARfit – A Matlab package for the estimation of parameters and eigenmodes of multivariate autoregressive models // ACM Trans. On Mathematical Software. 2001. Vol. 27. № 1. P. 58-65.

5.         Сток Дж., Ватсон М. Векторные авторегрессии. http://www.nsu.ru/ef/tsg/ecmr/var/jepvar.htm.

6.         NIST SEMATECH e-Handbook of Statistical Methods. http://www.itl.nist.gov./div898/handbook/index.htm.

7.         Зубков А.В. Предсказание многомерных временных рядов с помощью нейросетей // Информационные технологии. - 2002. - № 2. - С. 20-29.

8.         Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. - М.: Горячая линия – Телеком, 2002.

9.         Осовский С. Нейронные сети для обработки информации. - М.: Финансы и статистика, 2002.

10.      Демиденко Е.З. Линейные и нелинейные регрессии. М.: Финансы и статистика, 1981.

 


Permanent link:
http://swsys.ru/index.php?page=article&id=636&lang=en
Print version
Full issue in PDF (1.36Mb)
The article was published in issue no. № 2, 2003

Perhaps, you might be interested in the following articles of similar topics: