Пусть для каждого объекта a из генеральной совокупности A можно измерить набор его количественных характеристик x(tj)=[x1(tj), x2(tj),…, xn(tj)]T (здесь T – символ транспонирования) в последовательные моменты времени t1, t2,…, tj,…, tN. Предполагается, что в момент времени tN может быть определен номер образа Y(a)=y, который имеет рассматриваемый объект; yÎDy, Dy={1,2,…,r,…S}, S – число образов (классов). Задача состоит в том, чтобы дать прогноз номера образа для момента tN объекта a на основе эмпирической информации, представляющей для объекта aÎA измерения его характеристик x(tj) в моменты времени tj, j=1,2,…,M; MtM объект может быть отнесен к тому или иному классу) должно быть принято в момент tM (интервал tN-tM между выдачей прогноза и моментом начала реакции на этот прогноз включает в себя подготовительные операции, связанные, например, с прицеливанием средств ПВО на приближающийся летательный аппарат и т.п.).
Другой пример. Пусть некоторый технологический процесс описывается набором характеристик (вектором) x(t), изменяющимся во времени. По окончании технологического процесса полученное изделие может быть забраковано или не забраковано (S=2). Необходимо до окончания технологического процесса оценить возможность получения бракованного изделия для введения соответствующего управляющего воздействия на технологический процесс.
По-видимому, впервые задача прогнозирования номера образа по текущим характеристикам объекта сформулирована в монографии [1], где был предложен один из возможных подходов к ее решению, не налагающий, вообще говоря, каких-либо ограничений на условия проведения эксперимента.
Обсудим возможные ограничения и методы решения исследуемой задачи. Очевидно, в самом "жестком" ее варианте необходимо исходить из следующих допущений:
1) число имеющихся наблюдений M невелико, например, M£10;
2) какая-либо информация о вероятностных характеристиках векторов x(tj) отсутствует;
3) номер образа в момент времени tN по вектору признаков x(tN) определяется без ошибки;
4) решающее правило формируется на основании некоторой априорной информации и в простейшем случае (при наличии только двух образов 1 и 2 (S=2)) записывается в виде
(1)
где G(x)=0 – уравнение линии (поверхности), разделяющей объекты двух классов; d – неотрицательная константа, задающая область неопределенности принятия решения (данная константа, вообще говоря, может быть принята равной нулю).
При наличии приведенных ограничений рассматриваемая задача сводится к задаче прогнозирования векторного, в общем случае нестационарного стохастического процесса, решение которой при наличии условий 1 и 2 может осуществляться ограниченным числом методов:
а) трендовым – с применением временных полиномов [2,3];
б) с использованием модели многомерной (векторной) авторегрессии [3-6];
в) с использованием аппарата искусственных нейронных сетей (см., например, [7]).
В первом методе предполагается аппроксимация (трендовая модель)
, (2)
где f(t) – m-мерный вектор базисных функций времени, например, вида
f(t) = (1, t, t2,…, tm-1)T, (3)
C – матрица размера n´m коэффициентов модели.
Элементы данной матрицы определяются по имеющимся экспериментальным данным методом наименьших квадратов (МНК), причем, как будет показано ниже, для нахождения этих n´m элементов достаточно иметь m наблюдений x(t1), x(t2),…, x(tm) при известных t1¸tm. Отметим, что в условиях рассматриваемой задачи вряд ли целесообразно применять для прогнозирования временной полином степени выше второй-третьей, поэтому этот метод является достаточно экономичным в плане требуемой для его реализации экспериментальной информации.
Прогноз с использованием модели многомерной авторегрессии применяется, как правило, при дополнительном ограничении
tj+1-tj=T=const, (4)
то есть при эквидистантном расположении моментов времени (здесь T – интервал или такт дискретизации). Прогноз на один такт рассчитывается по формуле
, (5)
где в данном случае m – порядок модели; xj=x(tj); вектор c0 (размера n´1) и матрицы C1¸Cm (размера n´n) содержат коэффициенты модели.
Как можно показать, для оценивания коэффициентов приведенной модели нужно иметь не менее 1+n×m наблюдений вектора x(tj), то есть эта модель является, вообще говоря, менее экономичной, чем предыдущая. Но основной особенностью такой модели (в данном случае это – недостаток) является то, что она может адекватно отображать (и, соответственно, прогнозировать) только стационарные стохастические процессы.
Использование нейросетевого подхода требует, прежде всего, наличие экспериментальных данных, представленных в форме таблицы обучающей выборки вида таблицы 1.
Таблица 1
Данные обучающей выборки
Номер
примера
|
Входы
нейронной сети
|
Целевые
значения
(выходы)
|
1
|
|
|
. . .
|
|
|
2
|
|
|
. . .
|
|
|
. . .
|
. . .
|
. . .
|
. . .
|
. . .
|
. . .
|
k
|
|
|
. . .
|
|
|
. . .
|
. . .
|
. . .
|
. . .
|
. . .
|
. . .
|
L
|
|
|
. . .
|
|
|
Здесь = x(k)(tj) – значение вектора признаков объекта в момент времени tj=j×T для k-го примера обучающей выборки.
Не останавливаясь на всех деталях (см. [8,9]), отметим лишь, что данному подходу свойствен- ны недостатки предыдущего метода – большой требуемый объем обучающей выборки (десятки и сотни примеров) и возможность надежного прогнозирования только стационарных случайных процессов.
С учетом изложенного можно сделать вывод, что лучшим методом решения рассматриваемой задачи является метод с использованием трендовых моделей.
Рассмотрим подробнее некоторые его особенности, исходя из общей модели (2), предположив, что вектор базисных функций f(t) задан (например, выражением (3)).
В соответствии с (2) запишем соотношение для i-й компоненты вектора x для произвольного момента времени tj:
xi(tj) = + ei(tj), , (6)
где – i-я строка матрицы C; ei – ошибка модели, обусловленная как систематической, так и случайной составляющими.
Полагая в (6) j=1,2,…,M, запишем систему равенств
xi(t1) = + ei(tj)
xi(t2) = + ei(t2)
. . .
xi(tM) = + ei(tM),
на основании которой методом наименьших квадратов (при M³m) найдем оценку [10]:
, (7)
где матрица FM´m образована строками вида fT(tj), а вектор-строка
=[xi(t1), xi(t2),…, xi(tM)]. (8)
Очевидно, равенство (7) справедливо для i=1, 2,…, n. Объединение подобных равенств дает
, (9)
где матрица X образована векторами-столбцами x(tj), , а i-я строка матрицы определяются выражением (7).
Как видно из анализа (9), все элементы матрицы C однозначно восстанавливаются (в случае невырожденности матрицы FT×F) при M³m, что и было отмечено выше.
Прогнозирование значения вектора x для момента времени tN (tN>tM) проводится по соотношению (см. (2))
, (10)
а его отдельной компоненты – по формуле
, . (11)
Если моменты наблюдений tj удовлетворяют (4) так, что можно записать
tj = j×T, j=1,2,…,M,…,N, (12)
а в качестве вектора базисных функций выбраны вектор
f(t) = (1, t)T (13)
или вектор
f(t) = (1, t, t2)T, (14)
то формулам (7) и (11) можно придать компактный вид, обеспечивающий их быструю вычислительную реализацию (индекс i далее для простоты записи опустим). Так, прогнозирование осуществляется по одному из выражений:
, (15)
, (16)
а значения коэффициентов при различных объемах M имеющихся данных приведены в таблицах 2 и 3.
Таблица 2
Коэффициенты и линейной модели прогноза (15)
M
|
|
|
3
|
(4x1+x2-2x3)/3
|
(-x1+x3)/2
|
4
|
(2x1+x2-x4)/2
|
(-3x1-x2+x3+3x4)/10
|
5
|
(8x1+5x2+2x3-x4-4x5)/10
|
(-2x1-x2+x4+2x5)/10
|
6
|
(10x1+7x2+4x3+x4-2x5-5x6)/15
|
(-5x1-3x2-x3+x4+3x5+5x6)/35
|
7
|
(4x1+3x2+2x3+x4-x6-2x7)/7
|
(-3x1-2x2-x3+x5+2x6+3x7)/28
|
Таблица 3
Коэффициенты , , квадратичной модели прогноза (16)
M
|
|
|
|
4
|
(9x1-3x2-5x3+3x4)/4
|
(-31x1+23x2+
+27x3-9x4)/20
|
(x1-x2-x3+x4)/4
|
5
|
(9x1-4x3-3x4+3x5)/5
|
(-74x1+23x2+60x3+
+37x4-46x5)/70
|
(2x1-x2-2x3-x4+x5)/14
|
6
|
(6578x1+518x2-
-1426x3-2341x4- -1198x5+2003x6)/4134
|
(-559x1+111x2+
+285x3+335x4+
+137x5-309x6)/689
|
(130x1-48x2-
-86x3-89x4-22x5+115x6)/1378
|
Полученные результаты могут быть полезны как для решения поставленной задачи прогнозирования номера образа, так и для более общей задачи прогнозирования многомерного случайного процесса в условиях экспериментальной выборки малого объема.
Список литературы
1. Лбов Г.С., Старцева Н.Г. Логические решающие правила и вопросы статистической устойчивости решений. - Новосибирск: Изд-во Ин-та математики, 1999.
2. Редкозубов С.А. Статистические методы прогнозирования в АСУ. - М.: Энергоиздат, 1981.
3. Кендэл М. Временные ряды. - М.: Финансы и статистика, 1981.
4. Schneider T., Neumaier R. Algorithm 808: ARfit – A Matlab package for the estimation of parameters and eigenmodes of multivariate autoregressive models // ACM Trans. On Mathematical Software. 2001. Vol. 27. № 1. P. 58-65.
5. Сток Дж., Ватсон М. Векторные авторегрессии. http://www.nsu.ru/ef/tsg/ecmr/var/jepvar.htm.
6. NIST SEMATECH e-Handbook of Statistical Methods. http://www.itl.nist.gov./div898/handbook/index.htm.
7. Зубков А.В. Предсказание многомерных временных рядов с помощью нейросетей // Информационные технологии. - 2002. - № 2. - С. 20-29.
8. Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. - М.: Горячая линия – Телеком, 2002.
9. Осовский С. Нейронные сети для обработки информации. - М.: Финансы и статистика, 2002.
10. Демиденко Е.З. Линейные и нелинейные регрессии. М.: Финансы и статистика, 1981.