ISSN 0236-235X (P)
ISSN 2311-2735 (E)

Публикационная активность

(сведения по итогам 2016 г.)
2-летний импакт-фактор РИНЦ: 0,493
2-летний импакт-фактор РИНЦ без самоцитирования: 0,389
Двухлетний импакт-фактор РИНЦ с учетом цитирования из всех
источников: 0,732
5-летний импакт-фактор РИНЦ: 0,364
5-летний импакт-фактор РИНЦ без самоцитирования: 0,303
Суммарное число цитирований журнала в РИНЦ: 5022
Пятилетний индекс Херфиндаля по цитирующим журналам: 355
Индекс Херфиндаля по организациям авторов: 499
Десятилетний индекс Хирша: 11
Место в общем рейтинге SCIENCE INDEX за 2016 год: 304
Место в рейтинге SCIENCE INDEX за 2016 год по тематике "Автоматика. Вычислительная техника": 11

Больше данных по публикационной активности нашего журнале за 2008-2016 гг. на сайте РИНЦ

Вход


Забыли пароль? / Регистрация

Добавить в закладки

Следующий номер на сайте

4
Ожидается:
16 Декабря 2017

Использование нейросетевых алгоритмов в интеллектуальных системах поддержки принятия решений

Статья опубликована в выпуске журнала № 4 за 2003 год.[ 20.12.2003 ]
Аннотация:
Abstract:
Авторы: Ветров А.Н. (vetrov_48@mail.ru) - Тверской государственный технический университет, Тверь, Россия, кандидат технических наук, Абу Суек Атия Ражаб Мохаммед () - , , , Семенов Н.А. (dmitrievtstu@mail.ru) - Тверской государственный технический университет, г. Тверь, Россия, доктор технических наук
Ключевое слово:
Ключевое слово:
Количество просмотров: 7485
Версия для печати
Выпуск в формате PDF (1.06Мб)

Размер шрифта:       Шрифт:

В статье рассматриваются вопросы поддержки принятия решений в процессе стоимостной оценки разнотипных объектов, стоимость которых зависит от тех свойств, которые присущи данному объекту. Такие задачи возникают при кадастровой оценке земель, стоимостной оценке объектов недвижимости, ювелирных изделий и т.п. Наиболее распространенным является подход, основанный на сопоставимости продаж, на прямом сравнении оцениваемого объекта с другими, уже проданными или выставленными на продажу. Когда эксперт располагает информацией по достаточному количеству сопоставимых продаж и предложений, ему сравнительно легко определить ценовые тенденции, служащие своеобразным индикатором рыночной стоимости.

Формально процедуру стоимостной оценки объектов, основанной на сопоставимости продаж, можно рассматривать как последовательность решения следующих задач:

·  оптимального выбора эталонных групп объектов со сходными (пересекающимися) свойствами и получения достоверной оценки стоимости объектов в эталонных группах (задача кластеризации);

·  отнесения оцениваемого образца к той или иной эталонной группе (задача классификации);

·  наилучшей аппроксимации (экстраполяции) стоимостных оценок минералов в эталонных группах на оцениваемый образец.

Обозначим вектором X=(x1,x2,…,xn) переменные, определяющие стоимость минерала определенного вида. Число минералов, для которых известна стоимостная оценка, обозначим через K. Тогда образцы минералов будут характеризоваться набором из К векторов – {(X1, Z1), (X2, Z2), , (ХK, ZK)}, где Zk, k Î {1,…,K} устанавливает достоверную стоимость каждого образца. Полученный набор определяет исходную базу знаний для обучения соответствующих нейронных сетей (НС) и построения отображения F: X à Z, то есть процедуры оценки стоимости произвольного объекта по его входным параметрам

Для разделения исходного множества образцов на s классов можно использовать сеть Кохонена, которая состоит из s нейронов (ядер), каждый из которых вычисляет близость объекта к своему классу. Все нейроны работают параллельно. Объект считается принадлежащим к тому классу, нейрон которого выдал минимальный сигнал.

Алгоритм обучения сети решению такой задачи состоит в следующем. Задается некоторый начальный набор параметров нейронов. Один объект Xi предъявляется сети, и находится нейрон, выдавший максимальный сигнал. Пусть номер этого нейрона i. Тогда параметры нейрона модифицируются, и сети предъявляется следующий объект и так далее до тех пор, пока после очередного цикла предъявления всех объектов не окажется, что параметры всех нейронов изменились на величину, меньшую заранее заданной точности ε. Для некоторых мер близости после преобразования может потребоваться дополнительная нормировка параметров нейрона.

Альтернативой методам пообъектного обучения сетей Кохонена является метод динамических ядер, который напрямую минимизирует суммарную меру близости. Метод является итерационной процедурой, каждая итерация которой состоит из двух шагов. Сначала задаются начальные значения ядер. Затем выполняются разбиение на классы при фиксированных значениях ядер и оптимизация значений ядер при фиксированном разбиении на классы:

-   процедура останавливается после очередного разбиения на классы;

-   процедура сходится за конечное число шагов, причем ни на одном шаге не происходит возрастания суммарной меры близости.

В задаче обучения сети Кохонена и в методе динамических ядер важным является выбор начального приближения и определение числа классов.

Самым универсальным способом задания начального положения ядер является задание начального разбиения объектов на классы. Простой перебор различных чисел классов часто неэффективен. Критерием для определения реального числа классов может служить плотность точек в классе. Объем класса определяется как объем шара с центром в ядре класса и радиусом, равным радиусу класса. Для простоты можно считать объем класса равным объему куба с длинной стороны равной радиусу класса (объем шара будет отличаться от объема куба на постоянный множитель, зависящий только от размерности пространства). Плотностью класса считается отношение числа точек в классе к объему класса. Отметим, что этот критерий применим для любых мер близости, а не только для тех случаев, когда ядра и точки принадлежат одному пространству.

Метод применения этого критерия состоит в следующем. Первый класс разбивается на два, и запускается процедура НС (метод динамических ядер или обучение сети Кохонена). Если плотности обоих классов, полученных разбиением одного класса, не меньше плотности исходного класса, то разбиение считается правильным. В противном случае восстанавливаются классы, предшествовавшие разбиению, и происходит переход к следующему классу. Если после очередного просмотра всех классов не удалось получить ни одного правильного разбиения, то полученное число классов считается соответствующим реальному. Эту процедуру обычно запускают с малого числа классов, например с двух.

Для решения задачи отнесения исследуемого оцениваемого объекта к той или иной стоимостной группе более предпочтительным представляется использование сети радиального базиса, поскольку базис появляется естественным образом в виде кластеров. Для решения задачи аппроксимации нейросеть должна содержать n нейронов во входном слое и один нейрон в выходном. Количество нейронов в скрытом слое персептрона зависит от требуемой точности и определяется на основе теоремы Колмогорова.

После определения принадлежности оцениваемого объекта к определенной группе нужно построить функцию для аппроксимации стоимостных характеристик этой группы на данный объект. Для этих целей идеально подходит НС прямого распространения (персептрон). Персептрон содержит входной слой, выходной и несколько (обычно 1–2) скрытых слоев. Каждый нейрон связан со всеми нейронами следующего слоя весами W.

Нейроны входного слоя имеют линейную передаточную функцию, а все остальные – сигмоидную. Процесс обучения персептрона (настройки весов W) полностью идентичен описанному выше для автоассоциативной сети.

Существует другая разновидность персептрона – сеть радиальных базисных функций, содержащая один скрытый слой с потенциальными передаточными функциями:

F(x) = exp(-(x - b)TC(x – b),

где b – центр положения базисной функции (часто совпадает с центром территориального фрагмента или кластера); С – ковариационная матрица.

Настраиваемые параметры здесь – и веса сети W, и параметры b и С.

Классический персептрон – универсальная структура, способная аппроксимировать функции любой степени сложности, однако требует значительных затрат времени для настройки.

НС радиального базиса настраивается довольно быстро, но ее использование обычно сдерживается отсутствием обоснованных соображений относительно выбора базиса. Для решения задачи аппроксимации НС должна содержать n нейронов во входном слое и один нейрон в выходном. Количество нейронов в скрытом слое персептрона зависит от требуемой точности и определяется на основе теоремы Колмогорова. Количество функций радиального базиса равно числу кластеров. На вход сети подаются значения векторов параметров эталонных образцов Xk, k = 1, ..., K и при настройке добиваются появления на выходе НС достоверной цены Zk.

Ошибка функционирования сети на этих данных определяется как

Е = 0.5å(Zk – Yk)2, где Yk – выход НС, а суммирование проводится по всем эталонным кварталам или кластерам, участвующим в обучении.

Для уменьшения этой ошибки следует изменить веса сети по следующему правилу:

Wnew = Wold - adE/dW, где a – константа, характеризующая скорость адаптации.

Формула описывает процесс градиентного спуска в пространстве весов. Выражение для производной dE/dW имеет следующий вид:

dE/dWs-1ij = (Zj – Yj)Fj'us-1i – для весов между последним скрытым слоем (s = S) и выходным слоем и

dE/dWs-1ij = å[(Zl– Yjl)Fj'Wsjl]Fj'us-1i – для скрытых слоев, то есть s =1, 2, ..., S–1. Здесь переменной us-li обозначен выход нейронов скрытого и входного слоев, на что указывает верхний индекс (s–1).

Если в качестве нелинейной преобразующей функции F используется сигмоидная функция, то вместо этих выражений удобно использовать следующие рекуррентные формулы:

d s-1j = (Zj - Yj)Yj(1 - Yj), dE/dW s-1ij = d s-1j u s-1i  – для выходного слоя и

d s-1j = å[d sl W sjl]u sj(1 - u sj), dE/dW s-1ij = d s-1j u s-1i  – для скрытых слоев. Эти соотношения называются формулами обратного распространения ошибки. Если при прямом функционировании входной сигнал распространяется по сети от входного слоя к выходному, то при подстройке весов ошибка сети d распространяется от выходного слоя к входному.

После адаптации НС будет способна по любому вектору входных параметров X выдавать оценку стоимости исследуемого образца. Поскольку используемые передаточные функции являются монотонными, ошибка аппроксимации определяется через расстояние до ближайшей базисной функции и выдается НС в виде числа. Значения весовых множителей сети Wij определяют величину зависимости параметров, по которым проводится оценка, и могут использоваться для анализа и обоснования результатов.

Последовательное применение перечисленных алгоритмов, как это отражено на рисунке, образует интеллектуальную систему поддержки принятия решений при стоимостной оценке объектов.

Подпись:  
Обобщенная архитектура ИСППР
Данная система была разработана в среде MATLAB и использовалась для стоимостной оценки драгоценных камней.

Выбор интегрированной системы MATLAB в качестве инструментального средства обусловлен наличием в ней языка программирования высокого уровня и модулей расширения, таких как Database Toolbox, Fuzzy Logic Toolbox, Neural Network Toolbox. Совместное использование этих инструментов, а также средств разработки графических приложений и визуализации расчетных данных, создания независимо исполняемых приложений позволяет создавать эффективные приложения с минимальными затратами времени. Кроме того, матричный процессор, реализуя механизм векторной обработки данных, обеспечивает высокую точность и скорость вычислений.

Предлагаемая архитектура ИСППР на основе нейросетевых алгоритмов показывает одно из возможных направлений формализованного решения прикладных задач определения стоимостных характеристик объектов.

Список литературы

1. Искусственный интеллект: В 3 кн. Справочник /Под ред. Э.В. Попова, Д.А. Поспелова. – М.: Радио и связь, 1990.

2. Медведев Б.С., Потемкин В.Г. Нейронные сети. MATLAB 6. - М.: ДИАЛОГ-МИФИ, 2002. – 396 с.


Постоянный адрес статьи:
http://swsys.ru/index.php?page=article&id=615
Версия для печати
Выпуск в формате PDF (1.06Мб)
Статья опубликована в выпуске журнала № 4 за 2003 год.

Возможно, Вас заинтересуют следующие статьи схожих тематик: