ISSN 0236-235X (P)
ISSN 2311-2735 (E)

Публикационная активность

(сведения по итогам 2016 г.)
2-летний импакт-фактор РИНЦ: 0,493
2-летний импакт-фактор РИНЦ без самоцитирования: 0,389
Двухлетний импакт-фактор РИНЦ с учетом цитирования из всех
источников: 0,732
5-летний импакт-фактор РИНЦ: 0,364
5-летний импакт-фактор РИНЦ без самоцитирования: 0,303
Суммарное число цитирований журнала в РИНЦ: 5022
Пятилетний индекс Херфиндаля по цитирующим журналам: 355
Индекс Херфиндаля по организациям авторов: 499
Десятилетний индекс Хирша: 11
Место в общем рейтинге SCIENCE INDEX за 2016 год: 304
Место в рейтинге SCIENCE INDEX за 2016 год по тематике "Автоматика. Вычислительная техника": 11

Больше данных по публикационной активности нашего журнале за 2008-2016 гг. на сайте РИНЦ

Вход


Забыли пароль? / Регистрация

Добавить в закладки

Следующий номер на сайте

4
Ожидается:
16 Декабря 2017

Принятие решений по оценке драгоценных камней на основе нейросетевых алгоритмов

Статья опубликована в выпуске журнала № 4 за 2007 год.[ 21.12.2007 ]
Аннотация:
Abstract:
Авторы: Абу Суек Атия Ражаб Мохаммед () - , ,
Количество просмотров: 6717
Версия для печати
Выпуск в формате PDF (2.00Мб)

Размер шрифта:       Шрифт:

Оценка ювелирных изделий, в том числе и драгоценных камней, всегда считалась сложной задачей, решаемой на основе предпочтений эксперта. Использование традиционных технологий искусственного интеллекта, таких как экспертные системы, не нашло в гемологии широкого распространения. Поэтому более перспективным представляется подход, основанный на использовании методов распознавания образов, классификации и кластеризации.

Пусть имеется К образцов драгоценных камней, для которых известна достоверная стоимость каждого образца . Для каждого образца известен вектор его характеристик (признаков), в конечном итоге определяющих его стоимость X=(x1,x2,…xn). Используем эти данные для построения отображения F:X a Z, определяющего процедуру оценки стоимости нового объекта по известному вектору характеристик. Применим математический аппарат искусственных нейронных сетей, для которых описанное множество объектов будет служить обучающей выборкой для формирования эталонных классов.

Для решения задачи кластеризации исходного множества образцов целесообразно использовать сеть Кохонена, состоящую из S нейронов, каждый из которых  представляет собой эталон определенного класса и вычисляет расстояние от исследуемого объекта до этого класса. Очевидно, что минимальный сигнал, получаемый на множестве из S параллельно работающих нейронов, определяет класс, к которому принадлежит исследуемый объект.

Для реализации алгоритма необходимо определить меру соседства нейронов (окрестность нейрона-победи­теля). Зоны соседства уменьшаются с течением времени обучения.

Даже если было найдено относительно хорошее решение, для его усовершенствования может использоваться алгоритм предельной коррекции. Алгоритм способен действовать, если нейрон-победитель находится в неправильном классе, а второй наилучший нейрон в правильном классе. Обучающий вектор должен быть близко от средней точки пространства, соединяющего эти два нейрона. Неправильный нейрон-победитель смещается из обучающего вектора, а нейрон из другого места продвигается к обучающему вектору. Эта процедура делает четкой границу между областями, где возможна неверная классификация.

Обучение сетей Кохонена может продолжаться долго, так как размерность самоорганизующейся карты признаков достаточно велика. Альтернативой этому методу обучения может выступать метод динамических ядер. Реализуются эти методы в виде итерационной процедуры. На каждой итерации метода задаются начальные значения ядер, для чего необходимо задаться  начальным количеством классов. Для заданных ядер определяется разбиение обучающей выборки на классы и вычисляется значение принятой меры близости. Значения ядер изменяются для оптимизации меры близости при фиксированном количестве классов. При невозрастании суммарной меры близости за определенное количество шагов алгоритм заканчивает свою работу.

Оба метода достаточно чувствительны к заданию начального разбиения на классы, которое определяет исходное положение ядер. Так как оптимальное число классов может быть достаточно велико, простой перебор различных чисел часто приводит к неэффективной работе алгоритма.

Самым универсальным способом задания начального положения ядер является задание начального разбиения объектов на классы. При этом в начальном разбиении могут участвовать не все объекты. Решая задачу оптимизации ядер, получаем начальные значения ядер. Далее можно использовать метод динамических ядер.

Дополнительным критерием для определения начального числа классов, близкого к реальному, может послужить плотность расположения объектов в пространстве классов. Эта плотность может быть оценена как отношение числа объектов в классе к объему класса. В свою очередь, объем класса может быть вычислен как объем шара  с центром в ядре класса и с радиусом, равным радиусу класса. В более общем случае можно раздельно оценивать радиусы класса по различным осям координат, тогда объем класса можно вычислить как объем соответствующего эллипсоида.

Более простой подход состоит в вычислении объема класса как объема куба со стороной, равной радиусу класса. При раздельном оценивании радиусов по осям координат аналогично можно вычислить объем соответствующего параллелепипеда.

Способ применения этого критерия достаточно прост. Задаемся начальным разбиением множества объектов на классы. Затем выбираем один класс из этого множества и делим его на два, для чего используется метод динамических ядер или сеть Кохонена. Если в результате разбиения получаются классы с плотностью, не меньшей, чем исходный класс, то разбиение считается удачным, и процедура повторяется для следующего класса. В противном случае результат последнего разбиения аннулируется. Эта процедура повторяется для всех классов, и если при этом  не получено ни одного удачного разбиения, то алгоритм заканчивает работу, а полученное число классов считается соответствующим их реальному количеству.

Описанный алгоритм применяется для формирования классов, соответствующих различным стоимостным группам исследуемых объектов. Для решения задачи распознавания нового объекта, то есть отнесения исследуемого образца к той или иной стоимостной группе, возможно применение аппарата нейросетей. Однако на этом этапе более предпочтительным представляется использование нейросетей с радиальными базисными функциями. Естественным способом проявления базиса в данном случае являются ранее определенные N кластеров. Соответственно, сеть, решающая задачу классификации, будет иметь N нейронов во входном слое и один выходной нейрон. Между ними располагается еще один скрытый слой нейронов, количество которых должно обеспечить необходимую точность распознавания; оно и определяется по теореме Колмогорова.

Результатом распознавания исследуемого объекта является его отнесение к одному из классов, то есть к конкретной стоимостной группе. Далее необходимо определить стоимость этого объекта, для чего нужно выполнить аппроксимацию стоимостных характеристик его класса на данный конкретный объект. Задачи аппроксимации функций многих переменных также могут быть решены с помощью нейросети, традиционно для этого наиболее подходящей считается нейросеть прямого распространения, то есть персептрон.

Кроме входного и выходного слоя персептрон содержит несколько (чаще всего 1 или 2) скрытых слоев, при этом каждый нейрон связан со всеми нейронами следующего слоя. Входной слой нейронов реализует линейную передаточную функцию, скрытые и выходные нейроны – сигмоидную функцию. Процесс обучения такого персептрона заключается в настройке весов связей W между его слоями.

Наиболее быстро настраиваемая разновидность персептрона – сеть с радиальными базисными функциями, в которой скрытый слой всего один, – реализует потенциальные передаточные функции, которые определяются в виде: .

Центр положения базисной функции b обычно определяется центром соответствующего кластера, параметр С представляет собой ковариационную матрицу. В ходе обучения сети настраиваются параметры W и С, но могут также изменяться и центры b.

Чтобы определить ошибку обучения сети, необходимо просуммировать квадраты отклонения результата работы сети по всем кластерам, участвующим в обучении, от реальных цен, определенных в обучающей выборке. Для уменьшения этой ошибки обычно используется метод градиентного спуска. При этом выражение для производной весов вычисляется отдельно для связей между выходным и последним скрытым слоем и для связей между скрытыми слоями. Если в качестве нелинейной преобразующей функции нейрона используется сигмоидная функция, получаем известный метод обратного распространения ошибки.

Реализации и последовательное применение перечисленных алгоритмов могут служить основой для создания интеллектуальной системы поддержки принятия решений при стоимостной оценке объектов.

Кроме задач оценки различных драгоценных камней, разработанная система может применяться при оценке объектов недвижимости.


Постоянный адрес статьи:
http://swsys.ru/index.php?page=article&id=317
Версия для печати
Выпуск в формате PDF (2.00Мб)
Статья опубликована в выпуске журнала № 4 за 2007 год.

Назад, к списку статей

Хотите оценить статью или опубликовать комментарий к ней - зарегистрируйтесь