ISSN 0236-235X (P)
ISSN 2311-2735 (E)

Публикационная активность

(сведения по итогам 2016 г.)
2-летний импакт-фактор РИНЦ: 0,493
2-летний импакт-фактор РИНЦ без самоцитирования: 0,389
Двухлетний импакт-фактор РИНЦ с учетом цитирования из всех
источников: 0,732
5-летний импакт-фактор РИНЦ: 0,364
5-летний импакт-фактор РИНЦ без самоцитирования: 0,303
Суммарное число цитирований журнала в РИНЦ: 5022
Пятилетний индекс Херфиндаля по цитирующим журналам: 355
Индекс Херфиндаля по организациям авторов: 499
Десятилетний индекс Хирша: 11
Место в общем рейтинге SCIENCE INDEX за 2016 год: 304
Место в рейтинге SCIENCE INDEX за 2016 год по тематике "Автоматика. Вычислительная техника": 11

Больше данных по публикационной активности нашего журнале за 2008-2016 гг. на сайте РИНЦ

Вход


Забыли пароль? / Регистрация

Добавить в закладки

Следующий номер на сайте

4
Ожидается:
16 Декабря 2017

Планирование поведения агентов на основе приобретенных знаний

Статья опубликована в выпуске журнала № 3 за 2006 год.[ 22.09.2006 ]
Аннотация:
Abstract:
Авторы: Виноградов Г.П. (wgp272ng@mail.ru) - Тверской государственный технический университет, Тверь, Россия, доктор технических наук, Лазырин М.Б. () - , ,
Ключевое слово:
Ключевое слово:
Количество просмотров: 6052
Версия для печати
Выпуск в формате PDF (1.11Мб)

Размер шрифта:       Шрифт:

При практической реализации агентных систем, а особенно систем с использованием интеллектуальных агентов, основной задачей является обеспечение их интеллектуального поведения. Поведение агентов основывается на механизмах принятия решений, в свою очередь, принятие решений может происходить рефлекторно и описываться программой или на основе логического вывода при помощи некоторых данных [2]. Наиболее близко к интеллектуальному адаптивное поведение, реализованное на основе накопленных знаний. В работе предлагается модификация метода планирования поведения агентов.

В основу обучающейся планирующей системы автономного агента взят метод планирования автономных агентов команды PSI [1] .

Представим агента команды PSI как множество: , где – полное состояние агента;  – множество элементарных действий, которые способен выполнять агент;  – исполнитель плана;  – множество планов агента;  – планирующая функция;  – рабочая база данных агента.

Полное состояние агента может быть представлено как: , где  – дискретное множество моментов времени;  – множество входных состояний, определяемое всеми возможными значениями входных данных;  – множество внутренних состояний агента.

Идея выработки планов [1] строится на понятиях расширенного плана и планирующей функции, а также на определении элементарного плана как четверки , где  и  соответственно условия начала и продолжения плана ;  и  – некоторые отображения. Расширенный план строится в соответствии со следующими правилами [1].

1.   , где  – множество элементарных планов;  – его расширение.

2.   Если план , то существует план , который является завершающей частью плана , если тот был прерван другим  элементарным планом.

3.   Если элементарные планы  и , то и элементарный план  , где , . Это правило позволяет уточнить умение , если оно прервало умение . Уточнение производится за счет усилений условий начала и продолжения применения , а также за счет изменения переходной функции элементарного плана .

В [1] расширенный план определен как слово языка планов  в алфавите   (для краткости символ  обозначается как );  определяется набором следующих правил [1].

1.       .

2.       Если , где  – последовательность символов без «» и , то . Это правило позволяет добавлять основное умение, когда исходная последовательность умений исчерпана или расширенный план пуст.

3.       Если , где , то . Это правило дает возможность преобразовать расширенный план в соответствии с условиями , .

4.       Если , где  и существует , то    где  – бинарное отношение прерываемости, определенное на  и удовлетворяющее условию , где  – семейство множеств; , где  – число уровней иерархии, такое что  и  для . Это правило обеспечивает временное прерывание выполнения  и построение расширенного плана в соответствии с отношением . Отношения прерывания  размещены в рабочей базе данных агента .

Планирующая функция в [1] определена как отображение: , где  – множество всех конечных слов в алфавите.

Правила работы планирующей функции [1]:

1.  Если  и существует наибольший элемент  по отношению Prior1, то , где , , , Prior – отношения частичного приоритета, определенные на каждом .

2.  Если , где  , , и для всех  , где , и  – наибольший элемент множества  по отношению , где , тогда если существует наибольший элемент  , то  

3.  , где ,  и существует  (), такой что для любого   и  – наибольший элемент множества  и такой, что для любого  найдется , для которого  или  не является наибольшим элементом множества . В этом случае . Если же такого  не существует, то .

4.  Во всех остальных случаях .

Очевидно, что модель обучающегося агента будет отличаться от модели агента  за счет дополнительных составляющих, необходимых для реализации механизма адаптации.

Представим обучающегося агента как множество: , где  – рабочая база знаний агента, главным ее отличием от базы данных  агента   является наличие нечеткого показателя для каждого из отношений прерываемости  и для каждого из частичных приоритетов Prior;  – буфер элементарных планов; ,  – отношения состояния агента;  и  – функции модификации рабочей базы знаний агента.

Обучение агента производится за счет изменения нечетких показателей отношения  и . Изменение отношений прерывания  производится функцией , а частичных порядков  – функцией .

Обучение агента происходит в соответствии со следующими правилами.

1.   Если  и , то ,   и , где  и . При ухудшении состояния агента в момент времени  по отношению к моменту времени  происходит ослабление отношений прерываемости  и частичных приоритетов Prior, проверяемых при формировании плана, содержащегося в буфере , и очистка этого буфера.

2.   Если  и , то ,   и , где  и . При улучшении состояния агента происходит усиление отношений прерываемости  и частичных приоритетов Prior, проверяемых при формировании плана, содержащегося в буфере , и очистка этого буфера.

3.   Если , то . При увеличении размера буфера элементарных планов до заданного значения происходит его очистка.

Предварительная настройка системы ложится на разработчиков, в частности назначение первоначальных значений нечетких показателей отношений прерываемости и приоритетов в базе знаний агента, но предлагаемый подход предполагает их подстройку в процессе функционирования.

Дальнейшим развитием системы может являться динамическое расширение семейств частичных приоритетов за счет представления их как , где , , , , и задания нечетким показателям Prior нейтральных значений. Возможно также развитие системы за счет подстройки параметра , например в зависимости от временных или ресурсных ограничений на выработку плана поведения агента. Кроме того, в качестве обучающегося механизма возможно использование искусственных нейронных сетей.

Список литературы

1.   Кожушкин А.Н. Метод планирования автономных агентов команды PSI // Тр. Междунар. конф.: Интеллектуальное управление: новые интеллектуальные технологии в задачах управления (ICIT'99) (декабрь 1999, Переславль-Залесский). – www.raai.org.

2.   Клышинский Э.С. Одна модель построения агента // Там же.

3.   Поспелов Д.А. Многоагентные системы – настоящее и будущее // Информационные технологии и вычислительные системы. – 1998. – № 1. – С.14 –  21.

4.   Чекинов Г.П., Чекинов С.Г. Применение технологии многоагентных систем для интеллектуальной поддержки принятия решения (ИППР) //Сетевой электрон. науч. журн. "Системотехника". – 2003. – № 1.


Постоянный адрес статьи:
http://swsys.ru/index.php?page=article&id=462
Версия для печати
Выпуск в формате PDF (1.11Мб)
Статья опубликована в выпуске журнала № 3 за 2006 год.

Возможно, Вас заинтересуют следующие статьи схожих тематик: