Journal influence
Bookmark
Next issue
Abstract:
Аннотация:
Authors: Vinogradov G.P. (wgp272ng@mail.ru) - Tver State Technical University, Tver, Russia, Ph.D, () - | |
Ключевое слово: |
|
Page views: 11461 |
Print version Full issue in PDF (1.11Mb) |
При практической реализации агентных систем, а особенно систем с использованием интеллектуальных агентов, основной задачей является обеспечение их интеллектуального поведения. Поведение агентов основывается на механизмах принятия решений, в свою очередь, принятие решений может происходить рефлекторно и описываться программой или на основе логического вывода при помощи некоторых данных [2]. Наиболее близко к интеллектуальному адаптивное поведение, реализованное на основе накопленных знаний. В работе предлагается модификация метода планирования поведения агентов. В основу обучающейся планирующей системы автономного агента взят метод планирования автономных агентов команды PSI [1] . Представим агента команды PSI как множество: , где – полное состояние агента; – множество элементарных действий, которые способен выполнять агент; – исполнитель плана; – множество планов агента; – планирующая функция; – рабочая база данных агента. Полное состояние агента может быть представлено как: , где – дискретное множество моментов времени; – множество входных состояний, определяемое всеми возможными значениями входных данных; – множество внутренних состояний агента. Идея выработки планов [1] строится на понятиях расширенного плана и планирующей функции, а также на определении элементарного плана как четверки , где и соответственно условия начала и продолжения плана ; и – некоторые отображения. Расширенный план строится в соответствии со следующими правилами [1]. 1. , где – множество элементарных планов; – его расширение. 2. Если план , то существует план , который является завершающей частью плана , если тот был прерван другим элементарным планом. 3. Если элементарные планы и , то и элементарный план , где , . Это правило позволяет уточнить умение , если оно прервало умение . Уточнение производится за счет усилений условий начала и продолжения применения , а также за счет изменения переходной функции элементарного плана . В [1] расширенный план определен как слово языка планов в алфавите (для краткости символ обозначается как ); определяется набором следующих правил [1]. 1. . 2. Если , где – последовательность символов без «» и , то . Это правило позволяет добавлять основное умение, когда исходная последовательность умений исчерпана или расширенный план пуст. 3. Если , где , то . Это правило дает возможность преобразовать расширенный план в соответствии с условиями , . 4. Если , где и существует , то где – бинарное отношение прерываемости, определенное на и удовлетворяющее условию , где – семейство множеств; , где – число уровней иерархии, такое что и для . Это правило обеспечивает временное прерывание выполнения и построение расширенного плана в соответствии с отношением . Отношения прерывания размещены в рабочей базе данных агента . Планирующая функция в [1] определена как отображение: , где – множество всех конечных слов в алфавите. Правила работы планирующей функции [1]: 1. Если и существует наибольший элемент по отношению Prior1, то , где , , , Prior – отношения частичного приоритета, определенные на каждом . 2. Если , где , , и для всех , где , и – наибольший элемент множества по отношению , где , тогда если существует наибольший элемент , то 3. , где , и существует (), такой что для любого и – наибольший элемент множества и такой, что для любого найдется , для которого или не является наибольшим элементом множества . В этом случае . Если же такого не существует, то . 4. Во всех остальных случаях . Очевидно, что модель обучающегося агента будет отличаться от модели агента за счет дополнительных составляющих, необходимых для реализации механизма адаптации. Представим обучающегося агента как множество: , где – рабочая база знаний агента, главным ее отличием от базы данных агента является наличие нечеткого показателя для каждого из отношений прерываемости и для каждого из частичных приоритетов Prior; – буфер элементарных планов; , – отношения состояния агента; и – функции модификации рабочей базы знаний агента. Обучение агента производится за счет изменения нечетких показателей отношения и . Изменение отношений прерывания производится функцией , а частичных порядков – функцией . Обучение агента происходит в соответствии со следующими правилами. 1. Если и , то , и , где и . При ухудшении состояния агента в момент времени по отношению к моменту времени происходит ослабление отношений прерываемости и частичных приоритетов Prior, проверяемых при формировании плана, содержащегося в буфере , и очистка этого буфера. 2. Если и , то , и , где и . При улучшении состояния агента происходит усиление отношений прерываемости и частичных приоритетов Prior, проверяемых при формировании плана, содержащегося в буфере , и очистка этого буфера. 3. Если , то . При увеличении размера буфера элементарных планов до заданного значения происходит его очистка. Предварительная настройка системы ложится на разработчиков, в частности назначение первоначальных значений нечетких показателей отношений прерываемости и приоритетов в базе знаний агента, но предлагаемый подход предполагает их подстройку в процессе функционирования. Дальнейшим развитием системы может являться динамическое расширение семейств частичных приоритетов за счет представления их как , где , , , , и задания нечетким показателям Prior нейтральных значений. Возможно также развитие системы за счет подстройки параметра , например в зависимости от временных или ресурсных ограничений на выработку плана поведения агента. Кроме того, в качестве обучающегося механизма возможно использование искусственных нейронных сетей. Список литературы 1. Кожушкин А.Н. Метод планирования автономных агентов команды PSI // Тр. Междунар. конф.: Интеллектуальное управление: новые интеллектуальные технологии в задачах управления (ICIT'99) (декабрь 1999, Переславль-Залесский). – www.raai.org. 2. Клышинский Э.С. Одна модель построения агента // Там же. 3. Поспелов Д.А. Многоагентные системы – настоящее и будущее // Информационные технологии и вычислительные системы. – 1998. – № 1. – С.14 – 21. 4. Чекинов Г.П., Чекинов С.Г. Применение технологии многоагентных систем для интеллектуальной поддержки принятия решения (ИППР) //Сетевой электрон. науч. журн. "Системотехника". – 2003. – № 1. |
Permanent link: http://swsys.ru/index.php?id=462&lang=en&page=article |
Print version Full issue in PDF (1.11Mb) |
The article was published in issue no. № 3, 2006 |
Perhaps, you might be interested in the following articles of similar topics:
- Эвристические и точные методы программной конвейеризации циклов
- Средства обеспечения надежности функционирования информационных систем
- Макроэкономическая балансовая модель для стран с элементами переходной экономики
- Методы и средства моделирования wormhole сетей передачи данных
- Оптимизация обработки информационных запросов в СУБД
Back to the list of articles