DOI QR코드

DOI QR Code

A study on environmental adaptation and expansion of intelligent agent

지능형 에이전트의 환경 적응성 및 확장성

  • 백혜정 (숭실대학교 대학원 컴퓨터학과) ;
  • 박영택 (숭실대학교 컴퓨터학과)
  • Published : 2003.12.01

Abstract

To live autonomously, intelligent agents such as robots or virtual characters need ability that recognizes given environment, and learns and chooses adaptive actions. So, we propose an action selection/learning mechanism in intelligent agents. The proposed mechanism employs a hybrid system which integrates a behavior-based method using the reinforcement learning and a cognitive-based method using the symbolic learning. The characteristics of our mechanism are as follows. First, because it learns adaptive actions about environment using reinforcement learning, our agents have flexibility about environmental changes. Second, because it learns environmental factors for the agent's goals using inductive machine learning and association rules, the agent learns and selects appropriate actions faster in given surrounding and more efficiently in extended surroundings. Third, in implementing the intelligent agents, we considers only the recognized states which are found by a state detector rather than by all states. Because this method consider only necessary states, we can reduce the space of memory. And because it represents and processes new states dynamically, we can cope with the change of environment spontaneously.

로봇이나 가상 캐릭터와 같은 지능형 에이전트가 자율적으로 살아가기 위해서는 주어진 환경을 인식하고, 그에 맞는 최적의 행동을 선택하는 능력을 가지고 있어야 한다. 본 논문은 이러한 지능형 에이전트를 구현하기 위하여, 외부 환경에 적응하면서 최적의 행동을 배우고 선택하는 방법을 연구하였다. 본 논문에서 제안한 방식은 강화 학습을 이용한 행동기반 학습 방법과 기호 학습을 이용한 인지 학습 방법을 통합한 방식으로 다음과 같은 특징을 가진다. 첫째, 강화 학습을 이용하여 환경에 대한 적응성을 학습함으로 지능형 에이전트가 변화하는 환경에 대한 유연성을 가지도록 하였다. 둘째, 귀납적 기계학습과 연관 규칙을 이용하여 규칙을 추출하여 에이전트의 목적에 맞는 환경 요인을 학습함으로 주어진 환경에서 보다 빠르게, 확장된 환경에서 보다 효율적으로 행동을 선택을 하도록 하였다. 셋째, 본 논문은 지능형 에이전트를 구현하는데 있어서 처음부터 모든 상태를 고려하기 보다 상태 탐지기를 이용하여 새로운 상태가 입력될 때마다 상태를 확장시키는 방식을 이용하였다. 이러한 방식은 필요한 상태에 대하여서만 고려함으로 메모리를 획기적으로 축소 할 수 있으며, 새로운 상태를 동적으로 처리 할 수 있어, 환경에 대한 변화에 능동적으로 대처 할 수 있다.

Keywords

References

  1. Brooks, Rodney A., 'A robust layered control system for a mobile robot,' IEEE Journal of Robotics and Automation, Vol.2, pp.14-23, 1986 https://doi.org/10.1109/JRA.1986.1087032
  2. Carlos Gershenson, 'Philosophical Ideas on the Simulation of Social Behaviour,' Journal of Artificial Societies and Social Simulation Vol.5, No.3, 2002
  3. Jackson Pauls, Pigs and People, 4th year report, 2001
  4. J. R. Quinlan, C4.5 Programs for Machine Learning, San Mateo, CA : Morgan, Kaufaman, 1993
  5. Mark Humphrys, 'Action selection methods using reinforcement learning,' University of Cambridge, 1997
  6. Pattie Maes, 'Modeling adaptive autonomous agents,' Artificial Life Journal, Vol.1, No.1-2, pp.135-162, 1994
  7. T. Mitchell, Machine Learning, McGraw Hill, 1997
  8. T. Tyrrell, 'Computational Mechanism Action Selection,' Ph.D. Thesis, University of Edinburg, 1993
  9. R. Agrawal and R. Srikant, 'Fast algorithms for mining association rules,' In Proceedings of the 20th VLDB Conference, Santiago, Chile, Sept., 1994
  10. R. Sutton, A. Barto, Reinforcement Learning, MIT Press, 1997
  11. S. Wermter and R. Sun, Hybrid Neural Systems. Springer-Verlag, Heidelberg, 2000
  12. 문선모, 인간 학습교육적 적용, 양서원, 2001