An Implementation of System for Detecting and Filtering Malicious URLs

악성 URL 탐지 및 필터링 시스템 구현

  • Received : 2009.07.22
  • Accepted : 2010.01.28
  • Published : 2010.04.15

Abstract

According to the statistics of SecurityFocus in 2008, client-side attacks through the Microsoft Internet Explorer have increased by more than 50%. In this paper, we have implemented a behavior-based malicious web page detection system and a blacklist-based malicious web page filtering system. To do this, we first efficiently collected the target URLs by constructing a crawling system. The malicious URL detection system, run on a specific server, visits and renders actively the collected web pages under virtual machine environment. To detect whether each web page is malicious or not, the system state changes of the virtual machine are checked after rendering the page. If abnormal state changes are detected, we conclude the rendered web page is malicious, and insert it into the blacklist of malicious web pages. The malicious URL filtering system, run on the web client machine, filters malicious web pages based on the blacklist when a user visits web sites. We have enhanced system performance by automatically handling message boxes at the time of ULR analysis on the detection system. Experimental results show that the game sites contain up to three times more malicious pages than the other sites, and many attacks incur a file creation and a registry key modification.

2008년도 SecruityFocus 자료에 따르면 마이크로소프트사의 인터넷 익스플로러를 통한 클라이언트 측 공격(client-side attack)이 50%이상 증가하였다. 본 논문에서는 가상머신 환경에서 능동적으로 웹 페이지를 방문하여 행위 기반(즉, 상태변경 기반)으로 악성 URL을 분석하여 탐지하고, 블랙리스트 기반으로 악성 URL을 필터링하는 시스템을 구현하였다. 이를 위해, 우선 크롤링 시스템을 구축하여 대상 URL을 효율적으로 수집하였다. 특정 서버에서 구동되는 악성 URL 탐지 시스템은, 수집한 웹페이지를 직접 방문하여 머신의 상태 변경을 관찰 분석하고 악성 여부를 판단한 후, 악성 URL에 대한 블랙리스트를 생성 관리한다. 웹 클라이언트 머신에서 구동되는 악성 URL 필터링 시스템은 블랙리스트 기반으로 악성 URL을 필터링한다. 또한, URL의 분석 시에 메시지 박스를 자동으로 처리함으로써, 성능을 향상시켰다. 실험 결과, 게임 사이트가 다른 사이트에 비해 악성비율이 약 3배 많았으며, 파일생성 및 레지스트리 키 변경 공격이 많음을 확인할 수 있었다.

Keywords

References

  1. N. Proves, D. McNamee, et. al., "The Ghost In The Browser Analysis of Web-based Malware," Proc. of the first USENIX workshop on hot topics in Botnets, Apr. 2007.
  2. Niels Provos, Google's Anti-Malware Team, "All Your iFrame Are Point to Us," Google Technical Report provos-2008a, February 11, 2008.
  3. Alexander Moshchuk, Tanya Bragin, et. al., "A Crawler-based Study of Spyware on the Web," Proc. of the 2006 Networks and Distributed System Security Symposium, pp.17-33, Feb. 2006.
  4. Christian Seifert, "Know Your Enemy: Malicious Web Servers," The Honeynet Project, KYE paper, Aug. 2007.
  5. Kathy Wang, "Using Honeyclients for Detection an Response Against New Attacks," MITRE, http:// www.cerias.purdue.edu/assets/symposium/2008-panels/Wang-Honeyclients-CERIAS-Symposium-18M ar08-v2.pdf
  6. Yi-Min, et. al., "Strider HoneyMonkeys: Active, Client-Side Honeypots for Finding Malicious Websites," To be appear in IEEE Transactions on Computers, May 2007.
  7. Yi-Min Wang, Doug Beck, et. al., "Automated Web Patrol with Strider HoneyMonkeys," Proc. of the Networks and Distributed System Security Symposium, pp.35-49, Feb. 2006.