DOI QR코드

DOI QR Code

A Generalized Adaptive Deep Latent Factor Recommendation Model

일반화 적응 심층 잠재요인 추천모형

  • Kim, Jeongha (Department of AI, Big Data & Management, Kookmin University) ;
  • Lee, Jipyeong (Department of AI, Big Data & Management, Kookmin University) ;
  • Jang, Seonghyun (Department of AI, Big Data & Management, Kookmin University) ;
  • Cho, Yoonho (Department of AI, Big Data & Management, Kookmin University)
  • 김정하 (국민대학교 AI빅데이터융합경영학과) ;
  • 이지평 (국민대학교 AI빅데이터융합경영학과) ;
  • 장성현 (국민대학교 AI빅데이터융합경영학과) ;
  • 조윤호 (국민대학교 AI빅데이터융합경영학과)
  • Received : 2023.02.15
  • Accepted : 2023.02.27
  • Published : 2023.03.31

Abstract

Collaborative Filtering, a representative recommendation system methodology, consists of two approaches: neighbor methods and latent factor models. Among these, the latent factor model using matrix factorization decomposes the user-item interaction matrix into two lower-dimensional rectangular matrices, predicting the item's rating through the product of these matrices. Due to the factor vectors inferred from rating patterns capturing user and item characteristics, this method is superior in scalability, accuracy, and flexibility compared to neighbor-based methods. However, it has a fundamental drawback: the need to reflect the diversity of preferences of different individuals for items with no ratings. This limitation leads to repetitive and inaccurate recommendations. The Adaptive Deep Latent Factor Model (ADLFM) was developed to address this issue. This model adaptively learns the preferences for each item by using the item description, which provides a detailed summary and explanation of the item. ADLFM takes in item description as input, calculates latent vectors of the user and item, and presents a method that can reflect personal diversity using an attention score. However, due to the requirement of a dataset that includes item descriptions, the domain that can apply ADLFM is limited, resulting in generalization limitations. This study proposes a Generalized Adaptive Deep Latent Factor Recommendation Model, G-ADLFRM, to improve the limitations of ADLFM. Firstly, we use item ID, commonly used in recommendation systems, as input instead of the item description. Additionally, we apply improved deep learning model structures such as Self-Attention, Multi-head Attention, and Multi-Conv1D. We conducted experiments on various datasets with input and model structure changes. The results showed that when only the input was changed, MAE increased slightly compared to ADLFM due to accompanying information loss, resulting in decreased recommendation performance. However, the average learning speed per epoch significantly improved as the amount of information to be processed decreased. When both the input and the model structure were changed, the best-performing Multi-Conv1d structure showed similar performance to ADLFM, sufficiently counteracting the information loss caused by the input change. We conclude that G-ADLFRM is a new, lightweight, and generalizable model that maintains the performance of the existing ADLFM while enabling fast learning and inference.

대표적인 추천 시스템 방법론인 협업 필터링(Collaborative Filtering)에는 이웃기반 방법(Neighbor Methods)과 잠재 요인 모델(Latent Factor model)이라는 두 가지 접근법이 있다. 이중 행렬 분해(Matrix Factorization)를 이용하는 잠재 요인 모델은 사용자-아이템 상호작용 행렬을 두 개의 보다 낮은 차원의 직사각형 행렬로 분해하고 이들의 행렬 곱으로 아이템의 평점(Rating)을 예측한다. 평점 패턴으로부터 추출된 요인 벡터들을 통해 사용자와 아이템 속성을 포착할 수 있기 때문에 확장성, 정확도, 유연성 측면에서 이웃기반 방법보다 우수하다고 알려져 있다. 하지만 평점이 지정되지 않은 아이템에 대해서는 선호도가 다른 개개인의 다양성을 반영하지 못하는 근본적인 한계가 있고 이는 반복적이고 부정확한 추천을 초래하게 된다. 이러한 잠재요인 모델의 한계를 개선하고자 각각의 아이템 별로 사용자의 선호도를 적응적으로 학습하는 적응 심층 잠재요인 모형(Adaptive Deep Latent Factor Model; ADLFM)이 등장하였다. ADLFM은 아이템의 특징을 설명하는 텍스트인 아이템 설명(Item Description)을 입력으로 받아 사용자와 아이템의 잠재 벡터를 구하고 어텐션 스코어(Attention Score)를 활용하여 개인의 다양성을 반영할 수 있는 방법을 제시한다. 하지만 아이템 설명을 포함하는 데이터 셋을 요구하기 때문에 이 방법을 적용할 수 있는 대상이 많지 않은 즉 일반화에 있어 한계가 있다. 본 연구에서는 아이템 설명 대신 추천시스템에서 보편적으로 사용하는 아이템 ID를 입력으로 하고 Self-Attention, Multi-head attention, Multi-Conv1d 등 보다 개선된 딥러닝 모델 구조를 적용함으로써 ADLFM의 한계를 개선할 수 있는 일반화된 적응 심층 잠재요인 추천모형 G-ADLFRM을 제안한다. 다양한 도메인의 데이터셋을 가지고 입력과 모델 구조 변경에 대한 실험을 진행한 결과, 입력만 변경했을 경우 동반되는 정보손실로 인해 ADLFM 대비 MAE(Mean Absolute Error)가 소폭 높아지며 추천성능이 하락했지만, 처리할 정보량이 적어지면서 epoch 당 평균 학습속도는 대폭 향상되었다. 입력 뿐만 아니라 모델 구조까지 바꿨을 경우에는 가장 성능이 우수한 Multi-Conv1d 구조가 ADLFM과 유사한 성능을 나타내며 입력변경으로 인한 정보손실을 충분히 상쇄시킬 수 있음을 보여주었다. 결론적으로 본 논문에서 제시한 모형은 기존 ADLFM의 성능은 최대한 유지하면서 빠른 학습과 추론이 가능하고(경량화) 다양한 도메인에 적용할 수 있는(일반화) 새로운 모형임을 알 수 있다.

Keywords

Acknowledgement

본 논문은 산업통상자원부 지식서비스산업핵심기술개발사업으로 지원된 연구결과입니다. (20015152, 빅데이터 가공 및 공급 자동화를 기반한 통합 스몰 데이터 분석 기술과 비대면 시장조사 시스템 융합 기술 개발)

References

  1. 권유진, 최민석, 조윤호. (2022). 부가 정보를 활용한 비전 트랜스포머 기반의 추천시스템. 지능정보연구, 28(3), 119-137. https://doi.org/10.13088/JIIS.2022.28.3.119
  2. 박호연, & 김경재. (2021). BERT 기반 감성분석을 이용한 추천시스템. 지능정보연구, 27(2), 1-15. https://doi.org/10.13088/JIIS.2021.27.2.001
  3. 홍태호, 홍준우, 김은미, 김민수. (2022). 영화 리뷰의 상품 속성과 고객 속성을 통합한 지능형 추천시스템. 지능정보연구, 28(2), 1-18. https://doi.org/10.13088/JIIS.2022.28.2.001
  4. Amazon - Ratings (Beauty Products). https://www.kaggle.com/datasets/skillsmuggler/amazon-ratings.
  5. Amazon Fine Food Reviews. https://www.kaggle.com/datasets/snap/amazon-fine-food-reviews.
  6. Anime Recommendation Database. https://www.kaggle.com/datasets/CooperUnion/anime-recommendations-database.
  7. Andriy, M., & Salakhutdinov, R. R. (2007). Probabilistic matrix factorization. Advances in Neural Information Processing Systems 20 (NIPS 2007).
  8. Chollet, F. (2018). Deep Learning with Python. Manning Publications.
  9. Goldberg, D., Nichols, D., Oki, B. M., & Terry, D. (1992). Using collaborative filtering to weave an information tapestry. Communications of the ACM, 35(12), 61-70, 426-434.
  10. Han, J., Zheng, L., Xu, Y., Zhang, B., Zhuang, F., Philip, S. Y., & Zuo, W. (2020). Adaptive deep modeling of users and items using side information for recommendation. IEEE Transactions on Neural Networks and Learning Systems, 31(3), 737-748. https://doi.org/10.1109/TNNLS.2019.2909432
  11. Harper, F. M., & Konstan, J. A. (2015). The movielens datasets: History and context. ACM Transactions on Interactive Intelligent Systems, 5(4), 1-19.
  12. Koren, Y. (2008). Factorization meets the neighborhood: a multifaceted collaborative filtering model. Proceedings of the 14th ACM SIGKDD.
  13. Koren, Y., Bell, R., & Volinsky, C. (2009). Matrix factorization techniques for recommender systems. Computer, 42(8), 30-37. https://doi.org/10.1109/MC.2009.263
  14. Lee, D., & Kartik H. (2019). How do recommender systems affect sales diversity? A cross-category investigation via randomized field experiment. Information Systems Research, 30(1), 239-259. https://doi.org/10.1287/isre.2018.0800
  15. Lemire, D., & Maclachlan, A. (2005). Slope one predictors for online rating-based collaborative filtering. Proceedings of the 2005 SIAM International Conference on Data Mining.
  16. Ling, G., Lyu, M. R., & King, I. (2014). Ratings meet reviews, a combined approach to recommend. Proceedings of the 8th ACM Conference on Recommender systems, 105-112.
  17. McAuley, J., & Leskovec, J. (2013). Hidden factors and hidden topics: understanding rating dimensions with review text. Proceedings of the 7th ACM conference on Recommender systems, 165-172.
  18. Narayanan, A., & Shmatikov, V. (2006). How to break anonymity of the Netflix prize dataset. arXiv preprint cs/0610105.
  19. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., ... & Polosukhin, I. (2017). Attention is all you need. Advances in Neural Information Processing Systems 30 (NIPS 2017).
  20. Voita, E., Talbot, D., Moiseev, F., Sennrich, R., & Titov, I. (2019). Analyzing multi-head self-attention: Specialized heads do the heavy lifting, the rest can be pruned. arXiv preprint arXiv:1905.09418.
  21. Zheng, L., Noroozi, V., & Yu, P. S. (2017). Joint deep modeling of users and items using reviews for recommendation. Proceedings of the tenth ACM International Conference on Web Search and Data Mining, 425-434.