Bidirectional LSTM으로 패션 추천 구현

 

온라인 패션 쇼핑은 고객에게 효과적인 추천 서비스를 제공해야 합니다. 이 논문에서는 두 가지 유형의 패션 추천을 연구합니다 :

(i) 기존 구성 요소와 일치하는 항목을 제안하여 세련된 복장 (패션 아이템 컬렉션)을 형성하고,

(ii) 고객을 위한 multimodal (이미지 / 텍스트) 특성으로 착용을 생성합니다. 시각 의미적 삽입과 패션 아이템 간의 호환성 관계를 end-to-end 방식으로 공동 학습하는 것을 제안합니다.

더 구체적으로 말하면, 패션 복장을 sequence(일반적으로 위에서 아래로 그리고 액세서리로)와 옷의 각 항목을 time step으로 간주합니다. 복장에있는 유행 품목을 주어서, 우리는 양방향 LSTM (Bi-LSTM) 모델을 훈련시켜 이전 제품에 조건부로 있는 다음 항목을 순차적으로 예측하여 호환성 관계를 학습합니다. 또한 우리는 LSTM을 훈련하기위한 정규화로서 속성 및 카테고리 정보를 삽입하는 것을 목표로하여 이미지 특징을 의미론적 표현으로 회귀시킴으로써 시각적 의미 공간을 학습합니다.

 

 

 

합습된 네트워크는 앞서 언급한 권장 사항을 효과적으로 수행 할 수 있을뿐만 아니라 주어진 복장의 호환성을 예측할 수 있습니다. 우리는 새로 수집된 Polyvore 데이터세트에 대한 광범위한 실험을 수행하며, 그 결과는 프레임워크가 대체 방법을 능가하는 강력한 질적 및 양적 증거를 제공합니다.