5장에서는 단어 임베딩 방법에 관해 이야기했습니다. 이전 장에서는 특징 백터를 TF-IDF 방식으로 구성하여 사용했지만 여전히 굉장히 희소했고, 단어를 대표하는 값으로 사용하기에는 문제가 있었습니다. 따라서 이번 장에서는 차원 축소에 대해 살펴보았습니다. 기존의 선형적인 차원 축소 방법에 비해서, 신경망은 비선형적인 차원 축소를 통해 특징을 효율적으로 추출합니다. 우리는 이것이 바로 딥러닝이 기존의 머신러닝 알고리즘에 비해서 월등한 성과를 내는 이유라고 추측합니다.