TextCNN 和 fastText 复习

即使 BERT 诞生好多年, 这两个依然可用, 因为快小好, 比如 这个.

TextCNN

每个卷积核对连续的若干个词向量卷积, 然后通过 max pooling 得到一个值 (一个卷积核对应一个值, 或者说一个 “特征”), 最后全连接完事.

调参技巧: 翻译

A Sensitivity Analysis of (and Practitioners’ Guide to) Convolutional Neural Networks for Sentence Classification

fastText

输入的是 n-gram, 以及词本身, 得到向量再求和. 值得注意的是为了控制参数量, 对这些输入做了 hash (用的是 FNV-1a hash)