前兩項是邏輯回歸(LR)模型,第三項是二階特征組合,這意味著模型需要為每個輸入特征學習壹個低維隱向量表示V(即深度神經網絡中的向量表示)。
將原來的w{ij}替換為V{i}和V{j}的點積,其中V{i}表示特征x{i}的隱向量表達式,V{j}表示特征x{j}的隱向量表達式,特征組合的權重由每個單個特征的隱向量內積來反映。
但是,這個特征交集