有谁可以解释下word embedding
答案:2 悬赏:20 手机版
解决时间 2021-02-18 07:25
- 提问者网友:你独家记忆
- 2021-02-18 02:02
有谁可以解释下word embedding
最佳答案
- 五星知识达人网友:杯酒困英雄
- 2021-02-18 03:31
可以翻译成词向量。
传统的对于每个词,抽象成词向量形式是0,1的形式,比如:【0,0,0,1,0.。。。0】并且向量的长度是整个词集数量大小。
而词向量word embedding是通过某中学习算法学习出来的新的向量形式。该向量的长度是可以认为指定的,并且其中的每个维度值为离散的。比如,【0.5432,0.4567,-0.984,0.623】
传统的对于每个词,抽象成词向量形式是0,1的形式,比如:【0,0,0,1,0.。。。0】并且向量的长度是整个词集数量大小。
而词向量word embedding是通过某中学习算法学习出来的新的向量形式。该向量的长度是可以认为指定的,并且其中的每个维度值为离散的。比如,【0.5432,0.4567,-0.984,0.623】
全部回答
- 1楼网友:千杯敬自由
- 2021-02-18 05:10
其次,如果楼主指定了必须用流行的nn,俗称word-embedding的方法,当然首推word2vec(虽然不算是dnn)。然后得到了word2vec的词向量后,可以通过简单加权/tag加权/tf-id...
我要举报
如以上问答信息为低俗、色情、不良、暴力、侵权、涉及违法等信息,可以点下面链接进行举报!
大家都在看
推荐资讯