bert生成词向量是多少维的 如何用bert模型做翻译任务?
如何用bert模型做翻译任务?
Bert不能做翻译任务,因为翻译任务是NLP生成任务,Bert目前不能做。Bert可以完成的主要任务有:1文本分类任务,如情感分类,2序列注释任务,如分词实体识别,词性标注,3句子关系判断,如QA,自然语言推理
当计算机进行计算时,它不能直接对文本进行处理,所以需要将文本转化为一个向量,一个文本和一个向量是一一对应的,类似于人们的身份证号码。Onehot编码是一种文本矢量化,但它失去了文本的意义,只是一个身份标记。TF-IDF还可以实现词向量,增加了文本的统计特征,如词频和逆文档词频。应用广泛,效果良好。最流行的word2vec模型保留了大部分语义特征,成为自然语言处理的标准工具。近年来,研究的热点是Bert模型,它也是一种文字矢量化。这些词向量模型往往成为其他模型的输入端口,如命名实体识别模型word2vec-billistm-CRF和Bert-billistm-CRF。
Juba是一个中文自然语言处理(NLP)工具包,实现了词向量、文档向量、词相似度、文档相似度、文本生成、时间序列拟合和中文命名实体识别等功能。https://github.com/lihanju/juba
Juba的命名实体识别模型使用Bert billistm CRF,所以我们可以尝试一下。
bert生成词向量是多少维的 词向量和token bert生成句向量
版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。