Bert句嵌入模块sentence-transformers入门

模组网Bert句嵌⼊模块sentence-transformers⼊门
参考链接:
1.安装
环境:python 3.6>=,pytorch 1.6.0>=,transformers v4.6.0>=。不⽀持 python 2.7
pytorch 安装参考
transformers 安装:
pip install transformers
sentence-transformers安装:
pip install -U sentence-transformers
检查:import sentence_transformers。能正常导⼊,⽆报错。在官⽅⽂档可能会让你输⼊⼀段英语⼩测验⼀下,其实也没必要。
2.加载中⽂预训练模型pcmcia转usb
from sentence_transformers import SentenceTransformer
# 保存预训练模型的⽂件夹
save_path = "./bert_based_chinese"
# 加载模型
model = SentenceTransformer('distiluse-base-multilingual-cased-v1')
# 保存模型到指定⽂件夹
model.save(save_path)
t恤制作sentence_transformers 还⽀持其他的预训练模型,详细见。这⾥我们选择了⽀持多语⾔的模型(当然也⽀持中⽂)。加载指定模型⽤:model = SentenceTransformer('model-name')
其中model-name指你要加载的模型名。当你把模型保存到本地后,就可以⽤SentenceTransformers(path)来加载模型。model-name 替换为保存模型的路径。注意对模型新建⼀个空的⽂件夹保存。
3.⼀个⼩的尝试:怎么嵌⼊句向量
from sentence_transformers import SentenceTransformer as st
# 加载模型
model = st("./bert_based_chinese")
三维模型制作# 待编码的句⼦
sentences = [
设备防尘罩
"明⽉⼏时有",
"把酒问青天"
]
# 编码
embeddings = de(sentences)
for sentence,embedding in zip(sentences, embeddings):
print("Sentence:", sentence)
print("Embedding:", embedding)
print("")
需要注意的点:
穿孔塞焊
1.输⼊的多个句⼦放在列表⾥;
2.也可以输⼊短语或者长句⼦,超过最⼤句长会被截断,最⼤句长为512个单词⽚段,约为300-400单词(以英语单词来衡量)
# 获取最⼤句长,默认是128
print("Max Sequence Length:", model.max_seq_length)
# 修改最⼤句长为200,不然超过⽀持的512
model.max_seq_length = 200
print("Max Sequence Length:", model.max_seq_length)

本文发布于:2024-09-22 20:25:27,感谢您对本站的认可!

本文链接:https://www.17tex.com/tex/2/97300.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:模型   保存   句长   参考
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议