跳到主要内容

koishi-plugin-embedsort

npm

嵌入文本检索,设置一个嵌入文本,插件会根据输入的文本语义来检索最合适的文本进行回复

注意事项

该插件会增加 1.4GB 左右的内存占用

使用方法

如果你的机器无法访问 huggingface,请安装下面的步骤来配置插件

设置嵌入文本

将所有要检索的文本用换行分开保存到一个 .txt 文件

然后在 embedTexts 配置项填入 .txt 文件的路径

放置模型

我将模型上传到了魔塔社区,如果访问不了下面的链接可以从这里下载 https://modelscope.cn/models/initialencounter/bge-large-zh-v1.5/files

一键拉取模型(需要安装 git lfs)

git clone https://www.modelscope.cn/initialencounter/bge-base-zh-v1.5.git

拉取完成后直接填写只需要这样填写配置:

{
"model": "bge-base-zh-v1.5",
"cacheDir": "仓库所在路径"
}

手动配置

找一个存放模型的目录,例如 C:\Users\29115\Desktop\embedsort

在这个目录新建文件夹 Xenova

Xenova 新建文件夹 bge-large-zh-v1.5

bge-large-zh-v1.5 新建文件夹 onnx

https://huggingface.co/Xenova/bge-large-zh-v1.5/tree/main/onnx 仓库的 model_quantized.onnx 模型放到 onnx 文件夹下面

https://huggingface.co/Xenova/bge-large-zh-v1.5/tree/main/onnx 仓库的

quantize_config.json configuration.json special_tokens_map.json tokenizer.json tokenizer_config.json vocab.txt config.json

放到 bge-large-zh-v1.5 文件夹下面

配置模型缓存路径

embedsort 插件的 cacheDir 项填写 C:\Users\29115\Desktop\embedsort

启用 transformers 插件和 embedsort 插件