💡 利用 langchain + ChatGLM-6B 开发了可以基于本地文件内容进行对话的应用,具体形式类似 chatpdf 等利用 chatgpt API 与文件对话的应用。
✅ 实现过程中 embedding 与 LLM 模型均使用开源 HuggingFace 模型,因此可在下载模型参数文件后进行离线部署。
1
perfectar 2023-04-06 08:45:51 +08:00
不错,顶一个!
|
2
1r5b6rRCaViA78f6 2023-04-06 09:01:10 +08:00 via Android
感谢分享~
|
3
daddyLi 2023-04-06 09:03:00 +08:00
顶,已 star
|
4
hellojay 2023-04-06 09:06:31 +08:00
如果要本地跑起来这个 LLM ,大概需要的配置能说下吗
|
5
infinityv 2023-04-06 09:11:28 +08:00 via iPhone
是不是类似 gpt index
|
6
littlepanda0716 OP @infinityv 之前有考虑用 gpt index 做实现,但是后面发现 gpt index 不太灵活,就直接利用 langchain 做实现了,本质上类似于用 gpt index 做的应用。
|
7
littlepanda0716 OP @hellojay LLM 方面占用资源可以参考 ChatGLM 硬件需求: https://github.com/THUDM/ChatGLM-6B/blob/main/README.md#%E7%A1%AC%E4%BB%B6%E9%9C%80%E6%B1%82
embedding 模型在本项目中选用 GanymedeNil/text2vec-large-chinese ,在 GPU 上运行时约需要 3GB 显存,也可修改为 CPU 上运行或替换为其他 huggingface 中的 embedding 模型 |
8
elppa 2023-04-06 09:44:51 +08:00
不错,顶一个,电脑配置要求多少 ?
|
9
WEAlex 2023-04-06 10:55:18 +08:00
这个是可以训练本地专业方向知识的模型?没看到哪里可以学习本地知识的地方呢
|
10
uilvn 2023-04-06 12:59:55 +08:00 1
已 star
|
11
cwyalpha 2023-04-06 13:05:20 +08:00 via iPhone
是不是理论上 colab 也行
|
12
uilvn 2023-04-06 13:36:22 +08:00
@littlepanda0716 在 colab 上运行失败了,装载模型时内存容量超过 12G 被干掉了。有 colabPro 的兄弟可以试试
|
13
niuzhuang 2023-04-06 21:17:03 +08:00
👍 很棒,关注了
|
14
littlepanda0716 OP @WEAlex 不是再训练 是利用本地文档+embedding 构建索引,然后用问句语义到索引中匹配相近段落,再把段落作为上下文和问题一起提供给 llm
|
15
littlepanda0716 OP @elppa chatglm 硬件需求可参考 https://github.com/THUDM/ChatGLM-6B#%E7%A1%AC%E4%BB%B6%E9%9C%80%E6%B1%82
除此之外 embedding 如果也在 gpu 上运行也需要 3G 左右的显存 |
16
littlepanda0716 OP @uilvn @cwyalpha 可以参考 github.com/THUDM/ChatGLM-6B#%E7%A1%AC%E4%BB%B6%E9%9C%80%E6%B1%82 选择适合显存资源的模型,除此之外 embedding 模型目前选用占用 3G 显存的版本,可以替换为其他小模型。
|
17
littlepanda0716 OP |
18
superbai 2023-05-22 17:04:12 +08:00
歪个楼,请问 github readme 里的流程图是用什么画的呀🤣
|
19
kanchi240 2023-06-14 16:22:00 +08:00
|