发布了好几天 V2 上竟然没有讨论贴,来发一把,这是个好模型。
重点:
除了 236B 的完全体还有一个 Lite 版,16B 参数,大约激活 2B ,支持代码补全等,挺适合个人电脑跑: https://huggingface.co/deepseek-ai/DeepSeek-Coder-V2-Lite-Instruct
1
yinmin 188 天前 via iPhone
deepseek coder v2 在计算机领域的确很强,和 gpt4 有一拼,而且 api 价格超级便宜
|
2
nomagick 188 天前
80G*8 required....
|
3
cJ8SxGOWRH0LSelC 188 天前
确实不错, 问了几个 quarkus native 编译的问题, 都回答正确了。
|
4
Tink 187 天前
用的逆向的,确实牛逼
|
5
crackidz 187 天前
当然是在偷偷的用啊...DeepSeek Coder 刚出来的时候就挺惊艳的
|
6
hljhbing 187 天前
我是怎么把 Deepseek-Coder-V2 看成 Docker-Compose-V2 的😰
|
7
Vitta 187 天前
Here, we provide some examples of how to use DeepSeek-Coder-V2-Lite model. If you want to utilize DeepSeek-Coder-V2 in BF16 format for inference, 80GB*8 GPUs are required.
|
8
Sniper000 187 天前 via iPhone
为啥不用免费的 4O
|
9
viWww0vvxmolvY5p 187 天前
API 还没有开放。
|
10
viWww0vvxmolvY5p 187 天前
@mway deepseek-chat 和 deepseek-coder 后端模型已更新为 DeepSeek-V2 和 DeepSeek-Coder-V2 ,无需修改模型名称即可访问。
原来是这样 |
11
adrianzhang 187 天前
我用 AnythingLLM ,使用其他模型都可以,就是这两个报错,报 llama 内核崩溃。
你知道该怎么用吗? Ollama 装在一个台式机上,配 3060 12G 显卡,128GB 内存。 |