
![]() |
llama.cpp/ollama 对于类似 vllm tensor parallel 功能的支持。 coefuqin • 2 小时 51 分钟前 • 最后回复来自 liprais | 3 |
本地 llm client kid1412621 • 10 小时 53 分钟前 • 最后回复来自 kid1412621 | 5 |
![]() |
公司要搭建本地大模型,推荐配置。 Woolaman • 10 小时 55 分钟前 • 最后回复来自 coefuqin | 10 |
![]() |
有在生产上跑私有化 DeepSeek 70B 大模型的吗?什么配置的机器支持?并发多少呢? yiyiniu • 11 小时 4 分钟前 • 最后回复来自 coefuqin | 2 |
![]() |
跑 AI 大模型,到底是用 4090 魔改版好还是 Mac studio 好? kisshere • 3 天前 • 最后回复来自 egen | 9 |
![]() |
想自己上手跑跑 LLM 大模型,求推荐显卡和主机配置 limatrix81 • 10 天前 • 最后回复来自 coefuqin | 28 |
本地 llama.cpp 和 ollama 跑 相同 模型,效果不一样 paranoiagu • 11 天前 • 最后回复来自 tool3d | 7 |
![]() |
单卡 2080ti 22gb 装机其他怎么配啊 NoahBishop • 15 天前 • 最后回复来自 NoahBishop | 8 |
![]() |
本地跑 AI,该买什么设备,不想折腾又想省点钱, mac m4 怎样,有哪些坑需要注意 MHPSY • 16 天前 • 最后回复来自 tomczhen | 1 |
![]() |
本地 AI 工作站装机 fcten • 16 天前 • 最后回复来自 coefuqin | 17 |
![]() |
mcp 支持力度探讨 nl101531 • 18 天前 • 最后回复来自 nl101531 | 4 |
![]() |
100+全语种翻译 , 海量翻译数据,并且有速度要求。 有什么经济实惠的本地 LLM 方案么? zzNaLOGIC • 19 天前 • 最后回复来自 paopjian | 11 |
请教模型部署和管理的问题 Legman • 20 天前 • 最后回复来自 Legman | 4 |
![]() |
使用 dify 时代码如何管理? frankyzf • 6 天前 • 最后回复来自 aaronlam | 7 |
![]() |
ubuntu + 双 N 卡 本地部署 DS-R1,性能优化请教 crac • 17 天前 • 最后回复来自 crac | 6 |
![]() |
本地部署 LLM 并启用网络搜索,有什么现成的方案吗? villivateur • 24 天前 • 最后回复来自 coefuqin | 5 |
无 GPU 服务器部署小模型框架求推荐(需兼容 Kafka 数据流) Daybyedream • 23 天前 • 最后回复来自 Daybyedream | 4 |
跑 AI 模型,显卡的购买咨询 xiniu • 27 天前 • 最后回复来自 Foxii | 23 |
![]() |
一块 4090,怎么来评估部署大模型后(假设为 DeepSeek-R1-Distill-Qwen-7B)的并发数?、、 bushnerd • 29 天前 • 最后回复来自 jroger | 1 |