V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
41
相关节点
 显示 36 个更多的相关节点
localllm
V2EX  ›  Local LLM
主题总数 157 RSS
这个节点讨论在本地电脑或者局域网里运行 LLM(大语言模型)的技术细节
1  2  3  4  5  6  7  8  
coefuqin llama.cpp/ollama 对于类似 vllm tensor parallel 功能的支持。
coefuqin  •  2 小时 51 分钟前  •  最后回复来自 liprais
3
kid1412621 本地 llm client
kid1412621  •  10 小时 53 分钟前  •  最后回复来自 kid1412621
5
Woolaman 公司要搭建本地大模型,推荐配置。
Woolaman  •  10 小时 55 分钟前  •  最后回复来自 coefuqin
10
NoahBishop 单卡 2080ti 22gb 装机其他怎么配啊
NoahBishop  •  15 天前  •  最后回复来自 NoahBishop
8
fcten 本地 AI 工作站装机
fcten  •  16 天前  •  最后回复来自 coefuqin
17
nl101531 mcp 支持力度探讨
nl101531  •  18 天前  •  最后回复来自 nl101531
4
Legman 请教模型部署和管理的问题
Legman  •  20 天前  •  最后回复来自 Legman
4
frankyzf 使用 dify 时代码如何管理?
frankyzf  •  6 天前  •  最后回复来自 aaronlam
7
crac ubuntu + 双 N 卡 本地部署 DS-R1,性能优化请教
crac  •  17 天前  •  最后回复来自 crac
6
xiniu 跑 AI 模型,显卡的购买咨询
xiniu  •  27 天前  •  最后回复来自 Foxii
23
1  2  3  4  5  6  7  8  
第 1 到 20 / 共 157 个主题
151 人收藏了这个节点
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2696 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 22ms · UTC 14:06 · PVG 22:06 · LAX 07:06 · JFK 10:06
Developed with CodeLauncher
♥ Do have faith in what you're doing.