| RSS |
| 想离线运行下大模型玩玩,现在还能搞到 4090 么? sunfly • Apr 10, 2024 • Lastly replied by doruison | 29 |
| 想本地部署 AI 大模型,主要用于 AI 问答聊天,电脑配置需要什么样的,总预算 1w5 以内 dary141229 • Apr 8, 2024 • Lastly replied by Motorola3 | 2 |
| 假设有一批客户对话记录,怎么能用 AI 训练出来客服机器人? JohnChang • Apr 6, 2024 • Lastly replied by mmdsun | 8 |
| Ollama 运行 Llama2 大模型,怎么友好的支持中文 xiaohupro • Jul 23, 2024 • Lastly replied by kangfenmao | 13 |
| 离线大模型有支持文档翻译的吗 gtese • Apr 3, 2024 • Lastly replied by MapleEve | 9 |
| Mac 上有哪些适合本地运行的 llm 呢 sheller • Apr 1, 2024 • Lastly replied by sheller | 4 |
| 想用手头的硬件最低成本尝试下本地 LLM 推理,请教一下方案 avalox • Mar 31, 2024 • Lastly replied by GeekGao | 15 |
| Air M3 24G 能不能跑不量化的 7B 本地大模型推理? CatCode • Mar 29, 2024 • Lastly replied by ozOGen | 14 |
| 推荐各位利用 ollama 在自有电脑上跑大模型,使用非常方便 keepRun • Jul 18, 2024 • Lastly replied by kangfenmao | 24 |
| 求推荐开源 AI 模型 balabalaguguji • Mar 18, 2024 • Lastly replied by weixind | 11 |
| 在 2024 年 3 月这个时间节点,有哪些可以开箱即用私有化部署的 gpt 大模型可以使用?内网部署仅对投喂导入的资料做回答这种? cvooc • Mar 13, 2024 • Lastly replied by retrocode | 2 |
| 有没有现成的 chrome 插件,能使用 gpt 一键翻译网页内容。 longchisihai • Apr 14, 2024 • Lastly replied by sola97 | 40 |
| gemma:2b 这个模型想要流畅运行起来需要什么配置的电脑 abcfreedom • Mar 7, 2024 • Lastly replied by abcfreedom | 30 |
| 如何系统的深入 LLM?求资源 lemoon • Feb 29, 2024 • Lastly replied by Morriaty | 12 |
| 7B 大模型不量化, 16G 显存就差那么一点儿,难道消费级显卡只有 90 系能跑? CatCode • Mar 5, 2024 • Lastly replied by basncy | 6 |
| Google Gemma 开源没人讨论下吗? Jinnrry • Feb 26, 2024 • Lastly replied by snowflake007 | 54 |
| ollama 平时不使用的时候会占用内存吗? coinbase • Feb 23, 2024 |
| 有人买英特尔 14 代 ultra 系列的 cpu 了么,里面的 npu 运行 ollama 速度大概什么样? PungentSauce • Feb 22, 2024 • Lastly replied by Track13 | 1 |
| 运行 LM Studio 的电脑硬件配置 cmonkey • May 9, 2024 • Lastly replied by fushenzhi | 11 |
| ollama 推出 windows 版的 preview,可以在本地跑大模型,在老机器上跑感觉效果不错 frankyzf • Feb 16, 2024 • Lastly replied by frankyzf | 6 |