• 请不要在回答技术问题时复制粘贴 AI 生成的内容
libasten
V2EX  ›  程序员

几个国产大模型,用来对接用在 cc 上编程,哪家性价比高?

  •  
  •   libasten · 1 day ago · 3777 views
    codex 登录要手机号,加上之前的某境外大厂的账号莫名其妙被 ban ,想着用国产的得了,至少登录啥的省事不少。
    现在国内的哪家好用点?
    38 replies    2026-05-16 14:35:20 +08:00
    anghunk
        1
    anghunk  
       1 day ago   ❤️ 1
    百炼吧,目前我主力是这个
    yjz1409276
        2
    yjz1409276  
       1 day ago
    我用 gpt ,公司订了火山 pro ,只能说一言难尽
    Chisa
        3
    Chisa  
       1 day ago
    最强是 GLM5.1 ,性价比的话就是 opencode go 套餐用 DeepSeekV4 pro 。官网直接充钱也行
    zenfsharp
        4
    zenfsharp  
       1 day ago
    @Chisa 大佬你是怎么接的,为什么我用 opencode 家的 DS 接入,一思考就报错。
    wynemo
        5
    wynemo  
       1 day ago   ❤️ 1
    @zenfsharp #4 openai 格式再用 cliproxyapi 转成 cc 格式
    JerningChan
        6
    JerningChan  
       1 day ago
    我怎么觉得,自己在 5090 上部署 qwen3.6 27b 用 cc 对接写代码,也很不错,可能我的项目比较简单?
    最早时,接 qwen3.6-35b-a3b 也很不错
    frantic
        7
    frantic  
       1 day ago
    GLM 抢不到的话,我觉得 KIMI 199 档年费订阅最划算,其次是 deepseek 不走订阅,直接用 api, 我高强度用一天大概 20 不到
    rb6221
        8
    rb6221  
       23h 48m ago
    性价比肯定是 DS 啊毫无疑问。。现在阶段还有别的吗
    ptstone
        9
    ptstone  
       21h 52m ago
    我看抖音上的评测,最强编程应该时 kimi2.6
    ptstone
        10
    ptstone  
       21h 50m ago
    @JerningChan 你使用 vllm 吗
    hutng
        11
    hutng  
       21h 39m ago
    @JerningChan 开不开思考模式?怎么接入的?我也是本地,webui 看速度 40t 左右,我打开思考模式,cc 和 opencode 都感觉特别慢,寸步难行,使用的是 cc-switch 接入的。不知道是哪里出了问题
    sentinelK
        12
    sentinelK  
       21h 27m ago
    @hutng 用的是什么硬件?使用 Agent 工具调用本地 LLM 的时候,首次启动的输入 token 少则 5~6K ,多则 10k 起步。prefill 速度比 decode 速度还要重要。5090 的 prefill 速度大概是 3000+t/s 。

    如果设备的 prefill 速度不过千,那就相当于每次调用 LLM 都要罚站。
    hutng
        13
    hutng  
       21h 19m ago
    @sentinelK 2080ti ,那估计就是 prefill 的瓶颈了,算力瓶颈。
    sentinelK
        14
    sentinelK  
       21h 8m ago
    @hutng 是的,如果是 llama.cpp 可以用 llamabench 来验证下。pp 是输入速度,tg 是输出速度。

    Agent 执行一次任务要无数次交互 LLM(查网址、跑终端、改代码),每次都要罚站。和 chat 场景完全不同。
    sharpy
        15
    sharpy  
       21h 6m ago
    性价比的话 deepseek v4 flash
    pro 没有 coding plan 还是比较贵的

    综合下来,opencode go ,首月 5 刀
    yjxjn
        16
    yjxjn  
       21h 0m ago
    @Chisa GLM5.1 我看有人说不行,有人说挺好的,能达到 codex5.3 的水平么?
    hutng
        17
    hutng  
       21h 0m ago
    @sentinelK #14 好的,感谢,显卡不行,27B 不太行,换 35B A3B 了,开启 MTP 刚测 小上下文情况,预填充 1500 ,生成 100 勉强可用了。
    cvooc
        18
    cvooc  
       20h 58m ago
    @yjxjn glm 工作使用没什么问题, 最大的问题是现在抢不到, 我同事抢了一个月了
    mandex
        19
    mandex  
       20h 54m ago
    订阅了 Kimi Code 199 档那个,付了年费。DeepSeek 冲了点钱,感觉也还行。
    ooooo00000ooooo
        20
    ooooo00000ooooo  
       20h 33m ago
    https://www.coding-plan.xyz/
    这里有几乎所有国内套餐和网友评价。
    hiqxy
        21
    hiqxy  
       20h 31m ago
    cursor 吧 省事,auto 效果也比国产的好很多
    crocoBaby
        22
    crocoBaby  
       20h 20m ago
    vscode 的 trae 插件,免费使用不用排队~
    wy315700
        23
    wy315700  
       20h 15m ago
    论性价比当然是 DeepSeek
    wsbqdyhm
        24
    wsbqdyhm  
       19h 59m ago via iPhone
    @JerningChan #6 这个我也在用,五成 minimax ,三四成 ds4 的样子
    chaniqure
        25
    chaniqure  
       19h 56m ago
    @hiqxy auto 的额度怎么样呢?够用不?
    yazoox
        26
    yazoox  
       19h 37m ago
    @frantic 怎么直接用 API ?如何付费/订阅?客户端用啥? vscode 连接 deepseek api?
    watzds
        27
    watzds  
       19h 18m ago
    GLM5.1 还行
    Smileh
        28
    Smileh  
       18h 55m ago
    @yjxjn #16 我觉得 5.0 最多了
    renothing
        29
    renothing  
       18h 48m ago
    别买 kimi code 那种废物,一个会话没结束,就触发限制了.
    我现在主要是 DeepSeek pro 干活.配合 GLM 来验收
    ntdll
        30
    ntdll  
       18h 40m ago
    便宜的话,现阶段毫无疑问是 deepseek
    JerningChan
        31
    JerningChan  
       16h 47m ago
    @wsbqdyhm 哦?其实我觉得现在用 cc 对接,只要模型不是那种什么 9b 的小模型,其实用起来,协助改改代码的都很不错啊
    JerningChan
        32
    JerningChan  
       16h 43m ago   ❤️ 1
    @hutng 开啊
    -m /data/qwen3.6/Qwen3.6-35B-A3B-UD-IQ4_NL_XL.gguf \
    --mmproj /data/qwen3.6/35b-mmproj-F16.gguf \
    --ctx-size 73728 \
    -ngl 99 \
    --host 0.0.0.0 \
    --port 8080 \
    --temp 0.6 \
    --top-p 0.95 \
    --top-k 20 \
    --min-p 0.00 \
    --flash-attn on \
    --cont-batching \
    --cache-type-k q4_0 \
    --cache-type-v q4_0 \
    --threads 15 \
    --parallel -1 \
    -b 1024 \
    -ub 1024 \
    --chat-template-kwargs '{"enable_thinking": true, "preserve_thinking": true}' \
    --metrics \
    --jinja \
    --alias Qwen3.6
    JerningChan
        33
    JerningChan  
       16h 41m ago
    @hutng 这个是 2080ti 22g 的设置,公司 5090d 就可以调大上下文到 256k ,然后换 27b 模型
    JerningChan
        34
    JerningChan  
       16h 40m ago
    @ptstone 无,我纠结了下,还是用 llama.cpp 算了
    S0lution
        35
    S0lution  
       16h 35m ago
    现在国内就 GLM 、DeepSeek 、KIMI 、千问,性价比肯定是 DeepSeek 按量付费,质量最好的还是 GLM 。但是 GLM 是围城,买的人想退,没买的人想买,背刺老用户信誉分不佳
    shench
        36
    shench  
       9h 4m ago
    deepseek v4 目前用着感觉很不错。
    utodea
        37
    utodea  
       1h 34m ago
    开始拿 DeepSeek 当备用了,目前感觉不错。并且写了个 DeepSeek-native CLI: https://github.com/usewhale/whale
    xuhengjs
        38
    xuhengjs  
       7 mins ago
    deepseek v4 flash 啊,一天 10 块钱用不完
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   3010 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 82ms · UTC 06:42 · PVG 14:42 · LAX 23:42 · JFK 02:42
    ♥ Do have faith in what you're doing.