• 请不要在回答技术问题时复制粘贴 AI 生成的内容
CloudSen
V2EX  ›  程序员

别买阿里 Token Plan [降智严重]

  •  1
     
  •   CloudSen · 2 days ago · 4151 views

    背景: 公司领导买了团队版的 Token Plan ,要团队大量使用。

    使用过程: 分别试用了一下测试了在 OpenCode 、CodeX 两个工具下的开发体验。

    结论: 降智十分严重,跟之前 OpenRouter 开放的试用模型来看,简直一个天上一个地下。工作用的话,纯给自己找不自在。

    主要体现在:

    • 固执己见: 明说了使用 A ,执行时还是用他认为的 B
    • 自我打脸: 分析时说 codex 的 exploer 子 agent 是只读默认,做方案时又说让 exploer 改文档
    • 不基于当前仓库工作: 工作空间命名时我的 skill git 仓库了,让它修改某个技能,结果还去~/.agent/skills/ 路径读取和修改。必须要非常明确给他说清楚。
    • 不遵守事实: 随意猜测,甚至偷懒什么都要用户提供,我都提供了,还要你干嘛?
    • git 仓库里让它撤销当前修改,结果它用 “cp xxx.backup ...”这种备份文件的方式,然后告诉你,抱歉我之前忘记创建 backup 备份文件了

    有图有真相,见我的 Awesome Qwen PPT:
    https://docs.google.com/presentation/d/1lW1Ahvk7cu2LrK048BPu-AW8ZgYmQNbJ/edit?usp=sharing&ouid=102801637491008662813&rtpof=true&sd=true

    Supplement 1  ·  1 day ago

    测试都基于Token Plan中的Qwen3.6-plus。
    空了再试一下Deepseek V4和GLM5。

    Supplement 2  ·  21h 33m ago
    GLM5.1 页测试了。
    让使用 tree.js + postprocessing 复刻一个 reactbit 的 grid scan 动态背景。
    嘎嘎一顿遭,啥测试都测了,给你说没问题了。
    打开页面一看,并没任何变化,也是笑了。
    其他的就不测试了。

    总结:
    慢走不送。
    39 replies    2026-05-16 00:08:34 +08:00
    Meursau1T
        1
    Meursau1T  
       2 days ago
    从体验上说,就算选 DeepSeek V4p 都没这么蠢
    Curtion
        2
    Curtion  
       2 days ago
    用的是哪个模型啊? 要避坑也得知道哪个模型比较差唉,要是用的 falsh 或者 minimax 那确实很正常
    Sundayz
        3
    Sundayz  
       2 days ago
    毕竟是阿里的产品,情有可原了
    stormtrooperx5
        4
    stormtrooperx5  
       2 days ago
    模型不会有任何量化,也不存在降智
    m1nm13
        5
    m1nm13  
       1 day ago   ❤️ 1
    怎么说呢?根据我用 cursor 用这模型的体验,它基本上只能做一些非常简单的活
    这个评价也送给所有国产模型,包括 GLM 之类的

    CC 没测试过
    saysssssss
        6
    saysssssss  
       1 day ago
    别的不说,google 在线文档右上角的访客头像还挺有意思的
    maocat
        7
    maocat  
       1 day ago   ❤️ 1
    token plan

    qwen3.6-plus

    发现 3000 端口被占用了,直接把我所有的 docker 全删除了

    zhoulouzi
        8
    zhoulouzi  
       1 day ago
    @maocat 哈哈哈 66666
    Lax
        9
    Lax  
       1 day ago
    不敢用。至今保留阿里云当年出事故后的手写道歉信,要是用它们的产品搞自动化更虾仁了
    jerry12547
        10
    jerry12547  
       1 day ago
    公司用的通义灵码企业版专属版,感觉还行哎
    MjSteed
        11
    MjSteed  
       1 day ago
    终于有人有同感了,当初 3.6 刚出的时候,体感上比 3.5 好太多,现在一个很简单的问题都要和它对线很久,而且经常忘记规范自由发挥
    guobaorou
        12
    guobaorou  
       1 day ago
    确实感觉有点明显,现在对话,有点太墨迹
    JasonYip
        13
    JasonYip  
       1 day ago
    @maocat 看来不是个例了 上次让 qwen3.6plus 改一个前端页面 简单的需求直接来一句“I accidentally deleted too much. Let me rewrite the file properly.”误删了大批量代码
    CloudSen
        14
    CloudSen  
    OP
       1 day ago
    @Curtion my bad ,忘记说明了,qwen-3.6-plus.
    CloudSen
        15
    CloudSen  
    OP
       1 day ago
    @saysssssss 情怀拉满
    CloudSen
        16
    CloudSen  
    OP
       1 day ago
    @maocat niubiest
    CloudSen
        17
    CloudSen  
    OP
       1 day ago
    @stormtrooperx5 那是啥原因导致的呢?刚开始才放出 qwen3.6 的时候,确实能解决不少复杂问题,现在简单的做着都费劲
    shakaraka
        18
    shakaraka  
    PRO
       1 day ago
    kimi 都比 qwen 好不知多少倍就现在这个时间点
    stormtrooperx5
        19
    stormtrooperx5  
       1 day ago
    @CloudSen 如果想验证 可以直接走百炼按量付费的模型测一下
    stormtrooperx5
        20
    stormtrooperx5  
       1 day ago
    比如 qwen3.6-plus-2026-04-02 这个是快照版本,如果两边确实效果不一样可以发工单喷他们
    suman
        21
    suman  
       1 day ago
    比较好奇,同样的模型,是什么参数导致降智的?
    MuyuQ
        22
    MuyuQ  
       1 day ago
    不要用 3.6plus 。 目前是垃圾中的垃圾。 无效循环,胡言乱语。
    用他的 glm 和 kimi 还行。
    MuyuQ
        23
    MuyuQ  
       1 day ago
    @stormtrooperx5 coding plan 目前接入的 3.6Plus 基本不可用。每天都会遇到胡言乱语或者首字奇慢。已经联系过客服,喷过了。
    cnrting
        24
    cnrting  
       1 day ago
    降脂比中转还恶心,好歹中转一分钱一分货
    soFollish
        25
    soFollish  
       1 day ago
    同意,之前的 coding plan 也是这样。
    让调试个 bug ,不从代码入手,不去读日志,然后问你请求的哪个接口?发送的什么参数?
    然后怀疑你是不是没重启,反正就是不干活。
    billccn
        26
    billccn  
       1 day ago
    @soFollish 哈哈以为花钱请帮手,结果花钱给自己加了个老板
    BreaveHeart007
        27
    BreaveHeart007  
       1 day ago
    真有人买 tokenplain 啊 买腾讯云的 coding-plain 不好吗
    stormtrooperx5
        28
    stormtrooperx5  
       1 day ago via Android
    @MuyuQ coding plan 和 token plan 不一样,coding plan 的确实会慢些,而且要限流,但我用起来没感觉有性能下降
    wudicgi
        29
    wudicgi  
       1 day ago
    Token Plan 现在不是有 glm-5.1 了吗
    SgyyNero
        30
    SgyyNero  
       1 day ago
    阿里目前在他的下游供应商推 Qoder , 要求他们的外包上都使用。
    CloudSen
        31
    CloudSen  
    OP
       1 day ago
    @BreaveHeart007 公司买的,反正不花我的钱
    CloudSen
        32
    CloudSen  
    OP
       1 day ago
    @wudicgi 看见了,下午就测试
    JerningChan
        33
    JerningChan  
       23h 44m ago
    所以,还是自己本地部署个 qwen3.6-35b / 27b 用起来,写写小代码,写点 web 页面,感觉上还不错喔,我都是通过 hermes / cc 对接

    之前试过 cc 对接 qwen3.6-plus ,叫他读完一个代码,用完一个优惠套餐的 20 元额度,就不想用了,这么简单的事情,用个 2080ti 22g ,也就 10 分钟的电费。。。
    CloudSen
        34
    CloudSen  
    OP
       21h 29m ago
    @MuyuQ glm5.1 测试了,也不行,一个都不能打
    CloudSen
        35
    CloudSen  
    OP
       21h 29m ago
    @wudicgi 已测试,一个都不能打
    laoyutang
        36
    laoyutang  
       21h 26m ago
    我要 glm5.1 感觉还好啊。就是一下午能用 50%,扛不住
    CloudSen
        37
    CloudSen  
    OP
       21h 7m ago
    @JerningChan 我得给我的 2080 焊焊内存
    JerningChan
        38
    JerningChan  
       16h 43m ago
    @CloudSen 哈哈哈,有 2080ti ,当然是魔改一下 22g 啊,我用来跑 qwen3.6-35b-a3b 很不错啊,我平常是 hermes 调用,需要改点严谨些的代码就换 cc 调用
    zh7896
        39
    zh7896  
       14h 31m ago
    @maocat 强到离谱
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   3000 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 156ms · UTC 06:40 · PVG 14:40 · LAX 23:40 · JFK 02:40
    ♥ Do have faith in what you're doing.