独立开发者节点

愿每一位独立开发者都能保持初心,获得一个好的结果.

zsj1029

Deekseek v4 真不错,一天时间写了一个 rust 的 trojan 的服务端

  •  1
     
  •   zsj1029 · 1 day ago · 6721 views
    flash 就很好了,pro 除了慢,暂时没看出优点。
    如题 trojan rust grpc ,又快又稳,之前一直用的大佬写的 go 版 ws 协议,5 年了,稍微慢点也很稳,想想不如自己手搓一个。
    rust 0 基础,8 小时,花了 5 块不到,又快又稳。
    配上年初抢的,很多人看不上 19.9 一年的的搬瓦工,晚点 8 点半,油管 2k60 帧,带宽跑到 120MB 。
    Supplement 1  ·  1 day ago


    61 replies    2026-05-12 01:10:43 +08:00
    zsj1029
        1
    zsj1029  
    OP
       1 day ago   ❤️ 1
    烧了 8000w token 吧
    KingFong
        2
    KingFong  
    PRO
       1 day ago
    有对比一下自己实现的和 go 版本的性能差异不?
    zsj1029
        3
    zsj1029  
    OP
       1 day ago
    @KingFong 比那个快至少 1 倍,加载快很多。go 的 tcp 原版很快,上了 ws 就慢了。这个 grpc 跟 go 的 tcp 速度一样
    KingFong
        4
    KingFong  
    PRO
       1 day ago
    @zsj1029 #3 太牛了,你用 ClaudeCode 驱动的 DeepSeek 还是 codex ?
    zsj1029
        5
    zsj1029  
    OP
       1 day ago   ❤️ 1
    @KingFong claude 搭配 flash
    strobber16
        6
    strobber16  
       1 day ago
    工业级代码不是一次写成的,而是在生产上踩坑修修补补缝出来的。
    zsj1029
        7
    zsj1029  
    OP
       1 day ago
    @strobber16 那肯定啊,8 小时就是在不断调试,debug 给 ds 修改,重复打包编译,一次性哪要这么久时间,开头一版 10 分钟就出来了,剩下大部分时间都是排查测试问题
    ClericPy
        8
    ClericPy  
       1 day ago
    所以一直在纠结 claude code 设置的时候
    是三个 flash + 一个 pro ( opus ),
    还是三个 pro + 一个 flash ( haiku )
    随便找个大模型建议用后者,但看你体验前者也没啥问题?
    beihu
        9
    beihu  
       1 day ago
    有 github 地址嘛
    zsj1029
        10
    zsj1029  
    OP
       1 day ago
    @ClericPy 前三个 flash ,最后 opus 改 pro 就行了,不过 cc 没看到主动调用 opus ,必须手动切换模型
    foryou2023
        11
    foryou2023  
       1 day ago
    确实很不错,个人现在的主力也是 cc + flash,又便宜又好使。
    zsj1029
        12
    zsj1029  
    OP
       1 day ago   ❤️ 2
    @beihu 怕喝茶,现在不光制作传播要判刑,马上使用人也要处罚了,没敢上传,先用几天稳定了再考虑吧。
    zsj1029
        13
    zsj1029  
    OP
       1 day ago
    @foryou2023 嗯嗯,本地有个 a100 ,qwen3.6 27b ,日常完全够用,感觉能有个 flash 7 成功力,就是太慢,时间等不起
    mewking
        14
    mewking  
       1 day ago
    项目完成后有多少行代码?

    8 小时烧了 8000w 。假设在连续生成,不考虑 debug 等中断的时间,2777.78 token/s

    消费级硬件,哪怕能够 30 t/s ,连续生成 8000w 也要 30 天 😭
    mangmaimu
        15
    mangmaimu  
       1 day ago via iPhone
    虽然但是,建议用 singbox
    zsj1029
        16
    zsj1029  
    OP
       1 day ago   ❤️ 1
    @mewking 不是这样算的,token 不只是输出的,真实输出只有 80wtoken ,用过你就知道了,高强度使用,一天随便 1E token ,deepseek 缓存命中率有 90%多,这部分费用非常便宜。

    上午花了 3 小时做了其他项目,下午才开始写的,今天合计 1e 多,总共花费 6.5 元
    mewking
        17
    mewking  
       1 day ago
    啊啊啊,原来输出才 80w

    我是在等 llama.cpp 支持 V4 flash ,想在在本地用 DDR5 和消费级卡玩一下,预计只有十几 t/s ,乐观估计,未来如果有 dflash ,nvfp4 等优化,或许能接近 30t/s 。用来 vibe 也只能是比较小的工具了
    rb6221
        18
    rb6221  
       1 day ago
    有没有可能安全和兼容性与成熟产品差太多
    兼容性还好,就你自己在用,安全性不够的话,作为梯子来讲就有点严重了
    zsj1029
        19
    zsj1029  
    OP
       1 day ago
    @rb6221 v2ray 小火箭 这两个可以用,我就满足了,没有想着其他方案,自用自建够了
    wy315700
        20
    wy315700  
       1 day ago
    DeepSeek 长上下文在重构项目方面是个大优势
    swananan
        21
    swananan  
       1 day ago
    最近一直看到机场不稳定的消息,我也在想实在不行就自己写一个(当然不会放出来,只自己用),有 AI 和成熟的库,我感觉搞一个会非常快,甚至还能针对性做点去除流量特征防嗅探之类的。
    zsj1029
        22
    zsj1029  
    OP
       1 day ago
    @swananan 对的,但是要做主流协议,不然客户端还要自己做,pc 的还好说,手机 app 上架成本就太高了
    zsxzy
        23
    zsxzy  
       1 day ago
    能开源详细的 spec 提示词? 我们也倒腾一个 :)
    clauder
        24
    clauder  
       1 day ago
    19.9 的搬瓦工是怎么得来的?非常好奇。
    benen005g
        25
    benen005g  
       1 day ago
    19.9 的搬瓦工是怎么得来的?非常好奇。
    zsj1029
        26
    zsj1029  
    OP
       1 day ago
    @clauder
    @benen005g

    就这个,开放了两天吧,去年 11 月,记错时间了,都说不好非优化线路,开始没啥人买的
    zsj1029
        27
    zsj1029  
    OP
       1 day ago
    @zsxzy git 上有不少,找一个拿来让 ai 给优化修改就行了,然后不断测试 debug ,从 0 的话我估计也搞不定
    Felldeadbird
        28
    Felldeadbird  
       1 day ago
    啊,不知道为什么。你告诉我 5 块钱我感觉很肉痛。 真付费上班了。
    zsj1029
        29
    zsj1029  
    OP
       1 day ago
    @Felldeadbird 我今天“破处了”,之前一直用的本地 ai 和 trae ,昨天用本地 ai 写了个 7788 ,实在等不了,第一次充钱,一天 5 块,两个包子,给你一天好心情,心情投资,不香吗
    admin926
        30
    admin926  
       1 day ago
    想请问下,flash 模型 后面加[1m]了吗?单个任务没处理完上下文不会超吗
    zsj1029
        31
    zsj1029  
    OP
       1 day ago
    @admin926 好像只有 pro 有 1m 吧,200k ,能写大半了,然后自动压缩继续,压缩挺快的 2 分钟?
    humbass
        32
    humbass  
       1 day ago
    自从 Cloud 被封,就改用 DeepSeek v4 flash ,相当不错。
    easylee
        33
    easylee  
       1 day ago
    用的原生 claude code 直接干,还是加了什么帮助的 skill/plugin 吗?
    ClericPy
        34
    ClericPy  
       1 day ago
    @zsj1029
    是啊,我以前一直是 3 个 glm5 turbo + 1 个 5.1 ,结果没见它调用过 5.1

    此外 effort Level 用垃圾模型会开到 high 、max ,用 5.1 的时候默认或 auto 似乎就够了。

    既然你也赞同三小一大,那我不用三大一小了,太慢。spec 写的好,需求说的清楚,根本用不着太聪明的模型
    zsj1029
        35
    zsj1029  
    OP
       1 day ago
    @easylee 直接干,因为我不喜欢设计前置,很多时候它会给出 md 建议,可能比人思考的更全面
    mewking
        36
    mewking  
       1 day ago
    @zsj1029 本地 qwen3.6 27b ? gemma4 31b ?这两个都搞不定是吧,比 V4 flash 差距很大?还是说本地只是慢
    zsj1029
        37
    zsj1029  
    OP
       1 day ago via iPhone
    @mewking qwen3.6 本地能干的,前面我让他参照 go 版用 dart 重构,最后跑通了,只是过程太久了上下文一上来会掉速度。最后发现涉及到数据包处理 cpu 密集,性能 dart 不适合,才换了 rust 和 deepseek
    Nzelites
        38
    Nzelites  
       1 day ago
    dsflash 真的很不错,超乎预期,极其有性价比
    dododook
        39
    dododook  
       23h 7m ago via iPhone
    小白求助,用的啥客户端呀我现在就会反重力,想试试大佬说的 deekseekv4 不知道怎么弄。。
    jaoyina
        40
    jaoyina  
       21h 9m ago
    在比较关心还有啥性价比高的 vps 吗,现在机场实在太不稳定了,看视频 1080p 都不行了。还一直不停要换节点。
    wumoumou
        41
    wumoumou  
       20h 51m ago
    大佬能不能写个好用的客户端
    suyuyu
        42
    suyuyu  
       20h 35m ago
    a100 多少钱买的
    miniliuke
        43
    miniliuke  
       20h 28m ago
    太好了是梁爷爷又发力了......真的太便宜了,啥时候能赶上 glm5 就更好了
    K332
        44
    K332  
       19h 46m ago
    纯文本模型现在价格很不错,就是不知道后面多模态功能添加后会不会涨价
    zsj1029
        45
    zsj1029  
    OP
       19h 40m ago
    @K332 不会都是 token 处理,最多有图片视频理解,不会有视频生成
    q1169989139
        46
    q1169989139  
       19h 35m ago
    为啥我 ds 一会会,2 个提问就干了 8 块钱
    HFX3389
        47
    HFX3389  
       19h 31m ago
    > 年初抢的,很多人看不上 19.9 一年的的搬瓦工

    你这个年初是哪一年...
    FakerLeung
        48
    FakerLeung  
       19h 18m ago
    @mewking #14 8000w 不是这么算的,上下文 20w 一轮,跑 10 轮就是 200w ,但是总输出可能就 2k
    jadeborner
        49
    jadeborner  
       18h 4m ago
    联通?
    utodea
        50
    utodea  
       17h 14m ago
    价格很公道,缓存命中高,96% 上下, 可用性挺高的。打算当备用了,期待官方出 coding plan 。

    已经在写一个 DeepSeek-Native 的 CLI 了: https://github.com/usewhale/whale

    看最近的融资消息,会不会很快官方也出 CLI 或者其他应用?
    jinsongzhaocn
        51
    jinsongzhaocn  
       17h 0m ago
    @zsj1029 本地 qwen3.6 27b 慢吗?玩过阅读代码出总结,速度比在线的 GLM 快多了. 你是用 ollama 跑还是 vllm? vllm+上 mpt 优化速度才能起来哦
    esee
        52
    esee  
       16h 54m ago
    没理解,你自己写的服务端 和 开源的服务端 在流量特征上有啥区别,被封和用啥服务端没关系吧,和你用的什么协议有关系吧
    zsj1029
        53
    zsj1029  
    OP
       16h 45m ago
    @esee 我哪里说被封了,只是说 5 年没维护,太慢了 ws 协议,换个 grpc 协议,速度变快,自己维护,ai 代码质量更高了
    zsj1029
        54
    zsj1029  
    OP
       16h 34m ago
    @jadeborner 对,移动电信 稍微差点,速度也可以的,主要是不丢包,延迟 200 也还好
    zsj1029
        55
    zsj1029  
    OP
       16h 25m ago via iPhone
    @jinsongzhaocn 是的,开始快,200k 配上 cc ,跑个半小时你再试试,能用的,就是越往后越满
    sentinelK
        56
    sentinelK  
       15h 23m ago
    @zsj1029 借楼,A100 运行 qwen3.6-27B ,是全量版本、上下文开满吗? prefill 和 decode 分别性能是多少?
    zsj1029
        57
    zsj1029  
    OP
       14h 52m ago via iPhone
    @sentinelK 4bit 量化,开始 mtp ,预填充,200k 上下文,40g 显存吃满了,cc 也就 2 并发,多了非常慢
    sentinelK
        58
    sentinelK  
       13h 45m ago
    @zsj1029 我在某硬件平台,租了个 5090 平台测试,Q4_K_M 版本,使用 llama.cpp 运行 262114 上下文,显存占用 26GB ,prefill 大概 3000t/s,decode 稳定在 70t/s

    感觉是不是楼主的 A100 参数还有优化的空间。体感上 5090 跑 qwen3.6-27B,输出不比官网 v4-flash 慢
    zsj1029
        59
    zsj1029  
    OP
       13h 20m ago
    @sentinelK 唉,不要纠结,我的 a100 ,输出有 120tps ,你要看 agent 模式工作情况,不是看最开始的简单测速啊,上下文 200k 满了后,掉速啊,不是我一个人用,公司好几个用,一并发更差了,显存不够,vllm 的 kvcache8 位量化都开了。。。
    zsj1029
        60
    zsj1029  
    OP
       13h 15m ago
    @sentinelK 你以为我没用过 llamacpp 吗? 单机还可以,但是缓存命中率低,总是重复预加载,三轮对话后,又要重新填充,更浪费时间
    easylee
        61
    easylee  
       4h 16m ago
    @zsj1029 #35 咱俩差不多的节奏,不过偶尔使用 superpowers 。

    倒是我这种直接干在站内都被说成老传统或者不思进取了。
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   946 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 89ms · UTC 21:27 · PVG 05:27 · LAX 14:27 · JFK 17:27
    ♥ Do have faith in what you're doing.