V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
workbest
V2EX  ›  Local LLM

2 年以后的硬件和本地大模型

  •  
  •   workbest · 6 小时 8 分钟前 · 733 次点击

    今年内存是大概率不会降价了

    随着价格的刺激和产能的提升,以及对本地大模型的需求,2 年以后 256G 内存能否得到普及?

    256G 内存,加上本地模型的发展,应该可以在本地运行一些非常不错的 coding 模型了

    11 条回复    2026-04-04 15:23:28 +08:00
    kongkongyzt
        1
    kongkongyzt  
       5 小时 25 分钟前
    内存什么时候能回到 16G 只要 150 块钱的时候
    dmanbu
        2
    dmanbu  
       5 小时 7 分钟前   ❤️ 1
    ???但凡你了解一下硬件市场,就该知道现在内存开始跳水了
    levn
        3
    levn  
       5 小时 5 分钟前
    都用本地模型了,那企业高价买的那些内存显卡谁来使啊
    decade0q
        4
    decade0q  
       4 小时 56 分钟前 via iPhone
    内存前几天都开始降了😓
    icyalala
        5
    icyalala  
       4 小时 54 分钟前
    硬件提升,模型也在提升,最好的模型会越来越大
    更何况云端部署能 Batch, 本地模型性价比会远差于供应商
    workbest
        6
    workbest  
    OP
       4 小时 51 分钟前
    如果 2 年后的本地大模型能达到今天的 opus 4.6 或者 gpt 5.4 的水平,我觉得已经足够了
    l1ve
        7
    l1ve  
       4 小时 34 分钟前
    @dmanbu 16G 的从 1000 到 700 ,不算跳水吧,并且还叠加季度末回款的影响
    ----
    存储芯片/CPU 这东西,产能固定,扩产周期长,现在 AI 对算力的需求可以说是指数级增加的,一年前大家用 ai 编程用了多少,现在又用了多少。等 agent 落地其他行业的时候算力需求更离谱
    我记得一年前看到 vibe coding 的时候,我觉得这东西傻逼才会用
    现在我只会觉得谁不用谁是傻逼
    预计 3 年内都会维持高位了,哪怕 AI 模型再也不进步就保持目前的水平,需求都不会减少
    Gilfoyle26
        8
    Gilfoyle26  
       4 小时 33 分钟前
    预言一波:其实和手机一样的发展路线,尽管每年都出新款,但是消费者已经无感了。
    workbest
        9
    workbest  
    OP
       3 小时 18 分钟前
    @kongkongyzt 如果回到这个价格,那大家买的新机器内存都会是 256G 起步
    june4
        10
    june4  
       2 小时 35 分钟前
    苹果底端 8G 内存机是十几年前了吧,现在还是 8G,说明内存基本不会涨
    甚至硬盘也不怎么涨,内存和存储不再象 20 几年前的定期翻倍涨了,我不觉得再过 5 年会变
    cjun
        11
    cjun  
       2 小时 28 分钟前 via Android
    云端的模型比本地模型更聪明,如果是省事,省时间,还是云端模型好吧
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2552 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 24ms · UTC 09:52 · PVG 17:52 · LAX 02:52 · JFK 05:52
    ♥ Do have faith in what you're doing.