V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
suqiuluck
V2EX  ›  程序员

有没有自己电脑上跑大模型的大佬啊

  •  
  •   suqiuluck · 2023-11-20 17:56:41 +08:00 · 58199 次点击
    这是一个创建于 369 天前的主题,其中的信息可能已经有所发展或是发生改变。
    想升级一下自己的电脑配置,跑下大模型玩一玩,我想用大模型做自己的个性化助手,有这方面经验的大佬吗,跑大模型在训练什么数据啊
    21 条回复    2023-12-19 05:15:59 +08:00
    cloud2000
        1
    cloud2000  
       2023-11-20 19:42:13 +08:00   ❤️ 1
    你问的很泛,所以很泛的答 2 句。
    16gb 显存起步,才能跑稍微"像 gpt-3.5"的模型。准备好了就谷歌,到处都是资料。
    sarcomtdgzxz
        2
    sarcomtdgzxz  
       2023-11-20 19:44:38 +08:00
    智谱的模型 运行就 12g
    gorira
        3
    gorira  
       2023-11-20 19:46:18 +08:00
    少爷先来一台 128G 的 M3max 吧
    imes
        4
    imes  
       2023-11-20 19:51:29 +08:00
    “跑下大模型玩一玩”用 llama.cpp 就可以了,内存 32G 可以轻松跑起来 Q8 量化的 llama2 13B 版本,连 GPU 都不需要。
    “跑大模型训练数据”,起码得 4 块 V100 和 256G 内存才能顺畅的调试。
    想调试模型,可以参考我的服务器配置,自己组一个:
    ![server]( https://img.dataset.eu.org/file/af0870231e317df931dff.jpg)
    ShadowPower
        5
    ShadowPower  
       2023-11-20 19:55:13 +08:00   ❤️ 1
    配置升级的选择:

    预算低,无动手能力:
    4060Ti / 2080 魔改 22GB

    预算最低,有软件+硬件方面的动手能力:
    P40 24GB (性能不是很强,但显存带宽还不错,694.3 GB/s )

    高预算:
    双 3090 (对主板/供电要求很高,还需要一个房间来放,因为很吵)

    另类选择:
    买一台 Mac Studio M2 Ultra 192GB 内存
    只能玩 llama.cpp ,生态差了点,训练不行
    ShadowPower
        6
    ShadowPower  
       2023-11-20 19:59:45 +08:00
    如果你的电脑有 8GB 以上的内存,我建议不升级
    先用 llama.cpp 玩一下 4bit 量化的模型

    如果觉得 llama.cpp 用起来麻烦,用这个:
    https://github.com/LostRuins/koboldcpp

    或者这个:
    https://lmstudio.ai/
    suqiuluck
        7
    suqiuluck  
    OP
       2023-11-20 20:04:54 +08:00
    @imes 大佬牛啊
    suqiuluck
        8
    suqiuluck  
    OP
       2023-11-20 20:05:34 +08:00
    @ShadowPower 了解了,感谢大佬回复
    Mark24
        9
    Mark24  
       2023-11-20 20:35:17 +08:00
    钱包不允许
    NoOneNoBody
        10
    NoOneNoBody  
       2023-11-20 20:45:53 +08:00
    站内有人发过用自己的聊天记录训练的(年初的帖子,全文在其 blog ),你可以参考一下
    要玩训练模型我是耗不起,基本看前几段就劝退我了,还是继续玩我的小模型好了
    Rnreck
        11
    Rnreck  
       2023-11-20 22:15:36 +08:00
    @NoOneNoBody #10 有链接吗,去看看
    NoOneNoBody
        12
    NoOneNoBody  
       2023-11-20 22:23:31 +08:00   ❤️ 2
    @Rnreck #11
    你用 “微信聊天记录 AI” 搜本站,前几条都是相关的

    我用我的 10 万条微信聊天记录和 280 篇博客文章,做了我自己的数字克隆 AI
    /t/931521
    Rnreck
        13
    Rnreck  
       2023-11-20 22:37:18 +08:00
    @NoOneNoB 感谢
    kuanat
        14
    kuanat  
       2023-11-20 22:52:10 +08:00
    硬件选择楼上已经说了,显存要够大才能跑大模型。

    如果你在生产机器之外需要一个开发验证平台,现在 4060 移动版的笔记本非常合适。相对台式显卡溢价低,8GB 对于验证程序来说够用了。关键是 40 系的能效比很高,而且价格非常卷。
    cwyalpha
        15
    cwyalpha  
       2023-11-20 23:16:44 +08:00 via iPhone
    4060ti 16g 双卡可以用来训练或者推理麽?
    CaptainD
        16
    CaptainD  
       2023-11-21 14:35:37 +08:00
    我用 3060ti 8g 去跑 LLAMA2 7b ,只能设置精度为 8bit ,而且推理速度很慢
    leipengcheng
        17
    leipengcheng  
       2023-11-21 17:45:38 +08:00
    我之前用 4060 的游戏本跑过,后面感觉还不如直接用 gpt 呢。。。
    shuiguomayi
        18
    shuiguomayi  
       344 天前
    @kuanat GeForce RTX 4060 显卡么? jd 上搜是 8G 显存. 请教下, 8G 能跑什么样的大模型?
    kuanat
        19
    kuanat  
       344 天前
    @shuiguomayi #18

    是 RTX 4060 Mobile ,笔记本上用的,8GB 显存。说的是开发验证这种需求,你需要训练一个模型,先在本地写个小规模的验证程序,然后放到服务器上去跑大数据集。并不是常见的用模型来推理,推理这个需求还是 12GB 起步吧,8GB 只能跑一些简化或者降低精度的模型,速度也不太理想。

    每一代 60 显卡都会有个显存略大的版本,可以理解为 nvidia 推广 cuda 生态用的,因为这个级别上加显存对游戏性能几乎没什么影响。说移动版 4060 是因为它相对 3060 加了显存,而且能耗比很好,市面上的笔记本能做到 5000 块,比起台式机性价比可以的。
    xbird
        20
    xbird  
       341 天前
    我本来也觉得部署大模型需要大显存,得上 M3 Max ,但实际上如果只是运行(也就是推理),不训练,部署自己用的,内存够大就行了,64gb ,128gb ,内存很便宜,不需要 gpu ,cpu 就够了,速度也慢不了多少。

    Lm studio 自己下个试试就知道了。

    我发现中文资料很少。

    希望对你有帮助。
    xbird
        21
    xbird  
       341 天前
    @kuanat 不需要,运行只需要内存,我本来也以为要,直到我跑起来后。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   932 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 21:34 · PVG 05:34 · LAX 13:34 · JFK 16:34
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.