V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
drymonfidelia
V2EX  ›  程序员

现在 8GB 显存 4070 笔记本能训练 AI 画图 LoRA 模型吗?效果怎么样,有没人了解的?我看有的模型说 6GB 显存就能玩

  •  
  •   drymonfidelia · 9 小时 22 分钟前 · 1009 次点击
    11 条回复    2024-11-07 10:05:14 +08:00
    drymonfidelia
        1
    drymonfidelia  
    OP
       9 小时 11 分钟前
    另外还想问下爆显存是会对生成图片质量造成影响还是会直接出不了图?
    LanhuaMa
        2
    LanhuaMa  
       9 小时 3 分钟前
    8GB 训练怎么样我不知道,但是跑图基本是不够的,分辨率基本不可能超过 720p 而且插件一多就容易爆。6GB 能玩是扯蛋,除非你喜欢 pixel art 。爆显存会直接报错不出图
    winson030
        3
    winson030  
       9 小时 0 分钟前
    不建议笔记本干这活,同样价格要么主机要么租 GPU 。
    Chris008
        4
    Chris008  
       5 小时 29 分钟前
    现在 1024 分辨率以上的训练没有 24GB 显存是根本折腾不起来的。512 分辨率早就淘汰也没有花时间训练的必要。
    Chris008
        5
    Chris008  
       5 小时 27 分钟前
    出图看 UI 优化的不同,6-8G 都是可以出图的,就是慢点。实测 8GB 在 ComfyUI 可以跑。
    disorientatefree
        6
    disorientatefree  
       4 小时 53 分钟前
    训练不要想,出图是够玩玩的,但是笔记本这配置批量做起来也不现实

    ---

    除非你玩像素图当我没说
    hafuhafu
        7
    hafuhafu  
       2 小时 41 分钟前
    8G 训练 LoRa 够了。我之前就用 3070Ti Laptop 8G 弄了几个自己的 LoRa 玩,更低都行。
    出图的话,小显存也能玩,但是效果要好点倒是对显存要求比较高,不然加上插件什么的,只能出小分辨率的图。
    HeyWeGo
        8
    HeyWeGo  
       2 小时 29 分钟前
    如果想出 1920x1080 的图,推荐多少显存的卡呢? 4090 ok 吗?
    chesha1
        9
    chesha1  
       2 小时 2 分钟前
    @HeyWeGo #8 你要是用 web ui 那种整合包,会包括很多节约显存的工具,4090 24G 应该够了,如果用裸 diffusers ,才会不够
    tikebosi6787782
        10
    tikebosi6787782  
       1 小时 59 分钟前 via Android
    还是需要 12
    emberzhang
        11
    emberzhang  
       48 分钟前 via iPhone
    用 comfyui + flux.1 ,16G 跑 fp16 肯定是爆,但也没有感觉特别慢,会再把内存吃掉 25G 的样子,4070tis 大概 40 秒一张 1024x1024 。我还是垃圾 3200Mhz ddr4 内存
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5833 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 02:54 · PVG 10:54 · LAX 18:54 · JFK 21:54
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.