V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
aptandatp
V2EX  ›  Apple

大内存的 mac 本地跑 ai 有什么好的应用吗?各位有在使用的吗?

  •  
  •   aptandatp · 2 天前 · 2135 次点击

    apple 大内存相对于大显存还是有点性价比的,有点好奇,本地 ai 现在的水平能帮助完成什么任务,或者有什么好玩的吗?

    我自己只用 nv 跑过一些生图的模型,还有点意思;但是 ollama 的小参数模型智力实在是不行,连玩具都称不上。

    18 条回复    2026-03-04 21:29:20 +08:00
    penisulaS
        1
    penisulaS  
       2 天前
    我的能跑 70b 的,但还是不够聪明,不值得一用,跑 nsfw 又太慢了
    fredweili
        2
    fredweili  
       2 天前
    我是拿 ollama 来做运行环境跑一下代码,生产环境还是用云端的吧
    usVexMownCzar
        3
    usVexMownCzar  
       2 天前 via iPhone
    hugging face 自己写程序调优,或者 comfyui

    实际体验,chat 模型不错,速度也可以。但是图像模型的体验不太好,内存还是不够大🫠
    rich1e
        4
    rich1e  
       2 天前
    跑 ai ,内存是一方面,模型也很重要。

    虽然 mac 是一体化设计,但是同等价格,跑大模型,台式机性价比更高。

    如果想在大内存 mac 上跑大模型,需要通过参数优化、量化技术等才会获得较好效果。
    victorysl
        5
    victorysl  
       2 天前 via iPhone
    我昨天刚用 qwen 3.5 35B 在我的 M1MAX Mac 上跑本地大模型,我现在就是尝尝鲜聊聊天,不过也不知道有啥新玩法
    McVander
        6
    McVander  
       2 天前
    可以用本地大模型,尝试翻译。效果还行,我用了 1 年多了
    cwcc
        7
    cwcc  
       2 天前
    @rich1e 我其实一直想量化一下同价格的 Mac 和 PC 之间跑大模型如果再算上电费的话,这个性价比结果会不会有变。毕竟电费并不是免费的,而想要长期使用必然会 7*24 小时开机。
    maojun
        8
    maojun  
       2 天前 via iPhone
    跑 lunatranslator
    yukunZhan9
        9
    yukunZhan9  
       2 天前
    想用大模型来速读一下本地的视频,不知道有没有推荐
    yukunZhan9
        10
    yukunZhan9  
       2 天前
    @McVander 可以支持文件翻译吗? 翻译一下字幕啥的
    Chicagoake
        11
    Chicagoake  
       2 天前
    跑过 20 多 b 的模型,笨得要哭。
    remarrexxar
        12
    remarrexxar  
       2 天前
    不太敢在 MAC 上常规跑模型,内存不够用的时候 mac 会用 SSD 做 SWAP 当虚拟内存,大量读写的话 SSD 扛不住吧
    timeyoyo
        13
    timeyoyo  
       2 天前
    macbook Pro m4 max 跑了个 20 多 b 的,键盘温度感觉可以烤牛肉,第一次听到 风扇转
    McVander
        14
    McVander  
       2 天前
    @yukunZhan9 ollama 支持本地模型的 api 调用,但是文件可能不支持,得额外去处理和定制
    aptandatp
        15
    aptandatp  
    OP
       2 天前
    @Chicagoake 是的,小参数的效果真的太差了,和真正的大模型有云泥之别。
    @remarrexxar ssd 很难跑完寿命的其实,绝大多数人的 ssd 都是暴死和跑不完擦写次数的。除非你把 ssd 放在高吞吐的服务器做 io 缓存;毕竟你个人主机大多数时间还是浏览为主,就算有缓存其实读写量也少,之前 mac 高写入量是 macosbug 现在修复了。
    andyzhshg
        16
    andyzhshg  
       2 天前
    昨天在 128G m4max 的 mac studio 上用 ollama 试了下 qwen3.5 ,35B 的那个跑的很快,122b 的也能跑,但是慢很多
    不过具体的智商没有仔细看,目前还是在用云端的模型
    Zhuzhuchenyan
        17
    Zhuzhuchenyan  
       2 天前
    如果想对比 Apple Silicon 的大模型推理性能
    https://github.com/ggml-org/llama.cpp/discussions/4167
    这里有个非常长的楼,里面由各个芯片的跑 token 速度的数据
    gigishy
        18
    gigishy  
       1 天前 via iPhone
    如果不是玩,而是生产力考虑,同事在 64g 内存的 Mac mini 上训练且运行了一个专用端侧模型(蒸馏),关于投资决策和风险模型。智能还可以,明显提高效率很大,且准确性越来越好。
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2816 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 12:34 · PVG 20:34 · LAX 04:34 · JFK 07:34
    ♥ Do have faith in what you're doing.