V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  beginor  ›  全部回复第 7 页 / 共 116 页
回复总数  2305
1 ... 3  4  5  6  7  8  9  10  11  12 ... 116  
182 天前
回复了 gcl123 创建的主题 MacBook Pro 新 mbp 掉漆也太快了
银色,一直套黑色的外壳用,不过外壳的角已经有裂痕了,不知道机器本体咋样
听说隔壁家的 VMware 零折,一般人我不告诉他的。 🤭
184 天前
回复了 talus 创建的主题 Apple Mac 能耗
brew install asitop 或者 pip install asitop
184 天前
回复了 fengyouming 创建的主题 Apple mac studio 折抵 价格太低了吧。。。。。
不如成立一个拍卖区吧,价高着得。拍下来不买的封号!
188 天前
回复了 kvibert1 创建的主题 Linux 统信 UOS 桌面软件用什么工具开发?
会 WPF 的话可以考虑 Avalonia ,跟 WPF 差不多的很容易上手。 而且已经有著名跨平台应用 Ryujinx 龙神模拟器,可以说是大名鼎鼎了。

不过就是第三方生态差点儿,没有成套的 UI 控件包(比如 Dev Extreme )等。
195 天前
回复了 waino 创建的主题 MacBook Pro 升级 m2 的内存稳定吗?
64G 的 M1 Max 也要将显存调整到 56G 才勉强跑的起来 70b 参数的模型, 一秒钟大概一个 token ,还是老老实实跑 32b 左右的模型吧, 一秒钟 2~3 个 token ,自己玩一下还可以。

折腾 70b 以上的纯属虐待自己的 Mac 。
再来一个带界面的 [QtScrcpy]( https://github.com/barry-ran/QtScrcpy)
但是目前的 npu 在本地跑 ai 大模型时是用不上的,不管是 pytorch 还是 mlx ,还是 llama.cpp
可以配置一个 [importmap]( https://developer.mozilla.org/en-US/docs/Web/HTML/Element/script/type/importmap) ,让浏览器知道你所需要的第三方库在哪里。

顺便晒一篇我的笔记 https://beginor.github.io/2021/08/16/using-es-modules-in-borwser-with-importmaps.html
你当老板的话,你也会这样想的
204 天前
回复了 dog82 创建的主题 程序员 没人说前两天的软考吗?
毕业前就考过了网络工程师的路过,转眼 20 年了,一次也没用到过 😭
@yjhatfdu2 现在 llama.cpp 默认转出来的 gguf 就是 f32 , 以前是 f16 。
@wsbqdyhm 不好意思, 我搞错了,ollama 也提供了[各种量化版本的 llama-3 模型]( https://ollama.com/library/llama3/tags),q5_k_m 量化版本是这个 https://ollama.com/library/llama3:70b-instruct-q5_K_M , 你可以拉下来看看还能不能跑起来
@wsbqdyhm ollama 只提供了 q4_0 版本的 [llama3]( https://ollama.com/library/llama3), 这个和原始模型相比,损失比较多,不推荐。

可以从 huggingface 直接下载 [meta/llama-3]( https://huggingface.co/meta-llama/Meta-Llama-3-70B-Instruct) 的原始模型,自己量化, 也可以下载 [已经转换好的 gguf 文件]( https://huggingface.co/MaziyarPanahi/Meta-Llama-3-70B-Instruct-GGUF)

一般推荐 q5_k_m 或 q4_k_m 版本的量化模型, 接近原始模型,如果配置够的话, 更建议运行 f16 版本模型 。

依据自己电脑的配置, 建议的优先级是:f32 > f16 > q5_k_m > q4_k_m > others .

另外我不玩 ollama ,ollama 虽然简单, 却隐藏了很多细节。 我玩的是 llama.cpp , 可以体会到更多的技术细节。

模型需要的内存大小大概就是模型文件的大小,量内存大小而行。64G 的 M1 Max 最多能分出 48G 内存来跑模型, 当然其它应用还要占用一些内存, 所以只能勉强运行 q4_k_m 的 70b 模型。
@kenvix 也有影响的,70b 的话 q5_k_m 跑不动, 提示超内存,q4_k_m 勉强能跑起来
64G 跑 70b 的 llama3 ,应该是 q4_k_m 量化版本的吧,我跑 q5_k_m 版本的会报错的?
确实,13b 以下的都只能称之为小模型,用于学习其原理或者娱乐一下还可以。

真正能用的得 30b 以上的模型,最好是非量化版本的,然而 30b 以上的模型又不是一般电脑能跑得动的。
207 天前
回复了 baozijun 创建的主题 Apple 大家的 rmbp 都是用的什么鼠标呀
罗技 MX Anywhere 3 , 不过我运气比较差,已经换了两次微动了 😔
搭车问一下,有没有 Arm 版本的 ltsc ,win10 或者 win11 都行, 用 fusion 装虚拟机, 标准版太占用磁盘空间。
1 ... 3  4  5  6  7  8  9  10  11  12 ... 116  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5917 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 46ms · UTC 02:25 · PVG 10:25 · LAX 18:25 · JFK 21:25
Developed with CodeLauncher
♥ Do have faith in what you're doing.