V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  wwhc  ›  全部回复第 1 页 / 共 26 页
回复总数  502
1  2  3  4  5  6  7  8  9  10 ... 26  
联想的 tiny 主机最适合, 二手的很便宜
38 天前
回复了 wizzer 创建的主题 宽带症候群 求家庭机柜散热最佳方案
Arctic 有 TC 系列风扇,由温度控制转速,绝大部分情况下噪音极小,楼主可以考虑
58 天前
回复了 KJH 创建的主题 问与答 究竟什么是爱?
85 天前
回复了 Persimmon08 创建的主题 OpenAI 这个问题,大家的 GPT 都能答对吗?
Mixtral 8x7b Q6_K:
当 x 趋近于 0 时,有:

lim_{x to 0^+} y = lim_{x to 0^+} x ln(1+frac{1}{x})=0

当 x 趋近于正无穷大时,有:

begin{aligned}
lim_{x to +infty} y &= lim_{x to +infty} x ln(1+frac{1}{x})
&= lim_{x to +infty} frac{ln(1+frac{1}{x})}{frac{1}{x}} &text{(使用}frac{0}{0}text{型拆分)}
&= lim_{x to +infty} frac{frac{-1}{x^2(1+frac{1}{x})}}{frac{-1}{x^2}} &text{(应用}mathrm{l'Hospital rule)}
&= 1
end{aligned}

因此,当 x 趋近于 0 时,lim_{x to 0^+} y = 0 ;当 x 趋近于正无穷大时,lim_{x to +infty} y = 1 。
@scguanzhong Dell 那么差了么?哪个型号的?
建议联想、HP 、Dell 的 1 升迷你主机
真正保护公司/个人信息数据的只能是在本地部署的开源大模型如 LLAMA/Mistral ,这才可以脱离互联网使用,没有数据泄漏的状况。把数据送到外部 AI 服务,没有任何私隐可言
@BeyondReach 建议在 16G 内存或 10G 以上显存的设备上部署 Mistral 7B
MistralAI 的开源模型支持 32K Tokens 或 64K Tokens
92 天前
回复了 whyorwhynot 创建的主题 宽带症候群 NPS 可以被中间人攻击?
@whyorwhynot autossh 就是解决这个问题的
92 天前
回复了 whyorwhynot 创建的主题 宽带症候群 NPS 可以被中间人攻击?
内网穿透最安全还是 ssh 隧道,虽然性能和延迟有损耗
华硕 x99 主板,支持单条 128G 内存
108 天前
回复了 jjyyryxdxhpyy 创建的主题 问与答 大佬们,求助本地部署大模型
118 天前
回复了 charmingchm 创建的主题 程序员 家庭摄像头录像问题
可以用 USB 摄像头+ linux+motion 自建监控服务器
@default 不确定你要了解的是什么,我手头一堆 50G 的蓝光刻录盘
用蓝光盘保存吧,一张蓝光盘 50G/100G ,肯定比 SSD 可靠,也不需要像存放 HDD 那样小心翼翼
124 天前
回复了 balabalaguguji 创建的主题 问与答 求推荐开源 AI 模型
Privategpt+Mistral 7B 用 1080ti 推理速度就很好了,或者 Privategpt+Mixtral 8x7B ,合法可商用性能很好的开源模型,但对 GPU 要求高
130 天前
回复了 KIRAYOMATO 创建的主题 问与答 在翻译上目前哪家大模型表现最好?
Mixtral 8x7b ,要速度快的就是 Mistral 7b
1  2  3  4  5  6  7  8  9  10 ... 26  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1901 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 35ms · UTC 00:22 · PVG 08:22 · LAX 17:22 · JFK 20:22
Developed with CodeLauncher
♥ Do have faith in what you're doing.