V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  CNYoki  ›  全部回复第 1 页 / 共 2 页
回复总数  38
1  2  
20 小时 8 分钟前
回复了 CNYoki 创建的主题 机器学习 LLMs 文本标签(分类)任务怎么做比较好?
@june4 #2 最开始也是用的这个方法,但是现在数据量太大了(上百万段文本),发现不在标签字典的结果就太多了 https://i.imgur.com/2ZZSapE.png
20 小时 10 分钟前
回复了 CNYoki 创建的主题 机器学习 LLMs 文本标签(分类)任务怎么做比较好?
@mumbler #1 我现在用的是 Qwen2.5 110B ,文本太多用商用收费模型成本太高了。现在 Prompt 用列表给出了所有标签,但发现效果不是太好(比如说不在给定字典里的标签)。您说的标签整理好,是有什么格式会好一些?
143 天前
回复了 CNYoki 创建的主题 问与答 求推荐一个下载工具
多谢各位朋友。cf 恶毒的人机验证,好像 header 里的验证信息每隔一段时间就会过期,导致文件还没下完就中断了。它的服务器既不支持断点续存也不支持多线程,好像无解了。
157 天前
回复了 mkun 创建的主题 成都 自家黑白边牧找新家
有点远了🥲
157 天前
回复了 yagamil 创建的主题 云计算 UCloud 是不是很垃圾的存在?
开个 CDN 还要加客户经理微信才给开权限
166 天前
回复了 greensea 创建的主题 宽带症候群 电信出口炸了吗?
还是教育网好,虽然最后大多也是跳到运营商国际出口,但基本没丢包
167 天前
回复了 CNYoki 创建的主题 Local LLM ollama 本地模型 GPU 跑不满
@0x3933030 #7 再加载另一个模型的话,ollam 会优先放在空闲的卡上。但是单模型不知道为什么就是推理速度起不来
167 天前
回复了 CNYoki 创建的主题 Local LLM ollama 本地模型 GPU 跑不满
vLLM 现在有 json mode 了吗
167 天前
回复了 CNYoki 创建的主题 Local LLM ollama 本地模型 GPU 跑不满
@1119745302 #1 这个跟后端没太大关系吧,直接用的 python 调的 ollama 的库
169 天前
回复了 dufldylan1 创建的主题 香港 去香港旅行有什么值得体验/购买的东西吗
@nuhou 可以的,也有通关小票 #15
169 天前
回复了 pauluswanggang 创建的主题 NAS 怎么关闭 NAS 的 80、443 端口?
@MrOops 我这里就没封……移动
197 天前
回复了 yellowsky 创建的主题 宽带症候群 下雨天公司和家里的网络都会很差
有没有可能,下雨天大家都在家,网络负载高🤔
清缓存。
197 天前
回复了 docxs 创建的主题 NAS 想整个旁路由,用 N100 咋样啊?
当主路由都没问题
211 天前
回复了 smalltong02 创建的主题 程序员 对 Qwen 2 模型代理能力的完整测试
现在在用 qwen110b 做实体抽取+推理,感觉跟 gpt4o 还是差很多
215 天前
回复了 xaoflysho 创建的主题 NAS 想问问大伙 NAS 备份照片的方案
方案一,套了个 CDN
237 天前
回复了 convolution 创建的主题 分享创造 花了几天时间,上线了一个 AI 导航站
还以为是 ai 直接猜到我要导航去那里(
我这儿上下对等 1000M ,可惜 NAT4
274 天前
回复了 suqiuluck 创建的主题 VPS 求推荐 vps 香港 cn2 gia , 100/月以内
走 CERNET ,什么 CN2 都是弟弟
3.5 还没降,还是 120k
1  2  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5598 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 37ms · UTC 08:11 · PVG 16:11 · LAX 00:11 · JFK 03:11
Developed with CodeLauncher
♥ Do have faith in what you're doing.