$V2EX
Solana
Give SOL to Copy Address
使用 SOL 向 sillydaddy 打赏,数额会 100% 进入 sillydaddy 的钱包。
 sillydaddy 最近的时间轴更新
sillydaddy
5.53D
4.66D

sillydaddy

V2EX 第 472822 号会员,加入于 2020-02-27 19:30:20 +08:00
今日活跃度排名 16
MOD
具有移动主题的权限
对 HodlAI 的可持续性的质疑
HodlAI  •  sillydaddy  •  7 天前  •  最后回复来自 workbest
24
ARC-AGI 测试这帮人疯了!
  •  1   
    分享发现  •  sillydaddy  •  1 月 29 日  •  最后回复来自 LiuJiang
    3
    vibe coding 的最佳实践到底是什么?
    Joe's Talk 🪐  •  sillydaddy  •  1 月 23 日  •  最后回复来自 goodboy95
    28
    编程已死!
  •  1   
    职场话题  •  sillydaddy  •  2025 年 12 月 31 日  •  最后回复来自 Livid
    63
    让你们的 AI 做做这道题,见真章!
    OpenAI  •  sillydaddy  •  2025 年 12 月 27 日  •  最后回复来自 itechify
    5
    不知不觉 AI 可以算乘法了
    分享发现  •  sillydaddy  •  2025 年 12 月 24 日  •  最后回复来自 sillydaddy
    5
    sillydaddy 最近回复了
    我是在 cursor 里面试的。感觉上面的成绩,跟 ARC-AGI 这个图形推理的测试成绩高度相关:

    https://arcprize.org/leaderboard
    有意思,试了几个模型:
    Opus 4.5 thinking ,对了 0 个。

    Opus 4.6 thinking ,对了 2 个( Bob 和 Adam )。

    GPT 5.2 codex extra high thinking ,对了 3 个( Bob, Adm 和 Tommy )。

    GPT 5.3 codex extra high thinking ,对了 5 个:
    Bob:从 Bob 右侧线头出发,沿线向右后下弯,终点箭头指向中间黄绿色小人。
    Jack:从 Jack 下方线头出发,走上方并行线中下方那条,终点箭头指向右上浅橙(偏米黄)小人。
    Jimmy:从 Jimmy 下方线头出发,走上方并行线中上方那条长线,再沿右侧外圈下绕,终点箭头指向右中深蓝小人。
    Tom:从 Tom 下方竖线出发,向下再左弯,终点箭头指向左下黄色小人。
    Adam:从 Adam 左侧长线出发,沿底部向左再沿左侧上行,终点箭头指向左上粉红/玫红小人。


    GPT codex 是用的编程工具处理的,尝试用 opencv 失败,后来用的 ffmpeg 。我还特意把线加粗了,不行的还是不行。
    在 GPT 5.2 尝试过程中,里面冒出了这样一句: “我在校准裁剪参数,马上拿到上半部分的放大细节来确认 Jack/Jimmy 这两条最容易混淆的线”
    1 天前
    回复了 constantine008 创建的主题 问与答 非常看好 AI,应该做什么
    不记得是谁说的了,要做那些「基础模型越强大,你越高兴」的东西或事情。他举的一个例子就是 Agent ,Agent 里面的基础模型越强大,就促使越多人用 Agent 。反过来就是说,不要做那些「基础模型越强大,你越难受」的工作,比如在一个狭窄的领域里面搞 CRUD 编程,而这在今天已经应验了。

    但,他这话有些鸡贼——什么是基础模型越强大我越高兴的工作呢?他并没有说清楚。

    其实仔细想想,它等于是在说「要做那些基础模型做不了的事情」,就是这么个意思,对吧?越是基础模型做不了的事,随着基础模型的越来越强大,基础模型对你能力的放大就越显著。比如你善于商业,那基础模型就相当于百十个任劳任怨的员工。

    问题在于,什么是基础模型做不了的事呢?怎么就知道基础模型后面做不了呢?举例来说,编程里面的架构,现在基础模型(配合 Agent )还不太行,这也是 v 站大多数人的看法,比人类的架构品味还要差不少,那是不是说,现在学架构就安全了呢?很明显学架构并不能让人安心,因为你不知道 AI 什么时候能以多快的速度学会架构。而且每个人擅长的不一样,不一定都适合。

    AI 的发展就像海水涨潮,而人类则是在陆地。涨潮时,浪潮在不断冲刷新的高度,我们人类是在不断的后退,后退到 AI 够不着的高地。只要它够不着我们,我们甚至可以充分利用浪潮的能量。然而,假如涨潮最终会淹没我们所在的整个岛屿,那么后退到不同的高地,其实只是在被淹没的时间上有所区别。

    现在的 AI ,用它带来的巨大震撼,揭示了一个道理给我们人类:智能没有什么特殊的,AGI 迟早会实现。认识到这一点并不代表一定要悲观,因为后续殊难预料。

    在这一前提下,「在 AI 浪潮下该做什么」这个问题,就变成了在 AI 浪潮面前,各个「不同的高地」,它们被淹没的时间先后顺序是什么?直觉、抽象、架构、深入思考、目标、品味、审美、创新,甚至情绪、同理心,所有这些人类具有的智能属性,到底分别在什么时候会被 AI 赶上?这决定了退到哪个高地更合适。

    我也不知道该退守到哪里。但我愿意分享一下我的想法。

    之前举了编程的例子,毫无疑问,普通的 CRUD 已经被 AI 替代了。再来看编程架构,现在很多人都在说 AI Agent 的品味还不信、架构还不行、执行丢三落四,就目前这确实是事实。但这些高地会是下一批被淹没的吗?我觉得是。不要说不可能,毕竟谁也不会料想到,编程这个会吓退普通人的职业,竟然是被 AI 第一批占领的高地。而我之所以比较肯定,是因为软件行业的基本特点就是能以很低的成本进行验证。架构、品味这些东西,虽然比功能更难量化,但也不算非常难。代码简洁、低耦合高内聚,这些准则,并非难以描述,难以比较。即使是现在,给到 AI 两个架构方案,它们也能轻易判断出优劣。最关键的是,它们是可以低成本验证的东西,架构、品味,总是要以具体的代码实现来体现出来的,只要有具体的实现,AI 就可以测试它们、比较它们,甚至可以迭代式的改进它们,这时低验证成本这个关键就体现出来了。所以我个人觉得架构师也是一个会很快失守的高地,届时软件工程行业将无险可守。

    再举一个例子,比如科普,你让人类讲清楚一个东西的原理,人类会根据他自己的学习思路,路途中遇到的困难,清楚的知道该把哪些困难点讲清楚,因为他学习过、经历过,他知道怎么讲怎么打比方才能让小白理解,他知道人类的心理构造。最明显的就是那些好书、好视频、好电影,让人茅塞顿开豁然开朗(比如《编码》这本书)。但 AI 没有这个经历,它不知道人类的心理构造。你只能追问它。什么时候 AI 可以充分建模人类的心理模型呢?比较难说,我觉得应该会比较晚吧,毕竟如果 AI 能建模人类心理,就意味着它也可以在其他行业发挥作用。

    其他例子就不说了,预测未来的东西,很难靠的住。但是否可以低成本验证,可以作为一个重要的标准。以这个标准来说,开发人员是时候早做准备了。我写这么一大通,也是想表达这点。

    楼主你说的方向是啥呢?
    感谢 OP 分享。

    楼上的都在扯啥呢?尤其#1 楼,把人家「自曝其短」的东西照搬过来: https://www.anthropic.com/engineering/building-c-compiler#:~:text=not%20without%20limitations.-,These%20include,-%3A

    只看到了那些缺点,这是个极简的脚手架你怎么不说呢?那 Agents 不能联网怎么不说呢?人类几乎没有介入怎么不说呢? Opus4.6 相比 Opus4.0 甚至 Opus4.5 的跨越怎么不说呢?

    重点中的重点是 16 个 Agent ( Agent 团队)的协作,实现长时间大规模的无介入协作编程,不是吗?即使把这篇文章给到 AI ,也不至于抓不到重点吧。
    3 天前
    回复了 774157009 创建的主题 职场话题 碎片化时间的高效利用
    我最近恰好遇到了类似问题,来分享一下:

    最近不是 AI 编程嘛,我开了多个任务(大概 4 ,5 个吧),想着在某个任务等待 AI 的间隙,切换到其他任务,提高效率。结果是,那些遇到稍微难啃骨头的任务(比如思考下一步的规划),在并行过程中,被我无情抛弃了,只走那些进展顺利的任务,最终只有 1 ,2 个任务在跑,其他都是做一半。而且精力分散,导致每个任务都不能深入思考。那些只做一半的任务,后续还要重新拾起来,还要面临再拾起时自信心受挫,摩擦阻力大的问题(因为知道当初遇到了难点)。

    问题关键就在于大脑注意力的专注,可以产生复利效应(或者叫边际成本递减,无论怎么称呼它),意思就是越做越快,越来越熟悉,遇到难题也能披荆斩棘的感觉,这提高了专注的价值。而且专注可以快速出成果获取反馈。

    当然,这种情况也有例外,比如你苦思冥想一个问题,就是解决不了,也许此时换个任务是一个更好的办法,回过头来之前的问题可能会突然迎刃而解。

    每个人都不一样,所以,我感觉你现在的做法就很好啊。没必要强求,找到适合自己的方法就行。
    很有意思的想法。目前看来就是你说的 2 个方案:
    1 是借助冷冰冰的物理和算法,像 vdf 这种本地挑战难题,甚至无法用硬件加速。它只需要你在电脑上一直跑解密程序,跑个几年。
    2 是借助外界(如区块链)监督,如各种智能合约。

    哪种更让人安心,因人而异。但合约明显更方便吧。
    @JoeJoeJoe 可以最小化发布吗? 6 个月太久了。给你个提示词(哈哈):只给你 1 个月,逼自己一下,哪些模块可以不用一下子放进来,哪些可以先用中心化的逻辑。
    你这精力,比我还分散,哈哈,不过执行力比我强多了。
    这个领空投的 v2ex.info 网站不错,还可以发布 v 币任务。
    建议就是集中注意力快速把第一个弄出来 /doge ,好奇问下需要什么前置工具啊?
    3 天前
    回复了 lmshl 创建的主题 ☕Vibe Coding🤖 Vibe Coding 一年实践后的冷思考
    你说的这些都不是问题。

    AI 编程,最关键的区别,就在于它是可以低成本验证的。

    你提到的测试失效的问题,只要稍微想一下,它跟什么机床测量没有任何区别。软件最终是要验收结果的,它不考虑内部实现,就跟机床的验收一模一样!没有任何区别。

    想通了这点,你后面就这点的讨论就都不成立了。你说 AI 会自己编写 case ,放过自己编写的 bug ,难道你使用 2 个不同的 AI 去做,也会这样吗?
    我现在做一个项目(带有前后端),让 AI 去生成测试用例,它生成的测试用例很丰富,很详细。问题主要出在,它编码完成时,会「由于时间原因」跳过某些测试用例。(这是 AI 亲口告诉我的,由于时间原因,我想可能是迫于某些原因。)

    所以跳过测试是一个问题吗?我觉得不是。你如果让某个 Agent 实例,专门只测试 1 个测试用例,那应该完全不会有这个问题。有了测试用例,就不用担心 AI 的实现跑飞。

    然后有人会质疑,这些测试用例不会覆盖到所有情况。这里我觉得要拿你的矛来攻你的盾——「如果一个工程代码,能将应用的核心用例和路径跑通,同时跑通一些极端用例,那么它出错的概率是比较小的,这就是功能的相关性。就像如果一个 AI 可以编写出最复杂的算法,就难以想象它无法编写简单的排序算法一样的道理。」
    4 天前
    回复了 Zane3 创建的主题 Cursor 目前在 cursor 里 Opus 4.6 是免费用的
    谎报军情
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   4199 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 30ms · UTC 09:14 · PVG 17:14 · LAX 01:14 · JFK 04:14
    ♥ Do have faith in what you're doing.