V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
goldiorl
V2EX  ›  程序员

求问!现在适合给 gpt4 喂整个仓库的代码了吗,他能看懂了吗

  •  
  •   goldiorl · 2023-05-15 06:56:28 +08:00 · 4909 次点击
    这是一个创建于 556 天前的主题,其中的信息可能已经有所发展或是发生改变。

    大概 3 万行的 java 代码,配上独立的文档,塞进去它能看懂了吗。有什么项目能做这个事吗,我知道现在给 gp4 喂文档的项目挺多的。

    谢谢!!

    16 条回复    2023-05-15 18:52:42 +08:00
    kongkongye
        1
    kongkongye  
       2023-05-15 07:04:40 +08:00 via iPhone
    就算能喂整个项目,每次提一个问题,都要把整个项目带上,那费用
    dayeye2006199
        2
    dayeye2006199  
       2023-05-15 07:29:30 +08:00
    我只知道把项目里面的文件做了 embedding 之后,提问之后做一步 KNN ,找到相关的代码片段之后,作为 context ,和问题放在一起,然后喂给 openAI 这套做法。
    LittleState
        3
    LittleState  
       2023-05-15 08:47:51 +08:00
    那文档不会太长了吗?还得自己手动分段吗
    Tanix2
        4
    Tanix2  
       2023-05-15 08:54:18 +08:00   ❤️ 1
    目前支持 Context 最长的是 Claude ,为 100k token (大约 75k 词),其模型效果也是很优秀,在某个榜单上仅次于 GPT-4 。3w 行代码加上文档,肯定超过 100k token 了,不过你可以将某些不必要的代码删除试试。
    dingwen07
        5
    dingwen07  
       2023-05-15 09:00:22 +08:00 via iPhone
    Java 的话,喂方法签名和文档就够了吧
    hhjswf
        6
    hhjswf  
       2023-05-15 09:12:27 +08:00 via Android
    会话重置了,再喂一次?成本不低啊
    gpt5
        7
    gpt5  
       2023-05-15 09:14:04 +08:00
    查查价钱再喂不迟。
    runking
        8
    runking  
       2023-05-15 09:22:33 +08:00
    unco020511
        9
    unco020511  
       2023-05-15 09:28:17 +08:00
    GPT 是可以给链接的,不需要给原文,但他能不能分析项目里面的细节就不太清楚了
    echoless
        10
    echoless  
       2023-05-15 09:45:56 +08:00
    claude 100k 没问题的
    echoless
        11
    echoless  
       2023-05-15 09:47:28 +08:00
    gpt4 3 万行 x 10/1000 *0.3 = 90 一个问题大致要 90 块钱, 你还是 V2EX 找个码农吧.
    unco020511
        12
    unco020511  
       2023-05-15 10:50:33 +08:00
    @unco020511 不好意思我看错了,gpt 不支持链接读取
    opentrade
        13
    opentrade  
       2023-05-15 10:57:28 +08:00
    太高估大模型了
    C47CH
        14
    C47CH  
       2023-05-15 13:13:19 +08:00
    估计不行,但可能的办法是给代码做索引,让 GPT 找相关的代码。
    goldiorl
        15
    goldiorl  
    OP
       2023-05-15 18:02:46 +08:00
    谢谢大家回复,想请问一下如果是用 meta 的 llama 呢,比如直接用斯坦福的那个羊驼模型,可以实现超长对话吗
    israinbow
        16
    israinbow  
       2023-05-15 18:52:42 +08:00 via Android
    @goldiorl #14 理论可行,我司正在复现 oasst 30b 模型,虽然期望 vram 120 G 我觉得做不出来。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1924 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 27ms · UTC 16:18 · PVG 00:18 · LAX 08:18 · JFK 11:18
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.