V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
x77
V2EX  ›  程序员

有人试过 gpt-3.5-turbo-16k 这个模型吗,效果如何?

  •  
  •   x77 · 310 天前 · 2633 次点击
    这是一个创建于 310 天前的主题,其中的信息可能已经有所发展或是发生改变。

    刚在 OpenAI 文档看到的,以前没注意到

    7 条回复    2023-06-27 09:20:20 +08:00
    chaotttin
        1
    chaotttin  
       310 天前
    据说可以编写 5000 字的长文。我的 azure openai service 月初申请到了 turbo-16k 和 gpt-4 这两个模型,但当时没注意,胡乱操作几下就再也找不到了
    liantian
        2
    liantian  
       310 天前
    你只要注意,任何情况下都是 4 倍计费就完事了..

    自己写程序,注意判断好用 gpt-3.5-turbo 还是 gpt-3.5-turbo-4k
    leipengcheng
        3
    leipengcheng  
       310 天前
    为什么我用这个模型,java api 调用,但是 token 还是只有 4k
    x77
        4
    x77  
    OP
       310 天前
    原来邮件里讲了,就是贵点

    Longer Context
    We're also introducing gpt-3.5-turbo-16k. This model offers four times the context length of the 4k base model and is priced at $0.003 per 1K input tokens and $0.004 per 1K output tokens.
    wanjiawei0755
        5
    wanjiawei0755  
       310 天前
    @chaotttin #1 Azure 应该还没有 16k 吧,我记得社区里面回答说暂无计划,包括 0613 版本的模型
    lanlanye
        6
    lanlanye  
       310 天前
    随着 613 版本一起更新的啊,3.5 降价了,但推出了稍微贵一些的 16k 版本,并不需要申请。

    效果的话由于 tokens 变长了,长文总结或者 agent 之类的用法超出限制的可能性减小了,聊天也可以记录更多上下文了。

    但上下文始终会对结果产生影响,长了有时未必是好事。

    另外新模型支持的 Function calling 功能很有用,效果比 langchain 好一些,想尝试的话可以试试我写的小工具 https://github.com/laipz8200/openai-agent
    MEIerer
        7
    MEIerer  
       309 天前
    限制比普通的 turbo 大,不能整色色
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   956 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 26ms · UTC 18:38 · PVG 02:38 · LAX 11:38 · JFK 14:38
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.