V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX 提问指南
Inzufu
V2EX  ›  问与答

关于 AI 提示词的一些问题

  •  
  •   Inzufu · 201 天前 via Android · 543 次点击
    这是一个创建于 201 天前的主题,其中的信息可能已经有所发展或是发生改变。
    有一些问题想不明白,我不研究机器学习这方面,所以希望各位解答。
    目前类似于 ai 的应用有不少,比如用 chatgpt 翻译文本,都要在请求前插一段内置的提示词比如:“你现在是一个翻译,balabala.... 帮我把 a 译为 x 语”,感觉这样好像很不优雅,我感觉用这种提示词写出来的应用很奇怪,感觉实际上核心功能都交给了一个不确定性极大的语言模型。
    我感觉所谓的提示词应该是给人用的,而不是让机器去调用机器,那这样就失去了大语言模型存在的意义。
    还有最近所谓的提示词工程师和提示词课程,我感觉更是鬼扯,这岗位我感觉应该根本不会存在。
    5 条回复    2023-10-10 11:43:30 +08:00
    x1184
        1
    x1184  
       201 天前
    未来的趋势是应用化 Agents 化,你看不到背后的提示词和处理过程了,直接获知结果
    youthfire
        2
    youthfire  
       201 天前 via iPhone
    进步很多了,提示词在 3.5 阶段尤其敏感,细微的区别就能造成结果天差地别,也才诞生了当时的“提示词工程师”一说。经过自媒体各种发酵。你没发现 4.0 后这种论调就冷淡了吗?
    pansongya
        3
    pansongya  
       200 天前
    人都得 PUA 何况机器呢
    lyyQAQ
        4
    lyyQAQ  
       200 天前
    可能因为它是单字接龙,前面的内容会影响后面生成内容的概率,加上引导以后会有更大概率生成你需要的内容或者更优质的内容,不过 gpt4 大部分时候不需要引导就能给出很好的结果了,除非某些时候它给出的答案确实不满意,或者像生成 midjourney 提示词这种情况
    Yuhyeong
        5
    Yuhyeong  
       200 天前
    工具而已,你能用明确的指令控制 LLM 的行为已经很好了。

    要优雅干嘛,指望 LLM 陪你跳华尔兹?你提问再怎么优雅他本质就是随机的啊,不是你用你觉得优雅的指令他就不是一个随机性极大的模型了。明确的指令才能有正常的效果。建议工程师们不要把坏习惯带到这种没必要的地方。

    提示词工程师这个确实离谱,谁干我笑话谁,随便找个高中生适应一个月就能干。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   1462 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 17:06 · PVG 01:06 · LAX 10:06 · JFK 13:06
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.