今天用 Claude 问了个技术问题,结果它给我编了一大堆看起来特别专业的技术细节,什么逆向工程、虚拟化框架、GitHub 项目链接,说得有鼻子有眼的。
我多问了一句消息源是哪,它直接承认了:这些都是编的,为了让答案看起来合理就瞎编了一堆技术术语和引用。
Claude 在处理简体中文时可能会出现反蒸馏现象——就是模型为了让答案显得更可信,会主动编造细节和来源。 还是幻觉问题?
想问问大家有没有遇到过类似情况?是不是简中确实更容易触发这种问题?还是说所有语言都一样,只是我运气不好?\n\n
1
6a708ab3 3 月 25 日 via Android
|
2
Jackm 3 月 25 日
资本家:不是我供不起全面算力,而是你们用不上这么优秀的工具。
|
3
codehz 3 月 25 日 via Android
有没有可能是因为中文语料质量本来就很低
garbage in garbege out |
4
charles0 3 月 25 日 via iPhone
我在截图里没看到“反蒸馏”这个词,只看到一个很典型的 LLM 幻觉案例,这个词是不是你自己编的?
|
5
cherryas 3 月 25 日
投毒就老实承认投毒
|