是 Mistral 公司最近推出的模型,之前他们推出过两款开源 LLM ,Mistral 7B(Mistral-tiny) 和 Mistral 8 x 7B ( Mistral-Small,MOE 架构);最近他们又推出了 Mistral-Medium (未开源) , 官方号称是和 GPT4 水平接近,我实测是大部分事实性任务(编写代码,解释名词)表现会比 GPT4 好,创造性任务(写文案)会差一些。 最重要的是,现阶段 Mistral-Medium 可以在 Poe 上免费使用,每天限量 100 次,基本满足日常使用,要是用超了还可以通过 perplexity labs 使用(应该是不限量的,但是感觉没有 Poe 的好用)