截至周五,未经修改的Maverick模型“Llama-4-Maverick-17B-128E-Instruct”的排名低于OpenAI的GPT-4o、Anthropic的Claude3.5Sonnet和Google的Gemini1.5Pro等模型。这些模型中有许多甚至都是几个月前推出的。
为什么表现不佳?Meta上周六发布的图表中解释道,其实验性的Maverick模型Llama-4-Maverick-03-26-Experimental已“针对对话性进行了优化”。这些优化显然在LMArena中表现出色,因为该平台要求人类评分员比较各个模型的输出,并选择他们更倾向于哪个模型。
由于各种原因,LMArena从来都不是衡量AI模型性能的最可靠指标。然而,根据基准定制模型——除了具有误导性之外——也使得开发人员难以准确预测模型在不同环境下的表现。
Meta发言人在一份声明中表示,Meta尝试了“所有类型的自定义变体”。
“‘Llama-4-Maverick-03-26-Experimental’是我们测试过的聊天优化版本,在LMArena上也表现良好,”该发言人表示。“我们现在已经发布了开源版本,并将观察开发者如何根据自身用例定制Llama4。我们非常期待看到他们最终的成果,并期待他们持续的反馈。”
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】