社交媒体巨头Meta周三在MetaConnect2024大会上发布最新的大型语言模型Llama3.2,其中包括90B和11B参数的视觉大语言模型,以及1B和3B参数的轻量级纯文本模型,后者适用于边缘和移动设备。
据悉,Llama3.21B和3B模型仅支持文本输入,支持128K的上下文长度。这些模型可以执行设备上的用例,如摘要、指令跟踪和本地重写任务。
这些模型支持高通(QCOM.US)和联发科硬件,并针对Arm处理器进行了优化。
Llama3.211B和90B模型支持文本及图像输入,具有图像和视觉理解功能。
Llama3.2模型旨在成为迄今为止最以开发人员为中心的模型,并帮助开发人员构建设备代理。
Meta表示:“这些模型使开发人员能够构建个性化的设备代理应用程序,这些应用程序具有很强的隐私性,数据永远不会离开设备,例如,这样的应用程序可以帮助总结最近收到的10条消息,提取操作项,并利用工具调用直接发送后续会议的日历邀请。”
由于处理是在本地完成的,因此设备上的模型可以实现更快的响应,并且有助于确保隐私,因为信息不必迁移到云端。
Meta并不是第一家推出设备内置人工智能模型的公司。Google最新的Pixel9Pro智能手机搭载了GeminiAI。苹果的iPhone16配备了苹果智能系统(AppleIntelligence),将在下个月iOS18.1发布后提供设备内置AI。
另外,Meta还推出了第一副增强现实(AR)眼镜Orion和最新款虚拟现实(VR)头显设备Quest3S。
上述消息推动Meta股价一度涨超2%至575.77美元,创下历史新高。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】