微软发布自研小规模参数大模型Phi-2:号称性能优于Meta谷歌的同级竞品,可在移动终端设备上运行
AI奇点网12月13日报道丨当地时间12月12日本周二,微软官方博客发文,宣布其自研的小规模参数人工智能模型Phi-2(27亿参数量)正式发布,性能优于Meta等其他公司的竞争产品,同时也优于谷歌在上周发布的Gemini Nano-2 3.2B,并且能够在移动终端设备上运行。
微软在12月12日发布的最新一篇博客中表示:“Phi-2模型仅有27亿个参数,但在各种综合基准测试中,它的表现超过了欧洲AI初创公司Mistral旗下拥有70亿个参数的大语言模型Mistral 7B,以及Meta发布的参数达130亿个的AI模型Llama 2。”
在这篇博文中,微软对比了 Phi-2 模型和谷歌刚刚推出的 Gemini Nano 模型,表示 Phi-2 多项性能均优于 Gemini Nano 模型。
微软还对比 Phi-2 的输入输出性能表现,认为已经超过了 70 亿参数和 130 亿参数的 Llama-2,以及 70 亿参数的 Mistral。
值得注意的是,Phi-2模型在多步推理任务(编码和数学)上的表现优于参数达700亿的Llama 2(Llama 2模型系列包含70亿、130亿和700亿三种参数变体)。微软补充称,Phi-2模型的性能与最近发布的谷歌Gemini Nano相当、甚至更好,尽管模型规模较小。”
微软最后表示,Phi-2模型将在自家的Azure Studio中推出。
据悉,微软于今年6月发布只有13亿参数的Phi-1.0版本的模型,适用于QA问答、聊天格式和代码等等场景。该模型完全基于高质量数据进行训练,在基准测试中的表现比同类模型高出10倍。9月发布Phi-1.5版本,同样为13亿参数,可以写诗、写电子邮件和故事,以及总结文本。在常识、语言理解和推理的基准测试中,该模型在某些领域能够跟上多达100亿个参数的模型。
微软在11月更新发布的Phi-2的参数规模尽管比此前的小参数版本量级翻番,但相比较其它主流的竞品大语言模型依然小许多,具有较突出的优势。微软表示,Phi-2在逻辑推理和安全性方面显示出显著的改进,通过正确的微调和定制,小型语言模型是云和边缘应用程序的强大工具。