微软在人工智能领域再次迈出重要一步,正式推出了Phi-4家族的两位新成员:Phi-4多模态(Phi-4-multimodal)与Phi-4迷你(Phi-4-mini)。这两款模型在发布之初便引起了业界的广泛关注。
Phi-4多模态模型是微软在多模态语言模型领域的一次重大突破。它不仅集成了语音、视觉和文本处理能力,更以56亿的参数量,在多项基准测试中展现了卓越的性能。与谷歌的Gemini 2.0 Flash及其轻量化版本相比,Phi-4多模态在多个维度上均表现出色。
在语音处理方面,Phi-4多模态模型展现了其强大的实力。在自动语音识别(ASR)和语音翻译(ST)任务中,它超越了WhisperV3和SeamlessM4T-v2-Large等专业模型,甚至在Hugging Face OpenASR排行榜上以6.14%的词错误率夺得了榜首。这一成绩无疑为Phi-4多模态模型在语音处理领域树立了新的标杆。
而在视觉处理方面,Phi-4多模态同样不甘示弱。它在数学和科学推理方面表现出色,尤其在文档理解、图表理解、光学字符识别(OCR)以及视觉科学推理等常见多模态能力方面,与Gemini-2-Flash-lite-preview和Claude-3.5-Sonnet等流行模型相比,不仅毫不逊色,甚至在某些方面实现了超越。
与此同时,Phi-4迷你模型则以其专注于文本任务的特点,吸引了大量开发者的关注。这款模型拥有38亿的参数量,在文本推理、数学计算、编程、指令遵循以及函数调用等任务中均展现出了卓越的性能。与多款流行的大型语言模型相比,Phi-4迷你不仅在性能上毫不逊色,更在部署成本和效率上实现了显著提升。
为了确保新模型的安全性和可靠性,微软在推出Phi-4多模态和Phi-4迷你之前,进行了大量的内部和外部安全测试。同时,微软还采用了人工智能红队(AIRT)制定的策略,对模型进行了进一步的优化。经过这些努力,Phi-4多模态和Phi-4迷你均成功通过了ONNX Runtime的部署测试,实现了跨平台使用,适用于低成本和低延迟的场景。
目前,Phi-4多模态和Phi-4迷你模型已经正式在Azure AI Foundry、Hugging Face以及NVIDIA API目录中上线,供开发者使用。这两款新模型的推出,不仅标志着微软在高效AI技术方面取得了重大进步,更为各类人工智能应用带来了强大的多模态和文本处理能力。