Qwen2.5-VL,最新的视觉语言模型,通过动态分辨率处理、窗口注意力和原生视觉Transformer,提升了视觉识别、文档解析和视频理解。
我们介绍Qwen2.5-VL,这是通义视觉语言系列的最新旗舰模型,它在基础能力和创新功能方面都有显著提升。Qwen2.5-VL通过增强的视觉识别、精确的目标定位、强大的文档解析和长视频理解能力,实现了对世界理解和交互的重大飞跃。Qwen2.5-VL的一个突出特点是能够使用边界框或点准确地定位目标。它能够从发票、表格和图表中提取结构化数据,并进行详细的分析。为了处理复杂输入,Qwen2.5-VL引入了动态分辨率处理和绝对时间编码,使其能够以秒级事件定位处理不同尺寸的图像和长时间的视频(最多数小时)。这使得模型能够原生感知空间尺度和时间动态,而无需依赖传统的归一化技术。通过从头开始训练原生动态分辨率视觉变换器(ViT)并结合窗口注意力机制,我们在保持原生分辨率的同时减少了计算开销。因此,Qwen2.5-VL不仅在静态图像和文档理解方面表现出色,还能够作为交互式视觉代理,在操作计算机和移动设备等现实场景中进行推理、使用工具和执行任务。Qwen2.5-VL有三种尺寸,适用于从边缘AI到高性能计算的各种应用场景。旗舰版Qwen2.5-VL-72B模型在文档和图表理解方面表现尤为出色,其性能可与GPT-4o和Claude 3.5 Sonnet等最先进的模型相媲美。此外,Qwen2.5-VL保持了强大的语言性能,保留了Qwen2.5大语言模型的核心语言能力。
原创文章,转载请注明: 转载自诺德美地科技
本文链接地址: Qwen2.5-VL 技术报告