阿里云推大規模視覺語言模型開源,支持中英文多種語言
2023-08-28 23:57:36 來源:中關村在線
【資料圖】
阿里云于8月25日推出了大規模視覺語言模型Qwen-VL,該模型已在ModeScope開源。此前,阿里云已經開源了通用模型Qwen-7B和對話模型Qwen-7B-Chat。Qwen-VL是一款支持中英文等多種語言的視覺語言模型,相較于此前的視覺語言模型,除了具備基本的圖文識別、描述、問答及對話能力之外,還新增了視覺定位、圖像中文字理解等能力。Qwen-VL以Qwen-7B為基座語言模型,在模型架構上引入視覺編碼器,使得模型支持視覺信號輸入,該模型支持的圖像輸入分辨率為448,此前開源的視覺語言模型通常僅支持224分辨率。官方表示,該模型可用于知識問答、圖像標題生成、圖像問答、文檔問答、細粒度視覺定位等場景,在主流的多模態任務評測和多模態聊天能力評測中,取得了遠超同等規模通用模型的表現。在Qwen-VL的基礎上,通義千問團隊使用對齊機制,打造了基于語言模型的視覺AI助手Qwen-VL-Chat,可讓開發者快速搭建具備多模態能力的對話應用。通義千問團隊同時表示,為了測試模型的多模態對話能力,他們構建了一套基于GPT-4打分機制的測試集“試金石”,對Qwen-VL-Chat及其他模型進行對比測試,Qwen-VL-Chat在中英文的對齊評測中均取得了開源視覺語言模型最好結果。
關鍵詞: