<ruby id="26j7v"><table id="26j7v"><thead id="26j7v"></thead></table></ruby>
    <strong id="26j7v"></strong>
    <progress id="26j7v"></progress>
    資訊> 正文

    阿里云推出大規模視覺語言模型Qwen-VL 已在ModeScope開源

    時間: 2023-08-28 12:15:06 來源: 漾仔


    【資料圖】

    阿里云推出了大規模視覺語言模型Qwen-VL,目前已經在ModeScope開源,IT之家早前曾報道,阿里云此前已經開源通義千問70 億參數通用模型Qwen-7B和對話模型Qwen-7B-Chat。

    據悉,Qwen-VL是一款支持中英文等多種語言的視覺語言(Vision Language,VL)模型,相較于此前的VL模型,其除了具備基本的圖文識別、描述、問答及對話能力之外,還新增了視覺定位、圖像中文字理解等能力。

    Qwen-VL以Qwen-7B為基座語言模型,在模型架構上引入視覺編碼器,使得模型支持視覺信號輸入,該模型支持的圖像輸入分辨率為 448,此前開源的LVLM模型通常僅支持224分辨率。

    官方表示,該模型可用于知識問答、圖像標題生成、圖像問答、文檔問答、細粒度視覺定位等場景,在主流的多模態任務評測和多模態聊天能力評測中,取得了遠超同等規模通用模型的表現。

    此外,在Qwen-VL的基礎上,通義千問團隊使用對齊機制,打造了基于LLM的視覺AI助手Qwen-VL-Chat,可讓開發者快速搭建具備多模態能力的對話應用。

    通義千問團隊同時表示,為了測試模型的多模態對話能力,他們構建了一套基于GPT-4打分機制的測試集 “試金石”,對Qwen-VL-Chat及其他模型進行對比測試,Qwen-VL-Chat在中英文的對齊評測中均取得了開源LVLM最好結果。

    責任編輯:李楠

    分享到:版權聲明:凡注明來源“流媒體網”的文章,版權均屬流媒體網所有,轉載需注明出處。非本站出處的文章為轉載,觀點供業內參考,不代表本站觀點。文中圖片均來源于網絡收集整理,僅供學習交流,版權歸原作者所有。如涉及侵權,請及時聯系我們刪除!

    關鍵詞:

    責任編輯:QL0009

    為你推薦

    關于我們| 聯系我們| 投稿合作| 法律聲明| 廣告投放

    版權所有 © 2020 跑酷財經網

    所載文章、數據僅供參考,使用前務請仔細閱讀網站聲明。本站不作任何非法律允許范圍內服務!

    聯系我們:315 541 185@qq.com

    剧情Av巨作精品原创_一区二区三区sM重口视频_91综合国产精品视频_久久精品日日躁
    <ruby id="26j7v"><table id="26j7v"><thead id="26j7v"></thead></table></ruby>
    <strong id="26j7v"></strong>
    <progress id="26j7v"></progress>