夢晨 發自 凹非寺
量子位 | 公衆號 QbitAI
OpenAI和谷歌接連兩場發佈會,把AI視頻推理捲到新高度。
但業界還缺少可以全面評估大模型視頻推理能力的基準。
終於,多模態大模型視頻分析綜合評估基準Video-MME,全面評估多模態大模型的綜合視頻理解能力,填補了這一領域的空白。
Gemini 1.5 Pro在這份榜單中遙遙領先,顯示出在視頻理解領域的“霸主”地位。Video-MME一經推出,被谷歌首席科學家Jeff Dean連續轉發了三次。
GPT-4o、谷歌Gemini 1.5 Pro標榜的視頻推理能力終於在全新的、更復雜的多模態基準Video-MME上首次得到了驗證。
同時,各大公司以及研究機構,例如NVIDIA、ByteDance等模型也加入了混戰。
Video-MME由中科大、廈大、港中文等高校聯合推出,代碼和數據集均已開源。
全人工標註高質量數據集
該基準採取全人工標註,具有區別於現有數據集的顯著特點。在以下的例子中,準確回答該問題需要同時從視覺、字幕以及音頻中同時獲取信息,有效信息直接橫跨30分鐘的間隔:
Video-MME具有以下顯著特點:
時間維度的廣泛性:視頻時長從11秒到1小時不等,涵蓋短(<2分鐘)、中(4-15分鐘)、長(30-60分鐘)三種不同的視頻時長,全面評估模型在不同時間跨度下的上下文多模態理解能力;
數據模態的豐富性:除了視頻幀,Video-MME還整合了字幕和音頻模態輸入,全面評估大模型的多模態處理能力;
視頻類型的多樣性:覆蓋了知識、影視、體育、藝術、生活記錄和多語言6個主要領域,涉及30個細粒度子領域;
註釋質量的高標準:900個視頻,共254小時的內容由具備大模型背景的專業人員手動標註與驗證,產生了2,700個問答對。問題類型涵蓋感知、認知和總結概括等12種類型;
可靠的有效時長 (Certificate Length準確回答問題所需的最短時長):對於短視頻、中視頻和長視頻,Video-MME數據集的有效時長中位數分別爲26.0秒、164.7秒和890.7秒,要求模型消化更長的視頻內容才能回答問題;
全面的實驗評估:文章選取了6種代表性的開源視頻語言模型以及閉源模型Gemini 1.5 Pro和GPT-4V/o進行全面的實驗分析。同時文章還選取了基於圖片的多模態大模型進行評測(泛化到多圖輸入),證明其同時適用於圖片&視頻多模態大模型。
文章選取了多種代表性的開源視頻多模態大模型,包括ST-LLM、VideoChat2-Mistral、Chat-UniVi-V1.5、LLaVA-NeXT-Video和VILA-1.5,以及閉源模型Gemini和GPT-4V/o 。同時,基於圖片的多模態大模型包括Qwen-VL-Chat、Qwen-VL-Max和InternVL-Chat-V1.5。
在商業模型中,Gemini 1.5 Pro在視頻理解方面表現突出,在加以字幕輔助的情況下以81.3%的準確率領先,並在與GPT-4V和GPT-o的對比中分別超出18%和4.1%。
儘管隨着視頻時長增加,其表現略有下降,但在長視頻上的表現(加字幕)優於所有開源模型在短視頻上的表現。
同時,Gemini 1.5 Pro還支持音頻模態的輸入,模態支持的更廣。而在開源模型中,來自NVIDIA的VILA-1.5以59.4%的準確率表現最佳。然而,相比Gemini 1.5 Pro,VILA-1.5在計數問題、動作識別和時間感知方面仍然存在顯著差距。
同時,隨着視頻時長的增加,所有模型的表現均呈現明顯的下降趨勢,這也說明面對更長的上下文記憶以及更爲複雜的任務時模型還有很大的提升空間。此外,實驗還揭示了字幕和音頻信息能顯著增強視頻理解能力,尤其是對於長視頻的理解。
在三十種不同類型的視頻上,Gemini 1.5 Pro展現出不同的性能。例如,有的任務對字幕和語音的依賴程度更高,如Basketball的長視頻,加上字幕和語音能夠顯著提升性能。詳細的實驗結果請參照論文原文。
綜合實驗結果可以看出,當前的多模態大模型在視頻理解,尤其是長視頻理解方向仍然有很長進步空間,一方面是要提升模型的多模態長上下文理解能力,Gemini 1.5 Pro最高支持百萬長度的上下文窗口,這是其表現優異的依仗,另一方面也亟需構建相應的高質量長視頻理解數據集,這方面當下仍處於空白。
論文鏈接:https://arxiv.org/pdf/2405.21075
項目主頁:https://video-mme.github.io
項目倉庫:https://github.com/BradyFU/Video-MME
投稿請發郵件到:
標題註明【投稿】,告訴我們:
你是誰,從哪來,投稿內容
附上論文/項目主頁鏈接,以及聯繫方式哦
我們會(儘量)及時回覆你
點這裏👇關注我,記得標星哦~