上海人工智能实验室“书生・浦语灵笔”大模型正式开源
10 月 10 日消息,上海人工智能實(shí)驗(yàn)室推出首個圖文混合創(chuàng)作大模型書生?浦語靈筆(InternLM-XComposer)并宣布開源,同時上線 GitHub、Hugging Face 及魔搭社區(qū)。
據(jù)介紹,浦語靈筆基于書生?浦語大語言模型(InternLM),有著強(qiáng)大的多模態(tài)性能,可接受視覺和語言模態(tài)輸入,還可以“一鍵生成”圖文混合文章。
值得一提的是,研究人員采用 5 個主流的多模態(tài)大模型評測對 InternLM-XComposer-VL-7B 的能力進(jìn)行了詳細(xì)測試,包含:
-
MME Benchmark:包括 14 個子任務(wù)的多模態(tài)模型全面評測,關(guān)注模型的感知(Perception)和認(rèn)知(Recognition)能力;
-
MMBench:包括 20 個能力緯度和使用 ChatGPT 循環(huán)評估策略的多模態(tài)評測;
-
MMBench-CN:簡體中文版本問題和答案的 MMBench 評測;
-
Seed-Bench:提供包括人工標(biāo)注的 1.9 萬道多模態(tài)多選題目的多模態(tài)評測;
-
CCBench:針對中國文化理解的中文多模態(tài)評測。評測結(jié)果顯示,在上述 5 項(xiàng)中英文多模態(tài)評測中,浦語靈筆均體現(xiàn)出卓越性能。
目前,浦語靈筆已開源其中的智能創(chuàng)作和對話(InternLM-XComposer-7B)及多任務(wù)預(yù)訓(xùn)練(InternLM-XComposer-VL-7B)版本,并提供免費(fèi)商用。附官方地址:
-
開源鏈接:https://github.com/ InternLM / InternLM-XComposer
-
技術(shù)報告:https://arxiv.org/ abs / 2309.15112
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,所有文章均包含本聲明。
總結(jié)
以上是生活随笔為你收集整理的上海人工智能实验室“书生・浦语灵笔”大模型正式开源的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 幕府将军2-高级陆战部队属性解析
- 下一篇: 骑马与砍杀2部队阵型排列及运用心得