嗶哩嗶哩(B站)近日在動畫視頻生成技術領域邁出了重要一步,宣布其最新的Index-AniSora模型正式開源。這一舉動標志著二次元風格視頻制作迎來了前所未有的革新,為內容創作者提供了強大的技術支持。
Index-AniSora模型是B站研發的AniSora模型的升級版,并在國際知名的人工智能會議IJCAI2025上獲得了認可。該模型的最大亮點在于,它能夠一鍵生成多種二次元風格的視頻鏡頭,包括熱門的番劇、國創動畫、漫改作品、虛擬主播(VTuber)內容、動畫PV以及鬼畜動畫等。這一技術的出現,不僅大幅提升了動畫視頻的生產效率,更在質量上實現了顯著提升。
為了實現這一目標,B站的研究團隊投入了大量精力,構建了一個面向動漫領域的高質量獎勵數據集。該數據集包含了30,000條經過人工精心標注的動漫視頻樣本,從視覺外觀和視覺一致性兩大方面對視頻質量進行全面評估。評估維度涵蓋了視覺平滑度、視覺運動、視覺吸引力,以及文本與視頻、圖像與視頻、角色之間的一致性等多個方面。基于這一數據集,團隊開發出了AnimeReward系統,一個專為動漫視頻生成設計的多維度高可信獎勵機制。
為了進一步優化模型的對齊性能,B站的研究團隊還提出了差距感知偏好優化(GAPO)技術。這一技術將正負樣本對之間的偏好差距融入損失函數,從而提高了對齊訓練的效率和最終性能。實驗結果顯示,經過AnimeReward和GAPO優化的模型,在多個評價維度上都顯著優于基線模型和監督微調(SFT)模型,生成的動畫視頻更加貼近人類的審美偏好。
Index-AniSora的開源,對于廣大開發者和二次元內容創作者來說,無疑是一個巨大的福音。通過這一模型,用戶可以輕松地將自己喜愛的漫畫轉化為生動的動畫效果,支持多種小眾畫風,讓創作變得更加豐富多彩。這一技術的推出,不僅將推動二次元內容創作的進一步發展,也為動漫愛好者和創作者提供了更多的可能性。
目前,Index-AniSora模型已經在B站的GitHub頁面上線,用戶可以訪問以下鏈接獲取更多信息和資源:
模型倉庫地址:https://github.com/bilibili/Index-anisora/tree/main
模型鏈接:https://modelscope.cn/models/bilibili-index/Index-anisora
體驗鏈接:https://modelscope.cn/studios/bilibili-index/Anisora