阿里云通义万相2.2三款视频生成模型正式开源

  • 2025-07-31 06:48:19
  • 613

7月29日消息,阿里云宣布通义万相重磅开源,通义万相2.2正式开源,包括开源文生视频wan2.2-t2v-a14b、图生视频wan2.2-i2v-a14b、统一视频生成wan2.2-ti2v-5b。

即日起,用户可在github、huggingface、魔搭社区下载模型和代码,也可在通义万相官网和通义app直接体验。

文生视频模型和图生视频模型均为业界首个使用moe架构的视频生成模型,总参数量为27b,激活参数14b;同时,首创电影美学控制系统,光影、色彩、构图、微表情等能力媲美专业电影水平。

wan2.2-t2v-a14b、wan2.2-i2v-a14b两款模型均由高噪声专家模型和低噪专家模型组成,分别负责视频的整体布局和细节完善,在同参数规模下,可节省约50%的计算资源消耗,在模型能上,通义万相2.2在复杂运动生成、人物交互、美学表达、复杂运动等维度上也取得了显著提升。

统一视频生成wan2.2-ti2v-5b是一款5b小尺寸的模型,单一模型同时支持文生视频和图生视频,可在消费级显卡部署。

该模型采用了高压缩率3dvae架构,时间与空间压缩比达到高达4×16×16,信息压缩率提升至64,均实现了开源模型的最高水平,仅需22g显存(单张消费级显卡)即可在数分钟内生成5秒高清视频,是目前24帧每秒、720p像素级视频生成速度最快的基础模型。