← 返回列表

一种基于迁移学习的视频动作识别方法

申请号: CN202410090020.6
申请人: 中国科学技术大学; 深圳市腾讯计算机系统有限公司
申请日期: 2024/1/23

摘要文本

本发明公开了一种基于迁移学习的视频动作识别方法,网络模型的训练过程如下:S1:构建训练集;S2:对视频文本标签进行处理得到文本特征,将文本特征拼接作为初始化的分类矩阵;S3:提取视频中的帧图像,对帧图像进行处理得到视频帧特征图;S4:将视频帧特征图输入到隐式时序建模模块中以输出隐式视频表征;S5:将隐式视频帧表征图按照行随机打乱次,将个视频帧特征图输入到显式时序建模模块中,输出正确的显式视频表征,将显式视频表征和隐式视频表征做残差连接得到整个视频的表征;S6:将整个视频的表征和分类矩阵进行内积操作,计算预测分数,得到预测结果;该视频动作识别方法提高了对视频的识别预测准确性。

专利详细信息

项目 内容
专利名称 一种基于迁移学习的视频动作识别方法
专利类型 发明申请
申请号 CN202410090020.6
申请日 2024/1/23
公告号 CN117612071A
公开日 2024/2/27
IPC主分类号 G06V20/40
权利人 中国科学技术大学; 深圳市腾讯计算机系统有限公司
发明人 张信明; 刘语西; 陈思宏
地址 安徽省合肥市包河区金寨路96号; 广东省深圳市南山区高新区科技中一路腾讯大厦35层

专利主权项内容

1.一种基于迁移学习的视频动作识别方法,其特征在于,将视频信息输入到网络模型中,以输出预测结果;所述网络模型的训练过程如下:S1:构建训练集,所述训练集包括视频以及视频文本标签;S2:通过大语言模型将视频文本标签进行扩充,并将扩充后的视频文本标签通过CLIP模型进行编码得到文本特征,将文本特征拼接作为初始化的分类矩阵,分类矩阵在网络模型训练过程中冻结;S3:提取视频中的帧图像,将增强后的帧图像通过CLIP模型进行编码得到视频帧特征图;S4:基于encoder-only架构的transformer构建可学习位置编码的隐式时序建模模块,将视频帧特征图输入到隐式时序建模模块中,通过自注意力机制计算视频帧特征图得到隐式视频帧表征图,对隐式视频帧表征图/>进行平均池化操作后得到隐式时序建模模块输出的隐式视频表征/>;S5:基于交叉注意力机制构建显式时序建模模块,将隐式视频帧表征图按照行随机打乱/>次,得到/>个视频帧特征,将/>个视频帧特征输入到显式时序建模模块中,得到/>个显式视频表征,所述/>个显式视频表征与对应的文本特征形成1个正样本对和/>个负样本对,利用对比学习范式对齐文本-视频空间,输出正确的显式视频表征/>,将显式视频表征/>和隐式视频表征做残差连接得到整个视频的表征/>&S6:将表征和分类矩阵进行内积操作,计算预测分数,得到预测结果。