← 返回列表

一种图神经网络模型黑盒攻击方法及装置

申请号: CN202410078661.X
申请人: 安徽大学; 合肥瑞徽人工智能研究院有限公司
申请日期: 2024/1/19

摘要文本

本申请提出了一种图神经网络模型黑盒攻击方法及装置,该方法包括:获取原始图数据并选择代理模型,根据原始图数据与代理模型,得到预测标签;将原始图数据初始化作为初始化后的对抗图,将对抗图输入到代理模型进行训练,得到目标代理模型;根据预测标签与目标代理模型,计算本次迭代的测试集损失,并基于两次迭代测试集损失值之差判断扰动是否满足预设条件,如果不满足预设条件,对扰动进行校正;在扰动满足预设条件时,根据损失函数构建增强动量梯度对当前对抗图进行更新,生成本次迭代的对抗图;当迭代次数达到预设迭代次数时,利用最终生成的对抗图对其他图神经网络模型进行攻击。本申请能够欺骗图神经网络模型,攻击基于图数据的应用系统。

专利详细信息

项目 内容
专利名称 一种图神经网络模型黑盒攻击方法及装置
专利类型 发明申请
申请号 CN202410078661.X
申请日 2024/1/19
公告号 CN117592550A
公开日 2024/2/23
IPC主分类号 G06N3/094
权利人 安徽大学; 合肥瑞徽人工智能研究院有限公司
发明人 赵姝; 马莉; 杜紫维; 陈洁; 张燕平; 钱付兰; 朱金良
地址 安徽省合肥市经济技术开发区九龙路111号; 安徽省合肥市高新区望江西路800号创新产业园一期B1栋202、203室

专利主权项内容

1.一种图神经网络模型黑盒攻击方法,其特征在于,包括:获取原始图数据并选择代理模型,将所述原始图数据划分为训练集与测试集,根据所述训练集训练所述代理模型,并将所述测试集输入到训练好的所述代理模型中,得到所述测试集的预测标签;将所述原始图数据初始化作为初始化后的对抗图,将初始化后的所述对抗图输入到所述代理模型进行训练,训练结束后,得到目标代理模型;根据所述预测标签与所述目标代理模型,计算本次迭代的测试集损失,并基于两次迭代测试集损失值之差判断前一次迭代的扰动是否满足预设条件,如果不满足预设条件,对所述扰动进行校正;在所述扰动满足预设条件时,根据所述目标代理模型的损失函数构建增强动量梯度,根据所述增强动量梯度对所述对抗图进行更新,生成本次迭代的对抗图,其中,将本次迭代的对抗图作为下次迭代的输入;当迭代次数达到预设迭代次数时,利用最终生成的对抗图对其他图神经网络模型进行攻击。。马 克 数 据 网