CASIA OpenIR

浏览/检索结果: 共66条,第1-10条 帮助

已选(0)清除 条数/页:   排序方式:
面向对抗样本的深度神经网络可解释性分析 期刊论文
自动化学报, 2022, 卷号: 48, 期号: 1, 页码: 75-86
作者:  董胤蓬;  苏航;  朱军
Adobe PDF(7934Kb)  |  收藏  |  浏览/下载:2/0  |  提交时间:2024/05/20
深度神经网络  可解释性  对抗样本  视觉特征表示  
深度强化学习的攻防与安全性分析综述 期刊论文
自动化学报, 2022, 卷号: 48, 期号: 1, 页码: 21-39
作者:  陈晋音;  章燕;  王雪柯;  蔡鸿斌;  王珏;  纪守领
Adobe PDF(3981Kb)  |  收藏  |  浏览/下载:1/0  |  提交时间:2024/05/20
深度强化学习  对抗攻击  防御  策略攻击  安全性  
面向网络空间防御的对抗机器学习研究综述 期刊论文
自动化学报, 2022, 卷号: 48, 期号: 7, 页码: 1625-1649
作者:  余正飞;  闫巧;  周鋆
Adobe PDF(2039Kb)  |  收藏  |  浏览/下载:2/0  |  提交时间:2024/05/20
网络空间防御  对抗机器学习  投毒攻击  规避攻击  对抗样本  
基于通用逆扰动的对抗攻击防御方法 期刊论文
自动化学报, 2023, 卷号: 49, 期号: 10, 页码: 2172-2187
作者:  陈晋音;  吴长安;  郑海斌;  王巍;  温浩
Adobe PDF(11578Kb)  |  收藏  |  浏览/下载:14/6  |  提交时间:2024/04/24
深度学习  通用逆扰动  对抗样本  通用防御  
Stability and Generalization of Hypergraph Collaborative Networks 期刊论文
Machine Intelligence Research, 2024, 卷号: 21, 期号: 1, 页码: 184-196
作者:  Michael K. Ng;  Hanrui Wu;  Andy Yip
Adobe PDF(1211Kb)  |  收藏  |  浏览/下载:5/1  |  提交时间:2024/04/23
Hypergraphs, vertices, hyperedges, collaborative networks, graph convolutional neural networks (CNNs), stability, generalization guarantees  
Red Alarm for Pre-trained Models: Universal Vulnerability to Neuron-level Backdoor Attacks 期刊论文
Machine Intelligence Research, 2023, 卷号: 20, 期号: 2, 页码: 180-193
作者:  Zhengyan Zhang;  Guangxuan Xiao;  Yongwei Li;  Tian Lv;  Fanchao Qi;  Zhiyuan Liu;  Yasheng Wang;  Xin Jiang;  Maosong Sun
Adobe PDF(1649Kb)  |  收藏  |  浏览/下载:14/3  |  提交时间:2024/04/23
Pre-trained language models  backdoor attacks  transformers  natural language processing (NLP)  computer vision (CV)  
Federated Learning with Privacy-preserving and Model IP-right-protection 期刊论文
Machine Intelligence Research, 2023, 卷号: 20, 期号: 1, 页码: 19-37
作者:  Qiang Yang;  Anbu Huang;  Lixin Fan;  Chee Seng Chan;  Jian Han Lim;  Kam Woh Ng;  Ding Sheng Ong;  Bowen Li
Adobe PDF(2634Kb)  |  收藏  |  浏览/下载:13/4  |  提交时间:2024/04/23
Federated learning  privacy-preserving machine learning  security  decentralized learning  intellectual property protection  
Denoised Internal Models: A Brain-inspired Autoencoder Against Adversarial Attacks 期刊论文
Machine Intelligence Research, 2022, 卷号: 19, 期号: 5, 页码: 456-471
作者:  Kai-Yuan Liu;  Xing-Yu Li;  Yu-Rui Lai;  Hang Su;  Jia-Chen Wang;  Chun-Xu Guo;  Hong Xie;  Ji-Song Guan;  Yi Zhou
Adobe PDF(3203Kb)  |  收藏  |  浏览/下载:8/3  |  提交时间:2024/04/23
Brain-inspired learning  autoencoder  robustness  adversarial attack  generative model  
Towards Interpretable Defense Against Adversarial Attacks via Causal Inference 期刊论文
Machine Intelligence Research, 2022, 卷号: 19, 期号: 3, 页码: 209-226
作者:  Min Ren;  Yun-Long Wang;  Zhao-Feng He
Adobe PDF(5143Kb)  |  收藏  |  浏览/下载:3/2  |  提交时间:2024/04/23
Adversarial sample  adversarial defense  causal inference  interpretable machine learning  transformers  
针对身份证文本识别的黑盒攻击算法研究 期刊论文
自动化学报, 2024, 卷号: 50, 期号: 1, 页码: 103-120
作者:  徐昌凯;  冯卫栋;  张淳杰;  郑晓龙;  张辉;  王飞跃
Adobe PDF(20872Kb)  |  收藏  |  浏览/下载:48/19  |  提交时间:2024/04/12
对抗样本  黑盒攻击  身份证文本识别  物理世界  二值化掩码