https://challenge.aisafety.org.cn/#/competitionDetail?id=15
Model in TorchVision
https://drive.google.com/file/d/17fmN8eQdLpq2jIMQ_X0IXDPXfI9oVWgq/view
Model in RobustBench
Automatic Download By RobustBench Using Gdown
python main.py --eps=22.0 (replace to yours)
python generate.py
python to_pic.py
比较明显的上分点:
-
显然攻击难度在这种情况下主要取决于样本自身的特征,有的样本其实并不需要很大的扰动就可以攻到了,可以有梯度的生成样本,增大SSIM,大概算了一下可能能提到47分左右
-
显然可以用生成网络,其实集成了AdvGAN,但是训练成本比较高,就没再继续训下去,用生成模型做对抗样本的很多,你可以直接在损失函数里优化SSIM,同时加一些正则项之类,感觉结合上面再和之前结果投票,上限在50分左右
-
Rethinking Model Ensemble in Transfer-based Adversarial Attacks (ICLR2024) https://arxiv.org/abs/2303.09105
-
加入对抗训练后的transformer-based model还可以上分,但我觉得意义不大
数据挖掘比赛,要么算法碾压,要么trick有效,最后种子上分,当CV和LB表现不一致时要学会自己分析原因,比如这个比赛“无盒攻击”很明显就在模型集成上,但没太多实际意义,cifar这个数据集图太小,频率太高,开源了,留给后人继续卷吧
做PPT的时候随手又想了两个trick,第一个是在无穷攻击的基础上用二范数攻击方法微调,SSIM基本不会掉太多,这个work了,还有一个不work的,太小丑就不说了