我们与您携手共赢,为您的企业形象保驾护航!
机器学习中的投毒攻击 和对抗样本 是两种安全威胁,它们在目的和方法上存在差异。投毒攻击 意指攻击者在训练阶段故意污染训练数据集,从而影响学习算法训练出的模型,使模型在部署时表现不正常或偏向某种错误决策。而对抗样本 是指在模型训练完成后,在测试或应用阶段,攻击者创造或修改样本以致模型做出错误的预测或分类,而这些样本通常在人类观察者看来与正常样本无异。 投毒攻击侵蚀的是模型的训练过程 ...
热线电话
132-7207-3477
上班时间
周一到周五 09:00-18:00