登录
控制台
退出账户
AI模型鲁棒性检测
基于百度安全深度学习模型安全评估框架,对AI模型在多个安全维度进行鲁棒性检测,为研究人员和用户提升AI模型质量,降低由于客观真实环境变化或恶意攻击造成的安全隐患。
商务咨询
或致电:400-805-4999
产品功能
适用场景
产品特色
鲁棒性排行榜
产品功能
鲁棒性检测
对上传的AI模型进行鲁棒性检测,可按需设置评测属性、评测标准、以及鲁棒性度量标准。
欺骗性样本
如果用户需要,平台可以提供欺骗模型的输入样本数据集。
检测报告
提供检测结果,支持对不同的安全属性,展示与其他预训练模型之间的比较。
开始检测
适用场景
新开发AI模型
对新开发的AI模型做鲁棒性检测,提前发现问题并进行修复,提高模型的安全性。
AI模型升级
AI模型升级后进行鲁棒性检测,发现升级问题,提高模型的安全性。
AI模型不定期检测
鲁棒性检测会持续更新检测能力,更新后可为AI模型做多检测。
产品特色
多平台支持
鲁棒性测试代码可以无需修改地对多种热门深度学习框架下的模型进行标准化评测,支持的框架包括:Keras, PyTorch
多任务支持
目前所有的对抗机器学习库都仅支持基础的图像分类任务,Perceptron 支持包括对无人驾驶意义重大的目标检测模型在内的多种视觉任务
云端黑盒模型支持
Perceptron同时也支持对 MLaaS 场景下封装后的云端模型API的鲁棒性度量,我们为包括Google Cloud Vision, Baidu AIP, Amazon Rekognition在内的多个商用AI平台提供了便于测试的接口
标准化度量
Perceptron Robustness Benchmark 所给出的模型鲁棒性度量可以用来进行多任务,多模型间的比较,并可被用来作为对模型鲁棒性上界的估计
可验证的鲁棒性
Perceptron Robustness Benchmark 使用形式化验证的方法,通过符号区间分析 (symbolic interval analysis) 为模型计算出可信赖的鲁棒性下界,即当叠加在样本上的扰动小于该下界,模型能够确保预测结果的一致性
鲁棒性排行榜
分类错误鲁棒性排行榜
查看更多排行榜信息
目标识别错误鲁棒性排行榜
查看更多排行榜信息
*
身份类型
️
企业
️
个人
*
企业名称
企业名称不能为空
*
真实姓名
真实姓名不能为空
*
电话号码
电话号码不能为空
*
邮箱
邮箱不能为空
*
申请服务
智能硬件“安全+”
个人信息保护
远程办公守护(WAF+VPN)
公益平台保护
云加速SCDN
业务风控
APP消息推送
*
咨询内容
咨询内容不能为空
*
验证码
验证码不能为空
提交
提交成功
您的申请已提交,之后会有我们的商务团队与您联系,谢谢!
关闭
百度账号
百度推广账号
¥
0
现金券
0
兑换券
立即领取
登录即可领取优惠券
领取成功