You can not select more than 25 topics Topics must start with a chinese character,a letter or number, can include dashes ('-') and can be up to 35 characters long.

README_CN.md 3.4 kB

5 years ago
5 years ago
5 years ago
5 years ago
5 years ago
123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106
  1. # MindArmour
  2. - [简介](#简介)
  3. - [开始](#开始)
  4. - [文档](#文档)
  5. - [社区](#社区)
  6. - [贡献](#贡献)
  7. - [版本](#版本)
  8. - [版权](#版权)
  9. [View English](./README.md)
  10. ## 简介
  11. MindArmour关注AI的安全和隐私问题。致力于增强模型的安全可信、保护用户的数据隐私。主要包含3个模块:对抗样本鲁棒性模块、Fuzz Testing模块、隐私保护与评估模块。
  12. ### 对抗样本鲁棒性模块
  13. 对抗样本鲁棒性模块用于评估模型对于对抗样本的鲁棒性,并提供模型增强方法用于增强模型抗对抗样本攻击的能力,提升模型鲁棒性。对抗样本鲁棒性模块包含了4个子模块:对抗样本的生成、对抗样本的检测、模型防御、攻防评估。
  14. 对抗样本鲁棒性模块的架构图如下:
  15. ![mindarmour_architecture](docs/adversarial_robustness_cn.png)
  16. ### Fuzz Testing模块
  17. Fuzz Testing模块是针对AI模型的安全测试,根据神经网络的特点,引入神经元覆盖率,作为Fuzz测试的指导,引导Fuzzer朝着神经元覆盖率增加的方向生成样本,让输入能够激活更多的神经元,神经元值的分布范围更广,以充分测试神经网络,探索不同类型的模型输出结果和错误行为。
  18. Fuzz Testing模块的架构图如下:
  19. ![fuzzer_architecture](docs/fuzzer_architecture_cn.png)
  20. ### 隐私保护模块
  21. 隐私保护模块包含差分隐私训练与隐私泄露评估。
  22. #### 差分隐私训练模块
  23. 差分隐私训练包括动态或者非动态的差分隐私SGD、Momentum、Adam优化器,噪声机制支持高斯分布噪声、拉普拉斯分布噪声,差分隐私预算监测包含ZCDP、RDP。
  24. 差分隐私的架构图如下:
  25. ![dp_architecture](docs/differential_privacy_architecture_cn.png)
  26. #### 隐私泄露评估模块
  27. 隐私泄露评估模块用于评估模型泄露用户隐私的风险。利用成员推理方法来推测样本是否属于用户训练数据集,从而评估深度学习模型的隐私数据安全。
  28. 隐私泄露评估模块框架图如下:
  29. ![privacy_leakage](docs/privacy_leakage_cn.png)
  30. ## 开始
  31. ### 环境依赖
  32. MindArmour使用MindSpore加速计算,因此请先安装MindSpore,其余依赖包含在`setup.py`里。
  33. ### 安装
  34. #### 源码安装
  35. 1. 从Gitee下载源码。
  36. ```bash
  37. git clone https://gitee.com/mindspore/mindarmour.git
  38. ```
  39. 2. 编译安装MindArmour。
  40. ```bash
  41. $ cd mindarmour
  42. $ python setup.py install
  43. ```
  44. #### `Pip`安装
  45. 1. 从[MindSpore官网](https://www.mindspore.cn/versions/en)下载whl格式的安装包,然后执行如下命令:
  46. ```
  47. pip install mindarmour-{version}-cp37-cp37m-linux_{arch}.whl
  48. ```
  49. 2. 执行如下命令,如果没有报错`No module named 'mindarmour'`,则说明安装成功。
  50. ```bash
  51. python -c 'import mindarmour'
  52. ```
  53. ## 文档
  54. 安装指导、使用教程、API,请参考[用户文档](https://gitee.com/mindspore/docs)。
  55. ## 社区
  56. 社区问答:[MindSpore Slack](https://join.slack.com/t/mindspore/shared_invite/enQtOTcwMTIxMDI3NjM0LTNkMWM2MzI5NjIyZWU5ZWQ5M2EwMTQ5MWNiYzMxOGM4OWFhZjI4M2E5OGI2YTg3ODU1ODE2Njg1MThiNWI3YmQ)。
  57. ## 贡献
  58. 欢迎参与社区贡献,详情参考[Contributor Wiki](https://gitee.com/mindspore/mindspore/blob/master/CONTRIBUTING.md)。
  59. ## 版本
  60. 版本信息参考:[RELEASE](RELEASE.md)。
  61. ## 版权
  62. [Apache License 2.0](LICENSE)

MindArmour关注AI的安全和隐私问题。致力于增强模型的安全可信、保护用户的数据隐私。主要包含3个模块:对抗样本鲁棒性模块、Fuzz Testing模块、隐私保护与评估模块。 对抗样本鲁棒性模块 对抗样本鲁棒性模块用于评估模型对于对抗样本的鲁棒性,并提供模型增强方法用于增强模型抗对抗样本攻击的能力,提升模型鲁棒性。对抗样本鲁棒性模块包含了4个子模块:对抗样本的生成、对抗样本的检测、模型防御、攻防评估。