EN
2022年02月07日研究中心文章(列表不显示)

企业级AI数据分级规则、标准指南与最佳实践

研究承担单位

北京师范大学


研究目标

针对数据多样、种类繁多、规模巨大、包含用户隐私、难于管理、易被泄漏的问题,梳理研究国内外企业级AI数据分级规则、标准指南与最佳实践,实现采集安全、传输安全、存储安全、访问安全、隐私安全、主权明确等价值,同时梳理研究相关的AI数据安全与隐私保护机制,做到数据不泄漏、使用可追溯、行为可审计、隐私有保证,明确数据主权,用户可撤销,有效解决数据安全和个人隐私问题,树立行业标准,起到示范作用,促进行业健康发展,并且为相关国家机关的政策立法以及执法监管提供系统的建议和支持。


研究成果

该报告整体思路是着眼采集安全、传输安全、存储安全、访问安全、隐私安全、主权明确等价值,研究梳理国内外企业级AI数据分级规则、标准指南与最佳实践,同时梳理研究国内外相关的AI数据安全与隐私保护机制,就数据安全和个人隐私问题的产业现状与行业标准展开研究。

核心观点包括:

(1)人工智能对数据安全与隐私提出了新的挑战。欧盟与美国作为人工智能领域的领先者,都出台了大量政策战略、法律法规以应对问题。我国可以参考这两者所提出的解决方案,完善数据安全与隐私保护的法律体系,提出符合我国国情的伦理原则。在加强隐私保护的同时,发挥人工智能的利用价值,促进社会福祉的最大增进。

(2)《数据安全法》不仅是一部监管性立法,也是一部支撑型立法。其在国家层面通过制度设计,在外部为国家和社会提供诸多有益的制度支撑。突出反映在法案第三章有关数据安全制度的条文设计,明确了国家层面与数据安全有关的各项制度指引,构成了核心外部资源。

(3)《数据安全法》的出台符合全球数据治理大趋势,同时具有中国特色,中国数据安全治理在《数据安全法》的统领下将进入一个新阶段。接下来,应针对金融、汽车、医疗等行业数据收集使用,高校刷脸、监控的使用,疫情防控健康码的使用等各行业各领域的实践不断细化相关规则,不断丰富《数据安全法》相关配套的司法解释、法规、规章。

(4)美、英、日、欧盟等国家和地区的政府机构、相关社会组织及大型科技公司都发出了在人工智能开发和应用中保护个人数据和隐私的倡议。由数据质量导致的AI系统性能、偏见及歧视问题,也成为AI发展中受到重点关注的问题。



文本正文
复制文本
文本中的图片
下载
媒体联络
media@baai.ac.cn