CESA-2022-083-《人工智能 可信赖规范 第1部分:通则》团体标准(征求意见稿)编制说明_第1页
CESA-2022-083-《人工智能 可信赖规范 第1部分:通则》团体标准(征求意见稿)编制说明_第2页
CESA-2022-083-《人工智能 可信赖规范 第1部分:通则》团体标准(征求意见稿)编制说明_第3页
CESA-2022-083-《人工智能 可信赖规范 第1部分:通则》团体标准(征求意见稿)编制说明_第4页
CESA-2022-083-《人工智能 可信赖规范 第1部分:通则》团体标准(征求意见稿)编制说明_第5页
全文预览已结束

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

中国电子工业标准化技术协会

一、工作简况

根据中国电子工业标准化技术协会2022年第十批团体标准制修订通知(中电

标通〔2022〕034号),中国电子技术标准化研究院负责《人工智能可信赖规范

第1部分:通则》(项目编号:CESA-2022-083)标准的制定工作。

标准起草单位为中国电子技术标准化研究院、中国科学院软件研究所、中科

南京软件技术研究院、华为技术有限公司、上海商汤智能科技有限公司、中国科

学院信息工程研究所、蚂蚁科技集团股份有限公司、上海依图网络科技有限公司、

北京百度网讯科技有限公司、海信集团控股股份有限公司、杭州海康威视数字技

术股份有限公司、中国工程物理研究院计算机应用研究所、腾讯云计算(北京)

有限责任公司、威麟信息技术开发(上海)有限公司、深圳云天励飞技术股份有

限公司、京东科技信息技术有限公司、上海人工智能创新中心、电子科技大学、

通标标准技术服务(上海)有限公司、浪潮软件科技有限公司、中国商用飞机有

限责任公司北京民用飞机技术研究中心、国科础石(重庆)软件有限公司、飞腾

信息技术有限公司等。

本标准主要工作过程如下:

2022年5月-2022年7月,中国电子技术标准化研究院牵头组织有关单位,在

北京召开了本标准的立项筹备会。会议共有来自中国科学院软件研究所、中科南

京软件技术研究院、华为技术有限公司等3家单位的5位专家,对该标准的立项达

成共识,共同收集相关资料,形成标准草案大纲。

2022年8月-2022年10月,标准编制组成员多次组织专家进行讨论,对标准草

案的技术内容和格式进行修改完善,同时向相关单位和专家发送邮件,征求相关

单位的意见和建议。针对搜集到的意见和建议,起草组成员进行了深入细致的研

讨,形成了《人工智能可信赖规范第1部分:通则》标准草案。

2022年10月28日,中国电子工业标准化技术协会组织有关单位,在北京召开

了本标准的立项审查会。本次会议共有来自中国科学院软件研究所、中科南京软

中国电子工业标准化技术协会

件技术研究院、华为技术有限公司等3家单位的5位专家,对本标准进行了立项论

证。该标准于2022年12月正式下达立项计划号。

2022年10月至今,标准起草工作组多次召开了标准讨论会,对专家提出的意

见建议进行了分析和总结,并进一步修改和完善标准草案,于2023年4月形成标

准征求意见稿。

二、标准编制原则和确定主要内容的论据及解决的主要问题

本文件规定了人工智能系统的可信赖技术框架、可信赖技术要求和可信赖评

估流程,并在附录提供了可信赖应用场景和可信赖评估流程示例。

本文件适用于人工智能系统、含人工智能的计算机系统相关的开发、设计、

应用和测试。

拟解决的主要问题:

当前,人工智能系统应用的广度和深度不断拓展,正在成为信息基础设施的

重要组成。但在此过程中,人工智能也不断暴露风险隐患,主要体现在以下几个

方面:

1)针对可信赖人工智能的实践仍处于相对分散的状态,仍缺少一套体系化

的方法论,亟需提出一套可信赖人工智能框架;

2)当前对可信赖人工智能的技术要求及评价方法实操性还需要不断加强;

3)对于人工智能系统、含人工智能的计算机系统,将可信赖相关抽象要求

转化为实践所需的具体技术要求,提升社会对于人工智能的信任度。

三、主要试验[或验证]情况分析

无。

四、知识产权情况说明

本标准不涉及知识产权。

五、产业化情况、推广应用论证和预期达到的经济效果

人工智能系统在应用中也不断暴露出一些风险,如算法安全导致的应用风

险、黑箱模型导致算法不透明、数据歧视导致智能决策偏见、系统决策复杂导致

责任事故主体难以界定等。面对人工智能引发的全球信任焦虑,发展可信赖人工

智能已经成为全球共识。本标准旨在提出一套体系化的可信赖人工智能技术架

构、技术要求及评价方法,为人工智能系统的可信赖研发和测试提供依据,有助

中国电子工业标准化技术协会

于提升社会对于人工智能的信任度。

六、转化国际标准和国外先进标准情况

无。

七、与现行相关法律、法规、规章及相关标准的协调性

本标准遵循现行法律、法规、规章及标准,与现有标准协调配套。

八、重大分歧意见的处理经过和依据

无。

九、贯彻标准的要求和措施建议

本标准的有效实施将有助于为人工智能系统的可信赖研发和测试提供依据,

有助于提升社会对于人工智能的信任度,建议尽快实施。

十、替代或废止现行相关标准的建议

无。

十一、其它应予说明的事项

无。

《人工智能可信赖规范第1部分:通则》

团体标准编制起草组

2023-05-08

中国电子工业标准化技术协会

一、工作简况

根据中国电子工业标准化技术协会2022年第十批团体标准制修订通知(中电

标通〔2022〕034号),中国电子技术标准化研究院负责《人工智能可信赖规范

第1部分:通则》(项目编号:CESA-2022-083)标准的制定工作。

标准起草单位为中国电子技术标准化研究院、中国科学院软件研究所、中科

南京软件技术研究院、华为技术有限公司、上海商汤智能科技有限公司、中国科

学院信息工程研究所、蚂蚁科技集团股份有限公司、上海依图网络科技有限公司、

北京百度网讯科技有限公司、海信集团控股股份有限公司、杭州海康威视数字技

术股份有限公司、中国工程物理研究院计算机应用研究所、腾讯云计算(北京)

有限责任公司、威麟信息技术开发(上海)有限公司、深圳云天励飞技术股份有

限公司、京东科技信息技术有限公司、上海人工智能创新中心、电子科技大学、

通标标准技术服务(上海)有限公司、浪潮软件科技有限公司、中国商用飞机有

限责任公司北京民用飞机技术研究中心、国科础石(重庆)软件有限公司、飞腾

信息技术有限公司等。

本标准主要工作过程如下:

2022年5月-2022年7月,中国电子技术标准化研究院牵头组织有关单位,在

北京召开了本标准的立项筹备会。会议共有来自中国科学院软件研究所、中科南

京软件技术研究院、华为技术有限公司等3家单位的5位专家,对该标准的立项达

成共识,共同收集相关资料,形成标准草案大纲。

2022年8月-2022年10月,标准编制组成员多次组织专家进行讨论,对标准草

案的技术内容和格式进行修改完善,同时向相关单位和专家发送邮件,征求相关

单位的意见和建议。针对搜集到的意见和建议,起草组成员进行了深入细致的研

讨,形成了《人工智能可信赖规范第1部分:通则》标准草案。

2022年10月28日,中国电子工业标准化技术协会组织有关单位,在北京召开

了本标准的立项审查会。本次会议共有来自中国科学院软件研究所、中科南京软

中国电子工业标准化技术协会

件技术研究院、华为技术有限公司等3家单位的5位专家,对本标准进行了立项论

证。该标准于2022年12月正式下达立项计划号。

2022年10月至今,标准起草工作组多次召开了标准讨论会,对专家提出的意

见建议进行了分析和总结,并进一步修改和完善标准草案,于2023年4月形成标

准征求意见稿。

二、标准编制原则和确定主要内容的论据及解决的主要问题

本文件规定了人工智能系统的可信赖技术框架、可信赖技术要求和可信赖评

估流程,并在附录提供了可信赖应用场景和可信赖评估流程示例。

本文件适用于人工智能系统、含人工智能的计算机系统相关的开发、设计、

应用和测试。

拟解决的主要问题:

当前,人工智能系统应用的广度和深度不断拓展,正在成为信息基础设施的

重要组成。但在此过程中,人工智能也不断暴露风险隐患,主要体现在以下几个

方面:

1)针对可信赖人工智能的实践仍处于相对分散的状态,仍缺少一套体系化

的方法论,亟需提出一套可信赖人工智能框架;

2)当前对可信赖人工智能的技术要求及评价方法实操性还需要不断加强;

3)对于人工智能系统、含人工智能的计算机系统,将可信赖相关抽象要求

转化为实践所需的具体技术要求,提升社会对于人工智能的信任度。

三、主要试验[或验证]情况分析

无。

四、知识产权情况说明

本标准不涉及知识产权。

五、产业化情况、

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论