登录 | 注册 | English
      热烈祝贺:西安交通大学“一带一路”沿线国家标准高端论坛暨“一带一路”沿线国家优势产业地图首发式于4月15日(校庆日)隆重举行!        国家标准委等部门最新发布《碳达峰碳中和标准体系建设指南》        《碳达峰碳中和中外标准数据库》即将上线!
2024 年 3 月
29
星期五
   
  
  
·多语言频道即将开通!
当前位置:首页 - > 标准动态 -> 国际国外标准动态
IEEE发布三项人工智能新标准 将优先考虑人类
时间:2017/11/27 9:17:42 作者:佚名 浏览次数:25584 文章来源:数字电视中文网
   【摘要】IEEE(美国电气和电子工程师协会)最新宣布了三项新的人工智能发展标准。IEEE 号称为世界上最大的先进技术专业组织。根据最近发布的一份报告,他们的人工智能标...
IEEE(美国电气和电子工程师协会)最新宣布了三项新的人工智能发展标准。
 
  IEEE 号称为“世界上最大的先进技术专业组织”。根据最近发布的一份报告,他们的人工智能标准将优先考虑人类,因为他们承诺要跟上AI领域不断发展的脚步。
 
  在发布的《合乎伦理的设计:将人类福祉与人工智能和自主系统优先考虑的愿景》报告中,共分为八个部部分阐述了新的人工智能发展问题。分别是:一般原则,人工智能系统赋值;指导伦理学研究和设计的方法学;通用人工智能和超级人工智能的安全与福祉;个人数据和个人访问控制;重新构造自动武器系统;经济/人道主义问题;法律。
 
  一般原则涉及高层次伦理问题,适用于所有类型的人工智能和自主系统。在确定一般原则时,主要考虑三大因素:体现人权;优先考虑最大化对人类和自然环境的好处;削弱人工智能的风险和负面影响。
 
  人类利益原则要求考虑如何确保AI不侵犯人权。责任原则涉及如何确保AI是可以被问责的。为了解决过错问题,避免公众困惑,AI系统必须在程序层面具有可责性,证明其为什么以特定方式运作。透明性原则意味着自主系统的运作必须是透明的。AI是透明的意味着人们能够发现其如何以及为何做出特定决定。
 
  在关于如何将人类规范和道德价值观嵌入AI系统中,报告中表示由于AI系统在做决定、操纵其所处环境等方面越来越具有自主性,让其采纳、学习并遵守其所服务的社会和团体的规范和价值是至关重要的。可以分三步来实现将价值嵌入AI系统的目的:
 
  第一,识别特定社会或团体的规范和价值;
 
  第二,将这些规范和价值编写进AI系统;
 
  第三,评估被写进AI系统的规范和价值的有效性,即其是否和现实的规范和价值相一致、相兼容。
 
  虽然上述的相关研究一直在持续,这些研究领域包括机器道德(Machine Morality)、机器伦理学(Machine Ethics)、道德机器(Moral Machine)、价值一致论(Value Alignment)、人工道德(Artificial Morality)、安全AI、友好AI等,但开发能够意识到并理解人类规范和价值的计算机系统,并让其在做决策时考虑这些问题,一直困扰着人们。当前主要存在两种路径:自上而下的路径和自下而上的路径。这一领域的研究需要加强。
 
  报告中还指出需要指导伦理研究和设计的方法论,通用人工智能和超级人工智能的安全与福祉,重构自主武器系统,以及经济/人道主义问题等八个人工智能发展面临的问题。报告中收集了超过一百位来自人工智能领域学术界,科学界,以及政府相关部门的思想领袖的意见,整合了人工智能、伦理学、哲学和政策等多个领域专业知识。它的修订版EAD(Ethically Aligned Design)  版本将会在2017年底推出,报告增至为十三个章节,含二百五十多个全球思想领袖的精华分享。
 
  IEEE 机器人和自动化协会的主席Satoshi Tadokoro 解释了他们为什么想要制定这样的标准:“机器人和自动系统将为社会带来重大创新。最近,公众越来越关注可能发生的社会问题,以及可能产生的巨大潜在利益。不幸的是,在这些讨论中,可能会出现一些来自虚构和想象的错误信息。”
 
  Tadokoro 继续说道:“IEEE 将基于科学和技术的公认事实来引入知识和智慧,以帮助达成公共决策,使人类的整体利益最大化。”除了AI伦理标准外,还有其他两个人工智能标准也被引入报告中,每个项目都由领域专家领导。
 
  第一个标准是:“机器化系统、智能系统和自动系统的伦理推动标准”。这个标准探讨了“推动”,在人工智能世界里,它指的是AI会影响人类行为的微妙行动。
 
  第二个标准是“自动和半自动系统的故障安全设计标准”。它包含了自动技术,如果它们发生故障,可能会对人类造成危害。就目前而言,最明显的问题是自动驾驶汽车。
 
  第三个标准是“道德化的人工智能和自动系统的福祉衡量标准”。它阐述了进步的人工智能技术如何有益于人类的益处。
 
  这些标准的实施可能比我们想象的要早,因为像 OpenAI 和 DeepMind 这样的公司越来越快地推进人工智能的发展,甚至创造出能够自我学习又扩大“智能”领域的人工智能系统。专家们认为,这样的人工智能会破坏世界稳定,导致大规模的失业和战争,甚至转向创造“杀人武器”。最近,联合国的重要讨论促使人们开始认真思考,需对将人工智能技术当作武器使用进行更严格的监管。


  国家标准频道版权及免责声明:
  1、凡本网站文章注明“文章来源:本站原创”的,版权均属于国家标准频道(本网站另有声明的除外);未经本网站授权,任何单位及个人不得转载或以其它方式使用上述文章;已经与本网站签署相关授权的单位及个人,应注意该等文章中是否有相应的授权使用限制声明,不得违反该等限制声明,且在授权范围内使用时应注明“来源:国家标准频道”。违反前述声明者,本网站将追究其相关法律责任。
  2、凡本网站注明 “来源:XXX(非国家标准频道)” 的文章,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网站赞同其观点和对其真实性负责。
  3、如因文章内容、版权和其它问题需要同本网站联系的,请在30日内进行。
  联系邮箱:service@chinagb.org