如果把对人工智能的态度分为乐观派和忧虑派,近日去世的著名理论物理学家霍金一定属于后者。最近几年,他频频提醒人们注意人工智能的威胁,批评人工智能的无节制发展。 九三学社中央科技委委员张妍也深以为然。“人工智能发展的脚步无法阻挡,‘安全’就显得尤为重要。”她说,“我们不是杞人忧天,要知道,防范的成本比补救的成本低很多。” 2018年两会期间,九三学社向全国政协十三届一次会议提交了《关于推动人工智能安全发展》的中央提案,提出应着力构建安全发展战略,将人工智能安全发展提升到与人工智能科技研发、成果应用、市场推广同等重要的位置。 没有藩篱,发展或会失控 安全是个宽泛的概念,在九三学社中央科技委委员王仕看来,它指的是“可控性”。 他们提出了“五横一纵”的概念:“五横”指的是法律、伦理、标准、科技创新和产业应用;“一纵”指的是科普。“安全”应该渗透在这经纬网中。 “推荐系统是人工智能的重要应用场景。资讯类APP可以无限制向你推荐你感兴趣的内容,强化你的固有观点,无论对错;电商类APP可以无限制诱导你去‘剁手’,就算超出你的消费能力也无所谓。”王仕举的例子,公众已并不陌生。如果算法只是一味迎合人的需求,没有法律或道德的约束与引导,那么最终结果,很可能并不利于个人或社会的健康发展。 王仕也从事人工智能相关工作。他告诉科技日报记者,做语音开发时,如果产品要进入美国市场,所有代码就必须遵守美国儿童隐私保护法律。“这是为了防止智能音箱传播儿童色情等不良内容。”但在国内,目前尚无相关硬性规定。 全国人大代表、科大讯飞董事长刘庆峰也认为,“人工智能领域的顶尖科学家和顶尖企业的价值观,对人工智能的未来发展至关重要”。比如,科大讯飞的语音合成技术已经可以逼真合成出不同人的声音,但他们至今不敢随便对外公布这一技术,“就是怕出现各种诈骗”。 当数据成为重要资源,如果对掌握数据的人没有明确约束,对可以自我学习的人工智能没有明确边界,张妍忧虑道,“会不会让坏人更‘坏’?” 有了规矩,前路方是坦途 去年国务院公布《新一代人工智能发展规划》,但并没有将安全作为基本原则之一。九三学社中央建议,应制定《人工智能安全发展纲要》,有序制定人工智能安全发展的法律法规和伦理道德准则。采取“政府主导、专家主体、公众参与、社会协同”方式,深入研究人工智能安全发展战略,针对不同环节和应用场景,明晰不同主体的责任、权利和义务,制定有关的政策、措施和法规、标准,划定人工智能安全发展的边界。 “对人工智能的科研人员,也要进行知识普及,用伦理道德加以约束。”张妍说,“在市场推广和应用环节,还要建立安全评估和市场准入机制。” 在法律方面,刘庆峰也专门从数据角度给出了自己的建议。他指出,应该制定《数据安全保护法》,实行大数据分级安全保护机制,加强对各行业领域大数据安全治理,并规范大数据运营企业的资质要求。“涉及到国计民生的敏感数据,一定要设置严格安全等级。这些数据一旦泄露,对人工智能和大数据产业的发展就是极大的冲击和毁灭。” 除了伦理和法律,九三学社中央还在建议中指出,应该加快科学普及。 神化人工智能,会让公众产生不必要的恐慌;贬低人工智能,又让公众对人工智能不敢信任。做好科普和引导,消除误解,才可让人类与人工智能和谐相处。 “人工智能是造福还是为祸,核心就是要看社会法律体系能否迅速健全,在法律体系框架下,人工智能伦理和人文引导能否到位。”刘庆峰强调。 (科技日报北京3月19日电) 原标题:有了安全边界,人工智能才能有序发展|无限制|九三学社|刘庆峰 |