本报记者 裴昱 北京报道
“一旦有侵害发生,应该让智能机器人的使用者、制造者、机器人本身承担严格区分的相关责任。”全国人大代表、致公党上海市委专职副主委邵志清3月4日向《中国经营报》记者介绍了其关于制定人工智能应用管理法的议案。
邵志清说,在造福人类的同时,人工智能带来的社会问题逐渐显现,开始从技术领域、民事领域向刑事领域转变,比如利用人工智能技术侵犯公民个人信息、竞争对手商业秘密,甚至危害人的健康生命、社会的安全稳定。
2015年7月,英国《金融时报》曾报道了德国大众公司的机器人“杀人事件”,一名工作人员被正在安装的机器人突然抓起重重摔向金属板而不治身亡。
“单独的人工智能不是武器,但几个人工智能合在一起可能就是武器,这是很危险的。”邵志清说。
他认为,传统刑法领域只有自然人才是刑法规制的主体,在人工智能应用场景下,很多机器成为了主体。另外,机器的主观意愿的认定也带来了困难。对于这类问题,现有的法律难以规范。由于涉及面太宽,社会对人工智能的认识也还处于初步阶段,目前对人工智能进行综合立法的条件还不具备。但是为了防范重大风险,需要针对人工智能的具体应用进行立法。
邵志清认为,人工智能应用的管理应该重点围绕伦理道德、资源获取、主体认定、行为认定、责任划分等方面进行立法。
从伦理道德上,明确禁止应用人工智能技术实施违反人类伦理道德的行为,特别是在基因工程、生命科学、情感意识等方面用法律为智能社会划出伦理道德的边界,让人工智能服务造福而不是困扰危害人类社会。
资源获取上,明确禁止应用人工智能技术实施违反人类伦理道德的行为,特别是在基因工程、生命科学、情感意识等方面用法律为智能社会划出伦理道德的边界,让人工智能服务造福而不是困扰危害人类社会。
主体认定方面,明确具有自主学习、思考、行动能力的机器人成为适格主体的应用场景和应用前提等,明确机器人与自然人主体进行区分认定和共同认定的条件和依据等。
行为认定方面,明确认定机器人意图的原则,特别是要解决机器人基于人工智能进行独立判断和决定所实施侵害的主观方面认定问题。
责任划分方面,明确责任划分和处罚的原则。一旦有侵害发生,让智能机器人的使用者、制造者、机器人本身承担严格区分的相关责任。