人工智能管理需要用“人工”
【CPS中安网 cps.com.cn】最近人脸识别成了售楼处的标准新闻,把个人信息安全推到舆论的前沿,甚至有人开玩笑说戴头盔看房。随着人工智能与生活的深度融合,不仅有利于人类社会发展智能,也有利于善用“人工”。只有处理好人机关系,才能更好的享受人工智能的红利。
人工智能需要基于大数据学习,数据库建设不可避免地涉及到个人敏感信息;人工智能颠覆了网络监管模式,但新的监管模式尚未形成;人工智能冲击了情感伦理,但调节人工智能与人类关系的伦理体系尚未建立.这些都使得公众对人工智能的态度复杂化。
然而,自动导航、智能制造、智慧城市等新形式不断满足着人们对美好生活的向往。要处理人工智能发展带来的隐患,靠“反科技”即噎食是无法达到目的的。管理和应用好人工智能并不是“人工”的另一层含义。
治理人工智能需要与时俱进的法律。回顾历史,不难发现,适应时代的规律总是伴随着科技进步的。随着工业革命的兴起,英国颁布了世界上第一部专利法《垄断法规》,被称为“发明人权利大宪章”。今天,为适应我国人工智能新的发展形式,《民法典》 《网络安全法》明文规定保护公民信息安全,《个人信息保护法(草案)》使保护公民个人信息有法可依,人工智能参与创作作品的法律实践正在为人工智能设定边界,为人工智能健康有序发展提供保障。
治理人工智能需要健全的伦理体系。就像曾经改变世界的蒸汽机和发电机一样,人工智能正在展现颠覆性的力量。只有处理好人机关系,才能更好的享受人工智能的红利。人工智能作为人类智能的产物,需要以人类的道德价值观为基础。如果说阿西莫夫《基地三部曲》中提出的“机器人三原则”是从限制机器的角度来支持人类发展的,那么我国发布的《新一代人工智能治理原则——发展负责人的人工智能》则从人类的角度指出了人工智能责任主体的共同性,也就是说技术开发者、管理者和用户应该共同遵守相关的伦理道德,避免将人工智能引入到可能因为对人类技术理性的崇拜而对人类造成伤害的普适超人工智能中。
也许不仅仅是人工智能。在未来的历史进程中,科技越智能,人们需要治理的智慧就越多。