面对AI已然到来的事实,“热情拥抱论”与“智能威胁论”都甚嚣尘上。
事实上,AI在发展过程中,确实带来了新的问题:AI使得人类与机器的边界日益模糊,带来人机之间新型关系的困惑;借助人工智能,企业能够在赋予用户大量数据标签后读取和理解用户的行为偏好,或将导致技术滥用;在社交媒体中,信息推送根据用户个人偏好的路径送达,从而形成偏见强化。此外,AI还可能引发“机器换人”的替代潮,并对传统法律法规和社会规范提出挑战。
“人工智能作为经济社会发展的强大加速器,需要装上制动系统或刹车。”近日,在发布《未来基石:人工智能的社会角色与伦理》报告时,中国发展研究基金会秘书长助理、研究一部主任俞建拖表示,“这个刹车就是伦理规范和公共政策准则。”
挑战重重
人工智能的伦理问题已经引起了越来越多的关注。
今年3月,Facebook数据泄露问题丑闻曝出,一家名为Cambridge Analytica的数据分析公司通过一个应用程序收集了5000万Facebook用户的个人信息,该应用程序详细描述了用户的个性、社交网络以及在平台上的参与度。7月,Facebook因该事件面临英国信息委员会办公室66.4万美元的罚单。
同期,谷歌为美国国防部开发AI的“Maven项目”也备受瞩目,根据该项目合约,谷歌向美国国防部共享了它的开源AI框架TensorFlow,同时打造“类似谷歌地图”的监控系统,该系统可以让美国国防部的分析师和合同商“点击”任何建筑物、车辆、人群和地标建筑,“查看与之相关的一切信息”。此后,迫于舆论压力,谷歌方面称,将在2019年与美国国防部合约到期后不再续约。
“AI开发和应用过程中带来的挑战,既有技术层面的,也有社会层面的。”俞建拖指出。其中,技术层面的挑战包括错误目的的开发、技术上的不透明和不可控、过度追求利润目标而不考虑技术上的平衡,以及终端的误用和滥用。
社会层面的挑战则更为严峻,包括对人自身认知的困境、社会互动协作方式的改变、数据和隐私的侵犯、不对称信息权力的滥用、数据和技术导致的垄断、偏见强化和族群对立、弱势人群的边缘化和贫困化,以及人工智能武器和恐怖活动等。
因此,面对AI技术所带来的挑战,各国政府已经纷纷出台一系列的政策指引和准则。
资料显示,早在数年前,韩国政府便着手拟订《机器人道德宪章》,美国信息技术产业委员会(ITI)则于2017年颁布了人工智能的14条政策准则。近日,欧盟出台了史上最严数据保护条例——《通用数据保护条例》(General Data Protection Regulation,简称GDPR),旨在加强对数据的保护,以大数据为“养料”的AI行业正是其矛头所向。
道德准则
不仅是政府在制定AI相关准则,科技企业也在做同样的事。
谷歌在Maven项目带来的舆论压力下,于今年6月申明,在人工智能开发应用中,坚持公平、安全、透明、隐私保护等在内的7个准则。同时,谷歌方面表示不会将AI技术应用于开发武器,不会违反人权准则将AI用于监视和收集信息,避免AI造成或加剧社会不公等。
微软同样提出了开发人工智能的六项基本原则:公平、可靠与安全、隐私与保密、包容、透明、负责。微软公司总裁施博德(Brad Smith)表示,这六项基本准则是为了确保人工智能能够以一种合乎伦理的方式得以使用。“微软认为,要设计出可信赖的人工智能,必须采取体现道德原则的解决方案,在赋予计算机更大力量的同时,也需要用社会伦理来引导它。”
施博德指出,这六项基本原则中,前四项(公平、可靠与安全、隐私与保密、包容)依赖于后两项(透明、负责)。“首先是透明,只有能够有透明度才能够确信前四大原则都得到实现。最后也是最重要的,也就是负责,需要确保追责机制,这意味着AI并非在没有人类监督的情况下任意制定决策。”
不过,仅仅是单点的准则设计还远远不够。就此,《未来基石:人工智能的社会角色与伦理》报告建议,各国政府、产业界、研究人员、民间组织和其他有关利益攸关方应就人工智能开展广泛对话和持续合作,加快制定针对人工智能开发和应用的伦理规范和公共政策准则。
同时,在社会层面,报告鼓励高校研究机构、企业和行业协会、投资机构和社会组织在各自领域进行相关探索和研究;在政策层面,在鼓励引导社会研究和产品开发的同时,需要重视政策和法律监管,并加强国际合作,建立多层次的国际人工智能治理机制。
“我们期待更多的社会机构、社会组织、专业机构合作,更多人工智能研发的企业能够履行企业社会责任,积极参与人工智能伦理规范的建设。”俞建拖指出。