近年来,人工智能技术的快速发展经常让人们感叹“未来已来,奇点将至”。未来学家经常会通过摩尔定律来预测人工智能技术的指数级增长:到2029年,人工智能或将超过人类智能;到2045年,人脑将与人工智能、智能网络等全面融合,轻松获取全人类所有的知识,奇点到来。而在这之后,“人机智能体”将作为一种“后人类”全面超越现有的物质与精神的边界。从2022年年底开始,一系列生成式人工智能技术和应用的火爆出圈,让这股浪潮持续朝着“AI与人脑协同进化,大语言模型就是真实世界的投射”的方向推进。
人工智能技术带来了生产力的极大释放,但其涉及到的科技伦理问题,比如隐私泄露、算法黑箱、模型偏见、虚假信息、深度伪造、信息茧房、劳动力逆向替代等,也已引发广泛关注。目前在世界范围内,构建对人工智能科技伦理的规范与约束,已是大势所趋。相比硬性的法律法规,对人工智能的科技伦理的规制更像是一种柔韧的“软法”,其基础架构大致可以分为三个层次:上层是人工智能科技伦理的基本使命,“为增进人类福祉和万物和谐共存提供伦理支撑”;中层是由多种人工智能科技伦理的原则、准则构成的“政策矩阵”;基层则是人工智能科技伦理落实在具体场景中的可以操作的监督治理规定,比如技术标准、行业规范、产品标准、产业政策等。
据不完全统计,目前世界上已有160多个国家和地区出台了人工智能伦理原则和指南,相关组织和机构发布的伦理准则超过40项。一般而言,当我们在讨论一个问题的时候都会有一个元假设。对于人工智能科技伦理而言,我们的元假设是什么?目前世界范围内较为可能达成共识的一种观点是,我们希望能够“确保人工智能的技术风险和伦理底线处于可控范围内”。但是这一共识性的元假设还会涉及多个层次和环节上的问题:比如,如何确保人工智能的技术风险与伦理底线处于可控范围内?人工智能的技术风险如何定义,包含哪些风险,是否有一个完整的风险清单?人工智能的伦理底线是什么,边界何在,以什么标准来确定?“处于”是指静态的、动态的还是混合态的?所谓“可控范围内”,其程度如何,又由谁来控制等等。
虽然目前在世界范围内,已经出台发布了很多原则、指南和准则,但这些依然只是人工智能科技伦理建设的第一个阶段,即确立人工智能科技伦理的必要性与原则性。而之后,将要进入到人工智能科技伦理建设的下一个阶段,即要从准则确立迈向体系建构。之所以要划分出这样的两个阶段,原因在于,目前国际上对于人工智能的治理,呈现出两方面的困境:一则是从性质上看,单纯的技术性和商业化的机制,无法弥合人工智能在技术风险与伦理底线方面与公共利益、公共价值之间的鸿沟;另一则是从实践上看,研判人工智能的技术风险与伦理底线,亟需综合性的解决方案。
我国在人工智能科技伦理的建设上具有起步早、规格高、政策结构严密以及时间线密集的特点。早在2017年7月,国务院就印发《新一代人工智能发展规划》,到了2022年3月,中共中央办公厅、国务院办公厅又印发《关于加强科技伦理治理的意见》。2019年6月,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》,并于2021年9月发布了《新一代人工智能伦理规范》。2022年9月,香港特区政府资讯科技总监办公室发布《人工智能伦理框架》,之后2023年5月,北京发布《北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023-2025年)》《北京市促进通用人工智能创新发展的若干措施》;深圳印发《深圳市加快推进人工智能高质量发展高水平应用行动方案(2023-2024年)》;上海提出《上海市加大力度支持民间投资发展若干政策措施》;2023年8月,成都印发《加快大模型创新应用推进人工智能产业高质量发展的若干措施》等,均体现出在制度设计与场景落实方面的规划。2023年8月,国家网信办等7部门公布的《生成式人工智能服务管理暂行办法》,9月科技部等10部门印发的《科技伦理审查办法》(试行),10月全国信息安全标准化技术委员会就《生成式人工智能服务安全基本要求》征求意见等,体现出对于人工智能科技伦理的关注与行动,进入到了一个政策加速期。
2022年,中共中央办公厅、国务院办公厅印发的《关于加强科技伦理治理的意见》中要求,“从事生命科学、医学、人工智能等科技活动的机构,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会”。今年10月,我国发布的《全球人工智能治理倡议》中提出,要秉持共商共建共享的理念,构建开放、公正、有效的治理机制,协同促进人工智能治理,并对个人隐私与数据保护、数据获取、算法设计、技术开发以及风险等级测试评估和伦理准则等提出了具体的原则准则或建议。因此在这一关键时刻,传播内容认知全国重点实验室率先成立科技伦理委员会可谓正当其时。
国家重点实验室是参与构建人工智能科技伦理的重要力量。要迈向人工智能科技伦理的综合体系建设,要求在后面的工作中需要重点处理好四个关键问题:第一,要建立良好的科技伦理准则运作机制。单独的伦理准则无法自我执行,因此必须建立一整套与之相配合的运作机制和体系,才能保证其有效运行;第二,要审慎思考如何将普适性的人工智能科技伦理价值细化内嵌到具体的应用场景中,变为具体可操作的规定;第三,需要建立常态化的机构机制来预测和判别人工智能的技术风险,进而不断补充和完善技术风险清单;第四,科技伦理并非只关注技术“不作恶”,同时还关心其“做好事”。对于人工智能来说,即需要以“智能向善”为导向目标,构建人工智能科技伦理多方参与、行业自律的“行动者网络”,推进行业规范和伦理体系的完善创新。
习近平总书记多次对科技伦理工作做出重要指示,多次强调要“塑造科技向善的文化理念,让科技更好增进人类福祉”。国家重点实验室可以充分发挥自身科研优势,推出从原则到体系、覆盖人工智能全生命周期的整合性伦理分析框架,以此来对人工智能技术进行伦理审查,通过伦理计算深化对人工智能伦理边界的认知,做伦理事实信息的提供者,伦理专业知识的构建者,伦理情绪感受的呈现者,伦理规则工具的打造者。
相信通过不断地实践和积累,“智能向善”还会有更多想象的空间。今年世界经济论坛发布的《2023年十大新兴技术报告》中,除了生成式人工智能,还有如同人类身心健康与社交互动交叉相关的应用领域“可改善心理健康的元宇宙”。期待在将来,随着人工智能不断地发展迭代,与之相配合“智能向善”也会有2.0、3.0版本,以此推动促进人工智能技术造福于人类,推动“人机智能体”的和谐共生共存。
(作者系上海社会科学院新闻研究所互联网治理研究中心主任)
版权声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。
相关标签: