大河网讯(记者 刘高雅)当前,以ChatGPT为代表的生成式人工智能异军突起,掀起了通用人工智能技术引领与应用创新的发展浪潮。在今年的全国两会上,全国人大代表,河南移动党委书记、董事长、总经理楼向平围绕人工智能建言献策,建议进一步加强人工智能可信治理,以更加负责任的方式发展可信的、以人为本的人工智能,助推培育新质生产力,扎实推动高质量发展。
目前,我国人工智能核心产业规模不断增长,人工智能广泛应用于通信、金融、医疗等领域,已经成为数字经济发展的重要驱动力。然而人工智能安全防护能力的不足和缺失,正在带来多方面的风险和挑战。楼向平认为,人工智能领域法律法规有待完善,同时缺乏统一的可信人工智能技术标准和评估体系,是当前人工智能领域存在的主要问题。
“诸如人工智能生成物的可版权性以及权利归属问题、训练数据来源的合法性问题、隐私保护问题、人工智能侵权问题以及虚假生成内容的责任认定等,在当前法律制度体系中存在一定立法空白。当前人工智能算法训练和使用过程中面临的各类数据安全、网络安全、隐私泄露等问题,已经成为制约人工智能健康发展的关键痛点,亟须形成一套可信人工智能技术标准和评估体系来加以规范。”对此,楼向平从法律法规等多个层面提出切实建议。
构建系统化的人工智能法律法规体系
楼向平认为,首先,应积极推动人工智能领域立法进程。“建议建立国家层面的立法研究工作组,充分收集学术界、产业界意见,汲取国外立法经验,兼顾约束不当行为和营造产业优良发展环境的目的,积极开展人工智能专项立法研究,推动立法进程,促进人工智能产业健康发展。在新法律颁布前,可通过在现有《数据安全法》《著作权法》等法律规定基础上制定行政法规,或发布司法解释、指导性案例等方式阶段性缓解人工智能发展中面临的法律问题。”
同时,明确生成式人工智能“事前—事中—事后”全链条监管机制。“参考欧盟经验,出台人工智能的风险等级规范,针对不同类型、不同风险等级,施加不同的监管措施。引入算法认证标识、监管沙盒机制,指导和支持企业在监管机构的监督下进行创新活动。”楼向平表示。
最后,楼向平提出,还要建立人工智能责任认定和追责机制、各利益相关方共同参与的系统化治理体系。“以技术的使用为主线,将经济利益与责任承担深度结合,形成完整的链式责任分配机制,通过相应主体的分段分层可控,实现生成式人工智能发展的总体可控。”
楼向平提出,政府在治理中应发挥领导性作用,负责制定政策法规、设立专门机构以执行治理规定。行业协会制定技术伦理、行业伦理等行业规范,第三方智库提供咨询建议。社会公众形成约定俗成的行为准则,并对相关主体进行联合监督。各方共同参与、协同发力,形成政府管理、社会监督、行业自治、企业履责、用户自律的体系化人工智能治理体系。
构建统一的可信人工智能技术标准和评估体系
楼向平建议,应构建统一的可信人工智能技术标准和评估体系,加强内生安全防御技术研究,实现人工智能“生成即安全”。具体有三项:
设立人工智能可信性指南,构建可信人工智能标准框架。在训练语料库方面,构建高质量中文语料库和数据集,更好支撑国内人工智能模型训练。在数据收集和使用方面,根据数据的价值和对利益的影响,明确人工智能训练数据的分类分级保护标准,制定不同类型和不同级别数据的处理规则和安全保护措施。在数据存储和传输方面,强化数据脱敏和数据加密要求,防止数据还原为原始信息,引入对称或非对称加密技术降低敏感信息泄露的风险,抵御未经授权的访问和数据泄露。在隐私保护方面,引入差分隐私、同态加密和安全多方计算等技术,确保模型在隐私受限环境中的训练和生成。
依托人工智能可信性指南,建立可信AI评估工作机制。打造国内权威、公平科学的可信AI评测平台,构建自主可控的可信AI检测工具体系。面向训练数据,打造训练数据检测工具,进行防投毒数据、侵权数据、有害数据的分析判断,保证使用合法的数据进行训练,防范与事实不符或有毒的内容注入AI系统。面向生成内容,打造内容生成检测工具,自动识别并报告通过人工智能技术生成的虚假、有害的内容,确保内容质量,保护知识产权。构建可信AI评测平台与AI应用监管工作的协同机制,依据可信AI评测平台的检测结果,对人工智能算法及应用进行评级,形成分级分类的商用准入许可或评估备案机制,构建人工智能法律规范、评估机制、监管工作协同共促的良好生态。
加强安全技术攻关,构建内生安全底座。强化内生安全防御技术,赋能人工智能应用系统,有效阻断和控制应用系统硬件环境存在的漏洞、后门等内生安全的共性问题,使内生安全问题难以发展成为内生安全事件。加强内生安全技术攻关,通过内置安全模块,提升自适应防护能力,使人工智能系统具备稳健性和安全性,有能力应对恶意使用,防范恶意监听、病毒文件、隐私泄露、犯罪技术等违法程序或内容的输出。