◎本报记者付丽丽
“当前,AI应用系统安全责任与风险严重失衡。”7月31日,在由中国互联网协会、360互联网安全中心主办的第十二届互联网安全大会上,中国工程院院士、国家数字交换系统工程技术研究中心主任邬江兴说。这也是众多与会者的心声。人工智能技术的广泛应用正推动着各行各业转型升级,但也给网络安全治理带来新的挑战。为此,大会以“打造安全大模型,引领安全行业革命”为主题,呼吁行业以大模型重塑安全体系,守护数字经济稳健发展。多位专家及业内人士深入剖析人工智能技术发展带来的安全挑战,共同探索安全大模型驱动数字安全发展新路径。
产研携手共探新解法
面对AI系统面临的窘境,邬江兴提出,基于内生安全架构可发现或纠正AI应用系统安全问题,AI应用系统中必须包含必要多样性和相对正确公理的内生安全构造,在不可信的过程中找到相对可信的结果。智能时代需要选择正确的技术路径,打造更安全的AI应用系统。
中国工程院院士吴世忠在主题演讲中表示,由AI技术带来的新型安全问题已成为现实,安全行业将迅速迈进AI驱动的新时代。然而,大模型安全研究可以说才刚刚开始。无论是安全研究还是安全产业,都必须紧跟科技进步和应用创新,才能服务好发展,保障好发展。
随着生成式人工智能驱动AI发展进入新阶段,AI治理随之也变成了一个突出问题。先进计算与关键软件(信创)海河实验室主任、中国新一代人工智能发展战略研究院执行院长龚克指出,AI治理应遵循有利发展、为人服务和基于伦理三点原则,要清楚认识到技术自身的不足,以及人对AI技术的恶用、滥用、误用等风险。他强调,防止AI“作恶”要建立明确的伦理标准、提高透明度和问责制、完善法律法规、内置安全机制等。此外,要坚持开放创新,在信创基础上发展安全可控的AI生态。
安全大模型落地关键要找准“明星场景”
人工智能等前沿数字技术正在重新定义内容的生产与消费模式,大模型在企业运营中的应用日益广泛。中国工程院院士邬贺铨在致辞中指出,大模型提供方与垂直行业合作开发行业大模型,将大模型拆分成模块提供服务,将有利于中小型企业更容易地应用AI大模型。此外,要注重创新升级数字安全防护措施。
“发展安全大模型是安全迈向‘自动驾驶’的必由之路,也是成功之路,而落地安全大模型的关键是找准‘明星场景’。”大会主席、360集团创始人周鸿祎说。
周鸿祎认为,面对愈加复杂的传统安全问题和大模型带来新的安全问题,必须用AI重塑安全,以模治模,用安全大模型解决“新老”安全问题。
借鉴传统汽车的自动驾驶,周鸿祎表示,用AI升级安全也要提出类似自动驾驶的L1-L5级别目标,通过数据和知识的训练,让自动驾驶取得突破。
受制于知识、成本等因素,周鸿祎建议,不要追求用一个大模型解决所有问题,应该让专业大模型解决专业问题。2024年是场景之年,关键要结合业务找“明星场景”,然后根据场景设计功能,根据功能需求对大模型进行专项训练。
当前,人工智能跨越式发展,业界主流模型从千亿稠密到万亿稀疏,并逐步走向百万级超长序列和多模态。华为副总裁、ISP与互联网系统部总裁岳坤表示,如何在智能时代的早期保证相应的服务能力和服务水平,将是首批智能应用面临的核心挑战之一。他强调,提升安全水平是保障智能化服务能力和服务水平的关键,而原生技术是人工智能时代最大的安全。华为今年发布了昇腾原生计划,将投入专项资金,以技术+商业驱动生态繁荣,为客户打造更加匹配场景需求的方案,加速AI模型的应用。