近年来,我国人工智能(AI)产业高速发展。据中国信息通信研究院测算,2025年我国AI核心产业规模预计突破1.2万亿元,AI企业数量超过6000家,其发布的《人工智能产业发展研究报告》指出,随着智能体、具身智能、AI手机等新技术形态的快速发展,AI日益走进大众生活,与此同时,AI引发的安全风险与治理问题也越来越受到社会关注。
当AI智能体更广泛地服务人类需求,帮助用户进行个性化决策与自动化执行时,如何为AI装上“方向盘”“防护栏”,让AI始终在安全可控的轨道上运行,已成为各方共同关注的新议题。
据报道,一些手机的AI助手通过获取手机系统权限,擅自在后台运行并调取用户相关数据。此外,近期有媒体模拟攻击者向测试手机发送恶意邮件,手机AI助手“阅读”邮件后竟然按照恶意指令,将用户的银行登录验证码短信“悄悄”转发给对方,甚至操纵手机拍摄用户照片上传。
全国政协委员、中国科学院计算技术研究所研究员张云泉认为,部分智能体通过直接与手机屏幕界面交互完成跨应用任务,绕过了传统用户主导的操作与授权机制。这种操作不仅有违背用户协议、跳过用户“擅作主张”的风险,同时也挑战了既有的应用商业模式,未来可能导致手机应用之间的“信任危机”与协作壁垒。
对于AI安全风险与治理问题,全国政协委员、恒银金融科技股份有限公司董事长江浩然表示,近年来,我国AI手机产业快速发展,但也面临着数据安全风险不明、技术路线有待规范等挑战。他建议,在架构层面,要完善行业技术标准,明确强调AI手机获取用户数据以及调用应用功能与系统权限时,必须严格按照有关标准执行;在权限层面,防止AI手机滥用系统权限,加强前置审核工作,构建手机终端AI智能体服务备案管理体系,并建立相关动态审计制度。
中国拥有全球最丰富、最活跃的移动互联网应用生态,这为AI智能体服务用户提供了得天独厚的土壤。目前,通过统一标准的协议接口,AI智能体之间可以安全互通信息、协同行动,打破过去因各家应用数据不互通所形成的“系统孤岛”,为AI生态协同的可行性提供了初步验证与示范。全国政协委员、香港“一国两制”研究中心总裁张志刚认为,在AI治理方面,应该以“治”促“用”,比如鼓励部分地区先行先试,制定统一的技术标准,探索建立更加安全高效的AI治理体系。
春潮澎湃,未来可期。受访全国政协委员表示,在AI高速发展的时代浪潮中,面对“AI边界”等新问题,应建立贯穿研发、部署、运行全周期的“可审计、可追溯、可中断”的AI技术管控体系,为AI智能体划边定界,将有助于AI更好融入与便利群众生活,助力我国AI产业高质量发展。(新华每日电讯记者陈改)