刘金瑞:应对生成式AI潜在风险,需要健全上下游共治机制
大河报·豫视频记者 黄婷 李鑫 王新昌 冯子雍
5月27日,2024年全民数字素养与技能提升月河南省活动开幕式在信阳举行,中国法学会法治研究所研究员刘金瑞以《生成式人工智能技术发展现状、风险挑战与治理策略》为题,作了主旨演讲。
随着新一代信息技术的飞速革新,AI大模型迈入规模应用的新阶段,人工智能成为发展新质生产力、助推科技高质量发展、赋能千行百业的重要推手。今年政府工作报告提出,深化大数据、人工智能等研发应用,开展“人工智能+”行动,打造具有国际竞争力的数字产业集群。河南也将“人工智能”作为2024年河南主题词。
然而,对于我们普通用户来说,生成式人工智能是接触最多的AI技术。在方便我们查资料、学习、工作生活之余,它蕴藏着哪些风险,如何应对这种挑战?
主旨演讲期间,刘金瑞用通俗易懂的语言,将人工智能相关专业知识、专有名词进行科普。
刘金瑞介绍,大模型技术的发展,掀起了生成式人工智能发展的新浪潮,但其数据训练和部署应用也带来了新的风险挑战,包括产生有害内容、泄露敏感数据、生成错误信息、滥用实施违法活动、可能危害环境和经济、向下游传导风险等。
刘金瑞认为,面对这种挑战,欧盟近期拟对基础模型和生成式基础模型提供者设定专门义务,但背离了基于风险分级规制的立法初衷。二我国出台专门办法侧重规制大模型部署者,对大模型本身风险管控有限。
刘金瑞介绍,规制大模型风险,要遵循数据利用安全范式,基于风险分类分级规制,实现上下游的合作共治。按照这一思路构建新型风险规制框架,主要包括设立专门机构引导发展、评估和应对风险,规范数据训练以避免数据泄露和不当输出,基于特定用途风险构建风险分级管控制度,确立贯穿大模型全生命周期的透明度制度,健全防止生成违法内容的上下游共治机制。
来源:大河报·豫视频 编辑:王惟一