中国互联网协会知识产权工作委员会与度小满科技近日联合发布《人工智能用户权益保护关键问题研究报告》,针对人工智能产业快速发展中用户权益保护面临的挑战展开系统研究。报告显示,截至2025年,我国人工智能核心产业规模已突破1.2万亿元,生成式人工智能用户达5.15亿,但侵权形态多样化、责任界定模糊、损害后果系统性等问题日益凸显,超半数受访者对AI引发的安全与隐私问题表示担忧,同时认为现有法律保障体系存在不足。
报告以人工智能个人用户权益为核心研究对象,涵盖人格权、公民权、民事权益及消费者权益等多维度。研究指出,用户权益风险贯穿AI技术应用全流程,包括数据采集、内容生成、算法决策及网络安全等环节。在国际治理层面,美国采取市场自律模式,欧盟实施强监管框架,日本则通过软法治理探索平衡路径;我国已构建起统筹发展与安全的治理体系,通过顶层规划、基础立法、专项规范及标准制定形成多层次保护框架,目前已有数十款生成式AI服务完成备案登记。
报告重点剖析了四类高风险场景:数据采集训练阶段存在合法性冲突、数据偏见及过度收集问题;虚假内容生成环节可能侵害人格权,并因AI“幻觉”现象引发新型侵权;算法决策偏差导致消费者权益受损,甚至造成人身财产损害;网络安全漏洞则可能引发数据泄露、模型攻击及供应链风险等系统性危害。针对这些挑战,报告从法律界定、监管强化及技术研发三方面提出建议,包括明确责任主体、完善动态监管机制、推动全栈安全技术创新等,并展示度小满在深伪检测、风控决策智能体等领域的实践成果。
报告强调,人工智能用户权益保护需推动法律体系系统性重构,通过专门立法框架与现行法律适配性完善形成双重保障;监管模式应向敏捷治理转型,实现全流程动态监管与多元主体协同共治;同时需促进权益保护与产业创新的协同共生,通过技术赋能治理、建立弹性监管机制,在保障用户权益的同时激发创新活力,最终推动人工智能产业向“以人为本、智能向善”的方向可持续发展。


