在近日举行的上海浦江AI学术年会上,阿里巴巴与上海人工智能实验室联合发布了《守己利他:智能时代做负责任的技术》白皮书。该文件聚焦人工智能技术发展中的安全挑战,提出全行业需以"守己、利他、合作"为原则,共同构建安全可信的AI生态。白皮书强调,在智能体加速渗透社会各领域的背景下,安全已从技术选项演变为关乎社会信任的核心命题。
阿里巴巴人工智能治理与可持续发展实验室主任薛晖指出,当前AI技术正从"交互能力"向"执行能力"跃迁,这种转变要求技术体系必须具备与之匹配的安全防护水平。"去年以来,具备自主调度能力的智能体开始大规模应用,其在执行复杂任务时暴露出的安全风险呈现集中化特征。"他以金融交易场景为例说明,智能体若缺乏有效安全约束,可能引发系统性风险。
针对智能体安全防护难题,阿里巴巴构建了覆盖全技术栈的安全体系。该体系通过芯片层、云计算层、模型层到应用层的纵深防御,在技术源头植入安全基因。特别在模型训练环节,研发团队基于千万级真实漏洞样本构建安全语料库,通过多阶段强化训练使千问大模型的代码生成安全性达到行业领先水平。在权威评测基准SecCodeBench中,该模型生成的代码安全指标位居开源模型首位。
通义实验室安全负责人张荣用"保险箱悖论"阐释用户自建智能体的风险:"普通用户开发的智能体如同将保险柜置于开放空间,其安全防护机制往往存在明显短板。"他对比指出,经过系统安全加固的商业化产品(如Qoder、MuleRun等),通过内置访问控制、异常检测等机制,能提供更可靠的安全保障。这种差异在代码执行和工具调用等高风险环节尤为显著。
在技术开放方面,阿里巴巴采取"安全先行"策略,将内部验证的安全技术模块化输出。这种开源模式既降低了行业整体安全成本,又通过技术共享推动形成安全标准。据介绍,其安全防护体系已实现智能体风险的全链路管控,从模型训练阶段的对抗样本防御,到运行时的实时行为监测,形成闭环式安全保障机制。

