网界
网络资讯 网界财经 科技人物 数据洞察 行业动态 智能出行 智能手机 数码极客 商业资讯

HuggingFace平台现恶意AI模型,损坏pickle文件技术如何绕开安全监测?

2025-02-10来源:ITBEAR编辑:瑞雪

近期,网络安全领域曝光了一起针对HuggingFace平台的恶意机器学习模型事件。据The Hacker News报道,安全研究人员在该平台上发现了两个利用非常规手段规避安全检测的恶意模型。

ReversingLabs的研究员Karlo Zanki详细介绍了这些模型的运作机制。他指出,从PyTorch存档中提取的pickle文件,在文件头部隐藏着恶意的Python代码。这些恶意载荷实际上是平台特定的反向shell,旨在连接到预设的硬编码IP地址。

这种攻击手段被命名为nullifAI,其核心目的是绕过现有的安全防护措施,以避免被识别为恶意模型。涉及的两个相关模型存储库分别是glockr1/ballr7和who-r-u0000/0000000000000000000000000000000000000。

据分析,这些模型更多被视为概念验证(PoC),而非真实的供应链攻击案例。然而,它们所揭示的安全隐患不容忽视。Pickle序列化格式在机器学习模型分发中广泛应用,但因其允许在加载和反序列化时执行任意代码,一直被视为潜在的安全风险。

此次检测出的恶意模型采用了PyTorch格式,但实质上是压缩的pickle文件。值得注意的是,虽然PyTorch默认使用ZIP格式压缩,但这两个模型却使用了7z格式。这种不同的压缩方式使它们成功规避了Hugging Face的Picklescan工具的恶意检测。

Zanki进一步强调,这些pickle文件的一个独特之处在于,对象序列化在恶意载荷执行后会中断,导致无法正确反编译对象。这意味着,即使存在反序列化错误,损坏的pickle文件仍然能够部分反序列化并执行恶意代码。

幸运的是,该问题已被及时修复,Picklescan工具也已更新版本以应对此类攻击。这一事件再次提醒了机器学习社区,关于pickle文件的安全使用需保持高度警惕。

安全研究人员还呼吁开发者在分发机器学习模型时,采用更安全的方法来处理pickle文件,以避免潜在的安全风险。同时,平台方也应加强安全防护措施,提升对恶意模型的检测能力。

尽管此次事件未造成大规模损害,但它无疑为机器学习社区敲响了警钟。未来,随着机器学习技术的不断发展,安全问题将愈发凸显。因此,加强安全防护、提升安全意识将是永恒的主题。

同时,此次事件也揭示了网络安全领域的复杂性和多样性。攻击者总是不断寻找新的漏洞和攻击手段,而防御方则需时刻保持警惕,不断更新和完善安全防护体系。

百度AI成果井喷:从智能涌现到效果涌现,产业结构迈向健康倒金字塔
李彦宏在大会上表示,“我们用AI重构搜索结果页,不是简单地在搜索结果中插入AI摘要,而是把搜索从一个以文字内容和链接为主的互联网应用,转化为一个以图片视频等富媒体内容为主的AI应用。” 在李彦宏看来,AI数字…

2025-11-15

百度世界大会:李彦宏携AI“军火库”全面开放,开启应用新篇章
现场演示连线数字人罗永浩环节上,出现了“翻车”这一尴尬现象时,李彦宏的情绪也并没有太多波动,而是感觉“有点遗憾”,并表示“其实我们在之前演练的过程当中觉得这个效果还是非常令人惊艳的”。 还有大模型层面上的文…

2025-11-15

百度世界大会发布AI新成果:文心5.0等亮相,李彦宏畅谈AI内化生产力变革
李彦宏在大会上表示,“我们用AI重构搜索结果页,不是简单地在搜索结果中插入AI摘要,而是把搜索从一个以文字内容和链接为主的互联网应用,转化为一个以图片视频等富媒体内容为主的AI应用。” 在李彦宏看来,AI数字…

2025-11-13

百度“文心杯”第三届落幕:8支团队获千万投资,李彦宏力推AI应用普及
李彦宏表示,我们看到越来越多的创业者在各种场景发现AI的新能力、新效果,希望更多的人能够加入这个发现之旅,也正基于此,百度连续三年举办“文心杯”创业大赛。 第三届“文心杯”创业大赛8支优胜团队共获得数千万元…

2025-11-13

2025百度世界大会聚焦AI发展:成果发布,内化能力引领新质生产力变革
本届大会以“效果涌现”为主题,聚焦国产芯片最新进展、大模型升级、AI应用创新与全球出海,呈现了百度作为中国人工智能领军企业,如何将AI技术内化为产业发展的原生动能,为加快形成新质生产力提供可落地的“百度方案”…

2025-11-13