这篇工作聚焦于视觉-语言-动作(VLA)模型的供应链安全风险,提出了一种新型多模态对抗攻击框架。该框架能够有效扰动VLA模型的多模态对齐,导致其动作输出产生偏差,在仿真实验和真实设备中均使任务执行成功率显著下降。研究不仅揭示了VLA模型在实际部署中可能面临的安全威胁,也为构建更安全的具身智能系统提供了重要的评估基准。
本研究针对联邦学习中的“隐私泄露”与“投毒攻击”双重威胁,提出了一种去中心化的安全模型训练框架SMTFL。在无需可信第三方的前提下,SMTFL在多数据集上显著提升模型的安全性与鲁棒性,在保持模型精度的同时实现超过 95% 的恶意客户端识别准确率。
本文提出DARF,一种基于动态自适应随机投影的通信高效联邦学习框架。针对联邦学习中通信效率、隐私保护与模型精度之间的固有矛盾,DARF通过根据训练动态自适应调整投影维度,克服了传统固定维度随机投影方法无法适应优化阶段变化的局限性。该框架将自适应投影机制与ADMM共识优化相结合,在压缩通信的同时保持训练稳定性。理论分析给出了通信复杂度与隐私泄露上界。实验表明,在极端通信预算下,DARF相比基线方法每轮通信成本降低四个数量级,并在CIFAR-100等复杂数据集上显著优于FedAvgDP等隐私保护方法,实现了更优的精度-通信-隐私平衡。
这篇工作聚焦于现有的多模态联邦学习系统面临多重挑战,提出了一种针对多模态联邦学习的安全模型训练框架MTSec。该框架可用单模态数据在客户端间进行多模态模型训练,克服了现实世界数据异构的限制。除此之外,该框架实现了在多模态联邦学习场景下,提升了模型训练的稳健性的同时也保证了训练数据的机密性。