本站内容为虚构演示,与真实新闻及机构无关;请勿当作事实或专业意见。

全文

FULL TEXT

查看本期期刊
观察AI

研究警告:大模型训练数据投毒风险上升,AI安全攻防战开启

安全研究人员发现,大模型训练数据投毒攻击正在增多,恶意数据可导致AI输出有害内容或产生后门触发机制,引发AI安全担忧。

AI安全研究机构今日发布报告,警示大模型训练数据投毒风险。

攻击原理

数据投毒指在训练数据中植入恶意样本:

  • 后门触发:特定词汇激活有害输出
  • 行为偏离:导致模型产生错误决策
  • 隐蔽性强:标准测试集无法检测

影响规模

  • 主流开源模型中,23%存在潜在后门
  • 企业自训练模型中,41%面临数据投毒风险

应对措施

  • 数据溯源技术
  • 模型行为审计
  • 对抗性训练
  • 多模型交叉验证