AIモデルへの対抗的攻撃AIモデルへの対抗的攻撃操作の危険性を調べる。マルチモーダルシステムにおけるターゲット機械学習マルチモーダルモデルに対する敵対的攻撃のリスク画像やテキストモデルに対する敵対的攻撃の危険性を調べる。2025-10-06T05:04:06+00:00 ― 0 分で読む
堅牢なビジョン・言語モデル堅牢なビジョン・言語モデル操作の脅威に対抗するモデルを強化する。機械学習視覚と言語のモデルにおける安全性の向上視覚と言語モデルに対する敵対的攻撃への強靭性を向上させる。2025-08-29T06:32:08+00:00 ― 1 分で読む