言語モデル攻撃への対策言語モデル攻撃への対策危険な操作からAIを守る新しい方法。人工知能言語モデルにおけるバックドア攻撃の軽減バックドア攻撃に対するLLMの新しい防御戦略。2025-07-26T23:22:36+00:00 ― 1 分で読む
教育を見直してモデルを調整教育を見直してモデルを調整する良いとは限らないんだ。AIの指導方法では、大きいことが必ずしも人工知能インストラクションチューニングの前提を疑う研究によると、大きいモデルが必ずしも小さいモデルを教えるのに良いわけじゃないんだって。2025-05-25T19:40:21+00:00 ― 1 分で読む