プライバシーと機能を保ちながら、機械がデータを忘れる方法を探る。
Àlex Pujol Vidal, Anders S. Johansen, Mohammad N. S. Jahromi
― 1 分で読む
最先端の科学をわかりやすく解説
プライバシーと機能を保ちながら、機械がデータを忘れる方法を探る。
Àlex Pujol Vidal, Anders S. Johansen, Mohammad N. S. Jahromi
― 1 分で読む
大規模言語モデルにおけるおべっか使いの問題とその影響を考察する。
Lars Malmqvist
― 1 分で読む
AIにおけるバイアスの見方と、それに公平に取り組む方法。
Valentin Barriere
― 1 分で読む
このガイドでは、AIを効果的に訓練しつつデータを安全に保つ方法について話すよ。
Qi Li, Cheng-Long Wang, Yinzhi Cao
― 1 分で読む
AIコンテンツ制作における安全フィルターの重要性を探る。
Massine El Khader, Elias Al Bouzidi, Abdellah Oumida
― 1 分で読む
AI言語モデルのバイアスを調べて、潜在的な解決策を考えてる。
Carolin M. Schuster, Maria-Alexandra Dinisor, Shashwat Ghatiwala
― 1 分で読む
プライバシー監査は、今日の情報時代で個人データを守るためにめっちゃ重要だよ。
Shiming Wang, Liyao Xiang, Bowei Cheng
― 1 分で読む
この記事では、AI生成画像における多様性の重要性について話してるよ。
Mischa Dombrowski, Weitong Zhang, Sarah Cechnicka
― 1 分で読む
予測的不確実性を使ってAIが作った画像を見分ける新しい方法。
Jun Nie, Yonggang Zhang, Tongliang Liu
― 1 分で読む
研究者たちがフィリピン語の言語モデルのバイアスに取り組んで、文化的な関連性を高めてるよ。
Lance Calvin Lim Gamboa, Mark Lee
― 1 分で読む
画像分類における公正なAIの必要性を探る。
Javon Hickmon
― 1 分で読む
人工知能における表面的意識仮説を探る。
Yosuke Miyanishi, Keita Mitani
― 1 分で読む
オンラインのやり取りの裏にある隠されたトリックを明らかにする。
Meng Li, Xiang Wang, Liming Nie
― 1 分で読む
AIモデルの性別バイアスを明らかにするための決定木の活用。
Ana Ozaki, Roberto Confalonieri, Ricardo Guimarães
― 1 分で読む
新しい方法が、AIモデルが不要な情報を安全に取り除くのを助けてる。
Harry J. Davies, Giorgos Iacovides, Danilo P. Mandic
― 1 分で読む
公平性シールドはAIの決定を監視して、平等を促進し、バイアスを減らすんだ。
Filip Cano, Thomas A. Henzinger, Bettina Könighofer
― 1 分で読む
AIが人間の意図に沿って unintended outcomesなしにどう調和できるかを発見しよう。
Paria Rashidinejad, Yuandong Tian
― 1 分で読む
AIが楽しい方法でどのように人々を動かすかを探る。
Manuel Cebrian, Petter Holme, Niccolo Pescetelli
― 1 分で読む
言語モデルがどんなふうに学んで適応しながら、有害なコンテンツを避けられるかを発見しよう。
Han Zhang, Zhuo Zhang, Yi Zhang
― 1 分で読む
新しいアプローチが、AIシステムをもっと信頼できるものにして、騙しにくくしようとしてるんだ。
Marc Carauleanu, Michael Vaiana, Judd Rosenblatt
― 1 分で読む
研究者たちが巧妙な手法を使ってマルチモーダル大規模言語モデルの脆弱性を発見した。
Yangyang Guo, Ziwei Xu, Xilie Xu
― 1 分で読む
デジタル世界でアルゴリズムが公平性にどう影響するかを学ぼう。
Chris Lam
― 0 分で読む
データプライバシーと機械学習のインサイトをどう両立させるか学ぼう。
Zijian Zhou, Xinyi Xu, Daniela Rus
― 1 分で読む
新しいフレームワークがAI評価でパフォーマンスと同じくらい安全性を重視してるよ。
Haonan Li, Xudong Han, Zenan Zhai
― 1 分で読む
バックドア攻撃はテキスト分類モデルを台無しにして、バイアスを注入して結果を歪めることがある。
A. Dilara Yavuz, M. Emre Gursoy
― 1 分で読む
画像生成におけるデータの誤用から守るための保護手段を見てみよう。
Sen Peng, Jijia Yang, Mingyue Wang
― 1 分で読む
AIシステムの公平性を確保することは、責任あるテクノロジーの導入にとって重要だよ。
Thomas P. Zollo, Nikita Rajaneesh, Richard Zemel
― 1 分で読む