意思決定におけるAIへの依存を理解するためのフレームワーク。
― 1 分で読む
最先端の科学をわかりやすく解説
意思決定におけるAIへの依存を理解するためのフレームワーク。
― 1 分で読む
この論文はプロンプトインジェクションとそのAIモデルへの影響について調べてるよ。
― 1 分で読む
要約モデルが政治的意見のバイアスをどう反映しているかを調べる。
― 1 分で読む
この研究は、LLMがAIの可能な危害をどのように予測できるかを分析してるんだ。
― 1 分で読む
テキストから画像モデルにおける害の増幅とその社会的影響を調査中。
― 1 分で読む
新しいフレームワークが、生成モデルに敏感なデータを忘れさせながら性能を維持するのを助けるよ。
― 1 分で読む
この研究は、マルチモーダル大規模言語モデルに対する脱獄攻撃を調査してるよ。
― 1 分で読む
拡散モデルのセキュリティリスクと検出方法を調査中。
― 1 分で読む
機械学習がどんだけ性別バイアスを続けてるか、その感情的な影響を調べること。
― 0 分で読む
データ保護法と機械学習の実践の関係を調べる。
― 1 分で読む
情報主導の世界で個人データを守る方法を探る。
― 1 分で読む
摩擦がAIのユーザー体験をどう高めるか探る。
― 1 分で読む
言語モデルの説明の質と課題の分析。
― 1 分で読む
LLMが時間情報を理解して保持する限界を調べる。
― 1 分で読む
新しい透かし技術が、機械生成コンテンツのテキストの多様性と検出を改善してるよ。
― 1 分で読む
注意がどのように引きつけられ、社会に与える影響についての分析。
― 1 分で読む
この記事は、言語モデルにおける有害なファインチューニングの危険性について考察してるよ。
― 1 分で読む
新しい方法でAIのデータを保護しつつ、効率的な計算を実現してるよ。
― 1 分で読む
言語モデルから不要なスキルを取り除きつつ、必要な機能をそのまま残す方法。
― 1 分で読む
新しいベンチマークがAI関連の危険を測定して軽減することを目指してるよ。
― 1 分で読む
大規模言語モデルが生成する推奨のバイアスを評価するためのフレームワーク。
― 1 分で読む
公平な結果を得るための大規模言語モデルのバイアスを最小限に抑える方法。
― 1 分で読む
この論文では、大規模言語モデルにおける性別バイアスを分析し、測定方法を提案してるよ。
― 1 分で読む
言語モデルのバイアスが実世界の応用にどう影響するかを評価する。
― 1 分で読む
新しいモデルが機械学習を使って、アイデンティティ特徴からリアルな画像を作成する。
― 1 分で読む
信頼できるAIシステムを開発するための重要な特性と課題を探る。
― 1 分で読む
AI言語モデルの安全対策を回避するために使われるテクニックの研究。
― 1 分で読む
スタンスとフレーミングを通じて、大規模言語モデルにおける政治的偏見を測定する研究。
― 1 分で読む
言語モデルにおけるスパースフィーチャー回路を詳しく見て、その影響を考える。
― 0 分で読む
AIの予測における分かりやすい理由付けの重要性を探る。
― 1 分で読む
大規模言語モデルの安全性と信頼性を向上させるためのフレームワーク。
― 1 分で読む
言語翻訳技術における倫理の役割を探る。
― 1 分で読む
機械的な忘却がどうやって機密データを暴露するかを調べる。
― 1 分で読む
ALERTベンチマークは、言語モデルの安全リスクを評価して、応答を改善するんだ。
― 1 分で読む
画像をより安全で責任あるものにするための新しいツール。
― 1 分で読む
研究はトルコ語モデルにおけるバイアスとその社会的影響を調査している。
― 1 分で読む
コンテキストステアリングがどうやって言語モデルの応答を適応的なコンテキスト使用で強化するかを学ぼう。
― 1 分で読む
最近の研究は、言語モデルにおける知識神経説の単純さに疑問を投げかけている。
― 1 分で読む
研究が言語モデルのプライバシー問題に革新的なアンラーニング方法で取り組んでる。
― 1 分で読む
調査によると、採用に使われるAIツールには人種や性別に基づくバイアスがあることがわかった。
― 1 分で読む