Este estudio examina problemas de privacidad y métodos de protección para clasificadores de IA.
― 7 minilectura
Ciencia de vanguardia explicada de forma sencilla
Este estudio examina problemas de privacidad y métodos de protección para clasificadores de IA.
― 7 minilectura
Este estudio evalúa qué tan bien los modelos de IA entienden diferentes culturas.
― 5 minilectura
Un nuevo método de defensa para mejorar la seguridad en modelos de difusión de texto a imagen.
― 6 minilectura
NFARD ofrece métodos innovadores para proteger los derechos de autor de modelos de aprendizaje profundo.
― 8 minilectura
Este estudio se centra en reducir el sesgo de género en los modelos de lenguaje de IA a través de un lenguaje inclusivo.
― 8 minilectura
Mejorando la confianza y el cumplimiento en modelos de lenguaje mediante una atribución de fuentes precisa.
― 7 minilectura
Este estudio revela que los LLMs prefieren su propia producción en lugar del contenido escrito por humanos.
― 4 minilectura
Un estudio revela que tanto los humanos como la IA tienen dificultades para reconocerse entre sí.
― 7 minilectura
Examinando cómo el lenguaje influye en las opiniones de género a través de sesgos en modelos de IA.
― 4 minilectura
CEIPA ayuda a descubrir vulnerabilidades en modelos de lenguaje grandes para mejorar su seguridad.
― 7 minilectura
Examinando los riesgos y las medidas de seguridad para robots impulsados por LLM.
― 9 minilectura
Examinando el impacto de los LLM en los estereotipos sociales y formas de mejorar los resultados.
― 6 minilectura
Un estudio revela riesgos sorprendentes de compartir datos sensibles con chatbots.
― 8 minilectura
Examinando la privacidad diferencial y la regresión NTK para proteger los datos de los usuarios en la IA.
― 8 minilectura
Explorando la privacidad diferencial para proteger información sensible en aplicaciones de IA.
― 7 minilectura
Honest Computing pone énfasis en la confianza y la ética al manejar datos.
― 11 minilectura
Un marco que permite a los propietarios de datos verificar el uso no autorizado de sus datos en ML.
― 8 minilectura
Este método mejora la privacidad mientras se mejora la precisión del modelo en IA.
― 7 minilectura
Explorando técnicas para eliminar datos de modelos de IA de manera efectiva.
― 9 minilectura
Examinando los efectos sociales y ambientales de los modelos de IA.
― 7 minilectura
Examinando la privacidad diferencial en el procesamiento del lenguaje natural para una mejor protección de datos.
― 9 minilectura
Examinando cómo las herramientas de IA pueden reforzar los sesgos en la revisión de currículos.
― 6 minilectura
El método CrossWalk mejora la equidad en las incrustaciones de nodos teniendo en cuenta la información sensible.
― 6 minilectura
Las explicaciones engañosas de la IA pueden influir en creencias, complicando la lucha contra la desinformación.
― 6 minilectura
Este artículo examina la efectividad de los métodos actuales de verificación de desaprendizaje automático.
― 8 minilectura
Examinando cómo los T2Is retratan las identidades de castas y refuerzan estereotipos.
― 8 minilectura
Un estudio revela posibles filtraciones de información personal de identidad por parte de VLMs.
― 7 minilectura
Examinando el papel de la IA cuestionable para la equidad y la responsabilidad.
― 8 minilectura
Un nuevo marco mejora la alineación de los modelos de lenguaje con las preferencias de los usuarios.
― 9 minilectura
La investigación explora cómo estimar estadísticas mientras se respetan las necesidades de privacidad de los usuarios.
― 7 minilectura
Un nuevo conjunto de datos resalta los sesgos en los modelos de lenguaje según el género y la edad.
― 9 minilectura
Los chatbots de IA pueden crear recuerdos falsos, lo que genera preocupaciones en entornos legales.
― 7 minilectura
Nuevos métodos mejoran el reconocimiento facial y abordan las preocupaciones sobre la privacidad.
― 8 minilectura
Un método para mejorar la detección de deepfakes reduciendo los sesgos de datos.
― 5 minilectura
Analizando cómo los modelos de lenguaje manejan los sesgos sociales en las opiniones.
― 7 minilectura
Un nuevo método reduce los sesgos en modelos de imagen y texto de manera efectiva.
― 7 minilectura
Un nuevo método mejora la detección de mensajes perjudiciales en modelos de lenguaje.
― 7 minilectura
Una mirada a las principales diferencias entre la IA Explicable y la IA Interpretable.
― 9 minilectura
Explorando el desaprendizaje certificado y su papel en la protección de la privacidad de datos.
― 8 minilectura
Examinando el sesgo social en modelos de lenguaje en chino y motores de búsqueda.
― 5 minilectura