Alineando Normas y Valores en Sistemas Multi-Agente
Este estudio presenta un modelo para alinear normas con múltiples valores en sistemas de agentes.
― 8 minilectura
Tabla de contenidos
Los sistemas multiagente (MAS) se utilizan para tareas complejas como el control del tráfico y la gestión de la energía. Estos sistemas están formados por agentes que operan con objetivos específicos y pueden actuar por su cuenta. Los agentes en estos sistemas trabajan juntos o incluso compiten entre sí. Un aspecto clave que ayuda a estos agentes a colaborar es el uso de Normas, o reglas, que guían su comportamiento. Aquí es donde entran en juego los Sistemas Multiagente Normativos (NorMAS).
En NorMAS, las normas son reglas creadas por un grupo social o la mayoría de los agentes para regular el comportamiento. Por ejemplo, en muchos lugares, hay una regla que requiere que los conductores cedan el paso a los vehículos de emergencia. En otro ejemplo, se espera que los pasajeros dejen que las personas mayores tomen los asientos más cercanos a la puerta en un autobús. Estas normas ayudan a los agentes a entender cómo comportarse en diversas situaciones, lo que facilita el trabajo en equipo y la toma de decisiones.
Promover los valores humanos en MAS es vital para asegurar que estos sistemas reflejen las aplicaciones del mundo real. Los valores representan lo que se considera importante, como la equidad, la igualdad, la salud o la felicidad. Por ejemplo, una empresa podría tener una norma que permita la licencia de maternidad para los empleados. Sin embargo, si los valores de la empresa apoyan la igualdad, tanto hombres como mujeres tendrían derecho a la misma cantidad de licencia.
La Alineación de Valores se refiere a la idea de alinear el comportamiento de los agentes inteligentes con valores humanos compartidos. Esta idea ha sido explorada en investigaciones, lo que ha llevado a varios métodos para enfrentar los desafíos de la alineación de valores. Los métodos comunes incluyen estrategias de razonamiento, enfoques de aprendizaje y algoritmos genéticos. Sin embargo, la mayoría de las soluciones se han centrado en alinear un valor a la vez.
En realidad, a menudo es necesario alinear múltiples valores al mismo tiempo, especialmente ya que las personas y los agentes pueden tener valores diferentes. Esta investigación busca abordar esa brecha creando un modelo que promueva múltiples valores simultáneamente utilizando algoritmos especializados.
Desafíos
Un desafío importante en la alineación de valores es que muchos modelos existentes se centran en alinear agentes con un valor principal o los valores más populares. Sin embargo, en situaciones de la vida real, todos los valores, independientemente de su compatibilidad interna, deben tenerse en cuenta. Otro problema es que los agentes pueden variar en los valores que apoyan, especialmente cuando algunos valores entran en conflicto. Por ejemplo, la equidad y la igualdad a veces pueden estar en desacuerdo, donde asegurar la equidad puede no significar promover la igualdad.
Algunos estudios existentes crean normas directamente a partir de los valores. Este es un problema ya que, en muchos casos, las normas y los valores pueden ser incompatibles. Por ejemplo, una comunidad puede valorar la igualdad pero también tener una norma que prioriza a los mayores en las colas. Por lo tanto, es crucial reconocer que las normas y los valores deben tratarse como entidades separadas.
Esta investigación propone un modelo llamado Modelo de Alineación y Optimización Normativa (NAO) con tres objetivos principales:
- Elegir el mejor conjunto de normas en un sistema con agentes diversos.
- Optimizar múltiples valores en el sistema, incluidos tanto valores compatibles como en conflicto.
- Alinear conjuntos independientes de normas y valores.
Al formular esto como un problema de optimización multiobjetivo, podemos representar los valores como objetivos a optimizar y las normas como variables de decisión. Esto permite que el sistema identifique las mejores normas que se alinean con los valores.
Metodología
El estudio emplea algoritmos evolutivos multiobjetivo (MOEAs) para encontrar el conjunto óptimo de normas. Estos algoritmos han tenido éxito en varios campos, incluida la logística y la gestión ambiental. En esta investigación, se probaron varios MOEAs para evaluar su rendimiento en diferentes escenarios.
La investigación examina el impacto de usar diferentes algoritmos evolutivos en la alineación de valores y normas. Al analizar los resultados desde varios ángulos, podemos ver cómo la elección del algoritmo influye en las soluciones obtenidas.
Algoritmos Evolutivos
Los MOEAs son técnicas flexibles que pueden manejar problemas multiobjetivo sin requisitos estrictos sobre las funciones a optimizar. Se basan en algoritmos evolutivos anteriores (EAs), pero están diseñados para situaciones con múltiples objetivos.
Un concepto fundamental en los MOEAs es la dominancia de Pareto. Esto significa que una solución se considera mejor que otra si es igual en todos los aspectos y mejor en al menos uno. El objetivo es encontrar un equilibrio entre objetivos en conflicto para asegurar soluciones óptimas.
Existen varios tipos de MOEAs, cada uno con diferentes métodos para clasificar soluciones. Algunos de estos incluyen NSGA-II, SPEA2 y MOMBI2.
Formulación del Problema
El estudio analiza un sistema multiagente multi-valor normativo, que consiste en agentes regulares y un agente regulador responsable de crear normas. Cada agente tiene su propio conjunto de valores, propiedades, acciones y normas adoptadas. El agente regulador también tiene sus propios valores a considerar al tomar decisiones.
Los principales desafíos para el agente regulador incluyen sintetizar las mejores normas que se alineen con los valores de todos los agentes regulares mientras las optimiza, incluso cuando esos valores son incompatibles.
Escenario del Sistema Fiscal
Para ilustrar el modelo, se utilizó un sistema fiscal como caso de prueba. Aquí, los agentes regulares representan a los ciudadanos, y el agente regulador representa al gobierno. El gobierno recauda impuestos basándose en la riqueza de los ciudadanos. Algunos ciudadanos evaden impuestos, y si los atrapan, enfrentan sanciones.
En este escenario, el gobierno tiene sus propios valores a considerar, como la equidad y la igualdad. El desafío radica en equilibrar la recaudación de impuestos con los valores de los ciudadanos. Los ciudadanos también tienen sus valores relacionados con la riqueza y la equidad.
Evaluación Experimental
El estudio evaluó cuatro algoritmos diferentes-NSGA-II, MOEA/DD, SPEA2 y MOMBI2-usando el escenario fiscal como base para el análisis. Se probaron dos conjuntos diferentes de objetivos: el primero incluía dos objetivos, mientras que el segundo incorporaba cinco objetivos basados en los valores de los ciudadanos.
Al comparar el rendimiento de los algoritmos, se utilizaron métricas como Hypervolume e IGD+ para medir la calidad. Hypervolume proporciona una forma de visualizar el espacio ocupado por las soluciones, mientras que IGD+ evalúa qué tan bien se distribuyen las soluciones a través de los objetivos.
Resultados
La evaluación reveló que diferentes algoritmos produjeron resultados variados. En el ajuste de dos objetivos, NSGA-II superó consistentemente a los demás en términos de calidad. Sin embargo, al considerar el enfoque de cinco objetivos, MOEA/DD mostró una estabilidad y calidad impresionantes.
Un análisis más profundo de los frentes de Pareto generados por cada algoritmo destacó diferencias en la distribución y calidad de las soluciones. En el caso de dos objetivos, NSGA-II logró muchas soluciones no dominadas, lo que condujo a una mejor calidad general. En contraste, MOMBI2 tuvo muchas soluciones dominadas, lo que resultó en un peor rendimiento.
Al examinar el rendimiento según diferentes objetivos, quedó claro que priorizar un objetivo podría afectar negativamente a otros. Por ejemplo, enfocarse en la igualdad llevó a disminuciones en la riqueza de algunos ciudadanos, mientras que maximizar la riqueza podría obstaculizar la equidad.
Discusión
La investigación demostró la capacidad de NAO para optimizar múltiples valores de manera eficiente, independientemente de su compatibilidad. También seleccionó con éxito normas que se adaptan a un grupo diverso de agentes. Al separar las normas de los valores en su optimización, NAO pudo tratarlos como entidades independientes.
Este estudio destaca la importancia de entender las dependencias de valores en un sistema, mostrando cómo priorizar un valor puede afectar a otros. Subraya la necesidad de un enfoque equilibrado para la alineación de valores en sistemas complejos.
Conclusión
La investigación presentó NAO, un modelo diseñado para alinear varias normas con múltiples valores en sistemas multiagente. Al emplear algoritmos evolutivos multiobjetivo, NAO abordó efectivamente las complejidades de alinear valores diversos y a veces conflictivos.
El trabajo futuro podría involucrar la integración de técnicas de razonamiento que ayuden a seleccionar las mejores soluciones de los conjuntos optimizados. También se podría desarrollar un mecanismo en línea para la alineación de valores en tiempo real para fortalecer la aplicabilidad del modelo.
A través de este estudio, hemos dado pasos hacia la creación de sistemas más sofisticados capaces de manejar la intrincada red de valores y normas en escenarios del mundo real.
Título: Multi-Value Alignment in Normative Multi-Agent System: Evolutionary Optimisation Approach
Resumen: Value-alignment in normative multi-agent systems is used to promote a certain value and to ensure the consistent behavior of agents in autonomous intelligent systems with human values. However, the current literature is limited to incorporation of effective norms for single value alignment with no consideration of agents' heterogeneity and the requirement of simultaneous promotion and alignment of multiple values. This research proposes a multi-value promotion model that uses multi-objective evolutionary algorithms to produce the optimum parametric set of norms that is aligned with multiple simultaneous values of heterogeneous agents and the system. To understand various aspects of this complex problem, several evolutionary algorithms were used to find a set of optimised norm parameters considering two toy tax scenarios with two and five values are considered. The results are analysed from different perspectives to show the impact of a selected evolutionary algorithm on the solution, and the importance of understanding the relation between values when prioritising them.
Autores: Maha Riad, Vinicius Renan de Carvalho, Fatemeh Golpayegani
Última actualización: 2023-05-12 00:00:00
Idioma: English
Fuente URL: https://arxiv.org/abs/2305.07366
Fuente PDF: https://arxiv.org/pdf/2305.07366
Licencia: https://creativecommons.org/licenses/by-nc-sa/4.0/
Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.
Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.
Enlaces de referencia
- https://github.com/vinixnan/jMetalHyperHeuristicHelper
- https://htmlpreview.github.io/?
- https://github.com/vinixnan/PublicData/blob/master/NAO/Fronts/index.html
- https://raw.githubusercontent.com/vinixnan/PublicData/master/NAO/Fronts/obj1_obj2_obj3.html
- https://raw.githubusercontent.com/vinixnan/PublicData/master/NAO/Fronts/obj1_obj2_obj4.html
- https://raw.githubusercontent.com/vinixnan/PublicData/master/NAO/Fronts/obj1_obj2_obj5.html
- https://raw.githubusercontent.com/vinixnan/PublicData/master/NAO/Fronts/obj1_obj4_obj5.html
- https://raw.githubusercontent.com/vinixnan/PublicData/master/NAO/Fronts/obj3_obj4_obj5.html