Avancées dans la prise de décision des systèmes autonomes
La recherche se concentre sur l'amélioration du traitement de l'information dans les systèmes autonomes critiques pour la sécurité.
― 8 min lire
Table des matières
- Le défi de la surcharge d'informations
- Prise de décision dans les systèmes autonomes
- Objectifs de la recherche
- Pertinence et prise de décision
- Le modèle du monde au moment de la conception
- Gérer l'incertitude
- Structure du modèle
- Pertinence et traitement de l'information
- Observer les travaux connexes
- La nature de la pertinence
- Systèmes autonomes critiques pour la sécurité
- Observations et connaissances
- Processus de conception pour les systèmes autonomes
- Conclusion
- Travaux futurs
- Source originale
À l'université Carl von Ossietzky à Oldenburg, on bosse sur des systèmes avancés capables de gérer des tâches tout seuls. Ces systèmes peuvent construire une version du monde qui les entoure et faire des plans selon ce qu'ils perçoivent. Ils peuvent comprendre quelles infos sont importantes pendant qu'ils accomplissent leurs tâches.
Le défi de la surcharge d'informations
Ces systèmes reçoivent souvent trop d'infos de diverses sources. Toutes ces infos ne sont pas cruciales pour leurs tâches. Notre but principal, c'est de trouver un moyen fiable pour ces systèmes d'identifier ce qui est nécessaire pour les garder en sécurité pendant qu'ils bossent.
Par exemple, quand une voiture autonome arrive à un passage piéton, elle doit ralentir si des gens essaient de traverser la rue. La voiture n'a pas besoin de savoir la couleur des chemises des piétons ou combien d'entre eux attendent. Cependant, connaître le nombre de personnes peut aider la voiture à estimer quand elles seront dégagées, ce qui peut influencer sa décision de faire un détour.
Prise de décision dans les systèmes autonomes
La façon dont ces systèmes gèrent leurs actions peut être vue comme une stratégie. Ils choisissent leurs actions en fonction des infos qu'ils ont collectées. La décision qu'ils prennent combine ce qu'ils voient dans le monde avec ce qu'ils comprennent. Par exemple, une voiture peut observer une limitation de vitesse et savoir comment la vitesse affecte son mouvement.
Comme ces systèmes ont généralement des moyens limités de percevoir leur environnement et de communiquer, ils font souvent face à l'incertitude. À tout moment, plusieurs scénarios différents peuvent être vrais, et ils ne peuvent pas toujours savoir lequel est le plus proche de la réalité.
Objectifs de la recherche
Notre recherche se penche sur ce dont ces systèmes ont besoin de percevoir et de savoir pour prendre de bonnes décisions. On veut comprendre quelles Observations et Connaissances sont vitales pour leur succès dans des situations critiques. On soutient que le système n'a pas besoin d'infos complètes pour bien performer.
Pour mettre nos idées en pratique, on développe un modèle qui montre clairement comment ces systèmes forment des Croyances. Grâce à ce modèle, on peut définir ce que ça veut dire pour une info d'être pertinente dans le processus de décision du système.
Pertinence et prise de décision
À nos yeux, quelque chose est pertinent s'il est nécessaire pour que le système atteigne ses objectifs. Un mélange de connaissances, d'observations et de croyances est jugé pertinent si omettre l'un de ces éléments entraînerait une performance moins efficace.
On présente une méthode pour déterminer les combinaisons pertinentes de connaissances, d'observations et de croyances. Cette approche sera particulièrement utile dans les premières étapes de la conception de ces systèmes, où des modèles simples sont souvent utilisés.
Le modèle du monde au moment de la conception
On suppose que les ingénieurs vont créer un modèle du monde qui définit la tâche que le système va accomplir. Ce modèle peut provenir de bases de données de différents scénarios et critères de test.
Avant d'analyser les infos nécessaires pour le système, on suppose aussi que les croyances potentielles que le système peut avoir ont déjà été définies. Cela inclut quels objets et relations seront représentés dans ses croyances.
Gérer l'incertitude
Le système opère souvent sous incertitude. Même quand la situation est floue, il doit agir. Par exemple, si une voiture autonome rencontre une route glissante, elle doit ajuster ses actions en fonction de son estimation des conditions.
Les principaux objectifs du système incluent gagner du temps et éviter les collisions. Les décisions de tourner ou de s'arrêter doivent être prises rapidement, souvent sans avoir toutes les infos sur ce qui se passe devant.
Structure du modèle
On développe une approche structurée pour aider à comprendre comment ces systèmes forment des croyances. Notre modèle représente explicitement les croyances du système et examine comment elles influencent la prise de décision. Un système est considéré comme rationnel s'il choisit des actions qu'il pense être efficaces.
Pertinence et traitement de l'information
Le concept central de notre travail est de déterminer quelles infos sont pertinentes pour un système autonome crucial pour la sécurité. On explore comment les définitions de pertinence utilisées dans d'autres domaines, comme la récupération d'infos, peuvent s'appliquer à notre contexte.
Observer les travaux connexes
La pertinence a été discutée dans divers domaines, y compris la philosophie, la psychologie et la science de l'information. En récupération d'infos, la pertinence a été un défi majeur depuis le début, quand les bibliothécaires cherchaient à trouver les bons documents pour les utilisateurs.
Le concept de pertinence implique une relation entre l'informatisation et les besoins d'un utilisateur. Cette relation peut être décomposée en différentes catégories, comme la pertinence système, la pertinence thématique et la pertinence cognitive. Comprendre comment ces dimensions interagissent est crucial pour notre recherche.
La nature de la pertinence
La pertinence est un concept dynamique et subjectif influencé par plusieurs facteurs. Dans notre travail, on adapte ces idées pour déterminer quelles observations et connaissances sont nécessaires pour des systèmes autonomes critiques pour la sécurité.
Systèmes autonomes critiques pour la sécurité
On se concentre sur la pertinence des perceptions et des connaissances liées à des systèmes autonomes critiques pour la sécurité. Bien que la récupération de documents pertinents puisse sembler sans rapport avec les entrées nécessaires pour un système autonome, les deux abordent l'idée d'identifier quelles infos sont cruciales pour des résultats réussis.
On souligne que les infos et connaissances nécessaires peuvent différer considérablement des situations classiques de récupération d'infos. On veut aider à concevoir des systèmes où les ingénieurs peuvent définir les observations et les connaissances nécessaires pour assurer un bon fonctionnement.
Observations et connaissances
La relation entre observations, connaissances et croyances est fondamentale. Un système autonome doit agir en fonction de son évaluation de la situation, même si cette situation est incertaine. On examine la nature de ces informations et comment elles sont traitées pendant la prise de décision critique.
Comme les systèmes font souvent face à des situations évolutives, le besoin de capacités de traitement robustes devient crucial, car ils doivent s'adapter. On s'intéresse à la façon dont ces systèmes évaluent leur connaissance et les conséquences de leurs croyances dans divers contextes.
Processus de conception pour les systèmes autonomes
Tout au long de notre recherche, on vise à guider la conception de systèmes autonomes avec des relations claires entre observations, connaissances et croyances. On pense qu'en faisant ça, on peut créer des systèmes plus efficaces qui réagissent intelligemment à leur environnement.
On espère que ce travail facilitera le développement de systèmes capables de gérer des complexités dans des environnements incertains tout en atteignant leurs objectifs.
Conclusion
Notre travail se concentre sur la compréhension et l'application de la notion de pertinence dans le contexte des systèmes autonomes critiques pour la sécurité. En examinant comment ces systèmes traitent l'information, on peut aider à garantir qu'ils fonctionnent efficacement et en toute sécurité dans le monde réel.
On croit qu'à mesure que ces systèmes évoluent, ils joueront un rôle de plus en plus significatif dans la société, offrant une base pour de futures innovations dans la technologie autonome. À travers notre recherche, on vise à contribuer des infos précieuses sur la conception et la mise en œuvre de systèmes qui répondent aux exigences de leur environnement.
Travaux futurs
À l'avenir, on prévoit d'explorer davantage comment les concepts que nous avons développés peuvent être mis en œuvre dans des applications pratiques. On mettra l'accent sur l'affinement de nos modèles et l'amélioration de leur adaptabilité à divers contextes. On anticipe que nos découvertes ouvriront la voie à de meilleures conceptions de systèmes autonomes capables de relever des défis du monde réel, garantissant sécurité et efficacité dans leurs opérations.
En posant les bases de la compréhension de la pertinence du traitement de l'information dans les systèmes autonomes, on espère faire avancer ce domaine passionnant. Cela pourrait finalement mener à des avancées qui transformeront notre interaction avec la technologie dans notre vie quotidienne.
Titre: Framing Relevance for Safety-Critical Autonomous Systems
Résumé: We are in the process of building complex highly autonomous systems that have build-in beliefs, perceive their environment and exchange information. These systems construct their respective world view and based on it they plan their future manoeuvres, i.e., they choose their actions in order to establish their goals based on their prediction of the possible futures. Usually these systems face an overwhelming flood of information provided by a variety of sources where by far not everything is relevant. The goal of our work is to develop a formal approach to determine what is relevant for a safety critical autonomous system at its current mission, i.e., what information suffices to build an appropriate world view to accomplish its mission goals.
Auteurs: Astrid Rakow
Dernière mise à jour: 2023-07-23 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2307.14355
Source PDF: https://arxiv.org/pdf/2307.14355
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.