Simple Science

La science de pointe expliquée simplement

# Informatique # Intelligence artificielle # Complexité informatique

Repenser l'intelligence humaine chez les robots

Examiner les défis de la création de robots avec une intelligence semblable à celle des humains.

Michael Guerzhoy

― 7 min lire


Le défi de l'IA comme les Le défi de l'IA comme les humains création de robots intelligents. Analyser les arguments contre la
Table des matières

Imagine que tu veux créer un robot qui peut penser et agir comme un humain. Ça sonne fun, non ? Mais en fait, faire un robot qui comprend vraiment et se comporte comme nous, c'est pas si simple. Certains chercheurs disent qu'ils ont prouvé que créer de tels robots intelligents par apprentissage machine est pratiquement impossible. Décomposons pourquoi cette affirmation pourrait être fausse.

Quel est le problème ?

Les chercheurs en question ont fait une déclaration audacieuse : ils croient pouvoir prouver que créer un robot avec une intelligence semblable à celle des humains est un défi insoluble. Cependant, ils semblent avoir fait une erreur dans leur raisonnement. Ils ont basé leur preuve sur une hypothèse douteuse sur le comportement des Données lorsqu'on essaie d'enseigner aux machines. Plus précisément, ils n'ont pas défini clairement ce que signifie vraiment "semblable à un humain" et ont ignoré l'idée que différents systèmes d'apprentissage machine sont construits avec leurs propres biais uniques, qui affectent leur apprentissage.

Définir l'intelligence "semblable à celle des humains"

D'abord, on doit comprendre ce qu'on entend par "intelligence semblable à celle des humains". C'est juste passer un test ou montrer des émotions ? Les humains sont des créatures complexes. On a des sentiments, des compétences sociales, et la capacité de penser de manière critique. Si on ne peut pas définir exactement ce qui rend notre pensée unique, toute preuve affirmant qu'on ne peut pas la reproduire sera peu solide. C'est comme essayer de faire un gâteau sans connaître la recette.

Le problème des données

Ensuite, parlons des données. Les chercheurs ont supposé que n'importe quel type de données pouvait être utilisé pour enseigner aux machines, mais ce n'est pas tout à fait vrai. Par exemple, si on enseigne à un robot à reconnaître des chats sur des photos, on a besoin de beaucoup de données de chats. Mais si le robot a une vision biaisée de ce à quoi ressemble un chat - par exemple, seulement des photos de chats duveteux - il pourrait avoir du mal à reconnaître un chat maigre ou un chat avec un chapeau rigolo. Ça reflète comment l'apprentissage humain est façonné par nos expériences.

Problème avec les sous-ensembles

Maintenant, ajoutons une autre couche. Les chercheurs ont aussi essayé de se concentrer sur des sous-ensembles de données, mais ils ont aussi buté là-dessus. Si on choisit des morceaux de données très spécifiques, on pourrait rater le tableau d'ensemble. Par exemple, si on montre uniquement des photos de chats avec des chapeaux, le robot pourrait penser que tous les chats portent des chapeaux ! En gros, choisir le bon type de données est super important quand on enseigne aux machines.

Le théorème d'Ingénia : c'est quoi ?

Ce théorème a été présenté dans le cadre de leur argument. En termes simples, le théorème suggère que si tu veux créer une machine intelligente, tu dois d'abord lui présenter des données d'une manière spécifique. Les chercheurs affirment que les problèmes de l'IA par apprentissage signifient qu'il est impossible de créer une intelligence semblable à celle des humains juste en alimentant des données. Mais encore une fois, cette supposition ne tient pas compte de la façon dont les humains apprennent vraiment de leurs expériences.

Malentendu sur la machine d'apprentissage

Un point clé dans leur preuve est de savoir si on regarde une distribution aléatoire de données ou une bien structurée qui reflète le comportement humain réel. Si les données sont aléatoires, alors leur argument ne s'applique pas vraiment ; ça devient juste un problème général d'apprentissage des machines à partir d'exemples. Si les données sont bien structurées, alors ils doivent trouver un moyen de montrer que leur argument tient toujours, ce qu'ils n'ont pas fait. C’est comme essayer d'expliquer comment nager sans se mouiller !

L'apprentissage est-il toujours difficile ?

Les chercheurs suggèrent que, puisque l'IA par apprentissage est ingérable, cela signifie que certaines fonctions ne peuvent pas être apprises. Ça pourrait être vrai, mais ça ne veut pas dire qu'on ne peut pas Apprendre d'autres choses avec les bonnes approches. Il existe des fonctions structurées qui peuvent être effectivement apprises. Le secret, c'est de savoir lesquelles peuvent être traitées avec les données et outils qu'on a.

Plongée dans le concret : fonctions structurées

Les fonctions structurées, c'est un peu comme avoir une bonne carte en voyage. Si les données qu'on utilise pour enseigner aux machines ne sont pas aléatoires et chaotiques mais ont un certain ordre ou des règles, le processus d'apprentissage devient beaucoup plus gérable. Pense à un robot qui apprend à jouer aux échecs. Il y a des règles définies, et si le robot comprend ces règles, il peut apprendre efficacement de chaque partie.

Qu'en est-il des sous-ensembles de données ?

Les chercheurs ont évoqué la possibilité de se concentrer sur des sous-ensembles spécifiques de données qui pourraient ne pas être apprenables. Ils ont suggéré que si on examine uniquement un type de comportement particulier, cela pourrait compliquer les choses. Cependant, il n'est toujours pas clair si de tels scénarios sont réalistes. Par exemple, les humains peuvent-ils vraiment utiliser n'importe quel type d'algorithme en même temps ? Probablement pas. On résout souvent les problèmes étape par étape, en utilisant notre environnement et nos outils - comme ce bon vieux stylo et papier.

Biais inductifs : les aides à l'apprentissage

Un autre défi est l'idée de "biais inductifs". Ce terme complexe fait référence aux prédispositions qui aident les machines à mieux apprendre. Tout comme il devient plus facile d'apprendre à faire du vélo avec de la pratique, certaines méthodes d'enseignement des machines peuvent faire une différence. On pense que certains types d'apprentissage machine fonctionnent mieux avec des tâches spécifiques à cause de ces biais. Un modèle bien ajusté peut faire toute la différence lors de l'apprentissage à partir de données, un peu comme ta paire de chaussures préférée peut rendre la course moins pénible.

Évidence historique sur l'apprentissage

Regarder comment la physique a évolué nous donne aussi des aperçus sur l'apprentissage machine. Tout comme les scientifiques ont appris à améliorer leurs approches au fil du temps, il pourrait être possible de développer de meilleures méthodes pour enseigner aux machines. Le chemin de la découverte dans n'importe quel domaine prend du temps et nécessite souvent des essais et des erreurs.

Conclusions : on en est où ?

Pour résumer tout ça, prouver si l'IA semblable à celle des humains est entièrement impossible n'est pas simple. Bien sûr, il y a des défis, et les chercheurs ont souligné certains points valables, mais la preuve qu'ils ont présentée a des lacunes significatives. L'important à retenir, c'est que l'apprentissage, que ce soit pour les humains ou les machines, est un voyage complexe et nuancé.

Donc, même si c'est tentant de jeter l'éponge et dire que créer des machines intelligentes est futile, c'est plus juste de dire qu'on a encore un long chemin à parcourir – et c'est ça qui est fun ! Après tout, qui n'aime pas un bon défi ?

Plus de l'auteur

Articles similaires