Simple Science

La science de pointe expliquée simplement

# Informatique# Vision par ordinateur et reconnaissance des formes# Intelligence artificielle

Améliorer les méthodes de quantification pour les modèles de deep learning

De nouvelles techniques améliorent la quantification tout en gérant les valeurs aberrantes pour de meilleures performances du modèle.

― 6 min lire


Méthodes deMéthodes dequantification avancéesdévoiléesl'apprentissage profond.défis de la quantification pourDe nouvelles techniques s'attaquent aux
Table des matières

Les réseaux neuronaux profonds ont fait d'énormes progrès dans plein de domaines, comme la reconnaissance d'image et de voix. Par contre, quand ces réseaux deviennent plus gros et plus complexes, ils demandent aussi plus de ressources pour faire des calculs et du stockage. Ça pose un défi, parce que c'est important de garder l'exactitude de ces modèles tout en les rendant plus rapides et plus compacts.

Une méthode courante pour relever ce défi s'appelle la Quantification. Ça consiste à réduire la taille des nombres utilisés dans les calculs pour économiser de l'espace et accélérer le traitement. Par exemple, changer les nombres d'un format large à un plus petit, comme passer de 32 bits à 8 bits. Ça peut aider à rendre les modèles plus légers et plus efficaces, mais ça peut aussi entraîner une baisse de performance.

Pourquoi la Quantification est Importante

La quantification a gagné en popularité parce qu'elle permet aux modèles de fonctionner sur des appareils avec des ressources limitées, comme les téléphones portables ou les capteurs. Ces appareils ne peuvent souvent pas gérer de gros modèles qui demandent beaucoup de puissance. Cependant, utiliser la quantification peut parfois entraîner une précision inférieure, surtout pour les modèles qui ont été modifiés pour améliorer les performances, appelés modèles reparamétrés.

Les modèles reparamétrés sont conçus pour être plus efficaces dans le traitement et peuvent inclure diverses techniques pour améliorer la vitesse tout en maintenant une performance élevée. Mais quand on essaie d'appliquer la quantification à ces modèles, ils rencontrent souvent des problèmes à cause de la présence de Valeurs aberrantes-des valeurs qui sont significativement plus hautes ou plus basses que la plupart des autres.

Le Problème des Valeurs Aberrantes

Les valeurs aberrantes peuvent poser des problèmes pendant le processus de quantification. Elles ont tendance à fausser les données, rendant difficile la représentation précise des autres valeurs. Par exemple, en calculant des valeurs moyennes ou des plages, les valeurs aberrantes peuvent influencer considérablement les résultats, menant à une mauvaise performance après quantification.

Dans les modèles qui ont plusieurs branches ou couches, les valeurs aberrantes peuvent apparaître à différents points, compliquant davantage la quantification. Il devient de plus en plus important de trouver un moyen d'identifier et de gérer ces valeurs aberrantes pour préserver l'exactitude du modèle après quantification.

Introduction de Nouvelles Méthodes

Pour lutter contre les problèmes causés par les valeurs aberrantes, de nouvelles méthodes ont été développées. Ces méthodes visent à optimiser le processus de quantification en se concentrant sur la façon dont les valeurs aberrantes affectent la précision. Deux méthodes clés introduites sont :

  1. Reparamétrisation Protégeant la Quantification : Cette approche vise à protéger le modèle pendant la quantification en ajoutant une couche supplémentaire qui ajuste les valeurs en fonction de la présence de valeurs aberrantes. Au lieu d'appliquer un calcul standard sur toutes les valeurs, cette méthode s'adapte en fonction de la situation spécifique de chaque canal, améliorant la performance du modèle.

  2. Calibration Inter-blocs : Cette technique examine la sortie de différents blocs à l'intérieur du modèle pour recueillir plus d'informations pendant le processus de quantification. En tenant compte des résultats d'autres parties du modèle, elle aide à s'assurer que les ajustements effectués pendant la quantification sont plus précis et efficaces.

Ces méthodes aident à réduire l'influence des valeurs aberrantes sur le processus de quantification et visent à maintenir un niveau de précision élevé dans les modèles finaux.

Le Rôle de l'Erreur Absolue Moyenne

Traditionnellement, beaucoup de méthodes de quantification utilisaient l'Erreur Quadratique Moyenne (EQM) pour déterminer comment le modèle performait. Cependant, l'EQM peut être fortement influencée par les valeurs aberrantes puisque ça élève au carré les différences, accordant plus de poids aux grandes erreurs.

En revanche, l'Erreur Absolue Moyenne (EAM) traite toutes les différences de manière égale, ce qui en fait un meilleur choix dans les situations où des valeurs aberrantes sont présentes. En utilisant l'EAM, on peut se concentrer davantage sur la majorité des valeurs et moins sur les extrêmes, ce qui donne des résultats plus précis.

Expériences et Résultats

Pour valider ces nouvelles méthodes, une série d'expériences a été menée sur divers types de modèles et de tâches. Ces expériences visaient à comparer la performance des techniques de quantification traditionnelles avec les nouvelles méthodes mises en œuvre.

Les résultats ont montré que l'utilisation des nouvelles méthodes réduisait considérablement la perte de précision généralement observée pendant la quantification. Par exemple, en utilisant la quantification 8 bits, les modèles utilisant les nouvelles méthodes ont mieux fonctionné d'environ 1% par rapport aux méthodes traditionnelles. L'amélioration était encore plus grande avec la quantification 6 bits, montrant une augmentation d'environ 2% de précision.

Ces résultats soulignent l'efficacité des méthodes proposées pour préserver la performance des modèles pendant le processus de quantification.

Application dans Différents Modèles

Les nouvelles méthodes de quantification ont été testées sur une variété de modèles, y compris ceux conçus pour des tâches de classification d'images et de détection d'objets. Chaque modèle présente des défis uniques, surtout ceux qui utilisent la reparamétrisation.

Par exemple, des modèles comme RepVGG et MobileOne, qui sont structurés pour être légers et efficaces, ont montré des améliorations significatives de performance quand les nouvelles méthodes ont été appliquées. Dans le domaine de la détection d'objets, des modèles comme YoLov6 ont aussi bénéficié des améliorations, démontrant la polyvalence et l'efficacité des méthodes proposées dans différentes applications.

Conclusion

En résumé, les défis de la quantification des modèles d'apprentissage profond, en particulier ceux reparamétrés, ont été abordés grâce à des méthodes innovantes qui gèrent efficacement les valeurs aberrantes. En protégeant le modèle pendant la quantification et en utilisant des mesures d'erreur plus adaptées comme l'EAM, ces méthodes permettent d'obtenir des résultats performants même avec des largeurs de bits plus petites.

Alors que les modèles continuent d'évoluer et de devenir plus complexes, la recherche et le développement continus dans les techniques de quantification seront essentiels. Les travaux futurs se concentreront sur l'expansion de ces approches à des architectures de réseaux plus complexes tout en affrontant des défis supplémentaires posés par différents types de convolutions et d'opérations. L'objectif ultime reste de repousser les limites de ce qui peut être accompli avec des modèles quantifiés, rendant des modèles puissants et efficaces accessibles pour une large gamme d'applications.

Source originale

Titre: Towards Accurate Post-training Quantization for Reparameterized Models

Résumé: Model reparameterization is a widely accepted technique for improving inference speed without compromising performance. However, current Post-training Quantization (PTQ) methods often lead to significant accuracy degradation when applied to reparameterized models. This is primarily caused by channel-specific and sample-specific outliers, which appear only at specific samples and channels and impact on the selection of quantization parameters. To address this issue, we propose RepAPQ, a novel framework that preserves the accuracy of quantized reparameterization models. Different from previous frameworks using Mean Squared Error (MSE) as a measurement, we utilize Mean Absolute Error (MAE) to mitigate the influence of outliers on quantization parameters. Our framework comprises two main components: Quantization Protecting Reparameterization and Across-block Calibration. For effective calibration, Quantization Protecting Reparameterization combines multiple branches into a single convolution with an affine layer. During training, the affine layer accelerates convergence and amplifies the output of the convolution to better accommodate samples with outliers. Additionally, Across-block Calibration leverages the measurement of stage output as supervision to address the gradient problem introduced by MAE and enhance the interlayer correlation with quantization parameters. Comprehensive experiments demonstrate the effectiveness of RepAPQ across various models and tasks. Our framework outperforms previous methods by approximately 1\% for 8-bit PTQ and 2\% for 6-bit PTQ, showcasing its superior performance. The code is available at \url{https://github.com/ilur98/DLMC-QUANT}.

Auteurs: Luoming Zhang, Yefei He, Wen Fei, Zhenyu Lou, Weijia Wu, YangWei Ying, Hong Zhou

Dernière mise à jour: 2024-02-25 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2402.16121

Source PDF: https://arxiv.org/pdf/2402.16121

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires