- Imprimer
- Partager
- Partager sur Facebook
- Share on X
- Partager sur LinkedIn
Thèse / Equipe Vision et Emotion
Du 1 septembre 2023 au 30 août 2026
Apport de la multi-modalité dans l’apprentissage incrémental embarqué
La prolifération massive des méthodes de DL dans tous les domaines d’application fait prendre conscience des deux limitations de ces méthodes très puissantes pour le traitement statistique de données : la première est le coût (aussi bien énergétique que financier) exorbitant de l’apprentissage des réseaux de neurones, le second est la dépendance à l’accès à des quantités massives de données et surtout à leurs annotations.
Un moyen de contourner ces limites consiste à réaliser l’apprentissage du réseau au plus près des capteurs pour limiter les déplacements massifs de données et les couts d’infrastructure associés, ainsi qu’un apprentissage en continu pour répondre à la question des données qui ne seraient pas toutes disponibles initialement. La tendance du Edge computing tente aujourd’hui de rapprocher le calcul des capteurs en intégrant l’IA au sein de dispositifs électroniques faible consommation. Cette voie est aujourd’hui bien étudiée, notamment par des architectures neuromorphiques efficaces, mais ne concerne encore que la phase d’inférence.
Nous nous intéressons dans ce projet de thèse à la phase d’apprentissage en étudiant les capacités d’apprentissage en-ligne des reseaux de neurones artificiels. Bien que notre objectif final sois le développement de techniques bénéficiant des avantages de ces architecture neuromorphiques, la première phase de cette étude consistera à exploiter des réseaux de neurones formels (DL) afin notamment de créer un socle de comparaison tant au niveau de la précision de nos modèles, de son cout de calcul, de ces besoins en terme de données ainsi que sa consommation d'énergie. En collectant des données de différents capteurs (multimodales), ces systèmes intelligents peuvent déceler des évolutions dans les données et l’environnement qui les génère. Ces changements peuvent nécessiter un apprentissage incrémental du réseau de neurone sous-jacent pour soit ajuster son modèle à de nouvelles conditions, soit apprendre de nouvelles catégories selon le problème traité. Dans tous les cas ce ré-apprentissage doit alors se faire en un temps et un budget énergétique réduit.
Le problème de l’apprentissage en-ligne doit faire face à plusieurs obstacles encore aujourd’hui sans consensus dans la littérature : la détection de nouveauté, l’apprentissage sans ou avec peu de labels, l’oubli catastrophique face à un apprentissage continu de nouvelles données.
Le cerveau biologique gère pourtant naturellement les évolutions constantes de notre environnement depuis notre plus jeune âge jusqu’à l’âge adulte. Ses capacités de plasticité sont nombreuses et se révèlent à plusieurs niveaux de son organisation. Il exploite notamment les corrélations spatio-temporelles provenant des différentes modalités sensorielles qui lui servent à appréhender son environnement. Ses modalités fusionnent et se complètent tout en étant traitées et acheminées par des voies neurales différentes.
Nous souhaitons donc étudier dans ce projet comment la projection entre les modalités peut aider à améliorer la qualité d’un apprentissage tout au long de la vie, en surmontant le problème d’oubli catastrophique tout en réduisant le besoin d’annotation de données.
ED STIC STIC - Sciences et Technologies de l'Information et de la Communication n° 84 spécialité Automatique traitement du signal et des images
Encadrement de la thèse :
BENOIT MIRAMOND benoit.miramonduniv-cotedazur.fr (benoit[dot]miramond[at]univ-cotedazur[dot]fr)
Marina REYBOZ marina.reybozcea.fr (marina[dot]reyboz[at]cea[dot]fr) (Codirection)
Martial MERMILLOD martial.mermilloduniv-grenoble-alpes.fr (martial[dot]mermillod[at]univ-grenoble-alpes[dot]fr) (Codirection)
Mots-clés :
Apprentissage incrémental, Apprentissage multimodale, Architectures neuromorphiques, Intelligence Artificielle embarqué
Date
Financement
CEA - Bourse CTBU
- Imprimer
- Partager
- Partager sur Facebook
- Share on X
- Partager sur LinkedIn