Accueil > Actualités

Soutenances de thèses

publié le , mis à jour le

Agenda

Soutenance de Thèse

  • Atteintes différentielles des processus émotionnels automatiques et contrôlés au cours du vieillissement normal : Approche comportementale et neurocognitive
    5 janvier 2017 - 14:00 - Isabella ZSOLDOS

    Résumé : D’après l’hypothèse de la double voie de traitement des émotions, une émotion peut être traitée soit de façon explicite, c’est-à-dire volontairement, soit de façon implicite, en faisant appel à des processus automatiques. Les traitements émotionnels implicites et explicites reposeraient sur l’activité de réseaux cérébraux partiellement distincts. Des données comportementales et en neuroimagerie laissent penser que ces deux types de processus seraient différemment touchés par le vieillissement normal de l’organisme. L’objectif de ce travail de thèse était d’évaluer les différences de traitement émotionnel entre sujets jeunes (20 – 40 ans) et plus âgés (60 ans et plus) en fonction du niveau de traitement cognitif engagé (contrôlé, automatique). En regard de la littérature sur le vieillissement émotionnel, nous nous attendions à ce que les processus automatiques de traitement de l’émotion soient mieux préservés au cours du vieillissement que les processus contrôlés. Grâce à des mesures comportementales et neurophysiologiques, cette hypothèse a été testée dans trois domaines de recherche : 1) la reconnaissance des expressions faciales émotionnelles, 2) l’effet de positivité lié à l’âge, et 3) la régulation émotionnelle. Dans leur ensemble, les résultats suggèrent que les mécanismes automatiques de perception et de régulation de l’émotion seraient toujours fonctionnels dans le vieillissement, et potentiellement responsables de certains phénomènes comme l’effet de positivité. Les traitements contrôlés/explicites seraient à l’inverse plus touchés avec l’âge, notamment au sujet de la reconnaissance des expressions faciales émotionnelles. Au niveau des processus de régulation émotionnelle, l’atteinte différentielle entre mécanismes automatiques et contrôlés dépendrait des stratégies de régulation considérées.

    Lieu : Amphithéâtre 19 000
    Bâtiment 19, campus de Jacob-Bellecombette, Université Savoie Mont Blanc (Chambéry)

    Notes de dernières minutes : Madame Hanna CHAINAY, Professeure à l’Université Lyon 2 (Rapportrice)
    Madame Sandrine VIEILLARD, Professeure à l’Université Paris Ouest Nanterre La Défense (Rapportrice)
    Madame Laurence CHABY, Maître de Conférences à l’Université Paris Descartes (Examinatrice)
    Monsieur David CLARYS, Professeur à l’Université de Poitiers (Examinateur)
    Monsieur Pascal HOT, Professeur à l’Université Savoie Mont Blanc (Directeur de thèse)


  • Stimulation magnétique transcrânienne robotisée : de l’automatisation des protocoles à de nouvelles approches en neuroimagerie fonctionnelle
    20 mars 2017 - 13:30 - Sylvain HARQUEL

    Résumé : La stimulation magnétique transcrânienne (TMS) est une technique de stimulation corticale non-invasive. Depuis son apparition au milieu des années 1980, les évolutions technologiques qu’elle a connues ont considérablement amélioré sa fiabilité, sa précision ainsi que sa reproductibilité. Ces progrès ont favorisé l’émergence d’un grand nombre d’applications, tant dans le domaine de la recherche fondamentale en neurosciences cognitives que dans celui de la recherche clinique. Cette thèse a pour objectif d’étudier les apports méthodologiques et fondamentaux de la TMS robotisée, dernière avancée technologique du domaine. Grâce à un placement et un suivi automatisés de la bobine de stimulation, la TMS robotisée ouvre en effet la voie à l’automatisation des protocoles, ainsi qu’à l’élaboration de nouvelles approches en neuroimagerie fonctionnelle. Les deux premières études de ce travail abordent ce premier point, en proposant le développement de deux outils nécessaires à l’automatisation du paramétrage des protocoles de TMS : CortExTool et AutoHS. CortExTool est une boîte à outils qui permet l’analyse automatisée des signaux électromyographiques évalués durant le paramétrage, et AutoHS un modèle bayésien assurant une recherche automatique du point chaud moteur, étape essentielle de la procédure. Testée sur données virtuelles et comparée expérimentalement à la pratique manuelle d’experts sur 19 volontaires sains, la procédure automatisée proposée ici apparaît au moins aussi fiable, tout en étant plus rapide et reproductible. La troisième et dernière étude de cette thèse s’attache quant à elle aux apports fondamentaux possibles de la TMS robotisée. Elle propose un protocole qui permet la cartographie extensive des réponses électroencéphalographiques évoquées par la TMS sur 18 aires corticales réparties sur l’ensemble du néocortex. Appliquée sur 22 volontaires sains, l’analyse des propriétés dynamiques de ces réponses fait apparaître des spécificités régionales ainsi que des réseaux corticaux partageant des propriétés communes. Celles-ci étant liées aux caractéristiques cytoarchitecturales des aires stimulées, nos résultats apportent la preuve de concept pour une nouvelle méthode de parcellisation in vivo du cortex chez l’Homme : la cytoarchitectonie fonctionnelle. L’ensemble des résultats de cette thèse confirme l’intérêt de la robotisation de cette technique, qui pourrait à terme faciliter la mise en œuvre des protocoles de TMS et amener de nouveaux outils d’exploration fonctionnelle en neurosciences fondamentales, pour aider au diagnostic des pathologies psychiatriques ou neurologiques.

    Lieu : Amphithéâtre de la MSH-Alpes 1221 avenue centrale
    Domaine universitaire St Martin d’Hères

    Notes de dernières minutes :
    Jury
    Mme Karen Reilly, Chargée de recherche, Centre de Recherche en Neurosciences de Lyon, Rapporteur
    M. Gregor Thut, Professeur, Centre for Cognitive Neuroimaging, Glasgow (Ecosse), Rapporteur
    Mme Mireille Bonnard, Directrice de recherche, Institut des Neurosciences des Systèmes, Marseille, Examinatrice
    M. Blaise Yvert, Directeur de recherche, BrainTech Laboratory, Grenoble, Examinateur
    Sous la direction de M. Olivier David, Directeur de recherche INSERM, Institut des Neurosciences de Grenoble, Directeur de thèse
    M. Alan Chauvin, Maître de conférences, LPNC, Co-encadrant


  • Soutenance Julie Bertrand
    20 octobre 2017 - 13:30 - Julie BERTRAND

    Résumé : La maladie d’Alzheimer est caractérisée par des déficits de mémoire. Toutefois, il est encore difficile de déterminer dans quelle mesure ces personnes ont connaissance ou non de leurs problèmes de mémoire. L’objectif de cette thèse est d’explorer plus en détail les capacités métamnésiques (connaissance de sa propre mémoire) des personnes atteintes d’une maladie d’Alzheimer. Les études antérieures révèlent un pattern de résultats complexes concernant la métamémoire dans la maladie d’Alzheimer et suggèrent en particulier un fractionnement de la métamémoire (Souchay, 2007). Ce travail de thèse explore l’hypothèse d’un fractionnement des capacités de métamémoire (1) entre des tâches de mémoire à long-terme et des tâches de mémoire à court-terme, ou (2) en fonction du type de réponse demandé (jugement de rappel ou jugement d’oubli, ou (3) avec des mesures implicites).
    Pour étudier ce fractionnement, 7 études ont été réalisées comparant des jeunes adultes, des personnes âgées contrôles et des patients présentant un Trouble NeuroCognitif mineur amnésique ou majeur de type Alzheimer. Pour chaque étude, des analyses ont été réalisées afin de voir s’il existe un effet de l’âge ou de la maladie sur les différentes mesures de métamémoire. Les résultats observés confirment un fractionnement de la métamémoire, les patients étant plus précis pour prédire leurs performances sur des tâches de mémoire à court-terme (pourtant déficitaire) que sur des tâches de mémoire à long-terme. De plus, lorsque les jugements de métamémoire sont implicites, ils sont préservés dans la maladie (Mograbi et Morris, 2013) autant sur une tâche de mémoire sémantique que sur une tâche de mémoire épisodique. Enfin, contrairement à ce qui était attendu, les patients sont aussi précis que les personnes âgées pour prédire leurs oublis et leurs performances de rappel sur des tâches de mémoire épisodique et de mémoire sémantique. Ces résultats confirment donc l’existence d’un fractionnement de la métamémoire dans la maladie d’Alzheimer et permettent d’informer les modèles de la métamémoire (Flavell, 1979 ; Nelson et Narens, 1990) et de l’anosognosie (Cognitive Awareness Model : Agnew et Morris, 1998 ; Hannedotir et Morris, 2007 ; Morris et Hannesdotir, 2004 ; Morris et Mograbi, 2013).
    Mots-clés : Métamémoire - Mémoire - Alzheimer - Vieillissement - Conscience - Anosognosie

    Lieu : universite de Bourgogne

    Notes de dernières minutes :
    JURY
    - BEJOT Yannick (co-directeur)
    - SOUCHAY Céline (co-directrice)
    - BASTIN Christine (rapporteur)
    - CHAINAY Anna (rapporteur)
    - DIDIERJEAN André (jury)
    - ISINGRINI Michel (jury)
    - MOREAUD Olivier (rapporteur)


  • Rôle de la surdité précoce et de la langue des signes dans la plasticité fonctionnelle du champ visuel
    29 novembre 2017 - 14:00 - Chloé STOLL

    Résumé : L’expérience sensorielle précoce atypique ou l’expertise dans un domaine sont des phénomènes connus pour modifier certains aspects du traitement visuel. La surdité précoce profonde et la pratique de la langue des signes pourraient ainsi être deux sources distinctes de modulation du traitement visuel. Cette thèse s’intéresse à déterminer l’impact respectif de la surdité et de l’impact de la langue des signes dans le traitement de l’espace visuel périphérique et le traitement des visages et des expressions faciales. Ces processus ont été choisis puisqu’ils sont sollicités dans la communication en langue des signes. En effet, les signes de paroles sont perçus par le champ visuel périphérique inférieur et il est en même temps nécessaire de porter une attention particulière au visage de son interlocuteur qui délivre des informations syntaxiques, grammaticales ou encore affectives indispensables à la compréhension du discours.
    Pour cela, une première série d’études explore l’effet de la surdité et de la langue des signes sur le traitement visuel périphérique et notamment dans l’espace périphérique inférieur. Les résultats montrent que la pratique de la langue des signes chez les entendants peut influencer des aspects spécifiques du traitement visuel de l’espace inférieur et que principalement la rapidité du traitement visuel de bas niveau. La deuxième série d’études explore l’effet de la surdité et de la langue des signes sur le traitement des visages et notamment la reconnaissance des visages et des expressions faciales. Les résultats montrent des différences dans la stratégie d’exploration des visages pour la reconnaissance des visages chez les sourds signeurs avec un effet de la pratique de la langue des signes dans les mécanismes de prise de décision de reconnaissance des visages. Enfin, la surdité associée à la pratique de la langue des signes ne semble pas affecter les seuils de catégorisation d’émotions. Les résultats de nos six études enrichissent la littérature actuelle sur la plasticité sensorielle chez les personnes sourdes signeuses et illustrent l’importance de contrôler systématiquement l’effet de la langue des signes puisqu’elle semble induire des modifications dans le traitement visuel qui lui sont propres.
    Mots clés : Surdité ; langue des signes, plasticité visuelle, périphérie visuelle, reconnaissance des visages, reconnaissances des émotions

    Lieu : Amphi MSH-ALPES Avenue Centrale
    Domaine universitaire St Martin d’Hères


  • Soutenance Morgane BURNEL
    1er décembre 2017 - 00:00 -


  • Mémorisation et reconnaissance de séquences multimots chez l’enfant et l’adulte : effets de la fréquence et de la variabilité interne
    11 décembre 2017 - 09:30 - Cindy Bellanger

    Résumé : Les modèles de la perception du langage écrit et du langage oral mettent au premier plan l’importance du lexique mental. En effet, parmi les nombreux indices hiérarchisés et guidant la segmentation du flux continu de parole chez l’adulte et l’enfant, les indices lexicaux ont une place prépondérante. Tout au long de ce travail, nous nous intéressons aux spécificités du stockage des séquences multimots dans le lexique mental et à l’hypothèse d’une mémorisation de ces séquences en une seule unité. Ce travail se divise en deux parties, chacune composée d’une série d’expériences. La première partie interroge en premier lieu les indices impliqués dans les effets facilitateurs de la reconnaissance des noms au sein du groupe nominal. Pour cela, sont mis en perspective l’effet du genre grammatical porté par les déterminants et l’effet de fréquence de co-occurrence des séquences déterminant-nom sur le traitement du nom. C’est ensuite l’effet de la cohésion des séquences multimots sur leur reconnaissance qui est examiné.La seconde partie aborde l’influence de la variabilité interne des combinaisons déterminant-nom dans l’acquisition de la structure du groupe nominal chez l’enfant de deux ans à deux ans et demi. Au travers d’une étude longitudinale, nous opposons deux grandes conceptions de l’acquisition du langage chez le jeune enfant : la Grammaire Universelle et les approches Basées sur l’Usage.

    Lieu : Salle Jacques CartierRdC
    Maison des Langues

    Notes de dernières minutes :
    Fanny MEUNIER, Directrice de recherche à l’Université Nice Sophia Antipolis, Rapporteur Pierre LARGY, Professeur à l’Université de Toulouse 2 Le Mirail, Rapporteur Céline DUGUA, Maître de Conférences à l’Université d’Orléans, Examinatrice
    Jean-Marc COLLETTA, Professeur à l’Université Grenoble Alpes, Examinateur
    Elsa SPINELLI, Professeur à l’Université Grenoble Alpes, Membre
    Jean-Pierre CHEVROT, Professeur à l’Université Grenoble Alpes, Membre


  • Étude des mécanismes de maintien en mémoire de travail chez les personnes jeunes et âgées : approches computationnelle et comportementale basées sur les modèles TBRS* et SOB-CS
    19 décembre 2017 - 14:00 - HOAREAU Violette

    Résumé : La mémoire de travail est un système cognitif essentiel à notre vie quotidienne. Elle nous permet de conserver momentanément des informations dans le but de réaliser une tâche cognitive. Une des caractéristiques principales de ce type de mémoire est d’être limitée en capacité. Les raisons de cette limitation sont largement débattues dans la littérature. Certains modèles considèrent qu’une cause principale de l’oubli en mémoire de travail est l’existence d’un déclin temporel passif de l’activation des représentations mnésiques alors que d’autres modèles supposent que les interférences entre les informations suffisent à expliquer la capacité limitée de cette mémoire. Deux modèles computationnels ont été proposés récemment (TBRS* et SOB-CS) et illustrent parfaitement ce débat. En effet, ils décrivent de manière très différente ce qui se passe au cours d’une tâche de mémoire de travail impliquant à la fois la mémorisation et le traitement d’informations. En plus de s’opposer sur les causes de l’oubli, ils proposent des processus de maintien en mémoire de travail distincts : le rafraîchissement des informations pertinentes selon TBRS* versus la suppression des informations non pertinentes selon SOB-CS. Les travaux de cette thèse se sont organisés autour de deux objectifs principaux. Premièrement, cette thèse a porté sur l’étude de ces deux modèles et leur mécanisme de maintien. Pour cela, nous avons réalisé des expériences comportementales utilisant la tâche d’empan complexe afin de tester des hypothèses précises de ces modèles. Deuxièmement, nous avons étudié, à l’aide des modèles computationnels, les causes des déficits de mémoire de travail observés chez les personnes âgées, dans le but, à long terme, de créer ou d’améliorer les outils de remédiation. Concernant le premier objectif, les différents résultats d’études ont montré une discordance entre le comportement humain et les simulations. En effet, TBRS* et SOB-CS ne permettent pas de reproduire un effet positif du nombre de distracteurs contrairement à ce qui a été observé expérimentalement. Nous proposons que cet effet positif, non prédit par les modèles, est relié à la mémorisation à long terme non prise en compte dans ces deux modèles. Concernant le deuxième objectif, les résultats comportementaux suggèrent que les personnes âgées auraient principalement des difficultés à rafraîchir les traces mnésiques et à stabiliser les informations à long terme au cours d’une tâche d’empan complexe. Dans l’ensemble, les résultats de cette thèse suggèrent d’approfondir les recherches concernant les liens entre les mécanismes de maintien en mémoire de travail et la mémorisation à long terme, par exemple en proposant un nouveau modèle computationnel permettant de rendre compte de nos résultats. Au-delà des avancées concernant la compréhension du fonctionnement de la mémoire de travail, cette thèse montre également que l’utilisation de modèles computationnels revêt un caractère particulièrement pertinent pour l’étude d’une théorie ainsi que pour la comparaison de différentes populations.

    Lieu : Amphi MSH Alpes

    Notes de dernières minutes :
    Mathy Fabien (rapporteur)
    Szmalec Arnaud (rapporteur)
    Guida Alessandro (examinateur)
    Maquestiaux François (examinateur)
    Michael George (examinateur)
    Benoît Lemaire , Directeur de thèse
    Gaën Plancher, co-encadrant
    Sophie Portrat, co-encadrant


  • Modélisation bayésienne algorithmique de la reconnaissance visuelle de mots et de l’attention visuelle
    15 janvier 2018 - 14:00 - Thierry PHENIX

    Résumé : Dans cette thèse, nous proposons un nouveau modèle conceptuel de la reconnaissance visuelle de mots implémenté sous forme mathématique, de façon à évaluer sa capacité à reproduire les observations expérimentales du domaine. Une revue critique des modèles computationnels existants nous conduit à définir un cahier des charges sous la forme de cinq hypothèses qui sont à la base du modèle conceptuel proposé : le modèle est doté d’une architecture à trois niveaux (sensoriel, perceptif et lexical) ; le traitement est parallèle sur l’ensemble des lettres du stimulus ; l’encodage positionnel est distribué ; enfin, le traitement sensoriel des lettres intègre position du regard, acuité visuelle et distribution de l’attention visuelle. L’implémentation repose sur la méthodologie de la modélisation bayésienne algorithmique, conduisant au modèle BRAID pour "Bayesian word Recognition with Attention, Interference and Dynamics".
    Nous vérifions la capacité du modèle à rendre compte des données obtenues en perceptibilité des lettres (par exemple, effets de supériorité des mots et des pseudo-mots, effets de contexte), en reconnaissance de mots et en décision lexicale (par exemple, effets de fréquence et de voisinage). Au total, nous simulons avec succès 28 expériences comportementales, permettant de rendre compte d’effets subtils dans chacun des domaines ciblés. Nous discutons les choix théoriques du modèle à la lumière de ces résultats expérimentaux, et proposons des perspectives d’extension du modèle, soulignant la flexibilité du formalisme choisi.

    Lieu : Amphi MSH Alpesavenue centrale
    Domaine Universitaire
    St Martin d’Hères

    Notes de dernières minutes : Jury :
    Rapporteur : M. Martin ARGUIN, Professeur, Université de Montréal
    Rapporteur : M. Pierre BESSIÈRE, DR CNRS, SORBONNE Universités
    Examinateur : M. Alain CONTENT, Professeur, Université Libre de Bruxelles
    Examinatrice : Mme Anne GUÉRIN-DUGUÉ, Professeur, Université Grenoble Alpes
    Directrice : Mme Sylviane VALDOIS, DR CNRS, Université Grenoble Alpes
    Co-Directeur : M. Julien DIARD, CR CNRS, Université Grenoble Alpes


  • Méthodes d’apprentissage pour l’imagerie numérique
    3 mai 2018 - 10:30 - Prakhar AMBA

    Résumé : Pour produire des images couleurs nous devons obtenir l’information relative aux trois couleurs primaires (généralement Rouge, Vert et Bleu) à chaque pixels de l’image. Pour capturer cette information la plupart des caméras numériques utilisent une matrice de filtres couleurs (CFA – Color Filter Array en anglais), c’est-à-dire qu’une mosaïque de couleurs recouvre le capteur de manière à ce qu’une seule couleur soit mesurée à chaque position dans l’image.
    Cette méthode de mesure est similaire à celle du système visuel humain (HVS – Human Visual System en anglais) pour lequel les cônes LMS (sensibles aux longues L, moyenne M et courte S (short en anglais)) forment également une mosaïque à la surface de la rétine. Pour le système visuel, l’arrangement est aléatoire et change entre les individus alors que pour les caméras nous utilisons des arrangements réguliers. Dans les caméras, on doit interpoler les couleurs manquantes pour retrouver une image couleur totalement résolue, méthode appelée démosaïçage. A cause de l’arrangement régulier ou périodique des filtres couleurs, l’image démosaïçée peut faire apparaître des fausses couleurs ou des artefacts. Dans la littérature, les algorithmes de démosaïçage adressent principalement les mosaïques régulières.
    Dans cette thèse, nous proposons un algorithme de démosaïçage par apprentissage statistique, qui peut être utilisé avec n’importe quelle mosaïque régulière ou aléatoire. De plus, nous optimisons l’arrangement des couleurs dans la mosaïque et proposons des mosaïques qui, avec notre méthode, offrent des performances supérieures aux meilleures méthodes appliquées aux mosaïques régulières. Les images démosaïçées à partir de ces mosaïques ne présentent pas de fausses couleurs ou artefacts.
    Nous avons étendu l’algorithme pour qu’il ne soit pas limité à trois couleurs mais puisse être utilisé pour un arrangement aléatoire d’un nombre quelconque de filtres spectraux. Avoir plus de trois couleurs permet non seulement de mieux représenter les images mais aussi de mesurer des signatures spectrales de la scène. Ces mosaïques sont appelées matrice de filtres spectraux (SFA – Spectral Filter Array en anglais). Les technologies récentes nous offrent une grande flexibilité pour définir les filtres spectraux et par démosaïçage nous pouvons obtenir des couleurs plus justes et une estimation de la radiance spectrale de la scène. Le substrat silicium dans lequel les photodiodes du capteur sont réalisées est sensible aux radiations proche infra-rouge et donc des filtres visibles et proche infra-rouge peuvent-être combinés dans la même mosaïque. Cette combinaison est particulièrement utile pour le nouveau challenge des caméras numérique d’obtenir des images couleurs en vision de nuit à basse lumière.
    Nous démontrons l’application de notre algorithme pour plusieurs exemples de cameras récentes équipées d’une matrice de filtres spectraux. Nous montrons que notre méthode est plus performante que les algorithmes actuels en terme de qualité d’image et de vitesse de calcul. Nous proposons également d’optimiser les transmissions des filtres et leur arrangement pour améliorer les résultats selon des métriques ou applications choisies.
    La méthode, basée sur la minimisation de l’erreur quadratique moyenne est linéaire et par conséquent rapide et applicable en temps réel. Finalement, pour défier la nature linéaire de notre algorithme, nous proposons un deuxième algorithme de démosaïçage par réseaux de neurones qui à des performances légèrement meilleures mais pour un coût de calcul supérieur.

    Lieu : Amphi MSH Alpes


  • 1 | 2 | 3 | 4 | 5 | 6 | 7

Ajouter un événement iCal