Accueil > Personnel

Hélène Lœvenbruck

Hélène Loevenbruck


Chercheuse CNRS

Responsable de l'équipe Langage

Membre du BabyLab du LPNC

Rédactrice en chef de In Cognito - Cahiers Romans de Sciences Cognitives

Membre du comité d'organisation de la Semaine du Cerveau de Grenoble

Médaille de Bronze du CNRS 2006


Laboratoire de Psychologie et NeuroCognition
CNRS UMR 5105 - Université Grenoble Alpes
Bâtiment Michel Dubois - Bureau E109
CS40700 - 38058 Grenoble Cedex 9 France



Tél. : +33 476 825 675

Helene.Loevenbruck@univ-grenoble-alpes.fr

🇬🇧 English Version


🎯 OBJECTIFS DE RECHERCHE


Le langage est au fondement de l’humanité car il sous-tend la communication, la pensée et l’autonoèse, i.e. la conscience de soi dans le temps.

Ces trois fonctions essentielles sont interdépendantes, entrelacées et requièrent une cybernétique systémique, un mécanisme général de régulation qui gouverne nos échanges verbaux (pour la fonction communicative), contrôle nos verbalisations intérieures (pour la fonction cognitive), et permet le suivi de soi et d’autrui (agentivité) dans nos constructions narratives autobiographiques (pour la fonction métacognitive d’autonoèse).

Mes travaux relèvent de cette cybernétique verbale : je cherche à mieux comprendre les mécanismes neurobiologiques qui sous-tendent la régulation de la production et de la réception du langage (externe et intérieur). Ma démarche est triple : théorique, expérimentale et appliquée.

Dans cet objectif, en collaboration avec des collègues du LPNC et d’autres laboratoires, je recueille des données introspectives, comportementales et neurophysiologiques sur la production et la perception du langage (dans ses versions extériorisée et intérieure), auprès d’adultes, d’enfants, de nourrissons, ainsi que de populations avec des troubles ou déficits langagiers, auditifs, neurologiques ou psychiatriques. Je cherche également à développer des applications thérapeutiques, éducatives et technologiques de ces recherches fondamentales.

Fonctions Cognitive et Autonoétique -

Monitoring du langage intérieur

Contrôle prédictif et attribution d’agentivité lors de la production du langage intérieur : réseaux neuronaux, mécanismes physiologiques, opérations linguistiques



  • Corrélats Neuraux de la parole intérieure :
    Responsable du projet ANR InnerSpeech, en collaboration avec :
    * GIPSA-lab
    * UMS IRMaGe, Grenoble
    * Laboratoire de neurophysiopathologie de l’épilepsie, CHU Grenoble
    * CRNL équipe Dynamique Cérébrale et Cognition, Lyon
    * Neurolab, Ferrara, Italie
    * Cognitive Neuropsychiatry of Schizophrenia Lab, UBC, Canada
  • Questionnaires introspectifs sur la parole intérieure :
    En collaboration avec :
    * Programme Monologuer, mené par Stéphanie Smadja, CERILAC, Université Paris Diderot
  • Parole intérieure et hallucinations auditives verbales dans la schizophrénie : données neurophysiologiques (EMG, IRMf)
    En collaboration avec :
    * GIPSA-lab, Grenoble
    * Pôle de Psychiatrie et de Neurologie (CHU, Grenoble)
    * Cognitive Neuropsychiatry of Schizophrenia Lab in Vancouver, Canada
  • Parole intérieure et ruminations : données physiologiques (EMG) et comportementales
    En collaboration avec :
    * Laboratoire Inter-Universitaire de Psychologie, Grenoble
    * Pôle de Psychiatrie et de Neurologie (CHU Grenoble Alpes)
    * Psychopathology and Affective Neuroscience Lab, University of Ghent, Belgique

Fonction Communicative -

Prosodie et Deixis

Réseaux cérébraux du langage et opérations linguistiques sous-tendant la production et la réception de la focalisation prosodique, de la deixis et de l’ironie


  • Corrélats acoustiques, articulatoires et cérébraux de la production de la prosodie (focalisation et structure informationnelle)
    En collaboration avec :
    * GIPSA-lab
    * INSERM U594
    * IFR N°1 INSERM
    * Laboratoire Parole et Langage, Aix-en-Provence
    * Universitat Oberta de Catalunya
    * Rutgers University, USA
    * University College London, UK
  • Corrélats audiovisuels et cérébraux de la perception de la focalisation prosodique
    En collaboration avec :
    * GIPSA-lab
    * INSERM U594
    * IFR N°1 INSERM
  • Circuits cérébraux de la production de pointage multi-formes (deixis) : digital, oculaire, prosodique, syntactique
    En collaboration avec :
    * GIPSA-lab
    * INSERM U594
    * IFR N°1 INSERM
  • Indices prosodique de l’ironie et du sarcasme
    En collaboration avec :
    * Laboratoire Parole et Langage, Aix-en-Provence

Fonction Communicative -

Développement du langage

Mécanismes neurophysiologiques et facteurs environnementaux sous-tendant le développement du langage oral chez les nourrissons et les enfants



  • Acquisition des sons de parole : phonologie - influence de la langue ambiante
    Projet Paidologos (Resp. : Mary Beckman, Jan Edwards) : cross-language investigation of phonological development
    En collaboration avec :
    * GIPSA-lab, Grenoble
    * The Ohio State University Department of Linguistics, USA
    * Centre des Nouvelles Etudes sur le Pacifique, UNC, Noumea, New Caledonia
  • Acquisition du langage : prosodie et pragmatique
    En collaboration avec :
    * GIPSA-lab, Grenoble
    * Univ. du Québec à Montréal, Canada
    * Laboratoire Parole et Langage, Aix-en-Provence
    * Universitat Oberta de Catalunya
    * Rutgers University, USA
  • Troubles Développementaux des Sons de Parole
    Projet EULALIES (Resp. : Anne Vilain, GIPSA-lab)
    En collaboration avec :
    * GIPSA-lab, Grenoble
    * Centre Référent des Troubles du Langage et des Apprentissages (CRTLA), CHU Grenoble Alpes
    * Laboratoire Dynamique Du Langage, Lyon
    * Univ. de Montréal, Canada
    * Univ. Alberta, Canada
    * Memorial University, Newfoundland, Canada
    * Université de Liège, Belgique
  • Production et perception de la parole chez les enfants avec déficits auditifs
    Projet ANR HearCog, Restauration des fonctions auditives et cognitives chez l’enfant sourd implanté cochléaire (Resp. Pascal Barone, CerCo Toulouse) et Réseau européen ITN H2020 Comm4CHILD, Communication for Children with Hearing Impairment to optimise Language Development (Resp. Cécile Colin & Jacqueline Leybaert, ULB, Belgique)
    En collaboration avec :
    * GIPSA-lab, Grenoble
    * Service Otorhinolaryngologie (CHU Grenoble Alpes)
    * CerCo, Toulouse
    * Université Libre de Bruxelles, Belgique et les partenaires de Comm4CHILD
  • Intégration inter-modale d’indices langagiers et faciaux chez les nourrissons
    Projet ANR-DFG BabyFaceSpeech (Resp. Olivier Pascalis, LPNC)
    En collaboration avec :
    * GIPSA-lab, Grenoble
    * Justus-Liebig University Giessen, Germany
    * Laboratoire Psychologie de la Perception, Paris

Fonction Communicative -

Remédiation des troubles de la parole

Outils et technologies de réhabilitation de la parole



  • Réhabilitation de la parole et bilan de parole intérieure chez les patients avec aphasie
    Projet IDEX SEMO (Resp. Monica Baciu, LPNC) : Sensory-Motor Integration for Speech Rehabilitation in Post-Stroke Aphasia
    En collaboration avec :
    * GIPSA-lab, Grenoble
    * Dept of Neurorehabilitation, CHU Grenoble Alpes
  • Etude du Beatbox et retombées potentielles pour la réhabilitation de la parole
    Projet IDEX BEATBOX (Resp. Nathalie Henrich, GIPSA-lab)
    En collaboration avec :
    * GIPSA-lab, Grenoble
    * TIMC, Grenoble
    * LIG, Grenoble
    * CHU Grenoble Alpes
    * IRIT, Toulouse
  • Conversion de parole chuchotée en parole audible
    En collaboration avec :
    * Gérard Bailly, GIPSA-lab, Grenoble
    * Nara Institute of Science and Technology

Revenir au Menu


📬 ACTUALITES


  • Invitée de l’émission La Méthode Scientifique de Nicolas Martin sur France Culture : La linguistique intérieure, 18 décembre 2020
    Que sait-on de notre petite voix intérieure ? Comment ce langage privé se manifeste-t-il ? Quelles en sont ses caractéristiques au niveau comportemental, physiologique et cérébral ? Quel est le rôle de cette parole intérieure chez l’humain ?
  • Evénement "Meet and Greet" du réseau européen ITN H2020 Comm4CHILD : 11 décembre 2020
    Présentation des 15 doctorants du réseau Comm4CHILD, dont Lucie Van Bogaert (LPNC et GIPSA-lab) sur le sujet “Soutien et accompagnement des compétences communicatives orales chez les enfants porteurs de déficience auditive”.
  • Notre modèle CONDIALINT neurocognitif qui rend compte des dimensions de condensation, de dialogalité et d’intentionnalité de la parole intérieure dans un cadre de contrôle prédictif est paru dans un numéro spécial sur la nature, le contenu et la fréquence de la communication intrapersonnelle (Grandchamp et al., 2019).

  • Notre contribution à la première anthologie philosophique de la parole intérieure : Inner Speech : New Voices est éditée par Peter Langland-Hassan & Agustin Vicente, Oxford University Press, 2018 : A cognitive neuroscience view of inner language : to predict and to hear, see, feel (Lœvenbruck et al., 2018).







Revenir au Menu


💰 PROJETS EN COURS ET PASSES


En cours


1. Membre du projet européen ITN Horizon H2020 Comm4CHILD (2019-2023)
"Communication for Children with Hearing Impairment to optimise Language Development"
Resp. Cécile Colin & Jacquline Leybaert (ULB, Belgique), en collaboration avec GIPSA-lab, KU Leuven (Belgique), MHH (Allemagne), Univ. Oslo (Norvège), Univ. Leeds (UK)

2. Membre du projet ANR EULALIES (GIPSA-lab), en collaboration avec le CRTLA CHU Grenoble Alpes, Dynamique Du Langage (Lyon), Université de Montréal (Canada), Univ. Alberta (Canada), Memorial University, Newfoundland (Canada)

3. Membre du projet ANR-DFG BabyFaceSpeech (2017-2020)
"Regarde qui parle : interaction entre le traitement des visages et la perception de la parole au cours de la première année de vie chez des nourrissons mono- et bilingues Allemands et Français"
Resp. Olivier Pascalis, en collaboration avec GIPSA-lab, LPP (Paris), Univ. Giessen (Germany)

4. Membre du projet ANR HearCog (2017-2021)
"Restauration des fonctions auditives et cognitives chez l’enfant sourd implanté cochléaire"
Resp. Pascal Barone (CerCo, Toulouse), en collaboration avec GIPSA-lab, CLLE, CHU Toulouse, MSHS Toulouse

5. Membre du programme Monologuer
Resp. Stéphanie Smadja, Université Paris Diderot, CERILAC

6. Membre du projet Paidologos (2005-présent)
"Cross-language investigation of phonological development"
Resp. Mary Beckman (Department of Linguistics, the Ohio State University, USA) et Jan Edwards (Univ. Wisconsin, USA) , en collaboration avec le Centre des Nouvelles Études sur le Pacifique, Université de la Nouvelle-Calédonie, Nouméa, France

Passés


1. Responsable du projet APN n°7904 (1999-2001) :
"De la prosodie à la syntaxe : Recherche de patrons d’activation cérébrale par IRM fonctionnelle"

2. Membre du projet Cognitique Action (2001) :
"Le contrôle du mouvement en production de la parole et l’efficacité perceptives des gestes anticipatoires "
Resp. Rudolph Sock (Institut de Phonétique de Strasbourg)

3. Membre du projet Centre Jacques Cartier (2002) :
"Les effets articulatoires et acoustiques de l’accent de focalisation : une étude développementale"
Resp. Lucie Ménard (UQAM, Montréal, Canada)

4. Membre du projet ACI Jeunes Chercheurs (2002-2005) :
"Caractérisation physiologique et perceptive de l’alignement tonal"
Resp. Mariapaola d’Imperio (LPL UMR 6057, Aix-en-Provence)

5. Responsable du projet ELESA (2005) :
"Décodage de la prosodie en parole silencieuse"

6. Co-Responsable du projet BQR INPG (2007-2010) :
"LA VOIX DU SILENCE : Prosodie de la parole silencieuse et du murmure inaudible — EMG du larynx et stéthoscopie maxillo-faciale"

7. Membre du projet Région Rhône Alpes Cluster 11 Handicap Vieillissement Neurosciences (2008-2011) :
"Réorganisation fonctionnelle du langage et de la mémoire chez les patients épileptiques, avant et après intervention chirurgicale.Exploration par IRM fonctionnelle et électroencéphalographie"
Resp. Monica Baciu (LPNC, UMR 5105) et Olivier David (GIN, U836)

8. Co-Responsable du projet Région Rhône Alpes Cluster 11 Handicap Vieillissement Neurosciences (2009-2011) :
"Traces orofaciales des hallucinations auditives chez les schizophrènes : électromyographie et électroglottographie"

9. Responsable du projet Centre Jacques Cartier (2010) :
Étude des mécanismes cognitifs des hallucinations auditives verbales chez les schizophrènes"

10. Membre du projet ANR-DFG (2011-2013)
"CROSSMOD : Cross-modal integration of language and face cues in German and French infants"
Resp. Olivier Pascalis (LPNC and GIPSA), en collaboration avec Justus-Liebig University Giessen et Laboratoire Psychologie de la Perception, Paris

11. Membre du projet ARC2 Rhône-Alpes Region (2013-2015)
"Troubles de la parole chez les enfants sourds d’implants cochléaires : évaluation et pistes pour la remédiation"
Resp. Anne Vilain (GIPSA-lab) et Michel Hoen (Centre de recherche en Neurosciences de Lyon U1028)

12. Membre du projet SFR Santé Société (2013-2015)
"Potential compensation of language deficits by communicative manual gestures in SLI children"
Resp. Marion Dohen (GIPSA-lab)

13. Responsable du projet ANR InnerSpeech 2014-2018
"Corrélats neuraux de la parole intérieure "

L’objectif du projet InnerSpeech était d’esquisser un modèle théorique de la parole intérieure — la production silencieuse de mots dans notre tête — en examinant diverses formes, telles que la parole intérieure délibérée (avec notre propre voix ou celle d’autrui, dans une perspective à la 1ère ou à la 3ème personne) ou des formes moins délibérées comme le vagabondage mental ou les ruminations verbales, et en confrontant des données introspectives à des mesures objectives (neurophysiologiques et comportementales).

14. Responsable du projet ARC2 Auvergne Rhône-Alpes Region (2016-2019)
"Évaluation et dépistage des troubles du développement des sons de parole"
co-Resp. Anne Vilain (GIPSA-lab) et Sophie Kern (Laboratoire Dynamique Du Langage, Lyon)

Revenir au Menu


📜 SELECTED PUBLICATIONS


Voir aussi
HAL archives ouvertes
Research Gate
ORCID
Open Science Foundation (OSF)

Les publications en français sont suivies d’un drapeau 🇫🇷

Mémoires
Lœvenbruck H. (2019). Loquor, ergo communico-cogito-sum. Habilitation à Diriger des Recherches. Ecole Doctorale Ingénierie pour la Santé, la Cognition et l’Environnement, Université Grenoble Alpes - tel-02461867 🇫🇷

Lœvenbruck H. (1996). Pistes pour le contrôle d’un robot parlant capable de réduction vocalique. Thèse de Doctorat en Sciences Cognitives, INPG, Grenoble - tel-02293306 🇫🇷

Sélection de publications

2021
Nalborczyk, L.*, Banjac, S.*, Baeyens, C., Grandchamp, R., Koster, E. H. W., Perrone-Bertolotti, M., & Loevenbruck, H. (2021). Dissociating facial electromyographic correlates of visual and verbal induced rumination. International Journal of Psychophysiology, 159C, 23-36. https://doi.org/10.1016/j.ijpsycho.2020.10.009

2020
Haldin, C., Lœvenbruck, H., Hueber, T., Marcon, V., Piscicelli, C., Perrier, P., Chrispin, A., Pérennou, D. & Baciu, M. (accepted). Speech rehabilitation in post-stroke aphasia using visual illustration of speech articulators. A case report study. Clinical Linguistics and Phonetics. doi:10.1080/02699206.2020.1780473 - hal-02879182

Meloni, Geneviève, Lœvenbruck, Hélène, Vilain, Anne, Gillet-Perret, Estelle & MacLeod, Andrea (sous presse). Evaluation de la perception des sons de parole chez les populations pédiatriques : réflexions sur les épreuves existantes. Glossa. 🇫🇷

Nalborczyk, L., Grandchamp, R., Koster, E.H.W., Perrone-Bertolotti, M., & Lœvenbruck, H. (2020). Can we decode phonetic features in inner speech using surface electromyography ? PLoS ONE, 15(5) : e0233282. https://doi.org/10.1371/journal.pone.0233282 - hal-02696432

Paroni, Annalisa, Henrich Bernardoni Nathalie, Savariaux, Christophe, Loevenbruck Hélène, Calabrèse, Pascale, Pellegrini, Thomas, Mouysset, Sandrine, Gerber, Silvain (sous presse). Vocal drum sounds in Human Beatboxing : an acoustic and articulatory exploration using electromagnetic articulography. The Journal of the Acoustical Society of America.

Remon D., Lœvenbruck, H., Deudon, M., Girardie, O., Bouyer, KL. Pascalis, O. & Thorpe S. (2020). 24-month-olds and above remember novel object names after a single learning event. Journal of Experimental Child Psychology, 196. https://doi.org/10.1016/j.jecp.2020.104859 - hal-03014839

2019
Grandchamp R., Rapin L., Perrone-Bertolotti M., Pichat C., Haldin, C., Cousin E., Lachaux J.P., Dohen M., Perrier P., Garnier M., Baciu M., Lœvenbruck H. (2019). The ConDialInt Model : Condensation, Dialogicality and Intentionality dimensions of inner speech within a hierarchical predictive control framework. Frontiers in psychology, Exploring the Nature, Content, and Frequency of Intrapersonal Communication, 10. doi : 10.3389/fpsyg.2019.02019 - hal-02290943

Haldin, C., Acher, A., Kauffmann, L., Hueber, T., Cousin, E., Badin, P., Perrier, P., Fabre, D., Perennou, D., Detante, O., Jaillard, A., Lœvenbruck, H. & Baciu, M. (2019). Effet de la rééducation perceptivo-motrice sur la récupération de la parole chez deux patientes avec aphasie non fluente chronique post-AVC. Revue de Neuropsychologie, 11 (1), 44-59 - hal-02134778 🇫🇷

Nalborczyk, L., Batailler, C., Lœvenbruck, H., Vilain, A. & Bürkner, P.-C. (2019). An Introduction to Bayesian Multilevel Models Using brms : A Case Study of Gender Effects on Vowel Variability in Standard Indonesian. Journal of Speech, Language, and Hearing Research - hal-02096991

Vilain, A., Dole, M., Lœvenbruck, H., Pascalis, O. & Schwartz J.-L. (2019). The role of production abilities in the perception of consonant category in infants. Developmental Science. e12830. https://doi.org/10.1111/desc.12830 - hal-02075827

2018
Haldin, C., Acher, A., Kauffmann, L., Hueber, T., Cousin, E., Badin, P., Perrier, P., Fabre, D., Perennou, D., Detante, O., Jaillard, A., Lœvenbruck, H. & Baciu, M. (2018). Speech recovery and language plasticity can be facilitated by Sensori-Motor Fusion (SMF) training in chronic non-fluent aphasia. A case report study. Clinical Linguistics & Phonetics, 1 - 27. doi : 10.1080/02699206.2017.1402090 - hal-01651198

Kubicek, C., Gervain, J., Lœvenbruck, H., Pascalis, O., & Schwarzer, G. (2018). Goldilock vs. Goldlöckchen : Visual speech preference for same-rhythm-class languages in 6-month-old infants. Infant and Child Development. doi : 10.1002/icd.2084 - hal-01741631

Lœvenbruck, H. (2018). What the neurocognitive study of inner language reveals about our inner space. Épistémocritique, n° 18 : Langage intérieur - Espaces intérieurs / Inner Speech - Inner Space, Stéphanie Smadja, Pierre-Louis Patoine (eds.) [http://epistemocritique.org/what-the-neurocognitive-study-of-inner-language-reveals-about-our-inner-space/] - hal-02039667

Lœvenbruck, H., Grandchamp, R., Rapin, L., Nalborczyk, L., Dohen, M., Perrier, P., Baciu, M. & Perrone-Bertolotti M. (2018). A cognitive neuroscience view of inner language : to predict and to hear, see, feel. In Inner Speech : New voices, Peter Langland-Hassan & Agustín Vicente (eds.), Oxford University Press, 131-167. - hal-01898992

2017
Grandon, B., Vilain, A., Lœvenbruck, H., Schmerber, S. & Truy, E. (2017). Realisation of voicing by French-speaking CI children after long-term implant use : An acoustic study. Clinical Linguistics & Phonetics, 31, 1-14. doi : 10.1080/02699206.2017.1302511 - PMID : 28362227 - halshs-01500526v1

Lœvenbruck H., Nalborczyk L., Perrone-Bertolotti M., Baeyens C., Grandchamp R. (2017). Un cas d’incarnation linguistique : implication du système moteur orofacial dans les ruminations mentales. La cognition incarnée, J. Dokic et D. Perrin (dir.), Recherches sur la philosophie et le langage, N° 33, Vrin, Paris, 297-324, ISBN : 978-2-7116-8423-6. - hal-01887636 🇫🇷

Nalborczyk L., Perrone-Bertolotti M., Baeyens C., Grandchamp R., Polosan M., Spinelli E., Koster E. H. W. & Lœvenbruck H. (2017). Orofacial electromyographic correlates of induced verbal rumination. Biological Psychology. 127, 53-63. doi : 10.1016/j.biopsycho.2017.04.013 - hal-01569420v1

Richoz, A.-R., Quinn, P. C., Hillairet de Boisferon, A., Berger, C., Lœvenbruck, H., Lewkowicz, D. J., Lee, K., Dole, M., Caldara, R. and Pascalis, O. (2017). Audio-Visual Perception of Gender by Infants Emerges Earlier for Adult-Directed Speech. PLOS ONE, 12, 1-15. doi:10.1371/ journal.pone.0169325 - PMC5218491 - hal-01519114

2016
Perrone-Bertolotti M., Grandchamp R., Rapin L., Baciu M., Lachaux J.P. & Lœvenbruck H. (2016). Langage intérieur. In Pinto, S. & Sato, M. (eds.). Traité de Neurolinguistique : du cerveau au langage. Collection Neuropsychologie, De Boeck Supérieur, 109-123, ISBN : 9782353273393. - hal-01467107 🇫🇷

Rapin L., Dohen M. & Lœvenbruck H. (2016). Les hallucinations auditives verbales. In Pinto, S. & Sato, M. (eds.). Traité de Neurolinguistique : du cerveau au langage. Collection Neuropsychologie, De Boeck Supérieur, 347-370, ISBN : 9782353273393. - hal-01442463 🇫🇷

2015
Hillairet de Boisferon, A., Dupierrix, E., Quinn, P.C., Lœvenbruck, H., Lewkowicz, D.J., Lee, K., & Pascalis, O. (2015). Perception of Multisensory Gender Coherence in 6 and 9-month-old Infants. Infancy, 20 (6), 661-674. doi : 10.1111/infa.12088 - hal-01203120

Lavigne K. M., Rapin L. A. ; Metzak P. D., Whitman J. C., Jung K., Dohen M., Lœvenbruck H., Woodward T. S. (2015). Left-dominant temporal-frontal hypercoupling in schizophrenia patients with hallucinations during speech perception. Schizophrenia Bulletin, 41 (1), 259-267. hal-00966620

2014
Kubicek, C., Gervain, J., Hillairet de Boisferon, A., Pascalis, O., Lœvenbruck, H., & Schwarzer, G. (2014). The influence of infant-directed speech on 12-month-olds’ intersensory perception of fluent speech. Infant Behavior & Development, 37(4), 644-651.

Kubicek C., Hillairet de Boisferon A., Dupierrix E., Pascalis O., Lœvenbruck H., Gervain J. & Schwarzer G. (2014). Cross-modal matching of audiovisual German and French fluent speech in infancy. PlosOne. hal-00964518

Pascalis O., Loevenbruck H., Quinn P. C., Kandel S., Tanaka J. W. & Lee K. (2014). On the Links Among Face Processing, Language Processing, and Narrowing during Development. Child Development Perspectives, 8 (2), 65-70. hal-00964721

Perrone-Bertolotti, M., Rapin L., Lachaux J.-P., Baciu M. & Lœvenbruck H. (2014). What is that little voice inside my head ? Inner speech phenomenology, its role in cognitive performance and its relation to self-monitoring. Behavioural Brain Research, 261, 220-239. hal-00967730

2013
Rapin L., Dohen M., Polosan M., Perrier P., Lœvenbruck H. (2013). An EMG study of the lip muscles during covert auditory verbal hallucinations in schizophrenia. J. Speech Hearing and Language Research, 56, S1882–S1893. hal-00926630

Kubicek C., Hillairet de Boisferon A., Dupierrix E., Lœvenbruck H., Gervain J., and Schwarzer G. (2013). Face-scanning behavior to silently talking faces in 12-month-old infants : The impact of pre-exposed auditory speech. International Journal of Behavioral Development, 37 (2), 106-110. hal-00864344

Perrone-Bertolotti, M. Dohen, M., Lœvenbruck, H., Sato, M., Pichat, C., Baciu, M. (2013). Neural correlates of the perception of contrastive prosodic focus in French. An fMRI study. Human Brain Mapping. hal-00762363 - PMID : 22488985

2012
Cathiard M.-A., Vilain A., Laboissière R., Lœvenbruck H., Savariaux C. & Schwartz J.-L. (2012). Bimodal Perception within the natural time-course of speech production. In Bailly G., Perrier P. & Vatikiotis-Bateson E. (Eds.), Audiovisual Speech Processing. Cambridge University Press, 121-158. hal-00821829

Rapin, L., Metzak, P. D., Whitman, J. C., Dohen, M., Lœvenbruck, H., & Woodward, T. S. (2012). Hyperintensity of functional networks involving voice-selective cortical regions during silent thought in schizophrenia. Psychiatry Research : Neuroimaging, 102 (2), 110-117. hal-00734043, PMID : 22703623

Schwartz J.-L. & Lœvenbruck H. (2012). La parole, entre objets vocaux et objets du monde. In La psychologie cognitive. Collection Cogniprisme. M. Denis (ed.). Editions de la Maison des Sciences de l’Homme, ISBN 978-2-7351-1509-9, 165-199. hal-00782274 🇫🇷

2011
Dohen M., Lœvenbruck H., Roustan B., Vilain C. (2011). Pointage manuel et vocal : corrélats sensorimoteurs et neurocognitifs, coordination geste manuel / parole. Faits de Langue, 37, 97-116. hal-00784592 🇫🇷

2010
Tran V.-A., Bailly G., Lœvenbruck H. & Toda T. (2010). Improvement to a NAM-captured whisper-to-speech system. Speech Communication. 52 (4), 314-326. hal-00459973

2009
Dohen M. & Lœvenbruck H. (2009). Interaction of audition and vision for the perception of prosodic contrastive focus. Language and Speech, 52 (3), 177-206. hal-00371180 - PMID : 19624029

Dohen M., Lœvenbruck H. & Hill H. (2009). Recognizing prosody from the lips : is it possible to extract prosodic focus from lip features ? In Alan Wee-Chung Liew & Shilin Wang (Eds.), Visual Speech Recognition : Lip Segmentation and Mapping, Medical Information Science Reference, Hershey, New York, ISBN 978-1-60566-186-5, 416-438. hal-00360765

Heracleous P., Beautemps D., Tran V.-A., Lœvenbruck H. & Bailly G. (2009). Exploiting visual information for NAM recognition. IEICE Electronics Express, 6, 2, 77-82. hal-00357985

Lœvenbruck H., Dohen M. & Vilain C. (2009). Pointing is ‘special’. In Fuchs S., Lœvenbruck H. Pape D. & Perrier P. (eds.), Some Aspects of Speech and the Brain, Peter Lang, 211-258, ISBN 978-3-631-57630-4. hal-00360758

2008
Lœvenbruck H., Vilain C. & Dohen M. (2008). From gestural pointing to vocal pointing in the brain. Revue Française de Linguistique Appliquée, Vol. XIII, 2, 23-33. hal-00360753

2007
D’Imperio M., Espesser R., Lœvenbruck H., Menezes C., Nguyen N. & Welby P. (2007). Are tones aligned to articulatory events ? Evidence from Italian and French. Cole, Jennifer and José I. Hualde (eds.), Laboratory Phonology 9, Berlin : Mouton de Gruyter, 577-608. hal-00244489

2006
Ménard L., Lœvenbruck H. & Savariaux C. (2006). Articulatory and acoustic correlates of contrastive focus in French : a developmental study, in Harrington, J. & Tabain, M. (eds), Speech Production : Models, Phonetic Processes and Techniques, Psychology Press : New York, 227-251. hal-00371878

Sato M., Schwartz J.-L., Abry C., Cathiard M.-A., & Lœvenbruck H. (2006). Multistable syllables as enacted percepts : A source of an asymmetric bias in the verbal transformation effect. Perception & Psychophysics, 68 (3), pp. 458-474. hal-00186572 - PMID : 16900837

Welby P. & Lœvenbruck H. (2006). Anchored down in Anchorage : Syllable structure and segmental anchoring in French. Rivista di Linguistica/ Italian Journal of Linguistics 18 : 74–124. Current Issues in Tonal Alignment. Mariapaola D’Imperio (éd.). hal-00371892

2005
Lœvenbruck H., Baciu M., Segebarth C. & Abry C. (2005). The left inferior frontal gyrus under focus : an fMRI study of the production of deixis via syntactic extraction and prosodic focus. Journal of Neurolinguistics, 18, 237-258. hal-00371865

2004
Dohen M., Lœvenbruck H., Cathiard M.-A. & Schwartz J.-L. (2004). Visual perception of contrastive focus in reiterant French speech. Speech Communication, 44, 155-172. hal-00370938

Sato M., Baciu M., Lœvenbruck H., Schwartz J.-L., Segebarth C., Cathiard M.-A. & Abry C. (2004). Multistable representation of speech forms : a functional MRI study of verbal transformations. NeuroImage, 23, 1143-1151. PMID : 15528113

1999
Lœvenbruck H., Collins M.J., Beckman M.E., Krishnamurthy A.K. & Ahalt S.C. (1999). Temporal coordination of articulatory gestures in consonant clusters and sequences of consonants. Proceedings of Linguistics Phonetics 1998, Item Order in Language and Speech. Fujimura O., Joseph B. D. & Palek B. (eds.), Charles University, Prague, The Karolinum Press. Vol II : 547-573. hal-00371717

1996
Perrier P., Lœvenbruck H. & Payan Y. (1996). Control of the tongue movements in speech : The Equilibrium point Hypothesis perspective. Journal of Phonetics, 24, 53-75. hal-00080443

Revenir au Menu


🛤 DIFFUSION - CROISEE DES CHEMINS ART & SCIENCE


Revenir au Menu


🧑‍🎓 ENSEIGNEMENT ET ENCADREMENT


Enseignement

  • 2005-20 Responsable adjointe du Master 2 Sciences Cognitives de Grenoble
  • 1993-95 : Vacataire, Institut Universitaire de Technologie (IUT1) Génie Thermique et Energie, Univ. Joseph Fourier, Grenoble
    Mathématiques et Informatique (CNU 61)
  • 1995-97 : ATER ICP / ENSERG (INPG), Grenoble
    Langage C, Algorithmique, Génie Logiciel (CNU 61)
  • 1999-2001, 2009-2010 : TD Phonétique expérimentale - Licence Sciences du Language (CNU 07), Univ. Stendhal Grenoble
  • 2006-présent : Introduction aux Sciences Cognitives - Master Sc. Cognitives, PHELMA Grenoble INP
    Cours dispensé en anglais
  • 2008-2014 : Communication Parlée - Master Sc. Cognitives, PHELMA Grenoble INP
  • 2013-2014 : Psycholinguistique - Master Psychologie (CNU 16), Univ. P. Mendès France Grenoble
  • 2019-2020 : Psycholinguistique - Master Psychologie (CNU 16), Univ. Grenoble Alpes
  • 2015-2016 : Phonétique et Cognition - Master Sc. du Language, Univ. Stendhal Grenoble
  • 2009-présent : Développement précoce du langage - Master Sc. Cognitives, PHELMA Grenoble INP
  • 2017-2018 : Phonétique et Phonologie - Licence ETC (CNU 07), Univ. Grenoble Alpes


Encadrement de doctorant·e·s et post-doctorant·e·s

  • Marc Sato : Thèse à l’ICP, co-encadrante avec Jean-Luc Schwartz et Christian Abry
    Titre : Représentations verbales multistables en mémoire de travail : vers une perception active des unités de parole
    Soutenue le 30 Novembre 2004
  • Marion Dohen : Thèse à l’ICP, co-encadrante avec Jean-Luc Schwartz
    Titre : Deixis prosodique multisensorielle : production et perception audiovisuelle de la focalisation contrastive en français
    Soutenue le 18 Novembre 2005
  • Julia Monnin : Thèse à GIPSA-lab / CNEP UNC Noumea (New-Caledonia), co-directrice avec Dominique Jouve
    Titre : Influence de la langue ambiante sur l’acquisition phonologique : une comparaison du français et du drehu
    Soutenue le 16 Juillet 2010
  • Viet-Anh Tran : Thèse à GIPSA-lab GIPSA-lab, co-encadrante avec Gérard Bailly et Christian Jutten
    Titre : Communication silencieuse : conversion de la parole chuchotée en parole claire
    Soutenue le 28 Janvier 2010
  • Lucile Rapin : Thèse à GIPSA-lab, co-encadrante avec Marion Dohen, Pascal Perrier et Todd Woodward (University of British Columbia)
    Titre : Hallucinations auditives verbales et trouble du langage intérieur dans la schizophrénie : traces physiologiques et bases cérébrales
    Soutenue le 24 Janvier 2011
  • Laura Machart : Thèse au LPNC, co-directrice avec Anne Vilain (GIPSA-lab)
    Titre : CueToHear : Apport de l’exposition à la Langue française Parlée Complétée (French Cued Speech) au développement phonologique de l’enfant implanté cochléaire
    Début : Septembre 2018
  • Olivier Clerc : Thèse au LPNC, co-encadrante avec Olivier Pascalis
    Titre : Interactions between face processing and speech perception and its influence on early social cognition
    Début : Octobre 2018
  • Annalisa Paroni : Thèse au GIPSA-lab, co-encadrante avec Nathalie Henrich (GIPSA-lab)
    Titre : Le Human Beabox, un langage musical au service de la rééducation orthophonique
    Début : Octobre 2018
  • Célise Haldin : Thèse au LPNC, co-encadrante avec Monica Baciu
    Titre : Sensory-Motor Integration for Speech Rehabilitation in Post-Stroke Aphasia
    Début : Septembre 2019
  • Lucie Van Bogaert : Thèse au LPNC, co-encadrante avec Anne Vilain (GIPSA-lab)
    Titre : Soutien et accompagnement des compétences communicatives orales chez les enfants porteurs de déficience auditive
    Début : Octobre 2020

Revenir au Menu


🌿 CV


Situation professionnelle

  • Membre du LPNC depuis Octobre 2013
  • Responsable de l’équipe Language du LPNC depuis Octobre 2017
  • Ancienne membre du Département Parole et Cognition de GIPSA-lab UMR 5216 (ex-Institut de la Communication Parlée, ICP) : 1998-2013
  • Ancienne co-responsable, avec Anne Vilain, de l’équipe Parole Multimodalité Développement , Département Parole et Cognition, GIPSA-lab : Mars 2007 - Août 2011
  • Rédactrice en chef de In Cognito - Cahiers Romans de Sciences Cognitives
    International quadrilingual journal in Cognitive Sciences - en pause
  • Responsable adjointe du Master 1 Sciences Cognitives de 2005 à 2020

Formation

  • 2019 : Habilitation à Diriger des Recherches en Sciences Cognitives, EDISCE, Université Grenoble Alpes
  • 1997-98 : Post-doctorat au Département de Linguistique de Ohio State University à Columbus, Ohio, USA (bourse de la Fondation Fyssen)
  • 1997 : DEA en Sciences du Langage à l’Université Stendhal (Grenoble 3)
    Titre : "Quelques effets de l’accentuation et du débit sur l’articulation"
  • 1996 : Doctorat en Sciences Cognitives à l’Institut National Polytechnique de Grenoble(INPG)
    Titre de la thèse : "Pistes pour le contrôle d’un robot parlant capable de réduction vocalique"
  • 1992 : DEA en Sciences Cognitives à l’Institut National Polytechnique de Grenoble (INPG)
  • 1992 : Diplôme d’ingénieure ENSERG/ENSIMAG, Institut National Polytechnique de Grenoble (INPG)
    Option architecture des systèmes

Langues

  • Français : langue maternelle
  • Anglais : langue bien-aimée
  • Russe : langue bien aimée mais moins bien parlée
  • Allemand : langue aimée mais un peu perdue

Extras

Revenir au Menu


🛠 OUTILS POUR LA RECHERCHE EN PAROLE ET COGNITION



  • TRAP : Un outil pour le TRAitement de la Parole



    Courte introduction

  • Scripts pour Praat développés par Paul Boersma et David Weenink
  • SplitIt : pour découper des sons
  • MergeIt : pour fusionner des sons
  • PsychoPy : pour la présentation de stimuli (sous Python)

SCRIPT PRAAT

Trois scripts pour le tutorial "Praat scripting" de Speech Prosody 2006 :


1. Starter.praat : un script pour débuter
Ouvre un fichier son (au format .wav), affiche les temps de début et de fin du fichier son dans la fenêtre d’information.
Calcule la durée totale du son et l’affiche dans la fenêtre d’information.


2. CutSoundFile.praat : un script de découpage
Ouvre un fichier son (au format .wav) et son fichier d’étiquettes associé (.TextGrid).
Crée un nouveau fichier son qui commence au début du son original
et s’arrête à la première étiquette de la première ligne (tier) lue dans le .TextGrid


3. GetTimeF0.praat : un script d’extraction de F0
Ouvre un fichier son (au format .wav) et crée un fichier texte (.txt)
avec les valeurs de F0 calculées pour chaque trame voisée.
Le fichier texte obtenu contient 2 colonnes : les valeurs du temps et de F0

Ces trois scripts utilisent le fichier son ARpostC1.wav et son fichier d’étiquettes ARpostC1.TextGrid.
Pour utiliser d’autres fichiers, il suffit de modifier la ligne :
sound_file$ = "ARpostC1.wav"

Autres Scripts :


4. affiche_etiq_duree.praat : Convertit un fichier .TextGrid en un fichier texte simple, contenant les étiquettes et les durées des intervalles en 2 colonnes.


5. calcul_F0_durees.praat : Donne F0 max et la durée sur chacun des intervalles (syllabes) spécifiés dans le .TextGrid.
calcul_F0_durees_tons_numsyl.praat


6. calcul_F0_durees_tons_numsyl.praat : Donne des informations prosodiques telles que les valeurs des pics de F0, les durées syllabiques, la nature des tons, le numéro des syllabes portant les tons, à partir d’informations stockées dans les .TextGrid

Les fichiers .TextGrid files doivent contenir 4 tiers (au moins 3 en fait)
interval tier 1 : segmentation en syllabes
interval tier 2 : segmentation en GroupesProsodiques
point tier 3 : marquage des tons Hi, H* et L%
interval tier 4 : phrase prononcée (optionnel)

Les résultats des calculs sont écrits dans un fichier texte (fichier_resultat$), en colonne, dans l’ordre suivant :
NomDuFichier DuréeTotaleEnoncé F0MaxSurEnoncé
NombreDeGroupeProsodique
DuréeSyllabe1 DuréeSyllabe2 ... DuréeSyllabeX
Puis pour chaque Groupe Prosodique (GP) :
EtiquetteTon1 NuméroGroupeProsodique NuméroSyllabeTon1 TempsTon1 F0Ton1 EtiquetteTon2 NuméroSyllabeTon2 TempsTon2 F0Ton2


7. decoupe_son.praat : Crée plusieurs fichiers .wav à partir d’un fichier .wav découpé à des temps différents (pour une expérience de gating).


8. formants_in_interval.praat : Calcule les formants sur un intervalle spécifié dans un .TextGrid, toutes les 10 ms (modifiable).


9. formants_in_interval_F1corrected.praat : idem précédent, mais si F1 est mal détecté (F2 pris pour F1), i.e. si F1 > 700 Hz, remplace F1 par 1 Hz et F2 par F1, F3 par F2, etc.


10. formants_at_instant.praat : Calcule les formants à des instants spécifiés dans un .TextGrid.


11. lire_tout.praat : Lit tous les fichiers .wav et .TextGrid d’un répertoire spécifié et affiche une fenêtre d’édition, en permettant à l’utilisateur de marquer une pause après chaque fichier.


12. GetTimeF0AllFiles.praat : Lit tous les fichiers .wav d’un répertoire, calcule la F0 de chacun des fichiers et crée un fichier .txt par fichier .wav, avec 2 colonnes : temps et F0.


13. GetDurationAllFiles.praat : Lit tous les fichiers .TextGrid d’un dossier, calcule la durée entre les 2 premières étiquettes du premier tier (interval tier) pour chacun des fichiers
et crée un fichier .txt contenant 2 colonnes : la racine du nom du fichier .TextGrid et la durée entre les 2 étiquettes.

14. MarkLabelAllFiles.praat : Lit tous les fichiers .wav d’un dossier, attend que l’utilise place l’étiquette et crée un fichier .txt contenant 2 colonnes : la racine du nom du fichier .wav et le temps où a été placée l’étiquette

Revenir au Menu

🇫🇷 Version Française


🎯 RESEARCH AIMS


Language is at the core of humanity because it serves three essential functions : communication, thought and autonoesis, i.e. self-awareness in time.

These functions depend on one another, they are intertwined. They require a systemic cybernetics, a general control mechanism governing our verbal exchanges (for the communicative function), controlling our inner verbalisations (for the cognitive function) and monitoring self- and other- agency in our autobiographical narrative constructions (for the metacognitive function of autonoesis).

My research is focused on this verbal cybernetics : my aim it to better understand the neurobiological mechanisms that sustain the regulation of (overt and covert) language production and reception.

To this aim, with my colleagues at LPNC and other labs, I collect introspective, behavioural and neurophysiological data on (overt or covert) language production or perception, in adults, in infant or children, and in people with language, hearing, neurological or psychiatric disorders. I am also engaged in developing therapeutic, educative and technological applications of this research.

Cognitive and Autonoesis functions -

Inner language monitoring

Understanding how inner language is monitored in order to sustain cognition and autonoesis :
cerebral networks, physiological mechanisms, linguistic operations



  • Neural Correlates of inner speech : PI of ANR InnerSpeech project
    In collaboration with :
    * GIPSA-lab
    * UMS IRMaGe, Grenoble
    * Laboratoire de neurophysiopathologie de l’épilepsie, CHU Grenoble
    * CRNL équipe Dynamique Cérébrale et Cognition, Lyon
    * Neurolab, Ferrara, Italy
    * Cognitive Neuropsychiatry of Schizophrenia Lab, UBC, Canada
  • Introspective accounts of inner speech :
    In collaboration with :
    * Programme Monologuer, led by Stéphanie Smadja, CERILAC, Université Paris Diderot
  • Inner speech and auditory verbal hallucination in schizophrenia : EMG and fMRI
    In collaboration with :
    * GIPSA-lab, Grenoble
    * Pôle de Psychiatrie et de Neurologie (CHU, Grenoble)
    * Cognitive Neuropsychiatry of Schizophrenia Lab in Vancouver, Canada
  • Inner speech and rumination : EMG and behavioural traces
    In collaboration with :
    * Laboratoire Inter-Universitaire de Psychologie, Grenoble
    * Pôle de Psychiatrie et de Neurologie (CHU Grenoble Alpes)
    * Psychopathology and Affective Neuroscience Lab, University of Ghent, Belgium

Communicative function -

Prosody and Deixis

Understanding the language cerebral networks and linguistic mechanisms that sustain the production and reception of prosodic focus, deixis, irony


  • Acoustic, articulatory and cerebral correlates of the production of prosody (focus and information structure)
    In collaboration with :
    * GIPSA-lab
    * INSERM U594
    * IFR N°1 INSERM
    * Laboratoire Parole et Langage, Aix-en-Provence
    * Universitat Oberta de Catalunya
    * Rutgers University, USA
    * University College London, UK
  • Audiovisual and cerebral correlates of the perception of prosodic focus
    In collaboration with :
    * GIPSA-lab
    * INSERM U594
    * IFR N°1 INSERM
  • Cerebral circuits of multimodal pointing (deixis) : digital, ocular, prosodic, syntactic pointing
    In collaboration with :
    * GIPSA-lab
    * INSERM U594
    * IFR N°1 INSERM
  • Prosodic cues of sarcastic speech in French
    In collaboration with :
    * Laboratoire Parole et Langage, Aix-en-Provence

Communicative function -

Speech development

Understanding the neurophysiological mechanisms and environmental factors that sustain speech development in infants and children



  • Language acquisition : phonology - influence of the ambient language
    Paidologos project (PI : Mary Beckman, Jan Edwards) : cross-language investigation of phonological development
    In collaboration with :
    * GIPSA-lab, Grenoble
    * The Ohio State University Department of Linguistics, USA
    * Centre des Nouvelles Etudes sur le Pacifique, UNC, Noumea, New Caledonia
  • Language acquisition : prosody and pragmatics
    In collaboration with :
    * GIPSA-lab, Grenoble
    * Univ. du Québec à Montréal, Canada
    * Laboratoire Parole et Langage, Aix-en-Provence
    * Open University of Catalonia
    * Rutgers University, USA
  • Speech Sound Development Disorders
    EULALIES project (Co-PI : Anne Vilain, GIPSA-lab)
    In collaboration with :
    * GIPSA-lab, Grenoble
    * Centre Référent des Troubles du Langage et des Apprentissages (CRTLA), CHU Grenoble Alpes
    * Laboratoire Dynamique Du Langage, Lyon
    * Univ. de Montréal, Canada
    * Univ. Alberta, Canada
    * Memorial University, Newfoundland, Canada
    * Université de Liège, Belgium
  • Speech production and perception in children with hearing impairment
    ANR HearCog project, Restoration of auditory and cognitive functions in cochlear implanted deaf children (PI Pascal Barone, CerCo Toulouse) and EU ITN H2020 Comm4CHILD network, Communication for Children with Hearing Impairment to optimise Language Development (PIs Cécile Colin & Jacqueline Leybaert, ULB, Belgium)
    In collaboration with :
    * GIPSA-lab, Grenoble
    * Otorhinolaryngology Unit (CHU Grenoble Alpes)
    * CerCo, Toulouse
    * Université Libre de Bruxelles, Belgium and partners of Comm4CHILD
  • Cross-modal integration of language and face cues in infants
    ANR-DFG BabyFaceSpeech project (PI Olivier Pascalis, LPNC)
    In collaboration with :
    * GIPSA-lab, Grenoble
    * Justus-Liebig University Giessen, Germany
    * Laboratoire Psychologie de la Perception, Paris

Communicative function -

Impaired speech remediation

Speech rehabilitation tools and technology



  • Speech rehabilitation and inner speech assessment in patients with aphasia
    IDEX project SEMO (PI : Monica Baciu, LPNC) : Sensory-Motor Integration for Speech Rehabilitation in Post-Stroke Aphasia
    In collaboration with :
    * GIPSA-lab, Grenoble
    * Dept of Neurorehabilitation, CHU Grenoble Alpes
  • Understanding Human Beatbox and its potential outcomes for speech rehabilitation
    IDEX project BEATBOX (PI : Nathalie Henrich, GIPSA-lab)
    In collaboration with :
    * GIPSA-lab, Grenoble
    * TIMC, Grenoble
    * LIG, Grenoble
    * CHU Grenoble Alpes
    * IRIT, Toulouse
  • Whispered-speech to aloud-speech conversion
    In collaboration with :
    * Gérard Bailly, GIPSA-lab, Grenoble
    * Nara Institute of Science and Technology

Return to Menu


📬 NEWS


  • Radio interview on France Culture’s La Méthode Scientifique programme by Nicolas Martin : La linguistique intérieure, 18 December 2020
    Que sait-on de notre petite voix intérieure ? Comment ce langage privé se manifeste-t-il ? Quelles en sont ses caractéristiques au niveau comportemental, physiologique et cérébral ? Quel est le rôle de cette parole intérieure chez l’humain ?
  • Read about CONDIALINT, our model of inner speech, that accounts for condensation, dialogality and intentionality, in a hierarchical predictive control framework (Grandchamp et al., 2019).

  • Check our contribution to the first philosophical anthology on inner speech : Inner Speech : New Voices, edited by Peter Langland-Hassan & Agustin Vicente, Oxford University Press, 2018 : A cognitive neuroscience view of inner language : to predict and to hear, see, feel (Lœvenbruck et al., 2018).







Return to Menu


💰 ONGOING AND PAST GRANTS


Ongoing


1. Member of the EU Horizon H2020 ITN project Comm4CHILD (2019-2023)
"Communication for Children with Hearing Impairment to optimise Language Development"
PIs Cécile Colin & Jacquline Leybaert (ULB, Belgium), in collaboration with GIPSA-lab, KU Leuven (Belgium), MHH (Germany), Univ. Oslo (Norway), Univ. Leeds (UK)

2. Member of the ANR project EULALIES (GIPSA-lab), in collaboration with CRTLA CHU Grenoble Alpes, Dynamique Du Langage (Lyon), Université de Montréal (Canada), Univ. Alberta (Canada), Memorial University, Newfoundland (Canada)

3. Member of the ANR-DFG project BabyFaceSpeech (2017-2020)
"Look who’s talking : Interactions between face processing and speech perception during perceptual narrowing in monolingual and bilingual German and French infant"
PI Olivier Pascalis, in collaboration with GIPSA-lab, LPP (Paris), Univ. Giessen (Germany)

4. Member of the ANR project HearCog (2017-2021)
"Restoration of auditory and cognitive functions in cochlear implanted deaf children"
PI Pascal Barone (CerCo, Toulouse), in collaboration with GIPSA-lab, CLLE, CHU Toulouse, MSHS Toulouse

5. Member of the Monologuer programme
PI Stéphanie Smadja, Université Paris Diderot, CERILAC

6. Member of the Paidologos project (2005-present)
"Cross-language investigation of phonological development"
PIs Mary Beckman (Department of Linguistics, the Ohio State University, USA) and Jan Edwards (Univ. Wisconsin, USA) , in collaboration with the Centre des Nouvelles Études sur le Pacifique, Université de la Nouvelle-Calédonie, Nouméa, France

Past


1. PI for the APN project n°7904 (1999-2001) :
"De la prosodie à la syntaxe : Recherche de patrons d’activation cérébrale par IRM fonctionnelle"

2. Member of the Cognitique Action project (2001) :
"Le contrôle du mouvement en production de la parole et l’efficacité perceptives des gestes anticipatoires "
PI Rudolph Sock (Institut de Phonétique de Strasbourg)

3. Member of the Centre Jacques Cartier project (2002) :
"Les effets articulatoires et acoustiques de l’accent de focalisation : une étude développementale"
PI Lucie Ménard (UQAM, Montréal, Canada)

4. Member of the ACI Jeunes Chercheurs project (2002-2005) :
"Caractérisation physiologique et perceptive de l’alignement tonal"
PI Mariapaola d’Imperio (LPL UMR 6057, Aix-en-Provence)

5. PI for the ELESA project (2005) :
"Décodage de la prosodie en parole silencieuse"

6. Co-PI for the BQR INPG project (2007-2010) :
"LA VOIX DU SILENCE : Prosodie de la parole silencieuse et du murmure inaudible — EMG du larynx et stéthoscopie maxillo-faciale"

7. Member of the Région Rhône Alpes Cluster 11 Handicap Vieillissement Neurosciences project (2008-2011) :
"Réorganisation fonctionnelle du langage et de la mémoire chez les patients épileptiques, avant et après intervention chirurgicale.Exploration par IRM fonctionnelle et électroencéphalographie"
PIs Monica Baciu (LPNC, UMR 5105) and Olivier David (GIN, U836)

8. Co-PI for the Région Rhône Alpes Cluster 11 Handicap Vieillissement Neurosciences project (2009-2011) :
"Traces orofaciales des hallucinations auditives chez les schizophrènes : électromyographie et électroglottographie"

9. PI for the Centre Jacques Cartier project (2010) :
Étude des mécanismes cognitifs des hallucinations auditives verbales chez les schizophrènes"

10. Member of the ANR-DFG project (2011-2013)
"CROSSMOD : Cross-modal integration of language and face cues in German and French infants"
PI Olivier Pascalis (LPNC and GIPSA), in collaboration with Justus-Liebig University Giessen and the Laboratoire Psychologie de la Perception, Paris

11. Member of the ARC2 Rhône-Alpes Region project (2013-2015)
"Speech deficits in cochlear-implanted children : evaluation, diagnosis and proposals for remediation"
PIs Anne Vilain (GIPSA-lab) and Michel Hoen (Centre de recherche en Neurosciences de Lyon U1028)

12. Member of the SFR Santé Société project (2013-2015)
"Potential compensation of language deficits by communicative manual gestures in SLI children"
PI Marion Dohen (GIPSA-lab)

13. PI for the ANR InnerSpeech 2014-2018
"Neural Correlates of Inner Speech"

The project aimed at providing a theoretical account of inner speech, the silent production of words in one’s mind, by examining the neural and physiological correlates of various forms of inner speech, including wilful inner speech (with one’s own or someone else’s voice, with 1st or 3rd person perspective) as well as less deliberate inner speech forms such as mind wandering or verbal rumination and by comparing objective and introspective data.

14. PI of the ARC2 Auvergne Rhône-Alpes Region project (2016-2019)
"Assessment and Screening tools for speech sound development disorders"
co-PIs : Anne Vilain (GIPSA-lab) and Sophie Kern (Laboratoire Dynamique Du Langage, Lyon)

Return to Menu


📜 SELECTED PUBLICATIONS


See also
HAL archives ouvertes
Research Gate
ORCID
Open Science Foundation (OSF)

Publications in French are followed by a 🇫🇷 flag

Dissertations
Lœvenbruck H. (2019). Loquor, ergo communico-cogito-sum. Habilitation à Diriger des Recherches. Ecole Doctorale Ingénierie pour la Santé, la Cognition et l’Environnement, Université Grenoble Alpes - tel-02461867 🇫🇷

Lœvenbruck H. (1996). Pistes pour le contrôle d’un robot parlant capable de réduction vocalique (Proposals for a speaking robot capable of vowel reduction). Thèse de Doctorat en Sciences Cognitives (PhD thesis), INPG, Grenoble - tel-02293306 🇫🇷

Selection of peer-reviewed articles

2021
Nalborczyk, L.*, Banjac, S.*, Baeyens, C., Grandchamp, R., Koster, E. H. W., Perrone-Bertolotti, M., & Loevenbruck, H. (2021). Dissociating facial electromyographic correlates of visual and verbal induced rumination. International Journal of Psychophysiology, 159C, 23-36. https://doi.org/10.1016/j.ijpsycho.2020.10.009

2020
Haldin, C., Lœvenbruck, H., Hueber, T., Marcon, V., Piscicelli, C., Perrier, P., Chrispin, A., Pérennou, D. & Baciu, M. (accepted). Speech rehabilitation in post-stroke aphasia using visual illustration of speech articulators. A case report study. Clinical Linguistics and Phonetics. doi:10.1080/02699206.2020.1780473 - hal-02879182

Meloni, Geneviève, Lœvenbruck, Hélène, Vilain, Anne, Gillet-Perret, Estelle & MacLeod, Andrea (in press). Evaluation de la perception des sons de parole chez les populations pédiatriques : réflexions sur les épreuves existantes. Glossa. 🇫🇷

Nalborczyk, L., Grandchamp, R., Koster, E.H.W., Perrone-Bertolotti, M., & Lœvenbruck, H. (2020). Can we decode phonetic features in inner speech using surface electromyography ? PLoS ONE, 15(5) : e0233282. https://doi.org/10.1371/journal.pone.0233282 - hal-02696432

Paroni, Annalisa, Henrich Bernardoni Nathalie, Savariaux, Christophe, Loevenbruck Hélène, Calabrèse, Pascale, Pellegrini, Thomas, Mouysset, Sandrine, Gerber, Silvain (in press). Vocal drum sounds in Human Beatboxing : an acoustic and articulatory exploration using electromagnetic articulography. The Journal of the Acoustical Society of America.

Remon D., Lœvenbruck, H., Deudon, M., Girardie, O., Bouyer, KL. Pascalis, O. & Thorpe S. (2020). 24-month-olds and above remember novel object names after a single learning event. Journal of Experimental Child Psychology, 196. https://doi.org/10.1016/j.jecp.2020.104859 - hal-03014839

2019
Grandchamp R., Rapin L., Perrone-Bertolotti M., Pichat C., Haldin, C., Cousin E., Lachaux J.P., Dohen M., Perrier P., Garnier M., Baciu M., Lœvenbruck H. (2019). The ConDialInt Model : Condensation, Dialogicality and Intentionality dimensions of inner speech within a hierarchical predictive control framework. Frontiers in psychology, Exploring the Nature, Content, and Frequency of Intrapersonal Communication, 10. doi : 10.3389/fpsyg.2019.02019 - hal-02290943

Haldin, C., Acher, A., Kauffmann, L., Hueber, T., Cousin, E., Badin, P., Perrier, P., Fabre, D., Perennou, D., Detante, O., Jaillard, A., Lœvenbruck, H. & Baciu, M. (2019). Effet de la rééducation perceptivo-motrice sur la récupération de la parole chez deux patientes avec aphasie non fluente chronique post-AVC. Revue de Neuropsychologie, 11 (1), 44-59 - hal-02134778 🇫🇷

Nalborczyk, L., Batailler, C., Lœvenbruck, H., Vilain, A. & Bürkner, P.-C. (2019). An Introduction to Bayesian Multilevel Models Using brms : A Case Study of Gender Effects on Vowel Variability in Standard Indonesian. Journal of Speech, Language, and Hearing Research - hal-02096991

Vilain, A., Dole, M., Lœvenbruck, H., Pascalis, O. & Schwartz J.-L. (2019). The role of production abilities in the perception of consonant category in infants. Developmental Science. e12830. https://doi.org/10.1111/desc.12830 - hal-02075827

2018
Haldin, C., Acher, A., Kauffmann, L., Hueber, T., Cousin, E., Badin, P., Perrier, P., Fabre, D., Perennou, D., Detante, O., Jaillard, A., Lœvenbruck, H. & Baciu, M. (2018). Speech recovery and language plasticity can be facilitated by Sensori-Motor Fusion (SMF) training in chronic non-fluent aphasia. A case report study. Clinical Linguistics & Phonetics, 1 - 27. doi : 10.1080/02699206.2017.1402090 - hal-01651198

Kubicek, C., Gervain, J., Lœvenbruck, H., Pascalis, O., & Schwarzer, G. (2018). Goldilock vs. Goldlöckchen : Visual speech preference for same-rhythm-class languages in 6-month-old infants. Infant and Child Development. doi : 10.1002/icd.2084 - hal-01741631

Lœvenbruck, H. (2018). What the neurocognitive study of inner language reveals about our inner space. Épistémocritique, n° 18 : Langage intérieur - Espaces intérieurs / Inner Speech - Inner Space, Stéphanie Smadja, Pierre-Louis Patoine (eds.) [http://epistemocritique.org/what-the-neurocognitive-study-of-inner-language-reveals-about-our-inner-space/] - hal-02039667

Lœvenbruck, H., Grandchamp, R., Rapin, L., Nalborczyk, L., Dohen, M., Perrier, P., Baciu, M. & Perrone-Bertolotti M. (2018). A cognitive neuroscience view of inner language : to predict and to hear, see, feel. In Inner Speech : New voices, Peter Langland-Hassan & Agustín Vicente (eds.), Oxford University Press, 131-167. - hal-01898992

2017
Grandon, B., Vilain, A., Lœvenbruck, H., Schmerber, S. & Truy, E. (2017). Realisation of voicing by French-speaking CI children after long-term implant use : An acoustic study. Clinical Linguistics & Phonetics, 31, 1-14. doi : 10.1080/02699206.2017.1302511 - PMID : 28362227 - halshs-01500526v1

Lœvenbruck H., Nalborczyk L., Perrone-Bertolotti M., Baeyens C., Grandchamp R. (2017). Un cas d’incarnation linguistique : implication du système moteur orofacial dans les ruminations mentales. La cognition incarnée, J. Dokic et D. Perrin (dir.), Recherches sur la philosophie et le langage, N° 33, Vrin, Paris, 297-324, ISBN : 978-2-7116-8423-6. - hal-01887636 🇫🇷

Nalborczyk L., Perrone-Bertolotti M., Baeyens C., Grandchamp R., Polosan M., Spinelli E., Koster E. H. W. & Lœvenbruck H. (2017). Orofacial electromyographic correlates of induced verbal rumination. Biological Psychology. 127, 53-63. doi : 10.1016/j.biopsycho.2017.04.013 -  hal-01569420v1

Richoz, A.-R., Quinn, P. C., Hillairet de Boisferon, A., Berger, C., Lœvenbruck, H., Lewkowicz, D. J., Lee, K., Dole, M., Caldara, R. and Pascalis, O. (2017). Audio-Visual Perception of Gender by Infants Emerges Earlier for Adult-Directed Speech. PLOS ONE, 12, 1-15. doi:10.1371/ journal.pone.0169325 - PMC5218491 -  hal-01519114

2016
Perrone-Bertolotti M., Grandchamp R., Rapin L., Baciu M., Lachaux J.P. & Lœvenbruck H. (2016). Langage intérieur. In Pinto, S. & Sato, M. (eds.). Traité de Neurolinguistique : du cerveau au langage. Collection Neuropsychologie, De Boeck Supérieur, 109-123, ISBN : 9782353273393. -  hal-01467107 🇫🇷

Rapin L., Dohen M. & Lœvenbruck H. (2016). Les hallucinations auditives verbales. In Pinto, S. & Sato, M. (eds.). Traité de Neurolinguistique : du cerveau au langage. Collection Neuropsychologie, De Boeck Supérieur, 347-370, ISBN : 9782353273393. - hal-01442463 🇫🇷

2015
Hillairet de Boisferon, A., Dupierrix, E., Quinn, P.C., Lœvenbruck, H., Lewkowicz, D.J., Lee, K., & Pascalis, O. (2015). Perception of Multisensory Gender Coherence in 6 and 9-month-old Infants. Infancy, 20 (6), 661-674. doi : 10.1111/infa.12088 - hal-01203120

Lavigne K. M., Rapin L. A. ; Metzak P. D., Whitman J. C., Jung K., Dohen M., Lœvenbruck H., Woodward T. S. (2015). Left-dominant temporal-frontal hypercoupling in schizophrenia patients with hallucinations during speech perception. Schizophrenia Bulletin, 41 (1), 259-267. hal-00966620

2014
Kubicek, C., Gervain, J., Hillairet de Boisferon, A., Pascalis, O., Lœvenbruck, H., & Schwarzer, G. (2014). The influence of infant-directed speech on 12-month-olds’ intersensory perception of fluent speech. Infant Behavior & Development, 37(4), 644-651.

Kubicek C., Hillairet de Boisferon A., Dupierrix E., Pascalis O., Lœvenbruck H., Gervain J. & Schwarzer G. (2014). Cross-modal matching of audiovisual German and French fluent speech in infancy. PlosOne. hal-00964518

Pascalis O., Loevenbruck H., Quinn P. C., Kandel S., Tanaka J. W. & Lee K. (2014). On the Links Among Face Processing, Language Processing, and Narrowing during Development. Child Development Perspectives, 8 (2), 65-70. hal-00964721

Perrone-Bertolotti, M., Rapin L., Lachaux J.-P., Baciu M. & Lœvenbruck H. (2014). What is that little voice inside my head ? Inner speech phenomenology, its role in cognitive performance and its relation to self-monitoring. Behavioural Brain Research, 261, 220-239. hal-00967730

2013
Rapin L., Dohen M., Polosan M., Perrier P., Lœvenbruck H. (2013). An EMG study of the lip muscles during covert auditory verbal hallucinations in schizophrenia. J. Speech Hearing and Language Research, 56, S1882–S1893. hal-00926630

Kubicek C., Hillairet de Boisferon A., Dupierrix E., Lœvenbruck H., Gervain J., and Schwarzer G. (2013). Face-scanning behavior to silently talking faces in 12-month-old infants : The impact of pre-exposed auditory speech. International Journal of Behavioral Development, 37 (2), 106-110. hal-00864344

Perrone-Bertolotti, M. Dohen, M., Lœvenbruck, H., Sato, M., Pichat, C., Baciu, M. (2013). Neural correlates of the perception of contrastive prosodic focus in French. An fMRI study. Human Brain Mapping. hal-00762363 - PMID : 22488985

2012
Cathiard M.-A., Vilain A., Laboissière R., Lœvenbruck H., Savariaux C. & Schwartz J.-L. (2012). Bimodal Perception within the natural time-course of speech production. In Bailly G., Perrier P. & Vatikiotis-Bateson E. (Eds.), Audiovisual Speech Processing. Cambridge University Press, 121-158. hal-00821829

Rapin, L., Metzak, P. D., Whitman, J. C., Dohen, M., Lœvenbruck, H., & Woodward, T. S. (2012). Hyperintensity of functional networks involving voice-selective cortical regions during silent thought in schizophrenia. Psychiatry Research : Neuroimaging, 102 (2), 110-117. hal-00734043, PMID : 22703623

Schwartz J.-L. & Lœvenbruck H. (2012). La parole, entre objets vocaux et objets du monde. In La psychologie cognitive. Collection Cogniprisme. M. Denis (ed.). Editions de la Maison des Sciences de l’Homme, ISBN 978-2-7351-1509-9, 165-199. hal-00782274 🇫🇷

2011
Dohen M., Lœvenbruck H., Roustan B., Vilain C. (2011). Pointage manuel et vocal : corrélats sensorimoteurs et neurocognitifs, coordination geste manuel / parole. Faits de Langue, 37, 97-116. hal-00784592 🇫🇷

2010
Tran V.-A., Bailly G., Lœvenbruck H. & Toda T. (2010). Improvement to a NAM-captured whisper-to-speech system. Speech Communication. 52 (4), 314-326. hal-00459973

2009
Dohen M. & Lœvenbruck H. (2009). Interaction of audition and vision for the perception of prosodic contrastive focus. Language and Speech, 52 (3), 177-206. hal-00371180 - PMID : 19624029

Dohen M., Lœvenbruck H. & Hill H. (2009). Recognizing prosody from the lips : is it possible to extract prosodic focus from lip features ? In Alan Wee-Chung Liew & Shilin Wang (Eds.), Visual Speech Recognition : Lip Segmentation and Mapping, Medical Information Science Reference, Hershey, New York, ISBN 978-1-60566-186-5, 416-438. hal-00360765

Heracleous P., Beautemps D., Tran V.-A., Lœvenbruck H. & Bailly G. (2009). Exploiting visual information for NAM recognition. IEICE Electronics Express, 6, 2, 77-82. hal-00357985

Lœvenbruck H., Dohen M. & Vilain C. (2009). Pointing is ‘special’. In Fuchs S., Lœvenbruck H. Pape D. & Perrier P. (eds.), Some Aspects of Speech and the Brain, Peter Lang, 211-258, ISBN 978-3-631-57630-4. hal-00360758

2008
Lœvenbruck H., Vilain C. & Dohen M. (2008). From gestural pointing to vocal pointing in the brain. Revue Française de Linguistique Appliquée, Vol. XIII, 2, 23-33. hal-00360753

2007
D’Imperio M., Espesser R., Lœvenbruck H., Menezes C., Nguyen N. & Welby P. (2007). Are tones aligned to articulatory events ? Evidence from Italian and French. Cole, Jennifer and José I. Hualde (eds.), Laboratory Phonology 9, Berlin : Mouton de Gruyter, 577-608. hal-00244489

2006
Ménard L., Lœvenbruck H. & Savariaux C. (2006). Articulatory and acoustic correlates of contrastive focus in French : a developmental study, in Harrington, J. & Tabain, M. (eds), Speech Production : Models, Phonetic Processes and Techniques, Psychology Press : New York, 227-251. hal-00371878

Sato M., Schwartz J.-L., Abry C., Cathiard M.-A., & Lœvenbruck H. (2006). Multistable syllables as enacted percepts : A source of an asymmetric bias in the verbal transformation effect. Perception & Psychophysics, 68 (3), pp. 458-474. hal-00186572 - PMID : 16900837

Welby P. & Lœvenbruck H. (2006). Anchored down in Anchorage : Syllable structure and segmental anchoring in French. Rivista di Linguistica/ Italian Journal of Linguistics 18 : 74–124. Current Issues in Tonal Alignment. Mariapaola D’Imperio (éd.). hal-00371892

2005
Lœvenbruck H., Baciu M., Segebarth C. & Abry C. (2005). The left inferior frontal gyrus under focus : an fMRI study of the production of deixis via syntactic extraction and prosodic focus. Journal of Neurolinguistics, 18, 237-258. hal-00371865

2004
Dohen M., Lœvenbruck H., Cathiard M.-A. & Schwartz J.-L. (2004). Visual perception of contrastive focus in reiterant French speech. Speech Communication, 44, 155-172. hal-00370938

Sato M., Baciu M., Lœvenbruck H., Schwartz J.-L., Segebarth C., Cathiard M.-A. & Abry C. (2004). Multistable representation of speech forms : a functional MRI study of verbal transformations. NeuroImage, 23, 1143-1151. PMID : 15528113

1999
Lœvenbruck H., Collins M.J., Beckman M.E., Krishnamurthy A.K. & Ahalt S.C. (1999). Temporal coordination of articulatory gestures in consonant clusters and sequences of consonants. Proceedings of Linguistics Phonetics 1998, Item Order in Language and Speech. Fujimura O., Joseph B. D. & Palek B. (eds.), Charles University, Prague, The Karolinum Press. Vol II : 547-573. hal-00371717

1996
Perrier P., Lœvenbruck H. & Payan Y. (1996). Control of the tongue movements in speech : The Equilibrium point Hypothesis perspective. Journal of Phonetics, 24, 53-75. hal-00080443

Return to Menu


🛤 OUTREACH - BRIDGING ART & SCIENCE


  • Langues et Musique de Babylab (Languages of Babylab) with Mediarts and musicians Aurélie Maisonneuve (Soliloc’ 2019), Bertille Puissat, Myriam Roulet

    In theatres and early childhood centers in Grenoble and its region (Saint-Martin-d’Hères, Fontaine, Vaulnaveys, Voiron), and at Experimenta Biennale Arts Sciences 2020 and during the workshop ’journée professionnelle du festival Livres à vous’, Voiron 2020

Return to Menu


🧑‍🎓 TEACHING AND SUPERVISION


Teaching

  • 2005-20 : Co-head of the M.Sc. programme in Cognitive Sciences, Grenoble
  • 1993-95 : Teaching Assistant, Institut Universitaire de Technologie (IUT1) Génie Thermique et Energie, Univ. Joseph Fourier, Grenoble
    Courses taught : Mathematics and Computer Science (Undergraduate level)
  • 1995-97 : Teaching/Research Assistant ICP / ENSERG (INPG), Grenoble
    Courses taught : C language, Algorithms, Computer Science (Engineering degree level)
  • 1999-2001, 2009-2010 : Instructor, Language Sciences, Stendhal University, Grenoble 3.
    Courses taught : Experimental Phonetics
  • 2006-present : Introduction to Cognitive Sciences - Master in Cognitive Sciences
    Course taught in English
  • 2008-2014 : Spoken Communication - Master in Cognitive Sciences
  • 2013-2014 : Psycholinguistics- Master in Psychology, Univ. P. Mendès France Grenoble
  • 2019-2020 : Psycholinguistics- Master in Psychology, Univ. Grenoble Alpes
  • 2015-2016 : Phonetics and Cognition - Master in Language Sciences
  • 2009-present : Cognitive Neuroscience of Early Competence : early language development - Master in Cognitive Sciences
  • 2017-2018 : Phonetics and Phonology - first steps towards speech - Undergraduate (licence), cross-curricular


Supervision of PhD students and post-docs

  • Marc Sato : PhD thesis at ICP, co-advisor with Jean-Luc Schwartz and Christian Abry
    Title : Représentations verbales multistables en mémoire de travail : vers une perception active des unités de parole
    Defended on 30th Novembre 2004
  • Marion Dohen : PhD thesis at ICP, co-advisor with Jean-Luc Schwartz
    Title : Deixis prosodique multisensorielle : production et perception audiovisuelle de la focalisation contrastive en français
    Defended on 18th Novembre 2005
  • Julia Monnin : PhD thesis at GIPSA-lab / CNEP UNC Noumea (New-Caledonia), co-advisor with Dominique Jouve
    Title : Influence de la langue ambiante sur l’acquisition phonologique : une comparaison du français et du drehu
    Defended on 16th July 2010
  • Lucile Rapin : PhD thesis at GIPSA-lab, co-advisor with Marion Dohen, Pascal Perrier and Todd Woodward (University of British Columbia)
    Title : Hallucinations auditives verbales et trouble du langage intérieur dans la schizophrénie : traces physiologiques et bases cérébrales
    Defended on 24th January 2011
  • Laura Machart : PhD thesis at LPNC, co-advisor with Anne Vilain (GIPSA-lab), Olivier Pascalis
    Title : A perceptuo-motor study of oral language development in deaf children with cochlear implants
    Started September 2018
  • Olivier Clerc : PhD thesis at LPNC, co-advisor with Olivier Pascalis
    Title : Interactions between face processing and speech perception and its influence on early social cognition
    Started October 2018
  • Annalisa Paroni : PhD thesis at GIPSA-lab, co-advisor with Nathalie Henrich (GIPSA-lab)
    Title : Le Human Beabox, un langage musical au service de la rééducation orthophonique
    Started October 2018
  • Célise Haldin : PhD thesis at LPNC, co-advisor with Monica Baciu
    Title : Sensory-Motor Integration for Speech Rehabilitation in Post-Stroke Aphasia
    Started September 2019
  • Lucie Van Bogaert : Thèse au LPNC, co-advisor with Anne Vilain (GIPSA-lab)
    Title : Sustaining oral communicative skills in children with Hearing Impairment
    Started October 2020

    Return to Menu


🌿 BIO


Positions

  • Member of the LPNC since October 2013
  • Head of the LPNC Language team since October 2017
  • Former member of the Speech and Cognition Department at GIPSA-lab UMR 5216 (ex-Institut de la Communication Parlée, ICP) : 1998-2013
  • Former co-head with Anne Vilain of the group ’Parole Multimodalité Développement’ (Speech Multimodality Development), Speech and Cognition Department, GIPSA-lab : March 2007 - August 2011
  • Editor-in-chief of In Cognito - Cahiers Romans de Sciences Cognitives
    International quadrilingual journal in Cognitive Sciences
  • Co-head of the Master programme in Cognitive Sciences, 2005-2020

Education

  • 2019 : Habilitation à Diriger des Recherches en Sciences Cognitives, EDISCE, Univ. Grenoble Alpes
  • 1997-98 : Post-Doc in the Department of Linguistics at the Ohio State University in Columbus, Ohio, USA (fellowship from the Fyssen Foundation)
  • 1997 : DEA (equivalent of M.Sc.) in Language Sciences at Stendhal University (Grenoble 3)
    Major in Phonetics and Speech
    M.Sc. dissertation title : "Quelques effets de l’accentuation et du débit sur l’articulation"
  • 1996 : Doctorat (PhD) in Cognitive Sciences at the Institut National Polytechnique (INPG)
    PhD thesis title : "Proposals for the control of a speaking robot capable of speech reduction"
  • 1992 : DEA (M.Sc.) in Cognitive Sciences at the Institut National Polytechnique de Grenoble (INPG)
  • 1992 : Engineering degree in Electronics, Signal Processing, Computer Science
    Major in Information processing system architecture
    ENSERG/ENSIMAG

Languages

  • French : mother tongue
  • English : beloved
  • Russian : beloved but less well spoken
  • German : spoken

Extras

Return to Menu


🛠 TOOLS FOR SPEECH AND COGNITION RESEARCH



  • TRAP : a Tool foR speech signAl Processing :


    A brief introduction


  • Scripts for Praat a great program developed by Paul Boersma and David Weenink
  • SplitIt : the sound file splitter
  • MergeIt : the sound file merger
  • PsychoPy : stimuli presentation (with Python)

PRAAT SCRIPTS

Trois scripts pour le tutorial "Praat scripting" de Speech Prosody 2006 :


1. Starter.praat : un script pour débuter
Ouvre un fichier son (au format .wav), affiche les temps de début et de fin du fichier son dans la fenêtre d’information.
Calcule la durée totale du son et l’affiche dans la fenêtre d’information.


2. CutSoundFile.praat : un script de découpage
Ouvre un fichier son (au format .wav) et son fichier d’étiquettes associé (.TextGrid).
Crée un nouveau fichier son qui commence au début du son original
et s’arrête à la première étiquette de la première ligne (tier) lue dans le .TextGrid


3. GetTimeF0.praat : un script d’extraction de F0
Ouvre un fichier son (au format .wav) et crée un fichier texte (.txt)
avec les valeurs de F0 calculées pour chaque trame voisée.
Le fichier texte obtenu contient 2 colonnes : les valeurs du temps et de F0

Ces trois scripts utilisent le fichier son ARpostC1.wav et son fichier d’étiquettes ARpostC1.TextGrid.
Pour utiliser d’autres fichiers, il suffit de modifier la ligne :
sound_file$ = "ARpostC1.wav"

Autres Scripts :


4. affiche_etiq_duree.praat : Convertit un fichier .TextGrid en un fichier texte simple, contenant les étiquettes et les durées des intervalles en 2 colonnes.


5. calcul_F0_durees.praat : Donne F0 max et la durée sur chacun des intervalles (syllabes) spécifiés dans le .TextGrid.
calcul_F0_durees_tons_numsyl.praat


6. calcul_F0_durees_tons_numsyl.praat : Donne des informations prosodiques telles que les valeurs des pics de F0, les durées syllabiques, la nature des tons, le numéro des syllabes portant les tons, à partir d’informations stockées dans les .TextGrid

Les fichiers .TextGrid files doivent contenir 4 tiers (au moins 3 en fait)
interval tier 1 : segmentation en syllabes
interval tier 2 : segmentation en GroupesProsodiques
point tier 3 : marquage des tons Hi, H* et L%
interval tier 4 : phrase prononcée (optionnel)

Les résultats des calculs sont écrits dans un fichier texte (fichier_resultat$), en colonne, dans l’ordre suivant :
NomDuFichier DuréeTotaleEnoncé F0MaxSurEnoncé
NombreDeGroupeProsodique
DuréeSyllabe1 DuréeSyllabe2 ... DuréeSyllabeX
Puis pour chaque Groupe Prosodique (GP) :
EtiquetteTon1 NuméroGroupeProsodique NuméroSyllabeTon1 TempsTon1 F0Ton1 EtiquetteTon2 NuméroSyllabeTon2 TempsTon2 F0Ton2


7. decoupe_son.praat : Crée plusieurs fichiers .wav à partir d’un fichier .wav découpé à des temps différents (pour une expérience de gating).


8. formants_in_interval.praat : Calcule les formants sur un intervalle spécifié dans un .TextGrid, toutes les 10 ms (modifiable).


9. formants_in_interval_F1corrected.praat : idem précédent, mais si F1 est mal détecté (F2 pris pour F1), i.e. si F1 > 700 Hz, remplace F1 par 1 Hz et F2 par F1, F3 par F2, etc.


10. formants_at_instant.praat : Calcule les formants à des instants spécifiés dans un .TextGrid.


11. lire_tout.praat : Lit tous les fichiers .wav et .TextGrid d’un répertoire spécifié et affiche une fenêtre d’édition, en permettant à l’utilisateur de marquer une pause après chaque fichier.


12. GetTimeF0AllFiles.praat : Lit tous les fichiers .wav d’un répertoire, calcule la F0 de chacun des fichiers et crée un fichier .txt par fichier .wav, avec 2 colonnes : temps et F0.


13. GetDurationAllFiles.praat : Lit tous les fichiers .TextGrid d’un dossier, calcule la durée entre les 2 premières étiquettes du premier tier (interval tier) pour chacun des fichiers
et crée un fichier .txt contenant 2 colonnes : la racine du nom du fichier .TextGrid et la durée entre les 2 étiquettes.

14. MarkLabelAllFiles.praat : Lit tous les fichiers .wav d’un dossier, attend que l’utilise place l’étiquette et crée un fichier .txt contenant 2 colonnes : la racine du nom du fichier .wav et le temps où a été placée l’étiquette

Return to Menu