Accueil > Personnel

Hélène Loevenbruck

Hélène Loevenbruck

CNRS Researcher (HDR)

Head of LPNC's Language Team

Member of LPNC's Baby Lab

Co-head of the Master programme Cognitive Sciences

Editor of In Cognito Cahiers Romans de Sciences Cognitives

Member of the Grenoble Brain Awareness Week Organising committee

Bronze Medal CNRS 2006

Laboratoire de Psychologie et NeuroCognition
CNRS UMR 5105 - Université Grenoble Alpes
Bâtiment Michel Dubois - Bureau E109
CS40700 - 38058 Grenoble Cedex 9 France

Tél. : +33 476 825 675


Language serves three essential functions : a communicative function (exchanging with our fellow human beings), a cognitive function (reasoning and thinking), and a metacognitive function of autonoesis (self-awareness in time).
Communication, thought and autonoesis depend on one another. They form a systemic functional triad, which requires sophisticated control and error detection mechanisms as well as agency monitoring, what I have referred to, in my habilitation, as a verbal cybernetics.
My research is focused on better understanding the verbal cybernetics that sustains communication, thought and autonoesis, by describing its properties and neurophysiological correlates.
To this aim, with my colleagues at LPNC and other labs, I collect introspective, behavioural and neurophysiological data on (overt or covert) language production or perception, in adults, in infant or children, and in people with language, hearing, neurological or psychiatric disorders. I am also engaged in developing therapeutic, educative and technological applications of this research.

Cognitive and autonoesis functions -

Inner language monitoring

Understanding how inner language is monitored in order to sustain cognition and autonoesis :
cerebral networks, physiological mechanisms, linguistic operations

  • Neural Correlates of inner speech : PI of ANR InnerSpeech project
    In collaboration with :
    * GIPSA-lab
    * UMS IRMaGe, Grenoble
    * Laboratoire de neurophysiopathologie de l’épilepsie, CHU Grenoble
    * CRNL équipe Dynamique Cérébrale et Cognition, Lyon
    * Neurolab, Ferrara, Italy
    * Cognitive Neuropsychiatry of Schizophrenia Lab, UBC, Canada
  • Introspective accounts of inner speech :
    In collaboration with :
    * Programme Monologuer, led by Stéphanie Smadja, CERILAC, Université Paris Diderot
  • Inner speech and auditory verbal hallucination in schizophrenia : EMG and fMRI
    In collaboration with :
    * GIPSA-lab, Grenoble
    * Pôle de Psychiatrie et de Neurologie (CHU, Grenoble)
    * Cognitive Neuropsychiatry of Schizophrenia Lab in Vancouver, Canada
  • Inner speech and rumination : EMG and behavioural traces
    In collaboration with :
    * Laboratoire Inter-Universitaire de Psychologie, Grenoble
    * Pôle de Psychiatrie et de Neurologie (CHU Grenoble Alpes)
    * Psychopathology and Affective Neuroscience Lab, University of Ghent, Belgium

Communicative function -

Prosody and Deixis

Understanding the language cerebral networks and linguistic mechanisms that sustain the production and reception of prosodic focus, deixis, irony

  • Acoustic, articulatory and cerebral correlates of the production of prosody (focus and information structure)
    In collaboration with :
    * GIPSA-lab
    * INSERM U594
    * IFR N°1 INSERM
    * Laboratoire Parole et Langage, Aix-en-Provence
  • Audiovisual and cerebral correlates of the perception of prosodic focus
    In collaboration with :
    * GIPSA-lab
    * INSERM U594
    * IFR N°1 INSERM
  • Cerebral circuits of multimodal pointing (deixis) : digital, ocular, prosodic, syntactic pointing
    In collaboration with :
    * GIPSA-lab
    * INSERM U594
    * IFR N°1 INSERM
  • Prosodic cues of sarcastic speech in French
    In collaboration with :
    * Laboratoire Parole et Langage, Aix-en-Provence

Communicative function -

Speech development

Understanding the neurophysiological mechanisms and environmental factors that sustain speech development in infants and children

  • Language acquisition : phonology - influence of the ambient language
    Paidologos project (PI : Mary Beckman, Jan Edwards) : cross-language investigation of phonological development
    In collaboration with :
    * GIPSA-lab, Grenoble
    * The Ohio State University Department of Linguistics, USA
    * Centre des Nouvelles Etudes sur le Pacifique, UNC, Noumea, New Caledonia
  • Language acquisition : prosody and pragmatics
    In collaboration with :
    * GIPSA-lab, Grenoble
    * Univ. du Québec à Montréal, Canada
    * Laboratoire Parole et Langage, Aix-en-Provence
    * Open University of Catalonia
  • Speech Sound Development Disorders
    EULALIES project (Co-PI : Anne Vilain, GIPSA-lab)
    In collaboration with :
    * GIPSA-lab, Grenoble
    * Centre Référent des Troubles du Langage et des Apprentissages (CRTLA), CHU Grenoble Alpes
    * Laboratoire Dynamique Du Langage, Lyon
    * Univ. de Montréal, Canada
    * Memorial University, Newfoundland, Canada
    * Université de Liège, Belgium
  • Speech production and perception in children with hearing impairment
    ANR HearCog project, Restoration of auditory and cognitive functions in cochlear implanted deaf children (PI Pascal Barone, CerCo Toulouse) and EU ITN H2020 Comm4CHILD network, Communication for Children with Hearing Impairment to optimise Language Development (PIs Cécile Colin & Jacqueline Leybaert, ULB, Belgium)
    In collaboration with :
    * GIPSA-lab, Grenoble
    * Otorhinolaryngology Unit (CHU Grenoble Alpes)
    * CerCo, Toulouse
    * Université Libre de Bruxelles, Belgium and partners of Comm4CHILD
  • Cross-modal integration of language and face cues in infants
    ANR-DFG BabyFaceSpeech project (PI Olivier Pascalis, LPNC)
    In collaboration with :
    * GIPSA-lab, Grenoble
    * Justus-Liebig University Giessen, Germany
    * Laboratoire Psychologie de la Perception, Paris

Communicative function -

Sustaining impaired speech

Speech remediation tools and technology

  • Speech rehabilitation and inner speech assessment in patients with aphasia
    IDEX project SEMO (PI : Monica Baciu, LPNC) : Sensory-Motor Integration for Speech Rehabilitation in Post-Stroke Aphasia
    In collaboration with :
    * GIPSA-lab, Grenoble
    * Dept of Neurorehabilitation, CHU Grenoble Alpes
  • Understanding Human Beatbox and its potential outcomes for speech rehabilitation
    IDEX project BEATBOX (PI : Nathalie Henrich, GIPSA-lab)
    In collaboration with :
    * GIPSA-lab, Grenoble
    * TIMC, Grenoble
    * LIG, Grenoble
    * CHU Grenoble Alpes
    * IRIT, Toulouse
  • Whispered-speech to aloud-speech conversion
    In collaboration with :
    * Gérard Bailly, GIPSA-lab, Grenoble
    * Nara Institute of Science and Technology

Return to Menu


  • Online Kick-off meeting for H2020 ITN Comm4CHILD network : 14 May 2020
    LPNC and GIPSA-lab’s joint PhD fellowship in this network is entitled “Sustaining oral communicative skills in children with Hearing Impairment”.
    The aim of the ESR14 PhD project is to examine the impact of different intervention methods on the development of oral communication skills in French-speaking children with hearing impairment.
    The ESR14 project should start in October 2020.
  • Read about CONDIALINT, our model of inner speech, that accounts for condensation, dialogality and intentionality, in a hierarchical predictive control framework (Grandchamp et al., 2019).

  • Check our contribution to the first philosophical anthology on inner speech : Inner Speech : New Voices, edited by Peter Langland-Hassan & Agustin Vicente, Oxford University Press, 2018 : A cognitive neuroscience view of inner language : to predict and to hear, see, feel (Lœvenbruck et al., 2018).

Return to Menu



1. Member of the EU Horizon H2020 ITN project Comm4CHILD (2019-2023)
"Communication for Children with Hearing Impairment to optimise Language Development"
PIs Cécile Colin & Jacquline Leybaert (ULB, Belgium), in collaboration with GIPSA-lab, KU Leuven (Belgium), MHH (Germany), Linkopings Univ. (Sweden), Univ. Leeds (UK)

2. Member of the ANR project EULALIES (GIPSA-lab), in collaboration with CRTLA CHU Grenoble Alpes, Dynamique Du Langage (Lyon), Université de Montréal (Canada), Memorial University, Newfoundland (Canada)

3. Member of the ANR-DFG project BabyFaceSpeech (2017-2020)
"Look who’s talking : Interactions between face processing and speech perception during perceptual narrowing in monolingual and bilingual German and French infant"
PI Olivier Pascalis, in collaboration with GIPSA-lab, LPP (Paris), Univ. Giessen (Germany)

4. Member of the ANR project HearCog (2017-2021)
"Restoration of auditory and cognitive functions in cochlear implanted deaf children"
PI Pascal Barone (CerCo, Toulouse), in collaboration with GIPSA-lab, CLLE, CHU Toulouse, MSHS Toulouse

5. Member of the Monologuer programme
PI Stéphanie Smadja, Université Paris Diderot, CERILAC

6. Member of the Paidologos project (2005-present)
"Cross-language investigation of phonological development"
PIs Mary Beckman (Department of Linguistics, the Ohio State University, USA) and Jan Edwards (Univ. Wisconsin, USA) , in collaboration with the Centre des Nouvelles Études sur le Pacifique, Université de la Nouvelle-Calédonie, Nouméa, France


1. PI for the APN project n°7904 (1999-2001) :
"De la prosodie à la syntaxe : Recherche de patrons d’activation cérébrale par IRM fonctionnelle"

2. Member of the Cognitique Action project (2001) :
"Le contrôle du mouvement en production de la parole et l’efficacité perceptives des gestes anticipatoires "
PI Rudolph Sock (Institut de Phonétique de Strasbourg)

3. Member of the Centre Jacques Cartier project (2002) :
"Les effets articulatoires et acoustiques de l’accent de focalisation : une étude développementale"
PI Lucie Ménard (UQAM, Montréal, Canada)

4. Member of the ACI Jeunes Chercheurs project (2002-2005) :
"Caractérisation physiologique et perceptive de l’alignement tonal"
PI Mariapaola d’Imperio (LPL UMR 6057, Aix-en-Provence)

5. PI for the ELESA project (2005) :
"Décodage de la prosodie en parole silencieuse"

6. Co-PI for the BQR INPG project (2007-2010) :
"LA VOIX DU SILENCE : Prosodie de la parole silencieuse et du murmure inaudible — EMG du larynx et stéthoscopie maxillo-faciale"

7. Member of the Région Rhône Alpes Cluster 11 Handicap Vieillissement Neurosciences project (2008-2011) :
"Réorganisation fonctionnelle du langage et de la mémoire chez les patients épileptiques, avant et après intervention chirurgicale.Exploration par IRM fonctionnelle et électroencéphalographie"
PIs Monica Baciu (LPNC, UMR 5105) and Olivier David (GIN, U836)

8. Co-PI for the Région Rhône Alpes Cluster 11 Handicap Vieillissement Neurosciences project (2009-2011) :
"Traces orofaciales des hallucinations auditives chez les schizophrènes : électromyographie et électroglottographie"

9. PI for the Centre Jacques Cartier project (2010) :
Étude des mécanismes cognitifs des hallucinations auditives verbales chez les schizophrènes"

10. Member of the ANR-DFG project (2011-2013)
"CROSSMOD : Cross-modal integration of language and face cues in German and French infants"
PI Olivier Pascalis (LPNC and GIPSA), in collaboration with Justus-Liebig University Giessen and the Laboratoire Psychologie de la Perception, Paris

11. Member of the ARC2 Rhône-Alpes Region project (2013-2015)
"Speech deficits in cochlear-implanted children : evaluation, diagnosis and proposals for remediation"
PIs Anne Vilain (GIPSA-lab) and Michel Hoen (Centre de recherche en Neurosciences de Lyon U1028)

12. Member of the SFR Santé Société project (2013-2015)
"Potential compensation of language deficits by communicative manual gestures in SLI children"
PI Marion Dohen (GIPSA-lab)

13. PI for the ANR InnerSpeech 2014-2018
"Neural Correlates of Inner Speech"

The project aimed at providing a theoretical account of inner speech, the silent production of words in one’s mind, by examining the neural and physiological correlates of various forms of inner speech, including wilful inner speech (with one’s own or someone else’s voice, with 1st or 3rd person perspective) as well as less deliberate inner speech forms such as mind wandering or verbal rumination and by comparing objective and introspective data.

14. PI of the ARC2 Auvergne Rhône-Alpes Region project (2016-2019)
"Assessment and Screening tools for speech sound development disorders"
co-PIs : Anne Vilain (GIPSA-lab) and Sophie Kern (Laboratoire Dynamique Du Langage, Lyon)

Return to Menu


See also
HAL archives ouvertes
Research Gate
Open Science Foundation (OSF)

Lœvenbruck H. (2019). Loquor, ergo communico-cogito-sum. Habilitation à Diriger des Recherches. Ecole Doctorale Ingénierie pour la Santé, la Cognition et l’Environnement, Université Grenoble Alpes - tel-02461867

Lœvenbruck H. (1996). Pistes pour le contrôle d’un robot parlant capable de réduction vocalique (Proposals for a speaking robot capable of vowel reduction). Thèse de Doctorat en Sciences Cognitives (PhD thesis), INPG, Grenoble - tel-02293306

Peer-reviewed articles

Nalborczyk, L., Grandchamp, R., Koster, E.H.W., Perrone-Bertolotti, M., & Lœvenbruck, H. (2020). Can we decode phonetic features in inner speech using surface electromyography ? PLoS ONE, 15(5) : e0233282.

Grandchamp R., Rapin L., Perrone-Bertolotti M., Pichat C., Haldin, C., Cousin E., Lachaux J.P., Dohen M., Perrier P., Garnier M., Baciu M., Lœvenbruck H. (2019). The ConDialInt Model : Condensation, Dialogicality and Intentionality dimensions of inner speech within a hierarchical predictive control framework. Frontiers in psychology, Exploring the Nature, Content, and Frequency of Intrapersonal Communication, 10. doi : 10.3389/fpsyg.2019.02019 - hal-02290943

Haldin, C., Acher, A., Kauffmann, L., Hueber, T., Cousin, E., Badin, P., Perrier, P., Fabre, D., Perennou, D., Detante, O., Jaillard, A., Lœvenbruck, H. & Baciu, M. (2019). Effet de la rééducation perceptivo-motrice sur la récupération de la parole chez deux patientes avec aphasie non fluente chronique post-AVC. Revue de Neuropsychologie, 11 (1), 44-59 - hal-02134778

Nalborczyk, L., Batailler, C., Lœvenbruck, H., Vilain, A. & Bürkner, P.-C. (2019). An Introduction to Bayesian Multilevel Models Using brms : A Case Study of Gender Effects on Vowel Variability in Standard Indonesian. Journal of Speech, Language, and Hearing Research - hal-02096991

Vilain, A., Dole, M., Lœvenbruck, H., Pascalis, O. & Schwartz J.-L. (2019). The role of production abilities in the perception of consonant category in infants. Developmental Science. e12830. - hal-02075827

Kubicek, C., Gervain, J., Lœvenbruck, H., Pascalis, O., & Schwarzer, G. (2018). Goldilock vs. Goldlöckchen : Visual speech preference for same-rhythm-class languages in 6-month-old infants. Infant and Child Development. doi : 10.1002/icd.2084 - hal-01741631

Lœvenbruck, H. (2018). What the neurocognitive study of inner language reveals about our inner space. Épistémocritique, n° 18 : Langage intérieur - Espaces intérieurs / Inner Speech - Inner Space, Stéphanie Smadja, Pierre-Louis Patoine (eds.) [] - hal-02039667

Lœvenbruck, H., Grandchamp, R., Rapin, L., Nalborczyk, L., Dohen, M., Perrier, P., Baciu, M. & Perrone-Bertolotti M. (2018). A cognitive neuroscience view of inner language : to predict and to hear, see, feel. In Inner Speech : New voices, Peter Langland-Hassan & Agustín Vicente (eds.), Oxford University Press, 131-167. - hal-01898992

Grandon, B., Vilain, A., Lœvenbruck, H., Schmerber, S. & Truy, E. (2017). Realisation of voicing by French-speaking CI children after long-term implant use : An acoustic study. Clinical Linguistics & Phonetics, 31, 1-14. doi : 10.1080/02699206.2017.1302511 - PMID : 28362227 - halshs-01500526v1

Haldin, C., Acher, A., Kauffmann, L., Hueber, T., Cousin, E., Badin, P., Perrier, P., Fabre, D., Perennou, D., Detante, O., Jaillard, A., Lœvenbruck, H. & Baciu, M. (2017). Speech recovery and language plasticity can be facilitated by Sensori-Motor Fusion (SMF) training in chronic non-fluent aphasia. A case report study. Clinical Linguistics & Phonetics, 1 - 27. doi : 10.1080/02699206.2017.1402090 -  hal-01651198

Lœvenbruck H., Nalborczyk L., Perrone-Bertolotti M., Baeyens C., Grandchamp R. (2017). Un cas d’incarnation linguistique : implication du système moteur orofacial dans les ruminations mentales. La cognition incarnée, J. Dokic et D. Perrin (dir.), Recherches sur la philosophie et le langage, N° 33, Vrin, Paris, 297-324, ISBN : 978-2-7116-8423-6. - hal-01887636

Nalborczyk L., Perrone-Bertolotti M., Baeyens C., Grandchamp R., Polosan M., Spinelli E., Koster E. H. W. & Lœvenbruck H. (2017). Orofacial electromyographic correlates of induced verbal rumination. Biological Psychology. 127, 53-63. doi : 10.1016/j.biopsycho.2017.04.013 -  hal-01569420v1

Richoz, A.-R., Quinn, P. C., Hillairet de Boisferon, A., Berger, C., Lœvenbruck, H., Lewkowicz, D. J., Lee, K., Dole, M., Caldara, R. and Pascalis, O. (2017). Audio-Visual Perception of Gender by Infants Emerges Earlier for Adult-Directed Speech. PLOS ONE, 12, 1-15. doi:10.1371/ journal.pone.0169325 - PMC5218491 -  hal-01519114

Perrone-Bertolotti M., Grandchamp R., Rapin L., Baciu M., Lachaux J.P. & Lœvenbruck H. (2016). Langage intérieur. In Pinto, S. & Sato, M. (eds.). Traité de Neurolinguistique : du cerveau au langage. Collection Neuropsychologie, De Boeck Supérieur, 109-123, ISBN : 9782353273393. -  hal-01467107

Rapin L., Dohen M. & Lœvenbruck H. (2016). Les hallucinations auditives verbales. In Pinto, S. & Sato, M. (eds.). Traité de Neurolinguistique : du cerveau au langage. Collection Neuropsychologie, De Boeck Supérieur, 347-370, ISBN : 9782353273393. - hal-01442463

Hillairet de Boisferon, A., Dupierrix, E., Quinn, P.C., Lœvenbruck, H., Lewkowicz, D.J., Lee, K., & Pascalis, O. (2015). Perception of Multisensory Gender Coherence in 6 and 9-month-old Infants. Infancy, 20 (6), 661-674. doi : 10.1111/infa.12088 - hal-01203120

Lavigne K. M., Rapin L. A. ; Metzak P. D., Whitman J. C., Jung K., Dohen M., Lœvenbruck H., Woodward T. S. (2015). Left-dominant temporal-frontal hypercoupling in schizophrenia patients with hallucinations during speech perception. Schizophrenia Bulletin, 41 (1), 259-267. hal-00966620

Kubicek, C., Gervain, J., Hillairet de Boisferon, A., Pascalis, O., Lœvenbruck, H., & Schwarzer, G. (2014). The influence of infant-directed speech on 12-month-olds’ intersensory perception of fluent speech. Infant Behavior & Development, 37(4), 644-651.

Kubicek C., Hillairet de Boisferon A., Dupierrix E., Pascalis O., Lœvenbruck H., Gervain J. & Schwarzer G. (2014). Cross-modal matching of audiovisual German and French fluent speech in infancy. PlosOne. hal-00964518

Pascalis O., Loevenbruck H., Quinn P. C., Kandel S., Tanaka J. W. & Lee K. (2014). On the Links Among Face Processing, Language Processing, and Narrowing during Development. Child Development Perspectives, 8 (2), 65-70. hal-00964721

Perrone-Bertolotti, M., Rapin L., Lachaux J.-P., Baciu M. & Lœvenbruck H. (2014). What is that little voice inside my head ? Inner speech phenomenology, its role in cognitive performance and its relation to self-monitoring. Behavioural Brain Research, 261, 220-239. hal-00967730

Rapin L., Dohen M., Polosan M., Perrier P., Lœvenbruck H. (2013). An EMG study of the lip muscles during covert auditory verbal hallucinations in schizophrenia. J. Speech Hearing and Language Research, 56, S1882–S1893. hal-00926630

Kubicek C., Hillairet de Boisferon A., Dupierrix E., Lœvenbruck H., Gervain J., and Schwarzer G. (2013). Face-scanning behavior to silently talking faces in 12-month-old infants : The impact of pre-exposed auditory speech. International Journal of Behavioral Development, 37 (2), 106-110. hal-00864344

Perrone-Bertolotti, M. Dohen, M., Lœvenbruck, H., Sato, M., Pichat, C., Baciu, M. (2013). Neural correlates of the perception of contrastive prosodic focus in French. An fMRI study. Human Brain Mapping. hal-00762363 - PMID : 22488985

Cathiard M.-A., Vilain A., Laboissière R., Lœvenbruck H., Savariaux C. & Schwartz J.-L. (2012). Bimodal Perception within the natural time-course of speech production. In Bailly G., Perrier P. & Vatikiotis-Bateson E. (Eds.), Audiovisual Speech Processing. Cambridge University Press, 121-158. hal-00821829

Rapin, L., Metzak, P. D., Whitman, J. C., Dohen, M., Lœvenbruck, H., & Woodward, T. S. (2012). Hyperintensity of functional networks involving voice-selective cortical regions during silent thought in schizophrenia. Psychiatry Research : Neuroimaging, 102 (2), 110-117. hal-00734043, PMID : 22703623

Schwartz J.-L. & Lœvenbruck H. (2012). La parole, entre objets vocaux et objets du monde. In La psychologie cognitive. Collection Cogniprisme. M. Denis (ed.). Editions de la Maison des Sciences de l’Homme, ISBN 978-2-7351-1509-9, 165-199. hal-00782274

Dohen M., Lœvenbruck H., Roustan B., Vilain C. (2011). Pointage manuel et vocal : corrélats sensorimoteurs et neurocognitifs, coordination geste manuel / parole. Faits de Langue, 37, 97-116. hal-00784592

Tran V.-A., Bailly G., Lœvenbruck H. & Toda T. (2010). Improvement to a NAM-captured whisper-to-speech system. Speech Communication. 52 (4), 314-326. hal-00459973

Dohen M. & Lœvenbruck H. (2009). Interaction of audition and vision for the perception of prosodic contrastive focus. Language and Speech, 52 (3), 177-206. hal-00371180 - PMID : 19624029

Dohen M., Lœvenbruck H. & Hill H. (2009). Recognizing prosody from the lips : is it possible to extract prosodic focus from lip features ? In Alan Wee-Chung Liew & Shilin Wang (Eds.), Visual Speech Recognition : Lip Segmentation and Mapping, Medical Information Science Reference, Hershey, New York, ISBN 978-1-60566-186-5, 416-438. hal-00360765

Heracleous P., Beautemps D., Tran V.-A., Lœvenbruck H. & Bailly G. (2009). Exploiting visual information for NAM recognition. IEICE Electronics Express, 6, 2, 77-82. hal-00357985

Lœvenbruck H., Dohen M. & Vilain C. (2009). Pointing is ‘special’. In Fuchs S., Lœvenbruck H. Pape D. & Perrier P. (eds.), Some Aspects of Speech and the Brain, Peter Lang, 211-258, ISBN 978-3-631-57630-4. hal-00360758

Lœvenbruck H., Vilain C. & Dohen M. (2008). From gestural pointing to vocal pointing in the brain. Revue Française de Linguistique Appliquée, Vol. XIII, 2, 23-33. hal-00360753

D’Imperio M., Espesser R., Lœvenbruck H., Menezes C., Nguyen N. & Welby P. (2007). Are tones aligned to articulatory events ? Evidence from Italian and French. Cole, Jennifer and José I. Hualde (eds.), Laboratory Phonology 9, Berlin : Mouton de Gruyter, 577-608. hal-00244489

Ménard L., Lœvenbruck H. & Savariaux C. (2006). Articulatory and acoustic correlates of contrastive focus in French : a developmental study, in Harrington, J. & Tabain, M. (eds), Speech Production : Models, Phonetic Processes and Techniques, Psychology Press : New York, 227-251. hal-00371878

Sato M., Schwartz J.-L., Abry C., Cathiard M.-A., & Lœvenbruck H. (2006). Multistable syllables as enacted percepts : A source of an asymmetric bias in the verbal transformation effect. Perception & Psychophysics, 68 (3), pp. 458-474. hal-00186572 - PMID : 16900837

Welby P. & Lœvenbruck H. (2006). Anchored down in Anchorage : Syllable structure and segmental anchoring in French. Rivista di Linguistica/ Italian Journal of Linguistics 18 : 74–124. Current Issues in Tonal Alignment. Mariapaola D’Imperio (éd.). hal-00371892

Lœvenbruck H., Baciu M., Segebarth C. & Abry C. (2005). The left inferior frontal gyrus under focus : an fMRI study of the production of deixis via syntactic extraction and prosodic focus. Journal of Neurolinguistics, 18, 237-258. hal-00371865

Dohen M., Lœvenbruck H., Cathiard M.-A. & Schwartz J.-L. (2004). Visual perception of contrastive focus in reiterant French speech. Speech Communication, 44, 155-172. hal-00370938

Sato M., Baciu M., Lœvenbruck H., Schwartz J.-L., Segebarth C., Cathiard M.-A. & Abry C. (2004). Multistable representation of speech forms : a functional MRI study of verbal transformations. NeuroImage, 23, 1143-1151. PMID : 15528113

Lœvenbruck H., Collins M.J., Beckman M.E., Krishnamurthy A.K. & Ahalt S.C. (1999). Temporal coordination of articulatory gestures in consonant clusters and sequences of consonants. Proceedings of Linguistics Phonetics 1998, Item Order in Language and Speech. Fujimura O., Joseph B. D. & Palek B. (eds.), Charles University, Prague, The Karolinum Press. Vol II : 547-573. hal-00371717

Perrier P., Lœvenbruck H. & Payan Y. (1996). Control of the tongue movements in speech : The Equilibrium point Hypothesis perspective. Journal of Phonetics, 24, 53-75. hal-00080443

Return to Menu


  • Langues et Musique de Babylab (Languages of Babylab) with Mediarts and musicians Aurélie Maisonneuve (Soliloc’ 2019), Bertille Puissat, Myriam Roulet

    In theatres and early childhood centers in Grenoble and its region (Saint-Martin-d’Hères, Fontaine, Vaulnaveys), and at Experimenta Biennale Arts Sciences 2020
    Upcoming events :
    Variations scientifiques et artistiques :
    20 March 2020, Maison de la Création et de l’Innovation - MaCI, Saint-Martin-d’Hères
    21 March 2020, Hôpital Couple Enfant, CHU Grenoble Alpes, La Tronche

Return to Menu



  • Since 2005 : Co-head of the M.Sc. programme in Cognitive Sciences
  • 1993-95 : Teaching Assistant, Institut Universitaire de Technologie (IUT1) Génie Thermique et Energie, Univ. Joseph Fourier, Grenoble
    Courses taught : Mathematics and Computer Science (Undergraduate level)
  • 1995-97 : Teaching/Research Assistant ICP / ENSERG (INPG), Grenoble
    Courses taught : C language, Algorithms, Computer Science (Engineering degree level)
  • 1999-2001, 2009-2010 : Instructor, Language Sciences, Stendhal University, Grenoble 3.
    Courses taught : Experimental Phonetics
  • 2006-present : Introduction to Cognitive Sciences - Master in Cognitive Sciences
    Course taught in English
  • 2008-2014 : Spoken Communication - Master in Cognitive Sciences
  • 2015-2016 : Phonetics and Cognition - Master in Language Sciences
  • 2009-present : Cognitive Neuroscience of Early Competence : early language development - Master in Cognitive Sciences
  • 2017-2018 : Phonetics and Phonology - first steps towards speech - Undergraduate (licence), cross-curricular

Supervision of PhD students and post-docs

  • Marc Sato : PhD thesis at ICP, co-advisor with Jean-Luc Schwartz and Christian Abry
    Title : Représentations verbales multistables en mémoire de travail : vers une perception active des unités de parole
    Defended on 30th Novembre 2004
  • Marion Dohen : PhD thesis at ICP, co-advisor with Jean-Luc Schwartz
    Title : Deixis prosodique multisensorielle : production et perception audiovisuelle de la focalisation contrastive en français
    Defended on 18th Novembre 2005
  • Julia Monnin : PhD thesis at GIPSA-lab / CNEP UNC Noumea (New-Caledonia), co-advisor with Dominique Jouve
    Title : Influence de la langue ambiante sur l’acquisition phonologique : une comparaison du français et du drehu
    Defended on 16th July 2010
  • Lucile Rapin : PhD thesis at GIPSA-lab, co-advisor with Marion Dohen, Pascal Perrier and Todd Woodward (University of British Columbia)
    Title : Hallucinations auditives verbales et trouble du langage intérieur dans la schizophrénie : traces physiologiques et bases cérébrales
    Defended on 24th January 2011
  • Bénédicte Grandon : PhD thesis at GIPSA-lab, temporary co-advisor with Anne Vilain, Michel Hoen (Centre de recherche en Neurosciences de Lyon U1028)
    Title : Production et perception de la parole chez les enfants porteurs d’implants cochléaires
    October 2013 - December 2015
  • Laura Machart : PhD thesis at LPNC, co-advisor with Anne Vilain (GIPSA-lab), Olivier Pascalis
    Title : A perceptuo-motor study of oral language development in deaf children with cochlear implants
    Started September 2018
  • Olivier Clerc : PhD thesis at LPNC, co-advisor with Olivier Pascalis
    Title : Interactions between face processing and speech perception and its influence on early social cognition
    Started October 2018
  • Annalisa Paroni : PhD thesis at GIPSA-lab, co-advisor with Nathalie Henrich (GIPSA-lab)
    Title : Le Human Beabox, un langage musical au service de la rééducation orthophonique
    Started October 2018
  • Célise Haldin : PhD thesis at LPNC, co-advisor with Monica Baciu
    Title : Sensory-Motor Integration for Speech Rehabilitation in Post-Stroke Aphasia
    Started September 2019

Return to Menu



  • Member of the LPNC since October 2013
  • Head of the LPNC Language team since October 2017
  • Former member of the Speech and Cognition Department at GIPSA-lab UMR 5216 (ex-Institut de la Communication Parlée, ICP) : 1998-2013
  • Former co-head with Anne Vilain of the group ’Parole Multimodalité Développement’ (Speech Multimodality Development), Speech and Cognition Department, GIPSA-lab : March 2007 - August 2011
  • Editor-in-chief of In Cognito - Cahiers Romans de Sciences Cognitives
    International quadrilingual journal in Cognitive Sciences
  • Co-head of the Master programme in Cognitive Sciences since 2005


  • 1997-98 : Post-Doc in the Department of Linguistics at the Ohio State University in Columbus, Ohio, USA (fellowship from the Fyssen Foundation)
  • 1997 : DEA (equivalent of M.Sc.) in Language Sciences at Stendhal University (Grenoble 3)
    Major in Phonetics and Speech
    M.Sc. thesis title : "Quelques effets de l’accentuation et du débit sur l’articulation"
  • 1996 : Doctorat (PhD) in Cognitive Sciences at the Institut National Polytechnique (INPG)
    PhD thesis title : "Proposals for the control of a speaking robot capable of speech reduction"
  • 1992 : DEA (M.Sc.) in Cognitive Sciences at the Institut National Polytechnique de Grenoble (INPG)
  • 1992 : Engineering degree in Electronics, Signal Processing, Computer Science
    Major in Information processing system architecture


  • French : mother tongue
  • English : beloved
  • Russian : beloved but less well spoken
  • German : spoken


Return to Menu


  • TRAP : a Tool foR speech signAl Processing : a short presentation
  • Scripts for Praat a great program developed by Paul Boersma and David Weenink
  • SplitIt : the sound file splitter
  • MergeIt : the sound file merger
  • PsychoPy : stimuli presentation (with Python)


Trois scripts pour le tutorial "Praat scripting" de Speech Prosody 2006 :

1. Starter.praat : un script pour débuter
Ouvre un fichier son (au format .wav), affiche les temps de début et de fin du fichier son dans la fenêtre d’information.
Calcule la durée totale du son et l’affiche dans la fenêtre d’information.

2. CutSoundFile.praat : un script de découpage
Ouvre un fichier son (au format .wav) et son fichier d’étiquettes associé (.TextGrid).
Crée un nouveau fichier son qui commence au début du son original
et s’arrête à la première étiquette de la première ligne (tier) lue dans le .TextGrid

3. GetTimeF0.praat : un script d’extraction de F0
Ouvre un fichier son (au format .wav) et crée un fichier texte (.txt)
avec les valeurs de F0 calculées pour chaque trame voisée.
Le fichier texte obtenu contient 2 colonnes : les valeurs du temps et de F0

Ces trois scripts utilisent le fichier son ARpostC1.wav et son fichier d’étiquettes ARpostC1.TextGrid.
Pour utiliser d’autres fichiers, il suffit de modifier la ligne :
sound_file$ = "ARpostC1.wav"

Autres Scripts :

4. affiche_etiq_duree.praat : Convertit un fichier .TextGrid en un fichier texte simple, contenant les étiquettes et les durées des intervalles en 2 colonnes.

5. calcul_F0_durees.praat : Donne F0 max et la durée sur chacun des intervalles (syllabes) spécifiés dans le .TextGrid.

6. calcul_F0_durees_tons_numsyl.praat : Donne des informations prosodiques telles que les valeurs des pics de F0, les durées syllabiques, la nature des tons, le numéro des syllabes portant les tons, à partir d’informations stockées dans les .TextGrid

Les fichiers .TextGrid files doivent contenir 4 tiers (au moins 3 en fait)
interval tier 1 : segmentation en syllabes
interval tier 2 : segmentation en GroupesProsodiques
point tier 3 : marquage des tons Hi, H* et L%
interval tier 4 : phrase prononcée (optionnel)

Les résultats des calculs sont écrits dans un fichier texte (fichier_resultat$), en colonne, dans l’ordre suivant :
NomDuFichier DuréeTotaleEnoncé F0MaxSurEnoncé
DuréeSyllabe1 DuréeSyllabe2 ... DuréeSyllabeX
Puis pour chaque Groupe Prosodique (GP) :
EtiquetteTon1 NuméroGroupeProsodique NuméroSyllabeTon1 TempsTon1 F0Ton1 EtiquetteTon2 NuméroSyllabeTon2 TempsTon2 F0Ton2

7. decoupe_son.praat : Crée plusieurs fichiers .wav à partir d’un fichier .wav découpé à des temps différents (pour une expérience de gating).

8. formants_in_interval.praat : Calcule les formants sur un intervalle spécifié dans un .TextGrid, toutes les 10 ms (modifiable).

9. formants_in_interval_F1corrected.praat : idem précédent, mais si F1 est mal détecté (F2 pris pour F1), i.e. si F1 > 700 Hz, remplace F1 par 1 Hz et F2 par F1, F3 par F2, F4 par F3 etc.

10. formants_at_instant.praat : Calcule les formants à des instants spécifiés dans un .TextGrid.

11. lire_tout.praat : Lit tous les fichiers .wav et .TextGrid d’un répertoire spécifié et affiche une fenêtre d’édition, en permettant à l’utilisateur de marquer une pause après chaque fichier.

12. GetTimeF0AllFiles.praat : Lit tous les fichiers .wav d’un répertoire, calcule la F0 de chacun des fichiers et crée un fichier .txt par fichier .wav, avec 2 colonnes : temps et F0.

13. GetDurationAllFiles.praat : Lit tous les fichiers .TextGrid d’un dossier, calcule la durée entre les 2 premières étiquettes du premier tier (interval tier) pour chacun des fichiers
et crée un fichier .txt contenant 2 colonnes : la racine du nom du fichier .TextGrid et la durée entre les 2 étiquettes.

14. MarkLabelAllFiles.praat : Lit tous les fichiers .wav d’un dossier, attend que l’utilise place l’étiquette et crée un fichier .txt contenant 2 colonnes : la racine du nom du fichier .wav et le temps où a été placée l’étiquette

Return to Menu