Laboratoire de Psychologie et NeuroCognition
CNRS UMR 5105 - Université Grenoble Alpes
Bâtiment Michel Dubois - Bureau E109
CS40700 - 38058 Grenoble Cedex 9 France
Le langage est au fondement de l’humanité car il sous-tend la communication, la pensée et l’autonoèse, i.e. la conscience de soi dans le temps.
Ces trois fonctions essentielles sont interdépendantes, entrelacées et requièrent une cybernétique systémique, un mécanisme général de régulation qui gouverne nos échanges verbaux (pour la fonction communicative), contrôle nos verbalisations intérieures (pour la fonction cognitive), et permet le suivi de soi et d’autrui (agentivité) dans nos constructions narratives autobiographiques (pour la fonction métacognitive d’autonoèse).
Mes travaux relèvent de cette cybernétique verbale : je cherche à mieux comprendre les mécanismes neurobiologiques qui sous-tendent la régulation de la production et de la réception du langage (externe et intérieur). Ma démarche est triple : théorique, expérimentale et appliquée.
Dans cet objectif, en collaboration avec des collègues du LPNC et d’autres laboratoires, je recueille des données introspectives, comportementales et neurophysiologiques sur la production et la perception du langage (dans ses versions extériorisée et intérieure), auprès d’adultes, d’enfants, de nourrissons, ainsi que de populations avec des troubles ou déficits langagiers, auditifs, neurologiques ou psychiatriques. Je cherche également à développer des applications thérapeutiques, éducatives et technologiques de ces recherches fondamentales.
Fonctions Cognitive et Autonoétique -
Monitoring du langage intérieur
Contrôle prédictif et attribution d’agentivité lors de la production du langage intérieur : réseaux neuronaux, mécanismes physiologiques, opérations linguistiques
Fonction Communicative -
Prosodie et Deixis
Réseaux cérébraux du langage et opérations linguistiques sous-tendant la production et la réception de la focalisation prosodique, de la deixis et de l’ironie
Fonction Communicative -
Développement du langage
Mécanismes neurophysiologiques et facteurs environnementaux sous-tendant le développement du langage oral chez les nourrissons et les enfants
Fonction Communicative -
Remédiation des troubles de la parole
Outils et technologies de réhabilitation de la parole
1. Membre du projet européen ITN Horizon H2020 Comm4CHILD (2019-2023)
"Communication for Children with Hearing Impairment to optimise Language Development"
Resp. Cécile Colin & Jacquline Leybaert (ULB, Belgique), en collaboration avec GIPSA-lab, KU Leuven (Belgique), MHH (Allemagne), Univ. Oslo (Norvège), Univ. Leeds (UK)
2. Membre du projet ANR EULALIES (GIPSA-lab), en collaboration avec le CRTLA CHU Grenoble Alpes, Dynamique Du Langage (Lyon), Université de Montréal (Canada), Univ. Alberta (Canada), Memorial University, Newfoundland (Canada)
3. Membre du projet ANR-DFG BabyFaceSpeech (2017-2020)
"Regarde qui parle : interaction entre le traitement des visages et la perception de la parole au cours de la première année de vie chez des nourrissons mono- et bilingues Allemands et Français"
Resp. Olivier Pascalis, en collaboration avec GIPSA-lab, LPP (Paris), Univ. Giessen (Germany)
4. Membre du projet ANR HearCog (2017-2021)
"Restauration des fonctions auditives et cognitives chez l’enfant sourd implanté cochléaire"
Resp. Pascal Barone (CerCo, Toulouse), en collaboration avec GIPSA-lab, CLLE, CHU Toulouse, MSHS Toulouse
5. Membre du programme Monologuer
Resp. Stéphanie Smadja, Université Paris Diderot, CERILAC
6. Membre du projet Paidologos (2005-présent)
"Cross-language investigation of phonological development"
Resp. Mary Beckman (Department of Linguistics, the Ohio State University, USA) et Jan Edwards (Univ. Wisconsin, USA) , en collaboration avec le Centre des Nouvelles Études sur le Pacifique, Université de la Nouvelle-Calédonie, Nouméa, France
1. Responsable du projet APN n°7904 (1999-2001) :
"De la prosodie à la syntaxe : Recherche de patrons d’activation cérébrale par IRM fonctionnelle"
2. Membre du projet Cognitique Action (2001) :
"Le contrôle du mouvement en production de la parole et l’efficacité perceptives des gestes anticipatoires "
Resp. Rudolph Sock (Institut de Phonétique de Strasbourg)
3. Membre du projet Centre Jacques Cartier (2002) :
"Les effets articulatoires et acoustiques de l’accent de focalisation : une étude développementale"
Resp. Lucie Ménard (UQAM, Montréal, Canada)
4. Membre du projet ACI Jeunes Chercheurs (2002-2005) :
"Caractérisation physiologique et perceptive de l’alignement tonal"
Resp. Mariapaola d’Imperio (LPL UMR 6057, Aix-en-Provence)
5. Responsable du projet ELESA (2005) :
"Décodage de la prosodie en parole silencieuse"
6. Co-Responsable du projet BQR INPG (2007-2010) :
"LA VOIX DU SILENCE : Prosodie de la parole silencieuse et du murmure inaudible — EMG du larynx et stéthoscopie maxillo-faciale"
7. Membre du projet Région Rhône Alpes Cluster 11 Handicap Vieillissement Neurosciences (2008-2011) :
"Réorganisation fonctionnelle du langage et de la mémoire chez les patients épileptiques, avant et après intervention chirurgicale.Exploration par IRM fonctionnelle et électroencéphalographie"
Resp. Monica Baciu (LPNC, UMR 5105) et Olivier David (GIN, U836)
8. Co-Responsable du projet Région Rhône Alpes Cluster 11 Handicap Vieillissement Neurosciences (2009-2011) :
"Traces orofaciales des hallucinations auditives chez les schizophrènes : électromyographie et électroglottographie"
9. Responsable du projet Centre Jacques Cartier (2010) :
Étude des mécanismes cognitifs des hallucinations auditives verbales chez les schizophrènes"
10. Membre du projet ANR-DFG (2011-2013)
"CROSSMOD : Cross-modal integration of language and face cues in German and French infants"
Resp. Olivier Pascalis (LPNC and GIPSA), en collaboration avec Justus-Liebig University Giessen et Laboratoire Psychologie de la Perception, Paris
11. Membre du projet ARC2 Rhône-Alpes Region (2013-2015)
"Troubles de la parole chez les enfants sourds d’implants cochléaires : évaluation et pistes pour la remédiation"
Resp. Anne Vilain (GIPSA-lab) et Michel Hoen (Centre de recherche en Neurosciences de Lyon U1028)
12. Membre du projet SFR Santé Société (2013-2015)
"Potential compensation of language deficits by communicative manual gestures in SLI children"
Resp. Marion Dohen (GIPSA-lab)
13. Responsable du projet ANR InnerSpeech 2014-2018
"Corrélats neuraux de la parole intérieure "
L’objectif du projet InnerSpeech était d’esquisser un modèle théorique de la parole intérieure — la production silencieuse de mots dans notre tête — en examinant diverses formes, telles que la parole intérieure délibérée (avec notre propre voix ou celle d’autrui, dans une perspective à la 1ère ou à la 3ème personne) ou des formes moins délibérées comme le vagabondage mental ou les ruminations verbales, et en confrontant des données introspectives à des mesures objectives (neurophysiologiques et comportementales).
14. Responsable du projet ARC2 Auvergne Rhône-Alpes Region (2016-2019)
"Évaluation et dépistage des troubles du développement des sons de parole"
co-Resp. Anne Vilain (GIPSA-lab) et Sophie Kern (Laboratoire Dynamique Du Langage, Lyon)
Voir aussi
HAL archives ouvertes
Research Gate
ORCID
Open Science Foundation (OSF)
Les publications en français sont suivies d’un drapeau 🇫🇷
Mémoires
Lœvenbruck H. (2019). Loquor, ergo communico-cogito-sum. Habilitation à Diriger des Recherches. Ecole Doctorale Ingénierie pour la Santé, la Cognition et l’Environnement, Université Grenoble Alpes - tel-02461867 🇫🇷
Lœvenbruck H. (1996). Pistes pour le contrôle d’un robot parlant capable de réduction vocalique. Thèse de Doctorat en Sciences Cognitives, INPG, Grenoble - tel-02293306 🇫🇷
Sélection de publications
2021
Nalborczyk, L.*, Banjac, S.*, Baeyens, C., Grandchamp, R., Koster, E. H. W., Perrone-Bertolotti, M., & Loevenbruck, H. (2021). Dissociating facial electromyographic correlates of visual and verbal induced rumination. International Journal of Psychophysiology, 159C, 23-36. https://doi.org/10.1016/j.ijpsycho.2020.10.009
2020
Haldin, C., Lœvenbruck, H., Hueber, T., Marcon, V., Piscicelli, C., Perrier, P., Chrispin, A., Pérennou, D. & Baciu, M. (accepted). Speech rehabilitation in post-stroke aphasia using visual illustration of speech articulators. A case report study. Clinical Linguistics and Phonetics. doi:10.1080/02699206.2020.1780473 - hal-02879182
Meloni, Geneviève, Lœvenbruck, Hélène, Vilain, Anne, Gillet-Perret, Estelle & MacLeod, Andrea (sous presse). Evaluation de la perception des sons de parole chez les populations pédiatriques : réflexions sur les épreuves existantes. Glossa. 🇫🇷
Nalborczyk, L., Grandchamp, R., Koster, E.H.W., Perrone-Bertolotti, M., & Lœvenbruck, H. (2020). Can we decode phonetic features in inner speech using surface electromyography ? PLoS ONE, 15(5) : e0233282. https://doi.org/10.1371/journal.pone.0233282 - hal-02696432
Paroni, Annalisa, Henrich Bernardoni Nathalie, Savariaux, Christophe, Loevenbruck Hélène, Calabrèse, Pascale, Pellegrini, Thomas, Mouysset, Sandrine, Gerber, Silvain (sous presse). Vocal drum sounds in Human Beatboxing : an acoustic and articulatory exploration using electromagnetic articulography. The Journal of the Acoustical Society of America.
Remon D., Lœvenbruck, H., Deudon, M., Girardie, O., Bouyer, KL. Pascalis, O. & Thorpe S. (2020). 24-month-olds and above remember novel object names after a single learning event. Journal of Experimental Child Psychology, 196. https://doi.org/10.1016/j.jecp.2020.104859 - hal-03014839
2019
Grandchamp R., Rapin L., Perrone-Bertolotti M., Pichat C., Haldin, C., Cousin E., Lachaux J.P., Dohen M., Perrier P., Garnier M., Baciu M., Lœvenbruck H. (2019). The ConDialInt Model : Condensation, Dialogicality and Intentionality dimensions of inner speech within a hierarchical predictive control framework. Frontiers in psychology, Exploring the Nature, Content, and Frequency of Intrapersonal Communication, 10. doi : 10.3389/fpsyg.2019.02019 - hal-02290943
Haldin, C., Acher, A., Kauffmann, L., Hueber, T., Cousin, E., Badin, P., Perrier, P., Fabre, D., Perennou, D., Detante, O., Jaillard, A., Lœvenbruck, H. & Baciu, M. (2019). Effet de la rééducation perceptivo-motrice sur la récupération de la parole chez deux patientes avec aphasie non fluente chronique post-AVC. Revue de Neuropsychologie, 11 (1), 44-59 - hal-02134778 🇫🇷
Nalborczyk, L., Batailler, C., Lœvenbruck, H., Vilain, A. & Bürkner, P.-C. (2019). An Introduction to Bayesian Multilevel Models Using brms : A Case Study of Gender Effects on Vowel Variability in Standard Indonesian. Journal of Speech, Language, and Hearing Research - hal-02096991
Vilain, A., Dole, M., Lœvenbruck, H., Pascalis, O. & Schwartz J.-L. (2019). The role of production abilities in the perception of consonant category in infants. Developmental Science. e12830. https://doi.org/10.1111/desc.12830 - hal-02075827
2018
Haldin, C., Acher, A., Kauffmann, L., Hueber, T., Cousin, E., Badin, P., Perrier, P., Fabre, D., Perennou, D., Detante, O., Jaillard, A., Lœvenbruck, H. & Baciu, M. (2018). Speech recovery and language plasticity can be facilitated by Sensori-Motor Fusion (SMF) training in chronic non-fluent aphasia. A case report study. Clinical Linguistics & Phonetics, 1 - 27. doi : 10.1080/02699206.2017.1402090 - hal-01651198
Kubicek, C., Gervain, J., Lœvenbruck, H., Pascalis, O., & Schwarzer, G. (2018). Goldilock vs. Goldlöckchen : Visual speech preference for same-rhythm-class languages in 6-month-old infants. Infant and Child Development. doi : 10.1002/icd.2084 - hal-01741631
Lœvenbruck, H. (2018). What the neurocognitive study of inner language reveals about our inner space. Épistémocritique, n° 18 : Langage intérieur - Espaces intérieurs / Inner Speech - Inner Space, Stéphanie Smadja, Pierre-Louis Patoine (eds.) [http://epistemocritique.org/what-the-neurocognitive-study-of-inner-language-reveals-about-our-inner-space/] - hal-02039667
Lœvenbruck, H., Grandchamp, R., Rapin, L., Nalborczyk, L., Dohen, M., Perrier, P., Baciu, M. & Perrone-Bertolotti M. (2018). A cognitive neuroscience view of inner language : to predict and to hear, see, feel. In Inner Speech : New voices, Peter Langland-Hassan & Agustín Vicente (eds.), Oxford University Press, 131-167. - hal-01898992
2017
Grandon, B., Vilain, A., Lœvenbruck, H., Schmerber, S. & Truy, E. (2017). Realisation of voicing by French-speaking CI children after long-term implant use : An acoustic study. Clinical Linguistics & Phonetics, 31, 1-14. doi : 10.1080/02699206.2017.1302511 - PMID : 28362227 - halshs-01500526v1
Lœvenbruck H., Nalborczyk L., Perrone-Bertolotti M., Baeyens C., Grandchamp R. (2017). Un cas d’incarnation linguistique : implication du système moteur orofacial dans les ruminations mentales. La cognition incarnée, J. Dokic et D. Perrin (dir.), Recherches sur la philosophie et le langage, N° 33, Vrin, Paris, 297-324, ISBN : 978-2-7116-8423-6. - hal-01887636 🇫🇷
Nalborczyk L., Perrone-Bertolotti M., Baeyens C., Grandchamp R., Polosan M., Spinelli E., Koster E. H. W. & Lœvenbruck H. (2017). Orofacial electromyographic correlates of induced verbal rumination. Biological Psychology. 127, 53-63. doi : 10.1016/j.biopsycho.2017.04.013 - hal-01569420v1
Richoz, A.-R., Quinn, P. C., Hillairet de Boisferon, A., Berger, C., Lœvenbruck, H., Lewkowicz, D. J., Lee, K., Dole, M., Caldara, R. and Pascalis, O. (2017). Audio-Visual Perception of Gender by Infants Emerges Earlier for Adult-Directed Speech. PLOS ONE, 12, 1-15. doi:10.1371/ journal.pone.0169325 - PMC5218491 - hal-01519114
2016
Perrone-Bertolotti M., Grandchamp R., Rapin L., Baciu M., Lachaux J.P. & Lœvenbruck H. (2016). Langage intérieur. In Pinto, S. & Sato, M. (eds.). Traité de Neurolinguistique : du cerveau au langage. Collection Neuropsychologie, De Boeck Supérieur, 109-123, ISBN : 9782353273393. - hal-01467107 🇫🇷
Rapin L., Dohen M. & Lœvenbruck H. (2016). Les hallucinations auditives verbales. In Pinto, S. & Sato, M. (eds.). Traité de Neurolinguistique : du cerveau au langage. Collection Neuropsychologie, De Boeck Supérieur, 347-370, ISBN : 9782353273393. - hal-01442463 🇫🇷
2015
Hillairet de Boisferon, A., Dupierrix, E., Quinn, P.C., Lœvenbruck, H., Lewkowicz, D.J., Lee, K., & Pascalis, O. (2015). Perception of Multisensory Gender Coherence in 6 and 9-month-old Infants. Infancy, 20 (6), 661-674. doi : 10.1111/infa.12088 - hal-01203120
Lavigne K. M., Rapin L. A. ; Metzak P. D., Whitman J. C., Jung K., Dohen M., Lœvenbruck H., Woodward T. S. (2015). Left-dominant temporal-frontal hypercoupling in schizophrenia patients with hallucinations during speech perception. Schizophrenia Bulletin, 41 (1), 259-267. hal-00966620
2014
Kubicek, C., Gervain, J., Hillairet de Boisferon, A., Pascalis, O., Lœvenbruck, H., & Schwarzer, G. (2014). The influence of infant-directed speech on 12-month-olds’ intersensory perception of fluent speech. Infant Behavior & Development, 37(4), 644-651.
Kubicek C., Hillairet de Boisferon A., Dupierrix E., Pascalis O., Lœvenbruck H., Gervain J. & Schwarzer G. (2014). Cross-modal matching of audiovisual German and French fluent speech in infancy. PlosOne. hal-00964518
Pascalis O., Loevenbruck H., Quinn P. C., Kandel S., Tanaka J. W. & Lee K. (2014). On the Links Among Face Processing, Language Processing, and Narrowing during Development. Child Development Perspectives, 8 (2), 65-70. hal-00964721
Perrone-Bertolotti, M., Rapin L., Lachaux J.-P., Baciu M. & Lœvenbruck H. (2014). What is that little voice inside my head ? Inner speech phenomenology, its role in cognitive performance and its relation to self-monitoring. Behavioural Brain Research, 261, 220-239. hal-00967730
2013
Rapin L., Dohen M., Polosan M., Perrier P., Lœvenbruck H. (2013). An EMG study of the lip muscles during covert auditory verbal hallucinations in schizophrenia. J. Speech Hearing and Language Research, 56, S1882–S1893. hal-00926630
Kubicek C., Hillairet de Boisferon A., Dupierrix E., Lœvenbruck H., Gervain J., and Schwarzer G. (2013). Face-scanning behavior to silently talking faces in 12-month-old infants : The impact of pre-exposed auditory speech. International Journal of Behavioral Development, 37 (2), 106-110. hal-00864344
Perrone-Bertolotti, M. Dohen, M., Lœvenbruck, H., Sato, M., Pichat, C., Baciu, M. (2013). Neural correlates of the perception of contrastive prosodic focus in French. An fMRI study. Human Brain Mapping. hal-00762363 - PMID : 22488985
2012
Cathiard M.-A., Vilain A., Laboissière R., Lœvenbruck H., Savariaux C. & Schwartz J.-L. (2012). Bimodal Perception within the natural time-course of speech production. In Bailly G., Perrier P. & Vatikiotis-Bateson E. (Eds.), Audiovisual Speech Processing. Cambridge University Press, 121-158. hal-00821829
Rapin, L., Metzak, P. D., Whitman, J. C., Dohen, M., Lœvenbruck, H., & Woodward, T. S. (2012). Hyperintensity of functional networks involving voice-selective cortical regions during silent thought in schizophrenia. Psychiatry Research : Neuroimaging, 102 (2), 110-117. hal-00734043, PMID : 22703623
Schwartz J.-L. & Lœvenbruck H. (2012). La parole, entre objets vocaux et objets du monde. In La psychologie cognitive. Collection Cogniprisme. M. Denis (ed.). Editions de la Maison des Sciences de l’Homme, ISBN 978-2-7351-1509-9, 165-199. hal-00782274 🇫🇷
2011
Dohen M., Lœvenbruck H., Roustan B., Vilain C. (2011). Pointage manuel et vocal : corrélats sensorimoteurs et neurocognitifs, coordination geste manuel / parole. Faits de Langue, 37, 97-116. hal-00784592 🇫🇷
2010
Tran V.-A., Bailly G., Lœvenbruck H. & Toda T. (2010). Improvement to a NAM-captured whisper-to-speech system. Speech Communication. 52 (4), 314-326. hal-00459973
2009
Dohen M. & Lœvenbruck H. (2009). Interaction of audition and vision for the perception of prosodic contrastive focus. Language and Speech, 52 (3), 177-206. hal-00371180 - PMID : 19624029
Dohen M., Lœvenbruck H. & Hill H. (2009). Recognizing prosody from the lips : is it possible to extract prosodic focus from lip features ? In Alan Wee-Chung Liew & Shilin Wang (Eds.), Visual Speech Recognition : Lip Segmentation and Mapping, Medical Information Science Reference, Hershey, New York, ISBN 978-1-60566-186-5, 416-438. hal-00360765
Heracleous P., Beautemps D., Tran V.-A., Lœvenbruck H. & Bailly G. (2009). Exploiting visual information for NAM recognition. IEICE Electronics Express, 6, 2, 77-82. hal-00357985
Lœvenbruck H., Dohen M. & Vilain C. (2009). Pointing is ‘special’. In Fuchs S., Lœvenbruck H. Pape D. & Perrier P. (eds.), Some Aspects of Speech and the Brain, Peter Lang, 211-258, ISBN 978-3-631-57630-4. hal-00360758
2008
Lœvenbruck H., Vilain C. & Dohen M. (2008). From gestural pointing to vocal pointing in the brain. Revue Française de Linguistique Appliquée, Vol. XIII, 2, 23-33. hal-00360753
2007
D’Imperio M., Espesser R., Lœvenbruck H., Menezes C., Nguyen N. & Welby P. (2007). Are tones aligned to articulatory events ? Evidence from Italian and French. Cole, Jennifer and José I. Hualde (eds.), Laboratory Phonology 9, Berlin : Mouton de Gruyter, 577-608. hal-00244489
2006
Ménard L., Lœvenbruck H. & Savariaux C. (2006). Articulatory and acoustic correlates of contrastive focus in French : a developmental study, in Harrington, J. & Tabain, M. (eds), Speech Production : Models, Phonetic Processes and Techniques, Psychology Press : New York, 227-251. hal-00371878
Sato M., Schwartz J.-L., Abry C., Cathiard M.-A., & Lœvenbruck H. (2006). Multistable syllables as enacted percepts : A source of an asymmetric bias in the verbal transformation effect. Perception & Psychophysics, 68 (3), pp. 458-474. hal-00186572 - PMID : 16900837
Welby P. & Lœvenbruck H. (2006). Anchored down in Anchorage : Syllable structure and segmental anchoring in French. Rivista di Linguistica/ Italian Journal of Linguistics 18 : 74–124. Current Issues in Tonal Alignment. Mariapaola D’Imperio (éd.). hal-00371892
2005
Lœvenbruck H., Baciu M., Segebarth C. & Abry C. (2005). The left inferior frontal gyrus under focus : an fMRI study of the production of deixis via syntactic extraction and prosodic focus. Journal of Neurolinguistics, 18, 237-258. hal-00371865
2004
Dohen M., Lœvenbruck H., Cathiard M.-A. & Schwartz J.-L. (2004). Visual perception of contrastive focus in reiterant French speech. Speech Communication, 44, 155-172. hal-00370938
Sato M., Baciu M., Lœvenbruck H., Schwartz J.-L., Segebarth C., Cathiard M.-A. & Abry C. (2004). Multistable representation of speech forms : a functional MRI study of verbal transformations. NeuroImage, 23, 1143-1151. PMID : 15528113
1999
Lœvenbruck H., Collins M.J., Beckman M.E., Krishnamurthy A.K. & Ahalt S.C. (1999). Temporal coordination of articulatory gestures in consonant clusters and sequences of consonants. Proceedings of Linguistics Phonetics 1998, Item Order in Language and Speech. Fujimura O., Joseph B. D. & Palek B. (eds.), Charles University, Prague, The Karolinum Press. Vol II : 547-573. hal-00371717
1996
Perrier P., Lœvenbruck H. & Payan Y. (1996). Control of the tongue movements in speech : The Equilibrium point Hypothesis perspective. Journal of Phonetics, 24, 53-75. hal-00080443
Enseignement
Encadrement de doctorant·e·s et post-doctorant·e·s
Situation professionnelle
Formation
Langues
Extras
Courte introduction
Trois scripts pour le tutorial "Praat scripting" de Speech Prosody 2006 :
1. Starter.praat : un script pour débuter
Ouvre un fichier son (au format .wav), affiche les temps de début et de fin du fichier son dans la fenêtre d’information.
Calcule la durée totale du son et l’affiche dans la fenêtre d’information.
2. CutSoundFile.praat : un script de découpage
Ouvre un fichier son (au format .wav) et son fichier d’étiquettes associé (.TextGrid).
Crée un nouveau fichier son qui commence au début du son original
et s’arrête à la première étiquette de la première ligne (tier) lue dans le .TextGrid
3. GetTimeF0.praat : un script d’extraction de F0
Ouvre un fichier son (au format .wav) et crée un fichier texte (.txt)
avec les valeurs de F0 calculées pour chaque trame voisée.
Le fichier texte obtenu contient 2 colonnes : les valeurs du temps et de F0
Ces trois scripts utilisent le fichier son ARpostC1.wav et son fichier d’étiquettes ARpostC1.TextGrid.
Pour utiliser d’autres fichiers, il suffit de modifier la ligne :
sound_file$ = "ARpostC1.wav"
Autres Scripts :
4. affiche_etiq_duree.praat : Convertit un fichier .TextGrid en un fichier texte simple, contenant les étiquettes et les durées des intervalles en 2 colonnes.
5. calcul_F0_durees.praat : Donne F0 max et la durée sur chacun des intervalles (syllabes) spécifiés dans le .TextGrid.
calcul_F0_durees_tons_numsyl.praat
6. calcul_F0_durees_tons_numsyl.praat : Donne des informations prosodiques telles que les valeurs des pics de F0, les durées syllabiques, la nature des tons, le numéro des syllabes portant les tons, à partir d’informations stockées dans les .TextGrid
Les fichiers .TextGrid files doivent contenir 4 tiers (au moins 3 en fait)
interval tier 1 : segmentation en syllabes
interval tier 2 : segmentation en GroupesProsodiques
point tier 3 : marquage des tons Hi, H* et L%
interval tier 4 : phrase prononcée (optionnel)
Les résultats des calculs sont écrits dans un fichier texte (fichier_resultat$), en colonne, dans l’ordre suivant :
NomDuFichier DuréeTotaleEnoncé F0MaxSurEnoncé
NombreDeGroupeProsodique
DuréeSyllabe1 DuréeSyllabe2 ... DuréeSyllabeX
Puis pour chaque Groupe Prosodique (GP) :
EtiquetteTon1 NuméroGroupeProsodique NuméroSyllabeTon1 TempsTon1 F0Ton1 EtiquetteTon2 NuméroSyllabeTon2 TempsTon2 F0Ton2
7. decoupe_son.praat : Crée plusieurs fichiers .wav à partir d’un fichier .wav découpé à des temps différents (pour une expérience de gating).
8. formants_in_interval.praat : Calcule les formants sur un intervalle spécifié dans un .TextGrid, toutes les 10 ms (modifiable).
9. formants_in_interval_F1corrected.praat : idem précédent, mais si F1 est mal détecté (F2 pris pour F1), i.e. si F1 > 700 Hz, remplace F1 par 1 Hz et F2 par F1, F3 par F2, etc.
10. formants_at_instant.praat : Calcule les formants à des instants spécifiés dans un .TextGrid.
11. lire_tout.praat : Lit tous les fichiers .wav et .TextGrid d’un répertoire spécifié et affiche une fenêtre d’édition, en permettant à l’utilisateur de marquer une pause après chaque fichier.
12. GetTimeF0AllFiles.praat : Lit tous les fichiers .wav d’un répertoire, calcule la F0 de chacun des fichiers et crée un fichier .txt par fichier .wav, avec 2 colonnes : temps et F0.
13. GetDurationAllFiles.praat : Lit tous les fichiers .TextGrid d’un dossier, calcule la durée entre les 2 premières étiquettes du premier tier (interval tier) pour chacun des fichiers
et crée un fichier .txt contenant 2 colonnes : la racine du nom du fichier .TextGrid et la durée entre les 2 étiquettes.
14. MarkLabelAllFiles.praat : Lit tous les fichiers .wav d’un dossier, attend que l’utilise place l’étiquette et crée un fichier .txt contenant 2 colonnes : la racine du nom du fichier .wav et le temps où a été placée l’étiquette
Language is at the core of humanity because it serves three essential functions : communication, thought and autonoesis, i.e. self-awareness in time.
These functions depend on one another, they are intertwined. They require a systemic cybernetics, a general control mechanism governing our verbal exchanges (for the communicative function), controlling our inner verbalisations (for the cognitive function) and monitoring self- and other- agency in our autobiographical narrative constructions (for the metacognitive function of autonoesis).
My research is focused on this verbal cybernetics : my aim it to better understand the neurobiological mechanisms that sustain the regulation of (overt and covert) language production and reception.
To this aim, with my colleagues at LPNC and other labs, I collect introspective, behavioural and neurophysiological data on (overt or covert) language production or perception, in adults, in infant or children, and in people with language, hearing, neurological or psychiatric disorders. I am also engaged in developing therapeutic, educative and technological applications of this research.
Cognitive and Autonoesis functions -
Inner language monitoring
Understanding how inner language is monitored in order to sustain cognition and autonoesis :
cerebral networks, physiological mechanisms, linguistic operations
Communicative function -
Prosody and Deixis
Understanding the language cerebral networks and linguistic mechanisms that sustain the production and reception of prosodic focus, deixis, irony
Communicative function -
Speech development
Understanding the neurophysiological mechanisms and environmental factors that sustain speech development in infants and children
Communicative function -
Impaired speech remediation
Speech rehabilitation tools and technology
1. Member of the EU Horizon H2020 ITN project Comm4CHILD (2019-2023)
"Communication for Children with Hearing Impairment to optimise Language Development"
PIs Cécile Colin & Jacquline Leybaert (ULB, Belgium), in collaboration with GIPSA-lab, KU Leuven (Belgium), MHH (Germany), Univ. Oslo (Norway), Univ. Leeds (UK)
2. Member of the ANR project EULALIES (GIPSA-lab), in collaboration with CRTLA CHU Grenoble Alpes, Dynamique Du Langage (Lyon), Université de Montréal (Canada), Univ. Alberta (Canada), Memorial University, Newfoundland (Canada)
3. Member of the ANR-DFG project BabyFaceSpeech (2017-2020)
"Look who’s talking : Interactions between face processing and speech perception during perceptual narrowing in monolingual and bilingual German and French infant"
PI Olivier Pascalis, in collaboration with GIPSA-lab, LPP (Paris), Univ. Giessen (Germany)
4. Member of the ANR project HearCog (2017-2021)
"Restoration of auditory and cognitive functions in cochlear implanted deaf children"
PI Pascal Barone (CerCo, Toulouse), in collaboration with GIPSA-lab, CLLE, CHU Toulouse, MSHS Toulouse
5. Member of the Monologuer programme
PI Stéphanie Smadja, Université Paris Diderot, CERILAC
6. Member of the Paidologos project (2005-present)
"Cross-language investigation of phonological development"
PIs Mary Beckman (Department of Linguistics, the Ohio State University, USA) and Jan Edwards (Univ. Wisconsin, USA) , in collaboration with the Centre des Nouvelles Études sur le Pacifique, Université de la Nouvelle-Calédonie, Nouméa, France
1. PI for the APN project n°7904 (1999-2001) :
"De la prosodie à la syntaxe : Recherche de patrons d’activation cérébrale par IRM fonctionnelle"
2. Member of the Cognitique Action project (2001) :
"Le contrôle du mouvement en production de la parole et l’efficacité perceptives des gestes anticipatoires "
PI Rudolph Sock (Institut de Phonétique de Strasbourg)
3. Member of the Centre Jacques Cartier project (2002) :
"Les effets articulatoires et acoustiques de l’accent de focalisation : une étude développementale"
PI Lucie Ménard (UQAM, Montréal, Canada)
4. Member of the ACI Jeunes Chercheurs project (2002-2005) :
"Caractérisation physiologique et perceptive de l’alignement tonal"
PI Mariapaola d’Imperio (LPL UMR 6057, Aix-en-Provence)
5. PI for the ELESA project (2005) :
"Décodage de la prosodie en parole silencieuse"
6. Co-PI for the BQR INPG project (2007-2010) :
"LA VOIX DU SILENCE : Prosodie de la parole silencieuse et du murmure inaudible — EMG du larynx et stéthoscopie maxillo-faciale"
7. Member of the Région Rhône Alpes Cluster 11 Handicap Vieillissement Neurosciences project (2008-2011) :
"Réorganisation fonctionnelle du langage et de la mémoire chez les patients épileptiques, avant et après intervention chirurgicale.Exploration par IRM fonctionnelle et électroencéphalographie"
PIs Monica Baciu (LPNC, UMR 5105) and Olivier David (GIN, U836)
8. Co-PI for the Région Rhône Alpes Cluster 11 Handicap Vieillissement Neurosciences project (2009-2011) :
"Traces orofaciales des hallucinations auditives chez les schizophrènes : électromyographie et électroglottographie"
9. PI for the Centre Jacques Cartier project (2010) :
Étude des mécanismes cognitifs des hallucinations auditives verbales chez les schizophrènes"
10. Member of the ANR-DFG project (2011-2013)
"CROSSMOD : Cross-modal integration of language and face cues in German and French infants"
PI Olivier Pascalis (LPNC and GIPSA), in collaboration with Justus-Liebig University Giessen and the Laboratoire Psychologie de la Perception, Paris
11. Member of the ARC2 Rhône-Alpes Region project (2013-2015)
"Speech deficits in cochlear-implanted children : evaluation, diagnosis and proposals for remediation"
PIs Anne Vilain (GIPSA-lab) and Michel Hoen (Centre de recherche en Neurosciences de Lyon U1028)
12. Member of the SFR Santé Société project (2013-2015)
"Potential compensation of language deficits by communicative manual gestures in SLI children"
PI Marion Dohen (GIPSA-lab)
13. PI for the ANR InnerSpeech 2014-2018
"Neural Correlates of Inner Speech"
The project aimed at providing a theoretical account of inner speech, the silent production of words in one’s mind, by examining the neural and physiological correlates of various forms of inner speech, including wilful inner speech (with one’s own or someone else’s voice, with 1st or 3rd person perspective) as well as less deliberate inner speech forms such as mind wandering or verbal rumination and by comparing objective and introspective data.
14. PI of the ARC2 Auvergne Rhône-Alpes Region project (2016-2019)
"Assessment and Screening tools for speech sound development disorders"
co-PIs : Anne Vilain (GIPSA-lab) and Sophie Kern (Laboratoire Dynamique Du Langage, Lyon)
See also
HAL archives ouvertes
Research Gate
ORCID
Open Science Foundation (OSF)
Publications in French are followed by a 🇫🇷 flag
Dissertations
Lœvenbruck H. (2019). Loquor, ergo communico-cogito-sum. Habilitation à Diriger des Recherches. Ecole Doctorale Ingénierie pour la Santé, la Cognition et l’Environnement, Université Grenoble Alpes - tel-02461867 🇫🇷
Lœvenbruck H. (1996). Pistes pour le contrôle d’un robot parlant capable de réduction vocalique (Proposals for a speaking robot capable of vowel reduction). Thèse de Doctorat en Sciences Cognitives (PhD thesis), INPG, Grenoble - tel-02293306 🇫🇷
Selection of peer-reviewed articles
2021
Nalborczyk, L.*, Banjac, S.*, Baeyens, C., Grandchamp, R., Koster, E. H. W., Perrone-Bertolotti, M., & Loevenbruck, H. (2021). Dissociating facial electromyographic correlates of visual and verbal induced rumination. International Journal of Psychophysiology, 159C, 23-36. https://doi.org/10.1016/j.ijpsycho.2020.10.009
2020
Haldin, C., Lœvenbruck, H., Hueber, T., Marcon, V., Piscicelli, C., Perrier, P., Chrispin, A., Pérennou, D. & Baciu, M. (accepted). Speech rehabilitation in post-stroke aphasia using visual illustration of speech articulators. A case report study. Clinical Linguistics and Phonetics. doi:10.1080/02699206.2020.1780473 - hal-02879182
Meloni, Geneviève, Lœvenbruck, Hélène, Vilain, Anne, Gillet-Perret, Estelle & MacLeod, Andrea (in press). Evaluation de la perception des sons de parole chez les populations pédiatriques : réflexions sur les épreuves existantes. Glossa. 🇫🇷
Nalborczyk, L., Grandchamp, R., Koster, E.H.W., Perrone-Bertolotti, M., & Lœvenbruck, H. (2020). Can we decode phonetic features in inner speech using surface electromyography ? PLoS ONE, 15(5) : e0233282. https://doi.org/10.1371/journal.pone.0233282 - hal-02696432
Paroni, Annalisa, Henrich Bernardoni Nathalie, Savariaux, Christophe, Loevenbruck Hélène, Calabrèse, Pascale, Pellegrini, Thomas, Mouysset, Sandrine, Gerber, Silvain (in press). Vocal drum sounds in Human Beatboxing : an acoustic and articulatory exploration using electromagnetic articulography. The Journal of the Acoustical Society of America.
Remon D., Lœvenbruck, H., Deudon, M., Girardie, O., Bouyer, KL. Pascalis, O. & Thorpe S. (2020). 24-month-olds and above remember novel object names after a single learning event. Journal of Experimental Child Psychology, 196. https://doi.org/10.1016/j.jecp.2020.104859 - hal-03014839
2019
Grandchamp R., Rapin L., Perrone-Bertolotti M., Pichat C., Haldin, C., Cousin E., Lachaux J.P., Dohen M., Perrier P., Garnier M., Baciu M., Lœvenbruck H. (2019). The ConDialInt Model : Condensation, Dialogicality and Intentionality dimensions of inner speech within a hierarchical predictive control framework. Frontiers in psychology, Exploring the Nature, Content, and Frequency of Intrapersonal Communication, 10. doi : 10.3389/fpsyg.2019.02019 - hal-02290943
Haldin, C., Acher, A., Kauffmann, L., Hueber, T., Cousin, E., Badin, P., Perrier, P., Fabre, D., Perennou, D., Detante, O., Jaillard, A., Lœvenbruck, H. & Baciu, M. (2019). Effet de la rééducation perceptivo-motrice sur la récupération de la parole chez deux patientes avec aphasie non fluente chronique post-AVC. Revue de Neuropsychologie, 11 (1), 44-59 - hal-02134778 🇫🇷
Nalborczyk, L., Batailler, C., Lœvenbruck, H., Vilain, A. & Bürkner, P.-C. (2019). An Introduction to Bayesian Multilevel Models Using brms : A Case Study of Gender Effects on Vowel Variability in Standard Indonesian. Journal of Speech, Language, and Hearing Research - hal-02096991
Vilain, A., Dole, M., Lœvenbruck, H., Pascalis, O. & Schwartz J.-L. (2019). The role of production abilities in the perception of consonant category in infants. Developmental Science. e12830. https://doi.org/10.1111/desc.12830 - hal-02075827
2018
Haldin, C., Acher, A., Kauffmann, L., Hueber, T., Cousin, E., Badin, P., Perrier, P., Fabre, D., Perennou, D., Detante, O., Jaillard, A., Lœvenbruck, H. & Baciu, M. (2018). Speech recovery and language plasticity can be facilitated by Sensori-Motor Fusion (SMF) training in chronic non-fluent aphasia. A case report study. Clinical Linguistics & Phonetics, 1 - 27. doi : 10.1080/02699206.2017.1402090 - hal-01651198
Kubicek, C., Gervain, J., Lœvenbruck, H., Pascalis, O., & Schwarzer, G. (2018). Goldilock vs. Goldlöckchen : Visual speech preference for same-rhythm-class languages in 6-month-old infants. Infant and Child Development. doi : 10.1002/icd.2084 - hal-01741631
Lœvenbruck, H. (2018). What the neurocognitive study of inner language reveals about our inner space. Épistémocritique, n° 18 : Langage intérieur - Espaces intérieurs / Inner Speech - Inner Space, Stéphanie Smadja, Pierre-Louis Patoine (eds.) [http://epistemocritique.org/what-the-neurocognitive-study-of-inner-language-reveals-about-our-inner-space/] - hal-02039667
Lœvenbruck, H., Grandchamp, R., Rapin, L., Nalborczyk, L., Dohen, M., Perrier, P., Baciu, M. & Perrone-Bertolotti M. (2018). A cognitive neuroscience view of inner language : to predict and to hear, see, feel. In Inner Speech : New voices, Peter Langland-Hassan & Agustín Vicente (eds.), Oxford University Press, 131-167. - hal-01898992
2017
Grandon, B., Vilain, A., Lœvenbruck, H., Schmerber, S. & Truy, E. (2017). Realisation of voicing by French-speaking CI children after long-term implant use : An acoustic study. Clinical Linguistics & Phonetics, 31, 1-14. doi : 10.1080/02699206.2017.1302511 - PMID : 28362227 - halshs-01500526v1
Lœvenbruck H., Nalborczyk L., Perrone-Bertolotti M., Baeyens C., Grandchamp R. (2017). Un cas d’incarnation linguistique : implication du système moteur orofacial dans les ruminations mentales. La cognition incarnée, J. Dokic et D. Perrin (dir.), Recherches sur la philosophie et le langage, N° 33, Vrin, Paris, 297-324, ISBN : 978-2-7116-8423-6. - hal-01887636 🇫🇷
Nalborczyk L., Perrone-Bertolotti M., Baeyens C., Grandchamp R., Polosan M., Spinelli E., Koster E. H. W. & Lœvenbruck H. (2017). Orofacial electromyographic correlates of induced verbal rumination. Biological Psychology. 127, 53-63. doi : 10.1016/j.biopsycho.2017.04.013 - hal-01569420v1
Richoz, A.-R., Quinn, P. C., Hillairet de Boisferon, A., Berger, C., Lœvenbruck, H., Lewkowicz, D. J., Lee, K., Dole, M., Caldara, R. and Pascalis, O. (2017). Audio-Visual Perception of Gender by Infants Emerges Earlier for Adult-Directed Speech. PLOS ONE, 12, 1-15. doi:10.1371/ journal.pone.0169325 - PMC5218491 - hal-01519114
2016
Perrone-Bertolotti M., Grandchamp R., Rapin L., Baciu M., Lachaux J.P. & Lœvenbruck H. (2016). Langage intérieur. In Pinto, S. & Sato, M. (eds.). Traité de Neurolinguistique : du cerveau au langage. Collection Neuropsychologie, De Boeck Supérieur, 109-123, ISBN : 9782353273393. - hal-01467107 🇫🇷
Rapin L., Dohen M. & Lœvenbruck H. (2016). Les hallucinations auditives verbales. In Pinto, S. & Sato, M. (eds.). Traité de Neurolinguistique : du cerveau au langage. Collection Neuropsychologie, De Boeck Supérieur, 347-370, ISBN : 9782353273393. - hal-01442463 🇫🇷
2015
Hillairet de Boisferon, A., Dupierrix, E., Quinn, P.C., Lœvenbruck, H., Lewkowicz, D.J., Lee, K., & Pascalis, O. (2015). Perception of Multisensory Gender Coherence in 6 and 9-month-old Infants. Infancy, 20 (6), 661-674. doi : 10.1111/infa.12088 - hal-01203120
Lavigne K. M., Rapin L. A. ; Metzak P. D., Whitman J. C., Jung K., Dohen M., Lœvenbruck H., Woodward T. S. (2015). Left-dominant temporal-frontal hypercoupling in schizophrenia patients with hallucinations during speech perception. Schizophrenia Bulletin, 41 (1), 259-267. hal-00966620
2014
Kubicek, C., Gervain, J., Hillairet de Boisferon, A., Pascalis, O., Lœvenbruck, H., & Schwarzer, G. (2014). The influence of infant-directed speech on 12-month-olds’ intersensory perception of fluent speech. Infant Behavior & Development, 37(4), 644-651.
Kubicek C., Hillairet de Boisferon A., Dupierrix E., Pascalis O., Lœvenbruck H., Gervain J. & Schwarzer G. (2014). Cross-modal matching of audiovisual German and French fluent speech in infancy. PlosOne. hal-00964518
Pascalis O., Loevenbruck H., Quinn P. C., Kandel S., Tanaka J. W. & Lee K. (2014). On the Links Among Face Processing, Language Processing, and Narrowing during Development. Child Development Perspectives, 8 (2), 65-70. hal-00964721
Perrone-Bertolotti, M., Rapin L., Lachaux J.-P., Baciu M. & Lœvenbruck H. (2014). What is that little voice inside my head ? Inner speech phenomenology, its role in cognitive performance and its relation to self-monitoring. Behavioural Brain Research, 261, 220-239. hal-00967730
2013
Rapin L., Dohen M., Polosan M., Perrier P., Lœvenbruck H. (2013). An EMG study of the lip muscles during covert auditory verbal hallucinations in schizophrenia. J. Speech Hearing and Language Research, 56, S1882–S1893. hal-00926630
Kubicek C., Hillairet de Boisferon A., Dupierrix E., Lœvenbruck H., Gervain J., and Schwarzer G. (2013). Face-scanning behavior to silently talking faces in 12-month-old infants : The impact of pre-exposed auditory speech. International Journal of Behavioral Development, 37 (2), 106-110. hal-00864344
Perrone-Bertolotti, M. Dohen, M., Lœvenbruck, H., Sato, M., Pichat, C., Baciu, M. (2013). Neural correlates of the perception of contrastive prosodic focus in French. An fMRI study. Human Brain Mapping. hal-00762363 - PMID : 22488985
2012
Cathiard M.-A., Vilain A., Laboissière R., Lœvenbruck H., Savariaux C. & Schwartz J.-L. (2012). Bimodal Perception within the natural time-course of speech production. In Bailly G., Perrier P. & Vatikiotis-Bateson E. (Eds.), Audiovisual Speech Processing. Cambridge University Press, 121-158. hal-00821829
Rapin, L., Metzak, P. D., Whitman, J. C., Dohen, M., Lœvenbruck, H., & Woodward, T. S. (2012). Hyperintensity of functional networks involving voice-selective cortical regions during silent thought in schizophrenia. Psychiatry Research : Neuroimaging, 102 (2), 110-117. hal-00734043, PMID : 22703623
Schwartz J.-L. & Lœvenbruck H. (2012). La parole, entre objets vocaux et objets du monde. In La psychologie cognitive. Collection Cogniprisme. M. Denis (ed.). Editions de la Maison des Sciences de l’Homme, ISBN 978-2-7351-1509-9, 165-199. hal-00782274 🇫🇷
2011
Dohen M., Lœvenbruck H., Roustan B., Vilain C. (2011). Pointage manuel et vocal : corrélats sensorimoteurs et neurocognitifs, coordination geste manuel / parole. Faits de Langue, 37, 97-116. hal-00784592 🇫🇷
2010
Tran V.-A., Bailly G., Lœvenbruck H. & Toda T. (2010). Improvement to a NAM-captured whisper-to-speech system. Speech Communication. 52 (4), 314-326. hal-00459973
2009
Dohen M. & Lœvenbruck H. (2009). Interaction of audition and vision for the perception of prosodic contrastive focus. Language and Speech, 52 (3), 177-206. hal-00371180 - PMID : 19624029
Dohen M., Lœvenbruck H. & Hill H. (2009). Recognizing prosody from the lips : is it possible to extract prosodic focus from lip features ? In Alan Wee-Chung Liew & Shilin Wang (Eds.), Visual Speech Recognition : Lip Segmentation and Mapping, Medical Information Science Reference, Hershey, New York, ISBN 978-1-60566-186-5, 416-438. hal-00360765
Heracleous P., Beautemps D., Tran V.-A., Lœvenbruck H. & Bailly G. (2009). Exploiting visual information for NAM recognition. IEICE Electronics Express, 6, 2, 77-82. hal-00357985
Lœvenbruck H., Dohen M. & Vilain C. (2009). Pointing is ‘special’. In Fuchs S., Lœvenbruck H. Pape D. & Perrier P. (eds.), Some Aspects of Speech and the Brain, Peter Lang, 211-258, ISBN 978-3-631-57630-4. hal-00360758
2008
Lœvenbruck H., Vilain C. & Dohen M. (2008). From gestural pointing to vocal pointing in the brain. Revue Française de Linguistique Appliquée, Vol. XIII, 2, 23-33. hal-00360753
2007
D’Imperio M., Espesser R., Lœvenbruck H., Menezes C., Nguyen N. & Welby P. (2007). Are tones aligned to articulatory events ? Evidence from Italian and French. Cole, Jennifer and José I. Hualde (eds.), Laboratory Phonology 9, Berlin : Mouton de Gruyter, 577-608. hal-00244489
2006
Ménard L., Lœvenbruck H. & Savariaux C. (2006). Articulatory and acoustic correlates of contrastive focus in French : a developmental study, in Harrington, J. & Tabain, M. (eds), Speech Production : Models, Phonetic Processes and Techniques, Psychology Press : New York, 227-251. hal-00371878
Sato M., Schwartz J.-L., Abry C., Cathiard M.-A., & Lœvenbruck H. (2006). Multistable syllables as enacted percepts : A source of an asymmetric bias in the verbal transformation effect. Perception & Psychophysics, 68 (3), pp. 458-474. hal-00186572 - PMID : 16900837
Welby P. & Lœvenbruck H. (2006). Anchored down in Anchorage : Syllable structure and segmental anchoring in French. Rivista di Linguistica/ Italian Journal of Linguistics 18 : 74–124. Current Issues in Tonal Alignment. Mariapaola D’Imperio (éd.). hal-00371892
2005
Lœvenbruck H., Baciu M., Segebarth C. & Abry C. (2005). The left inferior frontal gyrus under focus : an fMRI study of the production of deixis via syntactic extraction and prosodic focus. Journal of Neurolinguistics, 18, 237-258. hal-00371865
2004
Dohen M., Lœvenbruck H., Cathiard M.-A. & Schwartz J.-L. (2004). Visual perception of contrastive focus in reiterant French speech. Speech Communication, 44, 155-172. hal-00370938
Sato M., Baciu M., Lœvenbruck H., Schwartz J.-L., Segebarth C., Cathiard M.-A. & Abry C. (2004). Multistable representation of speech forms : a functional MRI study of verbal transformations. NeuroImage, 23, 1143-1151. PMID : 15528113
1999
Lœvenbruck H., Collins M.J., Beckman M.E., Krishnamurthy A.K. & Ahalt S.C. (1999). Temporal coordination of articulatory gestures in consonant clusters and sequences of consonants. Proceedings of Linguistics Phonetics 1998, Item Order in Language and Speech. Fujimura O., Joseph B. D. & Palek B. (eds.), Charles University, Prague, The Karolinum Press. Vol II : 547-573. hal-00371717
1996
Perrier P., Lœvenbruck H. & Payan Y. (1996). Control of the tongue movements in speech : The Equilibrium point Hypothesis perspective. Journal of Phonetics, 24, 53-75. hal-00080443
Teaching
Supervision of PhD students and post-docs
Positions
Education
Languages
Extras
A brief introduction
Trois scripts pour le tutorial "Praat scripting" de Speech Prosody 2006 :
1. Starter.praat : un script pour débuter
Ouvre un fichier son (au format .wav), affiche les temps de début et de fin du fichier son dans la fenêtre d’information.
Calcule la durée totale du son et l’affiche dans la fenêtre d’information.
2. CutSoundFile.praat : un script de découpage
Ouvre un fichier son (au format .wav) et son fichier d’étiquettes associé (.TextGrid).
Crée un nouveau fichier son qui commence au début du son original
et s’arrête à la première étiquette de la première ligne (tier) lue dans le .TextGrid
3. GetTimeF0.praat : un script d’extraction de F0
Ouvre un fichier son (au format .wav) et crée un fichier texte (.txt)
avec les valeurs de F0 calculées pour chaque trame voisée.
Le fichier texte obtenu contient 2 colonnes : les valeurs du temps et de F0
Ces trois scripts utilisent le fichier son ARpostC1.wav et son fichier d’étiquettes ARpostC1.TextGrid.
Pour utiliser d’autres fichiers, il suffit de modifier la ligne :
sound_file$ = "ARpostC1.wav"
Autres Scripts :
4. affiche_etiq_duree.praat : Convertit un fichier .TextGrid en un fichier texte simple, contenant les étiquettes et les durées des intervalles en 2 colonnes.
5. calcul_F0_durees.praat : Donne F0 max et la durée sur chacun des intervalles (syllabes) spécifiés dans le .TextGrid.
calcul_F0_durees_tons_numsyl.praat
6. calcul_F0_durees_tons_numsyl.praat : Donne des informations prosodiques telles que les valeurs des pics de F0, les durées syllabiques, la nature des tons, le numéro des syllabes portant les tons, à partir d’informations stockées dans les .TextGrid
Les fichiers .TextGrid files doivent contenir 4 tiers (au moins 3 en fait)
interval tier 1 : segmentation en syllabes
interval tier 2 : segmentation en GroupesProsodiques
point tier 3 : marquage des tons Hi, H* et L%
interval tier 4 : phrase prononcée (optionnel)
Les résultats des calculs sont écrits dans un fichier texte (fichier_resultat$), en colonne, dans l’ordre suivant :
NomDuFichier DuréeTotaleEnoncé F0MaxSurEnoncé
NombreDeGroupeProsodique
DuréeSyllabe1 DuréeSyllabe2 ... DuréeSyllabeX
Puis pour chaque Groupe Prosodique (GP) :
EtiquetteTon1 NuméroGroupeProsodique NuméroSyllabeTon1 TempsTon1 F0Ton1 EtiquetteTon2 NuméroSyllabeTon2 TempsTon2 F0Ton2
7. decoupe_son.praat : Crée plusieurs fichiers .wav à partir d’un fichier .wav découpé à des temps différents (pour une expérience de gating).
8. formants_in_interval.praat : Calcule les formants sur un intervalle spécifié dans un .TextGrid, toutes les 10 ms (modifiable).
9. formants_in_interval_F1corrected.praat : idem précédent, mais si F1 est mal détecté (F2 pris pour F1), i.e. si F1 > 700 Hz, remplace F1 par 1 Hz et F2 par F1, F3 par F2, etc.
10. formants_at_instant.praat : Calcule les formants à des instants spécifiés dans un .TextGrid.
11. lire_tout.praat : Lit tous les fichiers .wav et .TextGrid d’un répertoire spécifié et affiche une fenêtre d’édition, en permettant à l’utilisateur de marquer une pause après chaque fichier.
12. GetTimeF0AllFiles.praat : Lit tous les fichiers .wav d’un répertoire, calcule la F0 de chacun des fichiers et crée un fichier .txt par fichier .wav, avec 2 colonnes : temps et F0.
13. GetDurationAllFiles.praat : Lit tous les fichiers .TextGrid d’un dossier, calcule la durée entre les 2 premières étiquettes du premier tier (interval tier) pour chacun des fichiers
et crée un fichier .txt contenant 2 colonnes : la racine du nom du fichier .TextGrid et la durée entre les 2 étiquettes.
14. MarkLabelAllFiles.praat : Lit tous les fichiers .wav d’un dossier, attend que l’utilise place l’étiquette et crée un fichier .txt contenant 2 colonnes : la racine du nom du fichier .wav et le temps où a été placée l’étiquette