Accueil du site > Personnel

Hélène Lœvenbruck

Hélène Lœvenbruck


CR1 CNRS

Member of the LPNC's Language Team

Member of the LPNC's Baby Lab

Co-head of the Master programme Cognitive Sciences

Editor of In Cognito Cahiers Romans de Sciences Cognitives

Member of the Grenoble Brain Awareness Week Organising committee

Bronze Medal CNRS 2006


Laboratoire de Psychologie et Neurocognition
CNRS UMR 5105 - Université Grenoble Alpes
Bâtiment Sciences de l'Homme et Mathématiques
Bureau E109
CS40700 - 38058 Grenoble Cedex 9 France

Tél. : +33 4 76 82 56 75

helene.loevenbruck@univ-grenoble-alpes.fr

RESEARCH    GRANTS      PUBLICATIONS    TEACHING    SUPERVISION    BIO    TOOLS


RESEARCH INTERESTS

Du Pointage au Langage : A short illustration inside the Histoires Courtes by Jean-François Dars & Anne Papillault

Inner speech, auditory verbal hallucinations

  • Neural Correlates of Inner Speech : PI of ANR InnerSpeech 2014-2018
    In collaboration with :
    * GIPSA-lab
    * UMS IRMaGe, Grenoble
    * Laboratoire de Neurophysiopathologie de l’épilepsie, CHU Grenoble
    * CRNL équipe Dynamique Cérébrale et Cognition, Lyon
    * Neurolab, Ferrara, Italy
    * Cognitive Neuropsychiatry of Schizophrenia Lab, UBC, Canada
  • Inner speech and auditory verbal hallucination in schizophrenia : EMG and fMRI
    In collaboration with :
    * GIPSA-lab
    * Pôle de Psychiatrie et de Neurologie (CHU, Grenoble)
    * Cognitive Neuropsychiatry of Schizophrenia Lab in Vancouver, Canada

Language development

  • Language acquisition : phonology and prosody - influence of the ambient language
    In collaboration with :
    * GIPSA-lab
    * Univ. du Québec à Montréal (Projet Jacques Cartier)
    * The Ohio State University Department of Linguistics
    * Centre des Nouvelles Etudes sur le Pacifique, UNC, Noumea, New Caledonia
    Paidologos project : cross-language investigation of phonological development
  • Speech Sound Development Disorders
    In collaboration with :
    * GIPSA-lab
    * Laboratoire Dynamique Du Langage
    * Univ. de Montréal
    * Université de Liège
  • Cross-modal integration of language and face cues in infants
    In collaboration with :
    * GIPSA-lab
    * Justus-Liebig University Giessen
    * Laboratoire Psychologie de la Perception, Paris
  • Speech production and perception in cochlear implanted children
    In collaboration with :
    * GIPSA-lab
    * Otorhinolaryngology Unit (Grenoble Hospital)
    * Centre de recherche en Neurosciences de Lyon U1028

Neuroprosody

  • Cerebral circuits of multimodal pointing (deixis) : digital, ocular, prosodic, syntactic pointing
    In collaboration with :
    * GIPSA-lab
    * INSERM U594
    * IFR N°1 INSERM
  • Prosodic cues of sarcastic speech in French
    In collaboration with Laboratoire Parole et Langage, UMR CNRS 6057

ONGOING AND PAST GRANTS

Ongoing

1. PI for the ANR InnerSpeech 2014-2018
Neural Correlates of Inner Speech
The project aims at providing a theoretical account of inner speech, the silent production of words in one’s mind, by examining the neural and physiological correlates of various forms of inner speech, including wilful inner speech (with one’s own or someone else’s voice, with 1st or 3rd person perspective) as well as less deliberate inner speech forms such as mind wandering or verbal rumination and by comparing objective and introspective data.

2. PI of the ARC2 Auvergne Rhône-Alpes Region project (2016-2019)
"Assessment and Screening tools for speech sound development disorders"
co-PIs : Anne Vilain (GIPSA-lab) and Sophie Kern (Laboratoire Dynamique Du Langage, Lyon)

3. Member of the Paidologos project (2005-present)
"Cross-language investigation of phonological development"
PIs Mary Beckman (Department of Linguistics, the Ohio State University, USA) and Jan Edwards (Univ. Wisconsin, USA) , in collaboration with the Centre des Nouvelles Études sur le Pacifique, Université de la Nouvelle-Calédonie, Nouméa, France

Past

1. PI for the APN project n°7904 (1999-2001) :
"De la prosodie à la syntaxe : Recherche de patrons d’activation cérébrale par IRM fonctionnelle"

2. Member of the Cognitique Action project (2001) :
"Le contrôle du mouvement en production de la parole et l’efficacité perceptives des gestes anticipatoires "
PI Rudolph Sock (Institut de Phonétique de Strasbourg)

3. Member of the Centre Jacques Cartier project (2002) :
"Les effets articulatoires et acoustiques de l’accent de focalisation : une étude développementale"
PI Lucie Ménard (UQAM, Montréal, Canada)

4. Member of the ACI Jeunes Chercheurs project (2002-2005) :
"Caractérisation physiologique et perceptive de l’alignement tonal"
PI Mariapaola d’Imperio (LPL UMR 6057, Aix-en-Provence)

5. PI for the ELESA project (2005) :
"Décodage de la prosodie en parole silencieuse"

6. Co-PI for the BQR INPG project (2007-2010) :
"LA VOIX DU SILENCE : Prosodie de la parole silencieuse et du murmure inaudible — EMG du larynx et stéthoscopie maxillo-faciale"

7. Member of the Région Rhône Alpes Cluster 11 Handicap Vieillissement Neurosciences project (2008-2011) :
"Réorganisation fonctionnelle du langage et de la mémoire chez les patients épileptiques, avant et après intervention chirurgicale.Exploration par IRM fonctionnelle et électroencéphalographie"
PIs Monica Baciu (LPNC, UMR 5105) and Olivier David (GIN, U836)

8. Co-PI for the Région Rhône Alpes Cluster 11 Handicap Vieillissement Neurosciences project (2009-2011) :
"Traces orofaciales des hallucinations auditives chez les schizophrènes : électromyographie et électroglottographie"

9. PI for the Centre Jacques Cartier project (2010) :
Étude des mécanismes cognitifs des hallucinations auditives verbales chez les schizophrènes"

10. Member of the ANR-DFG project (2011-2013)
"CROSSMOD : Cross-modal integration of language and face cues in German and French infants"
PI Olivier Pascalis (LPNC and GIPSA), in collaboration with Justus-Liebig University Giessen and the Laboratoire Psychologie de la Perception, Paris

11. Member of the ARC2 Rhône-Alpes Region project (2013-2015)
"Speech deficits in cochlear-implanted children : evaluation, diagnosis and proposals for remediation"
PIs Anne Vilain (GIPSA-lab) and Michel Hoen (Centre de recherche en Neurosciences de Lyon U1028)

12. Member of the SFR Santé Société project (2013-2015)
"Potential compensation of language deficits by communicative manual gestures in SLI children"
PI Marion Dohen (GIPSA-lab)

PUBLICATIONS

See also HAL archives ouvertes and Research Gate and Open Science

Selected publications

Lœvenbruck H., Nalborczyk L., Perrone-Bertolotti M., Baeyens C., Grandchamp R. (in press). Un cas d’incarnation linguistique : implication du système moteur orofacial dans les ruminations mentales. Recherches sur la philosophie et le langage, Numéro spécial « Cognition Incarnée ».

Nalborczyk L., Perrone-Bertolotti M., Baeyens C., Grandchamp R., Polosan M., Spinelli E., Koster E. H. W. & Lœvenbruck H. (2017). Orofacial electromyographic correlates of induced verbal rumination. Biological Psychology. 127, 53-63.

Perrone-Bertolotti M., Grandchamp R., Rapin L., Baciu M., Lachaux J.P. & Lœvenbruck H. (2016). Langage intérieur. In Pinto, S. & Sato, M. (eds.). Traité de Neurolinguistique : du cerveau au langage. Collection Neuropsychologie, De Boeck Supérieur, 109-123, ISBN : 9782353273393. -  hal-01467107

Rapin L., Dohen M. & Lœvenbruck H. (2016). Les hallucinations auditives verbales. In Pinto, S. & Sato, M. (eds.). Traité de Neurolinguistique : du cerveau au langage. Collection Neuropsychologie, De Boeck Supérieur, 347-370, ISBN : 9782353273393. - hal-01442463

Hillairet de Boisferon, A., Dupierrix, E., Quinn, P.C., Lœvenbruck, H., Lewkowicz, D.J., Lee, K., & Pascalis, O. (2015). Perception of Multisensory Gender Coherence in 6 and 9-month-old Infants. Infancy, 20 (6), 661-674. doi : 10.1111/infa.12088 - hal-01203120

Lavigne K. M., Rapin L. A. ; Metzak P. D., Whitman J. C., Jung K., Dohen M., Lœvenbruck H., Woodward T. S. (2015). Left-dominant temporal-frontal hypercoupling in schizophrenia patients with hallucinations during speech perception. Schizophrenia Bulletin, 41 (1), 259-267. hal-00966620

Kubicek, C., Gervain, J., Hillairet de Boisferon, A., Pascalis, O., Lœvenbruck, H., & Schwarzer, G. (2014). The influence of infant-directed speech on 12-month-olds’ intersensory perception of fluent speech. Infant Behavior & Development, 37(4), 644-651.

Kubicek C., Hillairet de Boisferon A., Dupierrix E., Pascalis O., Lœvenbruck H., Gervain J. & Schwarzer G. (2014). Cross-modal matching of audiovisual German and French fluent speech in infancy. PlosOne. hal-00964518

Pascalis O., Loevenbruck H., Quinn P. C., Kandel S., Tanaka J. W. & Lee K. (2014). On the Links Among Face Processing, Language Processing, and Narrowing during Development. Child Development Perspectives, 8 (2), 65-70. hal-00964721

Perrone-Bertolotti, M., Rapin L., Lachaux J.-P., Baciu M. & Lœvenbruck H. (2014). What is that little voice inside my head ? Inner speech phenomenology, its role in cognitive performance and its relation to self-monitoring. Behavioural Brain Research, 261, 220-239. hal-00967730

Rapin L., Dohen M., Polosan M., Perrier P., Lœvenbruck H. (2013). An EMG study of the lip muscles during covert auditory verbal hallucinations in schizophrenia. J. Speech Hearing and Language Research, 56, S1882–S1893. hal-00926630

Kubicek C., Hillairet de Boisferon A., Dupierrix E., Lœvenbruck H., Gervain J., and Schwarzer G. (2013). Face-scanning behavior to silently talking faces in 12-month-old infants : The impact of pre-exposed auditory speech. International Journal of Behavioral Development, 37 (2), 106-110. hal-00864344

Perrone-Bertolotti, M. Dohen, M., Lœvenbruck, H., Sato, M., Pichat, C., Baciu, M. (2013). Neural correlates of the perception of contrastive prosodic focus in French. An fMRI study. Human Brain Mapping. hal-00762363 - PMID : 22488985

Cathiard M.-A., Vilain A., Laboissière R., Lœvenbruck H., Savariaux C. & Schwartz J.-L. (2012). Bimodal Perception within the natural time-course of speech production. In Bailly G., Perrier P. & Vatikiotis-Bateson E. (Eds.), Audiovisual Speech Processing. Cambridge University Press, 121-158. hal-00821829

Rapin, L., Metzak, P. D., Whitman, J. C., Dohen, M., Lœvenbruck, H., & Woodward, T. S. (2012). Hyperintensity of functional networks involving voice-selective cortical regions during silent thought in schizophrenia. Psychiatry Research : Neuroimaging, 102 (2), 110-117. hal-00734043, PMID : 22703623

Schwartz J.-L. & Lœvenbruck H. (2012). La parole, entre objets vocaux et objets du monde. In La psychologie cognitive. Collection Cogniprisme. M. Denis (ed.). Editions de la Maison des Sciences de l’Homme, ISBN 978-2-7351-1509-9, 165-199. hal-00782274

Dohen M., Lœvenbruck H., Roustan B., Vilain C. (2011). Pointage manuel et vocal : corrélats sensorimoteurs et neurocognitifs, coordination geste manuel / parole. Faits de Langue, 37, 97-116. hal-00784592

Tran V.-A., Bailly G., Lœvenbruck H. & Toda T. (2010). Improvement to a NAM-captured whisper-to-speech system. Speech Communication. 52 (4), 314-326. hal-00459973

Dohen M. & Lœvenbruck H. (2009). Interaction of audition and vision for the perception of prosodic contrastive focus. Language and Speech, 52 (3), 177-206. hal-00371180 - PMID : 19624029

Dohen M., Lœvenbruck H. & Hill H. (2009). Recognizing prosody from the lips : is it possible to extract prosodic focus from lip features ? In Alan Wee-Chung Liew & Shilin Wang (Eds.), Visual Speech Recognition : Lip Segmentation and Mapping, Medical Information Science Reference, Hershey, New York, ISBN 978-1-60566-186-5, 416-438. hal-00360765

Heracleous P., Beautemps D., Tran V.-A., Lœvenbruck H. & Bailly G. (2009). Exploiting visual information for NAM recognition. IEICE Electronics Express, 6, 2, 77-82. hal-00357985

Lœvenbruck H., Dohen M. & Vilain C. (2009). Pointing is ‘special’. In Fuchs S., Lœvenbruck H. Pape D. & Perrier P. (eds.), Some Aspects of Speech and the Brain, Peter Lang, 211-258, ISBN 978-3-631-57630-4. hal-00360758

Lœvenbruck H., Vilain C. & Dohen M. (2008). From gestural pointing to vocal pointing in the brain. Revue Française de Linguistique Appliquée, Vol. XIII, 2, 23-33. hal-00360753

D’Imperio M., Espesser R., Lœvenbruck H., Menezes C., Nguyen N. & Welby P. (2007). Are tones aligned to articulatory events ? Evidence from Italian and French. Cole, Jennifer and José I. Hualde (eds.), Laboratory Phonology 9, Berlin : Mouton de Gruyter, 577-608. hal-00244489

Ménard L., Lœvenbruck H. & Savariaux C. (2006). Articulatory and acoustic correlates of contrastive focus in French : a developmental study, in Harrington, J. & Tabain, M. (eds), Speech Production : Models, Phonetic Processes and Techniques, Psychology Press : New York, 227-251. hal-00371878

Sato M., Schwartz J.-L., Abry C., Cathiard M.-A., & Lœvenbruck H. (2006). Multistable syllables as enacted percepts : A source of an asymmetric bias in the verbal transformation effect. Perception & Psychophysics, 68 (3), pp. 458-474. hal-00186572 - PMID : 16900837

Welby P. & Lœvenbruck H. (2006). Anchored down in Anchorage : Syllable structure and segmental anchoring in French. Rivista di Linguistica/ Italian Journal of Linguistics 18 : 74–124. Current Issues in Tonal Alignment. Mariapaola D’Imperio (éd.). hal-00371892

Lœvenbruck H., Baciu M., Segebarth C. & Abry C. (2005). The left inferior frontal gyrus under focus : an fMRI study of the production of deixis via syntactic extraction and prosodic focus. Journal of Neurolinguistics, 18, 237-258. hal-00371865

Dohen M., Lœvenbruck H., Cathiard M.-A. & Schwartz J.-L. (2004). Visual perception of contrastive focus in reiterant French speech. Speech Communication, 44, 155-172. hal-00370938

Sato M., Baciu M., Lœvenbruck H., Schwartz J.-L., Segebarth C., Cathiard M.-A. & Abry C. (2004). Multistable representation of speech forms : a functional MRI study of verbal transformations. NeuroImage, 23, 1143-1151. PMID : 15528113

Lœvenbruck H., Collins M.J., Beckman M.E., Krishnamurthy A.K. & Ahalt S.C. (1999). Temporal coordination of articulatory gestures in consonant clusters and sequences of consonants. Proceedings of Linguistics Phonetics 1998, Item Order in Language and Speech. Fujimura O., Joseph B. D. & Palek B. (eds.), Charles University, Prague, The Karolinum Press. Vol II : 547-573. hal-00371717

Perrier P., Lœvenbruck H. & Payan Y. (1996). Control of the tongue movements in speech : The Equilibrium point Hypothesis perspective. Journal of Phonetics, 24, 53-75. hal-00080443

TEACHING

  • Since 2005 : Co-head of the M.Sc. programme in Cognitive Sciences
  • 1993-95 : Teaching Assistant, Institut Universitaire de Technologie (IUT1) Génie Thermique et Energie, Univ. Joseph Fourier, Grenoble
    Courses taught : Mathematics and Computer Science (Undergraduate level)
  • 1995-97 : Teaching/Research Assistant ICP / ENSERG (INPG), Grenoble
    Courses taught : C language, Algorithms, Computer Science (Engineering degree level)
  • 1999-2001, 2009-2010 : Instructor, Language Sciences, Stendhal University, Grenoble 3.
    Courses taught : Experimental Phonetics
  • 2006-present : Introduction to Cognitive Sciences - Master in Cognitive Sciences
    Course taught in English
  • 2008-2014 : Spoken Communication - Master in Cognitive Sciences
  • 2015-2016 : Phonetics and Cognition - Master in Language Sciences
  • 2009-present : Cognitive Neuroscience of Early Competence : early language development - Master in Cognitive Sciences

SUPERVISION OF PHD AND POST-DOC STUDENTS

  • Marc Sato : PhD thesis at ICP, co-advisor with Jean-Luc Schwartz and Christian Abry
    Title : Représentations verbales multistables en mémoire de travail : vers une perception active des unités de parole
    Defended on 30th Novembre 2004
  • Marion Dohen : PhD thesis at ICP, co-advisor with Jean-Luc Schwartz
    Title : Deixis prosodique multisensorielle : production et perception audiovisuelle de la focalisation contrastive en français
    Defended on 18th Novembre 2005
  • Julia Monnin : PhD thesis at GIPSA-lab / CNEP UNC Noumea (New-Caledonia), co-advisor with Dominique Jouve
    Title : Influence de la langue ambiante sur l’acquisition phonologique : une comparaison du français et du drehu
    Defended on 16th July 2010
  • Viet-Anh Tran : PhD thesis at GIPSA-lab, co-advisor with Gérard Bailly and Christian Jutten
    Title : Communication silencieuse : conversion de la parole chuchotée en parole claire
    Defended on 28th January 2010
  • Lucile Rapin : PhD thesis at GIPSA-lab, co-advisor with Marion Dohen, Pascal Perrier and Todd Woodward (University of British Columbia)
    Title : Hallucinations auditives verbales et trouble du langage intérieur dans la schizophrénie : traces physiologiques et bases cérébrales
    Defended on 24th January 2011
  • Bénédicte Grandon : PhD thesis at GIPSA-lab, temporary co-advisor with Anne Vilain, Michel Hoen (Centre de recherche en Neurosciences de Lyon U1028)
    Title : Production et perception de la parole chez les enfants porteurs d’implants cochléaires
    October 2013 - December 2015
  • Ladislas Nalborczyk : PhD thesis at LPNC, co-advisor with Elsa Spinelli, Marcela Perrone-Bertolotti, Ernst Koster (Ghent Univ., Belgium)
    Title : Psychophysiological characteristics of verbal rumination : basic and clinical aspects
    Started October 2015
  • Geneviève Meloni : PhD thesis at LPNC, co-advisor with Sylviane Valdois, Andrea McLeod (UQAM), Anne Vilain, Sophie Kern
    Title : Evaluation and screening tool for speech sound disorders in French-speaking children
    Started October 2016

BIO

Positions

  • Member of the LPNC since October 2013
  • Former member of the Speech and Cognition Department at GIPSA-lab UMR 5216 (ex-Institut de la Communication Parlée, ICP) : 1998-2013
  • Former co-head with Anne Vilain of the group ’Parole Multimodalité Développement’ (Speech Multimodality Development), Speech and Cognition Department, GIPSA-lab : March 2007 - August 2011
  • Editor-in-chief of In Cognito - Cahiers Romans de Sciences Cognitives
    International quadrilingual journal in Cognitive Sciences
  • Co-head of the Master programme in Cognitive Sciences since 2005

Education

  • 1997-98 : Post-Doc in the Department of Linguistics at the Ohio State University in Columbus, Ohio, USA (fellowship from the Fyssen Foundation)
  • 1997 : DEA (equivalent of M.Sc.) in Language Sciences at Stendhal University (Grenoble 3)
    Major in Phonetics and Speech
    M.Sc. thesis title : "Quelques effets de l’accentuation et du débit sur l’articulation"
  • 1996 : Doctorat (PhD) in Cognitive Sciences at the Institut National Polytechnique (INPG)
    PhD thesis title : "Proposals for the control of a speaking robot capable of speech reduction"
  • 1992 : DEA (M.Sc.) in Cognitive Sciences at the Institut National Polytechnique de Grenoble (INPG)
  • 1992 : Engineering degree in Electronics, Signal Processing, Computer Science
    Major in Information processing system architecture
    ENSERG/ENSIMAG

Languages

  • French : mother tongue
  • English : beloved
  • Russian : beloved but less well spoken
  • German : spoken

Extras

TOOLS FOR SPEECH AND COGNITION RESEARCH





  • TRAP : a Tool foR speech signAl Processing : a short presentation
  • Scripts for Praat a great program developed by Paul Boersma and David Weenink
  • SplitIt : the sound file splitter
  • MergeIt : the sound file merger
  • PsychoPy : stimuli presentation (with Python)

PRAAT SCRIPTS

Trois scripts pour le tutorial "Praat scripting" de Speech Prosody 2006 :


1. Starter.praat : un script pour débuter Ouvre un fichier son (au format .wav), affiche les temps de début et de fin du fichier son dans la fenêtre d’information. Calcule la durée totale du son et l’affiche dans la fenêtre d’information.


2. CutSoundFile.praat : un script de découpage Ouvre un fichier son (au format .wav) et son fichier d’étiquettes associé (.TextGrid). Crée un nouveau fichier son qui commence au début du son original et s’arrête à la première étiquette de la première ligne (tier) lue dans le .TextGrid


3. GetTimeF0.praat : un script d’extraction de F0 Ouvre un fichier son (au format .wav) et crée un fichier texte (.txt) avec les valeurs de F0 calculées pour chaque trame voisée. Le fichier texte obtenu contient 2 colonnes : les valeurs du temps et de F0

Ces trois scripts utilisent le fichier son ARpostC1.wav et son fichier d’étiquettes ARpostC1.TextGrid. Pour utiliser d’autres fichiers, il suffit de modifier la ligne : sound_file$ = "ARpostC1.wav"

Autres Scripts :


4. affiche_etiq_duree.praat : Convertit un fichier .TextGrid en un fichier texte simple, contenant les étiquettes et les durées des intervalles en 2 colonnes.


5. calcul_F0_durees.praat : Donne F0 max et la durée sur chacun des intervalles (syllabes) spécifiés dans le .TextGrid. calcul_F0_durees_tons_numsyl.praat


6. calcul_F0_durees_tons_numsyl.praat : Donne des informations prosodiques telles que les valeurs des pics de F0, les durées syllabiques, la nature des tons, le numéro des syllabes portant les tons, à partir d’informations stockées dans les .TextGrid

Les fichiers .TextGrid files doivent contenir 4 tiers (au moins 3 en fait)
interval tier 1 : segmentation en syllabes
interval tier 2 : segmentation en GroupesProsodiques
point tier 3 : marquage des tons Hi, H* et L%
interval tier 4 : phrase prononcée (optionnel)

Les résultats des calculs sont écrits dans un fichier texte (fichier_resultat$), en colonne, dans l’ordre suivant :
NomDuFichier DuréeTotaleEnoncé F0MaxSurEnoncé
NombreDeGroupeProsodique
DuréeSyllabe1 DuréeSyllabe2 ... DuréeSyllabeX
Puis pour chaque Groupe Prosodique (GP) :
EtiquetteTon1 NuméroGroupeProsodique NuméroSyllabeTon1 TempsTon1 F0Ton1 EtiquetteTon2 NuméroSyllabeTon2 TempsTon2 F0Ton2


7. decoupe_son.praat : Crée plusieurs fichiers .wav à partir d’un fichier .wav découpé à des temps différents (pour une expérience de gating).


8. formants_in_interval.praat : Calcule les formants sur un intervalle spécifié dans un .TextGrid, toutes les 10 ms (modifiable).


9. formants_in_interval_F1corrected.praat : idem précédent, mais si F1 est mal détecté (F2 pris pour F1), i.e. si F1 > 700 Hz, remplace F1 par 1 Hz et F2 par F1, F3 par F2, F4 par F3 etc.


10. formants_at_instant.praat : Calcule les formants à des instants spécifiés dans un .TextGrid.


11. lire_tout.praat : Lit tous les fichiers .wav et .TextGrid d’un répertoire spécifié et affiche une fenêtre d’édition, en permettant à l’utilisateur de marquer une pause après chaque fichier.


12. GetTimeF0AllFiles.praat : Lit tous les fichiers .wav d’un répertoire, calcule la F0 de chacun des fichiers et crée un fichier .txt par fichier .wav, contenant 2 colonnes : le temps et la F0.


13. GetDurationAllFiles.praat : Lit tous les fichiers .TextGrid d’un dossier, calcule la durée entre les 2 premières étiquettes du premier tier (interval tier) pour chacun des fichiers et crée un fichier .txt contenant 2 colonnes : la racine du nom du fichier .TextGrid et la durée entre les 2 étiquettes.

14. MarkLabelAllFiles.praat : Lit tous les fichiers .wav d’un dossier, attend que l’utilise place l’étiquette et crée un fichier .txt contenant 2 colonnes : la racine du nom du fichier .wav et le temps où a été placée l’étiquette