Last compiled: 2024-09-06
Exploring audio-motor integration: a novel approach to overcoming hearing impairment
Human speech perception is robust in the face of adverse listening conditions, such as reverberation and background noise. Hearing loss imposes perceptual difficulty in speech perception by degrading incoming speech signals. It is an increasingly common disability and has large societal costs. Recent neuroimaging work has suggested that one mechanism of restoration of a degraded speech signal is couched in articulatory-motor representations. This project seeks to investigate, using multiple different methods, the neural substrates of degraded speech perception, and specifically the role of articulatory-motor representations. In addition to enhancing our understanding of the neurobiology of language, this can be applied to the development of novel training methods to enable hearing-impaired individuals to enhance and exploit articulatory-auditory links to improve their speech comprehension abilities.
Publications
Houweling, T., Becker, R., & Hervais-Adelman, A. (2020). The noise-resilient brain: Resting-state oscillatory activity predicts words-in-noise recognition. Brain Lang, 202, 104727. doi:10.1016/j.bandl.2019.104727
Becker, R., & Hervais-Adelman, A. (2020). Resolving the Connectome, Spectrally-Specific Functional Connectivity Networks and Their Distinct Contributions to Behavior. eNeuro, 7(5), ENEURO.0101-0120.2020. doi:10.1523/eneuro.0101-20.2020>
Last compiled: 2024-09-06
Human Infants are born crying with an accent that reflects the pitch accent of the language of the environment in which they gestate.
This strand of research concerns itself with this from two perspectives:
In order to address these questions we are undertaking an SNF-funded investigation to examine the acoustic features of infants’ cries that make them more or less aversive or salient to potential caregivers and the in utero cerebral processes that underpin acquisition of early precursors of human speech.
Last compiled: 2024-09-06
Reduced speech comprehension ability is a major consequence of hearing impairments. Specially in acoustically challenging situations, difficulties in speech perception and comprehension can have major consequences for quality of life. The goal of this project is to gain knowledge into the cognitive and brain mechanisms involved in speech-in-noise comprehension. Ultimately, we search for novel insights to guide future aid technologies.
There are two related projects:
Last compiled: 2024-09-06
Syntactic analyses across typologically distinct languages indicate that there is a number of parts of speech (PoS) with distinct functional roles, for instance: nouns (reference), verbs (predication) and adjectives (modification). Multiple cognitive neuroscience studies, that explored functional distinction of PoS, have distinguished between neural representations of prototypical nouns and verbs. In contrast to nouns and verbs, adjectives exhibit a rather variable syntactic behaviour across languages. Basque adjectives, for instance, often resemble nouns in their functional role, while in Mandarin Chinese modification is frequently realized by means of verbs. Due to such variable behaviour, the existence of adjectives as a distinct cross-linguistic category has been challenged. The present project aims (i) to advance our present understanding of the neural representation and organisation of adjectives employing neurolinguistic and computational approaches; and (ii) to determine whether the PoS information is predictive of the way the brain processes linguistic stimuli. An MEG study across three typologically different languages (English, Basque and Mandarin Chinese) will elucidate neurobiological correlates of the core PoS and will investigate the contribution of PoS information to the phrase structure building.
Last compiled: 2024-09-06
Dies ist eine Pilotstudie und dient der Evaluierung einer neuen, fast lautlosen Sequenz “Looping Star” für Magnetresonanztomographie (MRT) Aufnahmen. Weiter dient sie der Optimierung des Protokolls für eine Folgestudie zur pränatalen Sprachverarbeitung. Die Studie umfasst eine MRT-Untersuchung des Kopfes und findet am MR-Zentrum des Kinderspitals Zürich (Steinwiesstrasse 75, 8032 Zürich) statt. Während der MR-Messung werden kurze Abschnitte einer Geschichte abgespielt. Dies erlaubt es uns, die auditorische Verarbeitung optimal zu erfassen und die Aktivierungsmuster im Gehirn zwischen zwei verschiedenen MR-Protokollen zu vergleichen.
Für unsere wissenschaftliche Studie suchen wir gesunde Erwachsene im Alter von 18 bis 40 Jahren, welche bereit sein, während 30 bis 40 Minuten im MRT zu liegen. Versuchspersonen sollten keine neurologischen oder psychiatrischen Diagnosen haben, über ein gesundes Hörvermögen verfügen und Deutsch als Muttersprache haben (multilinguale Probanden/Probandinnen werden auch eingeschlossen). Für die Teilnahme müssen weiter die Kriterien für MR-Messungen erfüllt sein: keine Metallimplantate oder grossflächigen Tattoos im Brust-, Kopf, oder Nackenbereich, und kein Zahndraht. Die Studie ist mit keinerlei Risiken verbunden und MR Aufnahmen gelten unter Berücksichtigung der erwähnten Kriterien als ungefährlich.
Vor der Untersuchung werden die Teilnehmer*innen einen MR-Sicherheitsfragebogen und die Einverständniserklärung ausfüllen und unterschreiben. Alle Daten werden vertraulich behandelt. Für die Versuchspersonen ergibt sich kein medizinischer Nutzen. Für die MR-Sitzung erhalten Sie CHF 50.00 oder 1.5 Versuchspersonenstunden Aufwandsentschädigung (inkl. Reisekosten).
Falls Sie an einer Studienteilnahme interessiert sind und oben die genannten Kriterien auf Sie zutreffen, kontaktieren Sie uns bitte für weitere Informationen unter folgendem Link oder per E-Mail
Studienkoordination: Dr. Christopher Ritter und Dr. Alejandra Hüsser
Bitte nehmen Sie zur Kenntnis, dass Ihre Daten bei Zustandekommen eines Kontakts registriert werden. Sollten Sie nach Kontaktaufnahme an einer Studienteilnahme nicht interessiert sein, werden Ihre Daten unverzüglich gelöscht.