
Des chercheurs de l’Université de Californie à Davis ont développé une prometteuse interface neuronale directe expérimentale pour redonner la parole aux personnes qui l’ont perdue en raison de troubles neurologiques.
Dans une nouvelle étude publiée dans la revue scientifique Nature, les chercheurs démontrent comment cette nouvelle technologie peut traduire instantanément de l’activité cérébrale en voix lorsqu’une personne tente de parler, créant réellement un tractus vocal numérique.
Le système a permis au participant à l’étude, atteint de sclérose latérale amyotrophique (SLA), de « parler » à travers un ordinateur avec sa famille en temps réel, de changer son intonation et de « chanter » des mélodies simples.
Traduire de l’activité neuronale en texte – la façon dont notre précédente interface neuronale directe de la parole fonctionnait, est comparable à une messagerie textuelle. Il s’agissait d’une grande amélioration par rapport aux technologies d’assistance standard, mais ce système retardait toujours la conversation. À titre comparatif, cette nouvelle synthèse vocale en temps réel ressemble plus à un appel vocal. »
Sergey Stavisky, auteur principal de l’article et professeur adjoint au Département de Chirurgie Neurologique à l’Université de Californie à Davis
« Grâce à la synthèse vocale instantanée, les utilisateurs de neuroprothèses pourront être davantage inclus dans une conversation. Par exemple, ils peuvent interrompre, et les gens sont moins susceptibles de les interrompre accidentellement », déclare M. Stavisky.
Le décodage des signaux cérébraux au cœur de la nouvelle technologie
L’homme est inscrit à l’essai clinique BrainGate2 à l’UC Davis Health. Sa capacité à communiquer par l’intermédiaire d’un ordinateur a été rendue possible grâce à une interface neuronale directe (BCI – brain-computer interface) expérimentale. L’appareil se compose de quatre réseaux de microélectrodes implantées chirurgicalement dans la zone cérébrale responsable de la production de la parole.
Ces dispositifs enregistrent l’activité neuronale dans le cerveau et l’envoient à des ordinateurs qui interprètent les signaux pour reconstruire la voix.
« Le principal obstacle à la synthèse vocale en temps réel était de ne pas savoir exactement quand et comment la personne atteinte d’une perte de la parole tentait de parler », explique Maitreyee Wairagkar, premier auteur de l’étude et scientifique de projet au Laboratoire des Neuroprothèses de l’Université de Californie à Davis. « Nos algorithmes mappent l’activité neuronale aux sons intentionnels à tout instant. Cela permet de synthétiser des nuances dans la parole et de donner au participant le contrôle de la cadence de sa voix BCI. »
La parole expressive instantanée à travers la BCI est prometteuse
L’interface neuronale directe a été capable de traduire les signaux neuronaux du participant à l’étude en paroles audibles émises très rapidement par un haut-parleur – en un quarantième de seconde. Ce court délai est similaire au délai que tient une personne lorsqu’elle parle et qu’elle entend le son de sa propre voix.
La technologie a également permis au participant de prononcer de nouveaux mots (mots non connus du système) et de faire des interjections. Il était capable de moduler l’intonation de sa voix d’ordinateur générée pour poser une question ou mettre l’accent sur des mots spécifiques dans une phrase.
Le participant a aussi fait des pas vers une variation de hauteur vocale en chantant des mélodies simples et courtes.
Sa voix synthétisée par l’interface neuronale directe était souvent intelligible : les auditeurs pouvaient comprendre correctement près de 60% des mots synthétisés (contre 4% lorsqu’il n’utilisait pas l’interface).
La parole en temps réel facilitée par les algorithmes
Le processus de traduction instantanée de l’activité cérébrale en parole synthétisée est facilité par des algorithmes avancés d’intelligence artificielle.
Les algorithmes du nouveau système ont été entraînés avec des données collectées pendant que le participant était invité à tenter de prononcer des phrases qui lui étaient montrées sur un écran d’ordinateur. Cela a permis aux chercheurs de savoir ce qu’il essayait de dire.
L’activité neuronale a montré les modèles de travail de centaines de neurones. Les chercheurs ont aligné ces modèles sur les sons de discours que le participant tentait de produire à ce moment-là. Cela a permis à l’algorithme d’apprendre à reconstruire avec précision la voix du participant à partir de ses signaux neuronaux.
Les essais cliniques offrent de l’espoir
« Notre voix fait partie de ce qui fait de nous ce que nous sommes. La perte de la capacité de parler est dévastatrice pour les personnes vivant avec des troubles neurologiques », déclare David Brandman, co-directeur du Laboratoire des Neuroprothèses de l’UC Davis et le neurochirurgien qui a réalisé l’implant du participant.
« Les résultats de cette recherche donnent de l’espoir aux gens qui veulent parler mais ne peuvent pas. Nous avons montré comment un homme paralysé était à même de parler avec une version synthétisée de sa voix. Ce type de technologie pourrait être transformateur pour les personnes paralysées. »
David Brandman est professeur adjoint au Département de Chirurgie Neurologique et chercheur principal responsable du site de l’essai clinique BrainGate2.
Limitations
Les chercheurs font remarquer que, bien que les résultats soient prometteurs, les neuroprothèses traduisant de l’activité cérébrale en voix restent à un stade précoce. L’une des principales limitations est que la recherche a été effectuée sur un seul participant atteint de SLA. Il sera crucial de reproduire ces résultats avec plus de participants, y compris ceux souffrant d’une perte de la parole qui connaît d’autres causes, comme un AVC.
Traduction : Vicky Roels
Source : Université de Californie