Dire ce que l’on pense

09-07-2019

Une nouvelle génération d’ordinateurs vocaux doit aller chercher le langage directement à partir du cerveau. Ainsi, même des patients qui ne sont plus capables de mouvoir un seul muscle, pourront alors possiblement mener une conversation normale.

Par George van Hal Photos Hilde Harshagen

‘Bien que je ne puisse me mouvoir et que je doive parler via un ordinateur, je suis libre dans mon esprit’, disait le scientifique Stephen Hawking, décédé l’année passée, en 2010 dans la série documentaire Into the Universe.
Hawking souffrait de SLA, une maladie neurologique qui le tenait emprisonné dans son propre corps. Pourtant il pouvait parler normalement avec son public. Il le faisait de façon apparemment impassible : assis dans sa chaise roulante bien connue, la tête un brin inclinée, tandis que sa voix iconique monotone-mécanique découlait de petits hauts-parleurs. La clé de sa parole ? Un seul et minime muscle dans sa joue, que Hawking pouvait faire trembler jusqu’à la fin. C’était la seule manière de pouvoir commander l’ordinateur qui lui donnait la parole.

Actuellement, des scientifiques dans le monde entier, s’efforcent de mettre au point une nouvelle génération d’ordinateurs vocaux. Des appareils ayant une résonance plus naturelle et qui sont plus faciles à manier que la variante de Hawking. Qui travaillent également lorsque plus aucun muscle ne fonctionne.

C’est une évolution qui a connu cette année un envol lorsque trois articles spécialisés sont parus, dans lesquels différents groupes de chercheurs décrivent comment ils ont réussi à soustraire la parole directement du cerveau humain. Ils ont fabriqué des appareils qui reconnaissent la symphonie des cellules cérébrales en action lorsque nous parlons et transmettaient celle-ci – sans l’intermédiaire de bandes vocales humaines – vers des mots reconnaissables et des phrases de l’ordinateur vocal.

Cette technologie ressemblant à la science-fiction offre de l’espoir aux personnes, qui tout comme Hawking, sont enfermés dans leur propre corps, dit le scientifique de la parole Gopala Anumanchipalli (University of California, San Francisco), qui a présenté en avril dans la revue professionnelle Nature sa nouvelle technologie de la parole. ‘Nous voulons que ce genre de patients puissent parler à nouveau’, dit-il.

Nick Ramsey

Beaucoup de choses que nous faisons dans la vie de tous les jours – rouler à bicyclette, courir, ouvrir une porte – commencent dans le cerveau. Là les cellules cérébrales se mettent à émettre ardemment, passent ces signaux à nos nerfs, qui ensuite dynamisent nos muscles, afin que nous nous mouvions finalement. On peut mesurer l’émission de cellules cérébrales, dit le neuroscientifique Nick Ramsey (UMC Utrecht). Au moins, si l’on place des électrodes dans le cerveau de quelqu’un, un processus que l’on trouve par exemple déjà maintenant chez des personnes souffrant d’épilepsie ou de Parkinson. ‘En dehors du cerveau on ne gagne simplement pas assez de détails’, dit Ramsey. ‘On n’échappe donc pas à l’emploi d’électrodes.’

La recherche sur ce terrain s’opère de ce fait souvent chez des patients qui peuvent parler normalement et ont déjà reçu des électrodes pour une autre raison, par exemple pour le traitement de l’épilepsie. Avec ces mêmes électrodes vous pouvez ensuite recueillir des signaux cérébraux. ‘Lorsqu’on essaie de faire un mouvement, on retrouve cela dans le cortex moteur dans le cerveau, même chez une personne paralysée’ dit Ramsey. Il n’importe pas que le corps ne soit pas capable d’exécuter les instructions, les signaux dans le cerveau qui incitent au mouvement apparaissent tout simplement.

On peut soutirer ces signaux.

En accouplant cerveau et machine, les paralysés peuvent de cette manière par exemple mouvoir bras- ou jambes-robots. ‘A l’avenir, nous pouvons tout réparer. Alors les gens pourront marcher à nouveau après avoir été paralysés’, dit Ramsey. ‘Je le crois fermement. Mais la question capitale est évidemment : quand ?’

Ramsey prenait déjà en 2016 une avance sur l’avenir. Il donnait à la Néerlandaise Hanneke de Bruijne, enfermée dans son propre corps par la SLA, un ordinateur vocal qu’elle pouvait commander avec son cerveau et employer sans plus à la maison – une primeur mondiale.

‘Ce que nous avons fait alors, était en fait de la communication très basique’ dit Ramsey. Lorsque la dame cherchait à mouvoir sa main droite, l’appareil reconnaissait le signal cérébral et le transmettait vers un clic de souris. Par ce que les lettres de l’alphabet apparaissaient une à une sur un écran devant elle, elle pouvait ‘cliquer’ avec son cerveau au moment précis et taper ainsi des textes qui étaient transmis à un ordinateur vocal.

‘Maintenant, trois ans plus tard, elle emploie toujours cet ordinateur’ dit Ramsey. Entretemps, de Bruijne dépend même du dit UPN (Utrecht Neuroprothese Project) (= Projet Neuroprothèse Utrecht) de Ramsey. Par l’intermédiaire d’un soignant, elle fait savoir : ‘L’UPN est mon salut’. ‘Mes muscles oculaires sont entretemps trop lents pour un ordinateur oculaire. Sans UPN, je serais sans paroles. Cela me fait beaucoup de plaisir.’

Des chercheurs comme Anumanchipalli mettent entretemps un pas en avant. Ils sont d’avis qu’essentiellement, parler ne diffère pas beaucoup de marcher. Les sons du langage sont engendrés par le fait que nous mouvons notre bouche, langue et mâchoire avec nos muscles, tout comme on fait des pas par une coordination de muscles de la jambe en mouvement. Celui qui pourrait reconnaître ces mouvements de langage dans le cerveau, pourrait redonner la voix à des patients souffrant du syndrome locked-in, pensent les chercheurs. Une voix qui, l’on espère, résonne grosso modo tout comme l’original: avec une intonation humaine et une tonie individuelle. Une voix dans laquelle on pourrait éventuellement même reconnaître des émotions. Anumanchipalli et ses collègues mettent avec leur recherche prudemment le cap vers ce but final. Ils ont bâti une version virtuelle de notre canal vocal, la somme de bouche, langue et autres parties mouvantes que nous employons lorsque nous parlons. ‘Dans notre recherche, nous avons démontré qu’ainsi on obtient une voix au son plus naturel’ dit-il. 

Alors que d’autres chercheurs espèrent reconnaître directement une lettre ou une parole dans la structuration des cellules cérébrales émettrices, ils ont construit une étape intermédiaire. ‘Nous avons traduit les signaux des cellules cérébrales vers des mouvements dans notre canal vocal virtuel’, dit-il. ‘Après les mouvements ont été convertis en mots parlés.’ Ils laissaient donc parler un ordinateur tout comme des personnes le feraient. ‘Cette approche a livré un langage que les personnes pouvaient vraiment comprendre’, dit-il.

Ou du moins : pour la plupart du temps. Les personnes qui écoutaient les mots exprimés par l’ordinateur, réussissaient dans 69% des cas à les reconnaître vraiment. Et alors ils avaient déjà reçu une liste avec 25 mots parmi lesquels ils pouvaient choisir. Si la liste devenait plus longue, avec 50 mots, alors le pourcentage de reconnaissance descendait à 47%. Et également des recherches exécutées par d’autres groupes, avec d’autres systèmes un peu différents, donnent jusqu’à présent des pourcentages similaires. En ce moment, cette forme de langage cérébral ne peut pas encore se mesurer à ce que nous produisons journellement avec notre bouche.

En outre, ces personnes d’essai parlaient généralement durant l’expérience à haute voix, ou bougeaient au moins doucement avec la bouche. ‘Cela n’a pas encore réussi lorsque nous avons uniquement laissé penser les personnes à des mots’, dit Anumanchipalli. D’ailleurs ce n’est pas tellement grave, souligne t-il. Lorsqu’on donne une tâche similaire à des patients paralysés, même s’ils ne peuvent pas parler à haute voix ou bouger de concert en douce avec la bouche, il se forme alors dans leur cerveau la même structuration que celle des personnes d’essai non-paralysées, raisonne-t-on. Ensuite les chercheurs peuvent reconnaître cette structuration et la convertir en langage.

L’appareil reconnaît les cellules cérébrales émettrices et convertit les signaux en mots et phrases.

Ramsey qualifie les résultats comme inspirateurs. ‘Il faut encore beaucoup de temps avant que ceci parvienne chez le patient, mais cela démontre tout de même que cette sorte de recherche vaut la peine. Que l’on puisse redonner leur voix aux paralysés.’

Lui-même est pour le moment plutôt porté vers un concept plus simple. ‘Nous nous demandons ce que l’on peut signifier déjà à plus court terme pour les patients’, dit Ramsey. Il croit en un système qui peut reconnaître dans le cerveau une liste restreinte de mots et veut bientôt rechercher quels dix mots diffèrent le plus quant à leur structuration cérébrale. C’est à dire : pour quels dix mots ont doit tendre les muscles faciaux qui varient entre eux le plus. 

Les dix mots qui diffèrent le plus ne sont pas suffisants pour mener une conversation, admet Ramsey. Mais, on peut les utiliser comme commandos, en leur prodiguant une nouvelle signification. Avec cela on pourrait par exemple se mouvoir au-dessus d’un clavier. Pensez à une parole et le curseur glisse une case plus haute. Un autre mot le déplace une case vers la gauche. Et, avec un troisième mot, vous donnez un enter, pour confirmer la lettre. Un progrès par rapport à l’unique clic de souris de 2016.

‘Il se pourrait aussi que nous reconnaissions sans tarder bien plus que dix mots. Si l’on peut distinguer cent mots, un tel système n’est plus nécessaire. Alors on peut utiliser le sens réel de ces mots et mener avec cela des conversations basiques’, dit Ramsey.

Selon la psychologue Femke Nijboer (Universiteit Twente) la transition de simples clics de souris dans le cerveau vers l’extraction de mots complets et de phrases complètes du cerveau, est un passage d’envergure, qui peut avoir une grande influence sur les patients. Elle-même a été longtemps active dans le cadre professionnel de BCI (Brain-Computer Interface), comme on dit lorsque l’on connecte des ordinateurs sur le cerveau humain, jusqu’à ce qu’elle décide qu’elle pouvait mieux aider des patients locked-in en recherchant leurs besoins exacts.

Ne me comprenez pas de travers. Je trouve l’aspiration de ces chercheurs pour aider cette sorte de personnes vraiment fantastique’ dit-elle. Mes des ordinateurs vocaux que l’on commande avec le cerveau ne sont, selon elle, en pratique, souvent pas nécessaires. ‘Aux Pays-Bas il n’y a presque pas de clients pour cela. Beaucoup de personnes meurent avant que la maladie ait tellement progressé qu’il n’y a plus qu’une interface cérébrale qui s’avère utile.’ Car aussi longtemps que l’on peut se mouvoir un peu, il y a assez d’autres alternatives: des ordinateurs vocaux que l’on peut commander avec les yeux ou un seul petit muscle, par exemple. ‘Et qui sont plus rapides, plus précis et moins chers.’

En outre, chaque patient n’est pas en attente d’un appareil, dit Nijboer. ‘Une de mes précédentes personnes d’essai, Paul Trossèl, disait par exemple qu’il ne voulait pas de bâclage avec son cerveau.’ Il avait peur que ce qui travaillait encore bien en dernier après son hémorragie cérébrale – son esprit clair – serait endommagé durant une opération. ‘Ce qu’il cherchait en fait était un partenaire d’affaires ayant une voix, afin de pouvoir recommencer à travailler. Maintenant je donne conjointement avec lui des conférences, côte-à-côte. Je crois que cela l’aide plus qu’un implant cérébral. Les patients locked-in n’ont souvent pas de problème technologique, mais justement un problème social.’

Pourtant la technologie cérébrale peut réellement offrir une solution, selon Ramsey, surtout chez les patients SLA. Ces patients régressent de plus en plus et choisissent dès lors souvent de mourir lorsqu’ils ne peuvent plus respirer de manière autonome.’

Ils font cela parce qu’à terme ils deviendront enfermés’ dit Ramsey. A partir de ce moment, la communication avec les ordinateurs vocaux traditionnels n’est plus possible. ‘Si BCI est une option acceptée médicalement, un bon nombre de ces patients choisiront peut-être tout-de-même de rester en vie. Alors ils cesseront de devenir enfermés’.

CONNEXION FACEBOOK AVEC SON CERVEAU

Taper avec le cerveau : les grandes entreprises technologiques s’en occupent également à plein.

Pour les consommateurs aussi des appareils qui laissent les mains libres deviennent de plus en plus proches. Elon Musk espère avec Neuralink de pouvoir connecter le cerveau humain à l’ordinateur. L’université américaine MIT développe AlterEgo, une sorte d’écouteur avec lequel on peut taper des mails uniquement avec ses pensées. Et Facebook travaille, selon ses propres dires – dans le mystérieux ‘bâtiment 8’ – avec soixante scientifiques à une technologie qui devrait permettre de taper avec le cerveau. L’entreprise promet même de pouvoir traiter de cette manière 100 paroles par minute, plus que ce que des personnes exercées peuvent atteindre sur un clavier.

‘La question reste naturellement : pourquoi Facebook fait-il cela ? Qu’est-ce qu’ils fabriquent en fait dans ce bâtiment 8?’ dit la psychologue Femke Nijboer. Selon elle, nous ne devons toutefois pas craindre que de telles entreprises puissent employer nos pensées les plus profondes à des fins commerciales. ‘Pour cette sorte de technologies on doit vraiment essayer de prononcer quelque chose. Il s’agit du mouvement de la bouche, de la langue et des mâchoires, que l’on fait à ce moment. C’est une toute autre chose que de lire ses pensées’, dit-elle. Tout au mieux elles peuvent reconnaître une chanson que vous avez en tête et que vous fredonnez inconsciemment. ‘Et même alors, on peut serrer ses mâchoires l’une contre l’autre. Alors la structuration dans votre cerveau change faisant qu’elles ne peuvent plus rien reconnaître.’

Le neuroscientifique Nick Ramsey pense de surcroît que les technologies de ces entreprises n’auront pas un si grand envol. ‘Partant de l’extérieur du cerveau on ne peut tout simplement pas retirer assez d’information concernant ce qui se passe dans le cerveau’, dit-il. ‘Je ne pense pas que Facebook ou Google réussissent à réaliser en un court laps de temps ce que nous, en tant que communauté scientifique complète, n’ont pas su réaliser en cinquante années.

 

Traduction : Gerda Eynatten-Bové

Source : De Volkskrant

Share