Catégories
Articles de presse

Forbes : The Silent Speaker

Les chercheurs de la NASA peuvent entendre ce que vous dites, même si vous ne faites pas de bruit.
Dans l’espace, personne ne peut vous entendre crier. Utilisez un téléphone portable dans un train de banlieue bondé et tout le monde peut le faire.

Charles Jorgensen s’efforce de résoudre ces deux problèmes, en utilisant une étrange technologie appelée reconnaissance vocale subvocale. Jorgensen en fait la démonstration dans ses bureaux de l’Ames Research Laboratory de la NASA à Mountain View, en Californie. Il fixe un ensemble d’électrodes sur la peau de sa gorge et, sans qu’il n’ouvre la bouche ou n’émette de son, ses mots sont reconnus et commencent à apparaître sur un écran d’ordinateur. Le laboratoire d’Ames a déjà utilisé des commandes vocales pour conduire une voiture dans une ville virtuelle dans une simulation informatique et pour Google (nasdaq : GOOG – news – people ) le Web en n’utilisant que des termes de recherche et des commandes simples. Jorgensen voit de nombreuses applications pour sa technologie là où la parole audible est impossible : pour les astronautes, les sous-marins de la marine, les pilotes de chasse et les secouristes qui se déplacent dans des environnements bruyants et difficiles.

Lorsque nous parlons à haute voix, nous forçons l’air à passer le larynx et la langue, sculptant les mots en utilisant les muscles articulateurs de la bouche et de la mâchoire. Mais ces muscles entrent en action, que de l’air soit envoyé ou non devant eux. Tout ce que vous avez à faire est de vous dire les mots et vous envoyez de faibles courants électriques de votre cerveau aux muscles de la parole. L’astuce de Jorgensen consiste à enregistrer ces signaux (appelés électromyogrammes), à les traiter à l’aide d’algorithmes statistiques et à comparer la sortie avec des modèles de signaux préenregistrés de mots, phrases et commandes parlés. Lorsqu’il y a correspondance, le non-dit se transforme en parole.

Jorgensen, qui a obtenu un doctorat en psychologie mathématique en 1974 (avant qu’il ne soit connu sous le nom d’intelligence artificielle), a eu l’idée de la reconnaissance vocale subvocale après avoir travaillé sur des interfaces électromyographiques pour les pilotes de chasse. Ces travaux nous ont amenés à nous poser la question suivante : « Quelle est la puissance d’un courant électromagnétique que nous pouvons discriminer », explique Jorgensen. (Le fait que les nerfs produisent du courant est connu depuis 1848, date à laquelle Emil DuBois-Reymond s’est ouvert la main et a plongé son poing serré dans une solution saline, déclenchant un saut dans un galvanomètre attaché).

La reconnaissance vocale subvocale a encore besoin de beaucoup de travail avant de pouvoir obtenir des lectures cohérentes et précises. Les logiciels de reconnaissance vocale auditive sont désormais suffisamment performants pour convertir à la fois « tom-ah-to » et « tom-ay-to » en « tomate ». Dans des conditions optimales, un logiciel de reconnaissance vocale normal qui fonctionne avec des sons est précis à 95 %.

Mais la reconnaissance subvocale traite des électromyogrammes qui sont différents pour chaque locuteur. La cohérence peut être perturbée par le simple positionnement d’une électrode. Pour améliorer la précision, les chercheurs dans ce domaine s’appuient sur des modèles statistiques qui s’améliorent avec le nombre de fois qu’un sujet « parle » à travers les électrodes. Mais même dans ce cas, il y a des défaillances. À l’université Carnegie Mellon, les chercheurs ont découvert qu’un même « locuteur » avec un taux de précision de 94% un jour peut voir ce taux chuter à 48% un jour plus tard. Entre deux locuteurs différents, ce taux chute encore plus.

Selon Tanja Schultz, chercheuse à Carnegie Mellon, une application possible est un téléphone portable « silencieux » qui peut détecter et traduire des phrases simples comme « je suis en réunion » et « je vous appellerai plus tard ». Le Japonais NTT Docomo travaille sur un téléphone portable subvocal actionné par des capteurs portés sur les doigts et le pouce. Un locuteur s’agrippe au visage, mettant les capteurs en contact avec la pommette, la lèvre supérieure et le menton. Jusqu’à présent, le système de Docomo reconnaît les cinq voyelles japonaises 90 % du temps.

Jorgensen voit le jour où des capteurs électromagnétiques seront tissés dans les fibres des cols roulés ou des tenues des secouristes. « Tant que les gens ont eu des machines et des outils, ils ont été dépendants de la physique du corps », dit Jorgensen. « Séparer ces activités de contrôle du corps et cela ouvre une toute nouvelle génération de conception des interfaces ».

 

David Armstrong 04.10.06  NASA researchers can hear what you’re saying, even when you don’t make a sound.  

Sauvegarde : The Silent Speaker – Forbes.com

 

Catégories
Articles de presse

Time : The Army’s Totally Serious Mind-Control Project

Les soldats qui s’aboient des ordres les uns aux autres, c’est le XXe siècle. C’est pourquoi l’armée américaine vient d’attribuer un contrat de 4 millions de dollars pour commencer à développer des « casques de pensée » qui exploiteraient les ondes cérébrales silencieuses pour sécuriser la communication entre les troupes. A terme, l’armée espère que le projet « conduira à un contrôle mental direct des systèmes militaires par la seule pensée ».

Si cela semble insensé, c’était il y a quelques années encore. Mais l’amélioration de la puissance de calcul et une meilleure compréhension du fonctionnement du cerveau poussent les scientifiques à rechercher les empreintes neurales distinctives qui se dégagent du cerveau lorsqu’une personne se parle à elle-même. L’objectif initial de l’armée est de capturer ces ondes cérébrales à l’aide d’un logiciel incroyablement sophistiqué qui traduit ensuite ces ondes en messages radio audibles pour les autres troupes sur le terrain. « Ce serait de la radio sans microphone », dit le Dr Elmar Schmeisser, le neuroscientifique de l’armée qui supervise le programme. « Parce que les soldats sont déjà entraînés à parler de façon claire, nette et formulée, ce serait un tout petit pas pour qu’ils pensent de cette façon. »

Les amateurs de films de série B se souviendront peut-être que Clint Eastwood a utilisé une technologie similaire d' »interface cerveau-ordinateur » dans le Firefox de 1982, du nom de l’avion de chasse soviétique dont les armes étaient contrôlées par les pensées du pilote. (Clint a été envoyé pour voler l’avion, natch.) Pourtant, ce n’est pas aussi farfelu que vous pourriez le penser : les joueurs vidéo attendent avec impatience une version commerciale rudimentaire de la technologie des ondes cérébrales – un casque à 299 $ de la société Emotiv Systems, basée à San Francisco – à l’été 2009.

Mais l’armée ne va pas aussi vite que les joueurs. Le système beaucoup plus sophistiqué de l’armée est peut-être à une ou deux décennies de la réalité, sans parler de sa mise en œuvre. Le contrat de cinq ans qu’elle a attribué le mois dernier à une coalition de scientifiques de l’université de Californie à Irvine, de l’université Carnegie Mellon et de l’université du Maryland, vise à « décoder l’activité des réseaux cérébraux » afin qu’un soldat puisse transmettre des ordres par radio à un ou plusieurs camarades en pensant au message qu’il veut transmettre et à qui il doit le transmettre. Au départ, les destinataires entendraient très probablement les transmissions rendues par une voix robotisée via des écouteurs. Mais les scientifiques espèrent finalement fournir une version dans laquelle les commandes sont rendues par la voix de l’orateur et indiquent la distance et la direction de l’orateur par rapport à l’auditeur.

« Avoir un soldat capable de communiquer sans mouvement apparent serait inestimable tant sur le champ de bataille que dans le cadre des soins aux blessés au combat », a déclaré l’armée dans l’appel d’offres de l’année dernière. « Cela fournirait une technologie révolutionnaire pour la communication silencieuse et l’orientation qui est intrinsèquement immunisée contre le bruit et la lumière de l’environnement extérieur ».

Le principal défi sera de développer un logiciel capable de localiser les ondes cérébrales liées à la parole captées par le réseau de 128 capteurs qui seront finalement enfouis dans un casque. Ces capteurs détectent les minuscules charges électriques générées par les voies nerveuses dans le cerveau lors de la pensée. Les capteurs génèrent un électroencéphalogramme – un tas de gribouillis déroutants sur un écran d’ordinateur – que les scientifiques étudient pour trouver ceux qui sont essentiels à la communication. « Nous pensons pouvoir entraîner un ordinateur à comprendre ces gribouillis au point qu’il puisse lire les commandes que votre cerveau envoie à votre bouche et à vos lèvres », explique M. Schmeisser. Malheureusement, il ne s’agit pas de trouver le bon gribouillis. « Il n’y a pas de neurone doré qui parle », dit-il.

Le Dr Mike D’Zmura de l’Université de Californie à Irvine, le scientifique en chef du projet, explique que sa tâche s’apparente à trouver les bons brins sur une assiette de pâtes. « Vous devez choisir les morceaux de spaghetti appropriés », dit-il, « et parfois il faut les déchirer et les rattacher à d’autres ». Mais avec une puissance de calcul toujours croissante, la tâche peut être effectuée en temps réel, dit-il. Les utilisateurs devront également être formés à penser fort. « Comment faire pour qu’une personne pense à quelque chose pour elle-même de manière à laisser un signal très fort dans les EEG que nous pouvons lire dans le bruit de fond ? demande D’Zmura. Enfin, comme l’EEG de chaque personne est différent, les personnes utilisant des « casques de pensée » devront être entraînées de manière à ce que les ordinateurs interceptant leurs commandes non dites reconnaissent le schéma mental unique de chaque utilisateur.

Les deux scientifiques nient de manière préventive les accusations attendues selon lesquelles ils s’amuseraient littéralement avec l’esprit des soldats. « Beaucoup de gens interprètent les fils qui sortent de la tête comme une sorte de lecture de l’esprit », soupire D’Zmura. « Mais il n’y a aucun moyen d’y arriver à partir d’ici », insiste Schmeisser. « Non seulement vous devez être prêt, mais comme votre cerveau est unique, vous devez entraîner le système à lire votre esprit – il est donc impossible de le faire contre la volonté de quelqu’un et sans sa coopération active et soutenue ».

Et ne négligez pas les avantages potentiels pour les civils. « Combien de fois avez-vous été ennuyé par des gens qui criaient dans leur téléphone portable ? » demande Schmeisser. « Et si au lieu de leur oreillette Bluetooth, c’était un casque Bluetooth et que leur bouche était fermée et qu’il y avait un silence béni tout autour de vous ? » On dirait une de ces rares tranches du budget militaire américain que même les pacifistes pourraient soutenir.

Sauvegarde The Army’s Totally Serious Mind-Control Project – TIME