
Un programme numérique qui lit presque en temps réel dans les pensées. Un algorithme capable d’apprentissage ?
Tweeter |

Des chercheurs sont parvenus à décoder les signaux quasiment à la vitesse de la perception et à établir quel type d’image une personne venait de regarder. Des perspectives à la fois enthousiasmantes et inquiétantes !
C’est une avancée qui pourrait faire progresser la connaissance du fonctionnement du cerveau, avec notamment une meilleure compréhension de certaines maladies.
Un groupe de spécialistes en neurosciences de l’université de Washington, à Seattle (USA), a réalisé un pas important dans la compréhension de ce processus neurologique. Leurs travaux ont fait l’objet d’une publication dans la Revue PLOS Computational Biology.
Grâce à des implants au niveau des lobes temporaux et à un algorithme, ils sont parvenus à décoder les signaux cérébraux associés à la vue d’une image.
Ils ont alors pu entraîner leur logiciel afin qu’il identifie quasiment en temps réel ce que la personne voyait avec un taux de réussite de près de 96 %.
L’expérience a été menée avec la participation de sept personnes souffrant d’épilepsie auxquelles des électrodes avaient été implantées pour les besoins d’un examen classique.
L’équipe de l’université de Washington a saisi l’opportunité de cet examen prolongé (une semaine) pour proposer aux patients de participer à une expérimentation.
Leur tâche était simple : regarder des images défilant sur un écran d’ordinateur pendant que leur activité cérébrale était analysée.
Il s’agissait de photos qui défilaient à 400 millisecondes d’intervalle.
Cette infographie fait apparaître les résultats obtenus par l’algorithme d’analyse des ondes cérébrales. En bleu, l’activité spécifique liée à la vision d’un visage ; en rose, celle associée à la vision d’une maison. © Kai Miller et Brian Donohue, University of Washington
Afin de s’assurer de leur niveau de concentration, il était demandé aux participants de trouver la photo d’une maison à l’envers (voir l’infographie).
L’algorithme avait pour mission d’extraire deux types de signaux cérébraux : le potentiel évoqué (qui désigne la modification du potentiel électrique du système nerveux en réponse à une stimulation externe) et les signaux persistant après qu’une image a été visualisée.
Les ondes cérébrales étaient numérisées 1.000 fois par seconde, ce qui permettait au logiciel de déterminer quelles combinaisons d’électrodes et quels types de signaux répondaient lorsque les patients voyaient une image donnée.
Les chercheurs ont ainsi pu constater qu’ils obtenaient des réponses différentes depuis des zones différentes des lobes temporaux, certaines correspondant à la vue d’un visage, d’autres à celle d’une maison.
ðCes données ont ensuite servi à entraîner l’algorithme.
Les patients ont alors été confrontés à une nouvelle série d’images que le logiciel ne connaissait pas.
Le programme a alors su déterminer avec une fiabilité de 96 % et un décalage d’à peine 20 millisecondes si la personne voyait l’image d’une maison, ou celle d’un visage ou d’un fond gris.
Si, jusqu’ici, les chercheurs savaient déjà décoder les images perçues par une personne, comme l’a expliqué l’un des membres de l’équipe de l’université de Washington, les algorithmes utilisés avaient besoin de savoir à l’avance que l’on montrait des images au sujet observé.
ðDans le cas présent, le programme lit dans les ondes cérébrales en temps réel sans autre information préalable.
Ce niveau de précision a pu être obtenu seulement lorsque les informations provenant des deux types de signaux cérébraux étaient croisées, ce qui tend à démontrer qu’ils sont complémentaires.
« Traditionnellement, les scientifiques se sont penchés de façon individuelle sur les neurones », souligne le professeur Rajesh Rao, le neuroscientifique qui a conduit cette étude.
« Notre étude offre une vision plus globale, à l’échelle d’un grand réseau de neurones, de la manière dont une personne qui est éveillée et attentive perçoit un objet visuel complexe ».
D’une forme très simplifiée de lecture de la pensée à des perspectives bien plus ambitieuses. Des risques de dérives ?
Si l’on peut effectivement parler d’une forme très primaire de lecture de la pensée, les chercheurs y voient d’abord une avancée dans la compréhension du fonctionnement du cerveau.
Ils espèrent qu’à plus long terme, cet outil aidera à mieux appréhender certaines maladies affectant la mémoire et les fonctions motrices pour aider à une rééducation du cerveau.
«D’un point de vue clinique, on peut voir notre résultat comme la preuve de concept vers la création d’un mécanisme de communication pour les patients paralysés ou qui ont subi un AVC et sont complètement immobilisés», indique le professeur Rao.
La prochaine étape va consister à engager des travaux sur des représentations plus complexes afin d’élargir l’analyse de signal à d’autres zones du cerveau et d’aller jusqu’à déterminer, par exemple, si une personne appréhende l’image de quelqu’un qu’elle connaît, avec laquelle elle a un lien émotionnel, ou un simple inconnu.
« Avec les enregistrements cérébraux adéquats, on pourrait apprendre des détails extrêmement fins à propos d’une personne. Par exemple : où elle va aller, quels objets elle voit lorsqu’elle regarde quelque part, ce qu’elle pense réellement », souligne Motherboard Gerwin Schalk, le neuroscientifique coauteur de cette étude.
Des perspectives illimitées…Souhaitons qu’il en soit fait bonne usage, au-delà des recherches et applications purement médicales et pour éviter tout « viol » de la pensée !

« Erreur 53 » relatif à l’iPhone 6 : un procès en vue contre Apple. Des dommages intérêts à la clé .Mais la mise à disposition d’une nouvelle version iOS, levant les restrictions de réparation de l’iPhone 6, est aussi demandée. - News - publié le 13/02/2016
Un cabinet d’avocats (PCVA) de Seattle a engagé une procédure d’action collective au sujet des contraintes liées à la réparation des smartphones d’Apple. |
Retrouver l’Internet des années 90 dans l'univers de Windows 3.1 avec Internet Archive permettant de découvrir des pages Internet disparues. - News - publié le 13/02/2016
Le site de la Wayback Machine propose une nouvelle version de son outil permettant de plonger dans les anciennes versions de sites web, avec un accès aux près de 440 milliards de pages web, images ou vidéos compilées depuis 19 ans. |