L’INTERFACE CERVEAU MACHINE ET LES POTENTIELS EVOQUES
Système de Reconnaissance des Potentiels Évoqués pour les Interfaces Cerveau-Machine
I. INTRODUCTION
Certaines personnes atteintes de maladies neurologiques peuvent être totalement paralysées car elles ne peuvent plus contrôler leurs muscles.
Pour ces personnes, seule l’utilisation de leur activité cérébrale et les signaux qui en découlent permettent de communiquer.
L’utilisation des signaux de surface EléctroEncephaloGramme (EEG) en tant que vecteur de communication entre homme et machine constitue l’un des défis actuels de la recherche en traitement du signal.
L’élément principal d’un tel système de communication «Brain Computer Interface (BCI) ou interface cerveau machine» est l’interprétation des signaux EEG par rapport à des paramètres caractéristiques de l’activité cérébrale.
La recherche sur ce nouveau type d'interface est pratiquement rare, elle n’est qu’à ses débuts :
Par exemple le travail de Donchin en l’an 2000 qui a développé un clavier virtuel (matrice composé de 8 * 8 éléments), c’est le même principe de BCI P300 speller développé par Farwell. [1], il y a beaucoup d’investigations à faire, généralement pour réaliser une Interfaces Cérébrales synchrone prend des décisions binaires (oui/non), utilisant directement les signaux de surface de cuir chevelu du patient, il faut avoir une meilleure compréhension du fonctionnement cérébral tout en reliant l’analyse physiologique à l’analyse cognitive.
II. L’INTERFACE CERVEAU MACHINE ET LES POTENTIELS ÉVOQUÉS
Si vous attendez quelque chose, un événement, à l’instant où vous le voyez, vous engendrez le P300 spontanément, dans cet article, nous nous intéresserons aux interfaces cerveau-machine permettant d’épeler un mot.
Le BCI P300 speller qui est une interface permettant d’épeler des mots, une interface cerveau-machine synchrone qui prend des décisions binaires (oui/non).
Originalement développé par Farwell et al [1], il est basé sur le protocole suivant :
Il est demandé à un patient de fixer une matrice 6 × 6 composée de caractères.
Plusieurs stimuli visuels sont alors engendrés par l’illumination dans un ordre aléatoire des 12 lignes et colonnes.
Le patient doit alors compter le nombre de fois où la ligne ou la colonne du caractère qu’il souhaite épeler s’illumine.
Le fait de compter ainsi génère un potentiel évoqué avec un phénomène appelé P300 (apparaissant 300 ms après le stimulus visuel).
Notre objectif est donc de reconnaître parmi les signaux EEG la présence ou non d’un P300 dont les signaux répondent à un stimulus pour la base de données (P300 speller paradigm) [6].
A. Prétraitement :
Tout d’abord un processus de sélection de canaux est mis en oeuvre. Ensuite les signaux d’entrée sont normalisés de sorte qu’ils soient centrés et de variance unitaire. Parmi l’ensemble des 64 canaux, Kaper et al. [2] utilisent un nombre restreint et prédéfini de canaux. Cette approche suppose que l’activité cérébrale associée à la réponse aux stimulus soit localisée sur les mêmes parties du cerveau quelles que soient les conditions d’acquisitions. Dans ce papier, nous nous proposons de tenir compte de cette variabilité en sélectionnant automatiquement les canaux pertinents Fz, Cz, Pz, P1, P2, Po3, Po4, Oz.[meinicke, 2004]. On propose d’ajouter les deux canaux : Poz, Cpz, pour la simple raison c’est qu’on n’a pas une bonne résolution spatiale, cette sélection se fait grâce à l’expérience et la répétition.
Pour rendre le système de reconnaissance robuste, il faut vraiment normaliser les données par la formule :
…. (1)
: Signal normalisé. : Signal original de N échantillons. : Moyenne estimée est calculé par :
…… (2)
Puisqu’on n’a pas vraiment la densité de probabilité pour nos données dans le calcul de la moyenne, alors si on prend pour la variance , la moyenne estimée, la normalisation doit être (N-1) pour éviter le biais.
……. (3)
Une fois les données acquises, il est souvent nécessaire de les traiter afin de nettoyer les signaux et/ou de mettre en valeur l'information intéressante qui peut y être enfouie. En effet, les signaux EEG sont réputés pour être très bruités car ils peuvent être facilement perturbés électriquement, par l'activité musculaire des yeux ou du visage par exemple. Le premier prétraitement qui vient à l’esprit est d’éliminer une partie du signal dans le domaine temporel : C’est-à-dire de choisir une fenêtre, mais l’influence du choix de la fenêtre est inexistant dans notre cas, pour cela on utilise une fenêtre rectangle. On peut réduire la taille de fenêtre temporelle rectangle de [0s 1s] à [300ms 700ms] dans le but de minimiser le temps de reconnaissance pour la partie de prétraitement jusqu'à 50%. Dans notre cas on propose d’utiliser la méthode moindre carrée pour la phase de filtrage avec une courbe d'ajustement du 25 degrés. Une fois les bruits de mesure traités par filtrage, nous devons faire face à plusieurs autres problèmes.
B. La discrimination de signaux non stationnaires :
Les bruits liés à l’activité cérébrale du patient, les conditions d’acquisition changeantes, l’évolution de l’environnement du patient et de son état d’esprit font que les classes de données de ce problème sont à la fois fortement superposées et variables. Cela comporte également des implications au niveau de la représentation des signaux : l’idée est d’extraire un grand nombre de caractéristiques indépendants élargissant l’espace de description pour obtenir une vaste marge de discrimination inter classe et minimiser la variation intra classe. Dans un problème de discrimination, un descripteur n’a pas la vocation de reconstruire le signal, il est par exemple possible que la moyenne d’un signal soit un descripteur discriminant dans un problème de classification de signaux. Partant de ce principe et conformément à notre stratégie nous pouvons construire un grand nombre de descripteurs. Nous avons pensé utiliser deux caractéristiques temporelles, la première description temporelle qui vient à l’esprit est constituée des points de mesure du signal dont nous disposons : c’est à dire un ensemble de {ti, Si} i=1,..., N. Mais les Si sont des mesures bruitées du signal à traiter. Lorsque le rapport signal sur bruit se dégrade, toutes les mesures effectuées directement sur les Si se dégradent d’autant, cette approche est donc vouée à l’échec sur les problèmes fortement bruités. Concrètement, l’utilisation de signaux bruts similis dans les problèmes de classification mène la plupart du temps à des résultats médiocres [3]. Il est possible de distinguer la présence des P300 dans les signaux à travers les variables A1 et A2 correspondant aux échantillons se situant autour de 300 ms. En effet, la valeur médiane de ces variables est clairement plus élevée en présence des P300.
C. Classification des signaux EEG :
L’objectif de cette étude est de développer un système de reconnaissance des potentiels évoqués P300, permettant de tenir compte de la variabilité des signaux EEG. Nous avons opté pour stratégie sans modèle a priori pour discriminer les signaux EEG. On pense à l’identification des signaux EEG -qui sont déjà caractérisés par les échantillons A1 (0.360s), A2 (0.430s)- par une méthode qui a prouvé leur efficacité ces dix dernières années c’est la méthode Support Vector Machines (SVM) [4]. Les machines à noyaux qui sont des méthodes de résolution ne reposant sur aucun modèle à priori, tant pour les problèmes de discrimination que de régression. Elles aboutissent à un problème de minimisation convexe et souvent quadratique dont la résolution est aujourd’hui rapide, le problème du fléau de la dimensionnalité (le phénomène dit Curse of Dimensionality) est contourné par une formulation duale dans l’espace des points d’apprentissage et le théorème de la représentation repose sur un cadre théorique solide. Les Support Vector Machines, qui font partie de cette famille de machines, s’appuient directement sur le produit scalaire pour construire une fonction de décision.
III. Résultat
Si on veut vraiment comparer nos résultats avec ceux des autres chercheurs il faut d’abord comprendre qu’ils utilisent un nombre de répétition très élevé et les deux premières bases pour l’apprentissage, par contre nous utilisons seulement 40 signaux pour la phase d’apprentissage cela permet de généraliser le système de reconnaissance pour différents individus.Cette méthodologie a été appliquée aux données de la compétition BCI 2003 [5], [6].
Le taux d’erreur de la présence de P300 est très élevé pour le cas où nous utilisions 4 électrodes, par contre si on avait pris les 10 électrodes bien déterminées, il y aurait eu diminution d’erreur :
Erreur= FP/ (FP+VP)….. (4)
Où VP et FP sont respectivement le taux de vrais positifs et faux positifs.
Bien que le taux d’erreur de la présence de P300 soit élevé pour les trois bases, cela n’a pas une grande influence sur le taux de reconnaissance des caractères souhaités. De sorte que si on détecte le P300 dans 4 lignes pour notre matrice 6 × 6 d’épellation des mots, dans la première il est détecté 3 fois, et pour les trois dernières sa présence est moindre, on décide de prendre la première ligne où la présence de P300 est très élevée. Dans notre cas on peut basé uniquement sur les deux échantillons A1, A2 pour cela on va choisir la SVM non linière pour la classification avec une fonction noyau gaussienne, et la décision finale sera la combinaison entre les résultats de chaque canal, Il suffit que la moyenne des canaux présentent P300 pour que le résultat soit positif.
IV. CONCLUSION
Dans la première partie de cet article, nous avons proposé un chemin de prétraitement qui aboutit à la classification pour avoir une meilleure discrimination des signaux EEG. Dans la deuxième partie, nous avons proposé une méthode de classification qui repose sur un cadre théorique solide. Nous avons donc montré l’intérêt de choisir les méthodes non paramétriques comme SVM pour la classification de données cérébrales, et les résultats ont démontré que notre algorithme est très prometteur.
V. Travaux futurs
Nos premiers travaux nous permettent de mettre au point les outils nécessaires à l’identification automatique de tâche mentale, la difficulté majeure d’un tel problème est la variabilité des données qui est induite par les variations des conditions d’acquisitions et de l’état d’esprit de l’utilisateur. Dans notre approche, nous avons tenu compte de cette variabilité ce n’est pas grâce à un mélange de classifieurs mais grâce à la moyenne de caractéristiques des canaux EEG pertinents dans le but d’identifier le caractère désiré pour notre base de données. Notre objectif sera de réaliser des chaises roulantes pouvant être contrôlés par des personnes handicapées à l’aide d’une BCI.
Remerciements : Cette publication reflète uniquement le point de vue des auteurs.
BIBLIOGRAPHIES
[1] FARWELL, L. et DONCHIN, E. (1988). Talking off the top of your head: toward a mental prosthesis utilizing event-related brain potentials. In Electroencephalography and Clinical Neurophysiology, volume 70, pages 510–523. 30, 60, 119, 127, 136.
[2] KAPER, M., MEINICKE, P., GROSSEKATHOEFER, U., LINGNER, T. ET RITTER, H. (2004). Bci competition 2003 – dataset iib: Support vector machines for the p300 speller paradigm. IEEE Transactions on Biomedical Engineering, 51(6):1073–1076. 64, 139, 142
[3] GUIGUE, V., RAKOTOMAMONJY, A. et CANU, S. (2005e). Translation invariant classification of non-stationary signals. In European Symposium on Artificial Neural Networks, volume 13. 23, 29, 48, 126
[4] Classification d’EEG pour les Interfaces Cerveau-Machine Alain RAKOTOMAMONJY, Vincent GUIGUE, Gregory MALLET, Victor ALVARADO Laboratoire Perception Systèmes et Informations CNRS FRE2645, INSA de Rouen, 76801 Saint Etienne du Rouvray, France.
[5] SCHLÖGL, A., BLANKERTZ, B., SCHALK, G., SCHRÖDER, M. et MILLÁN, J. (2005). Bci competition iii, http://ida.first.fraunhofer.de/projects/bci/competition_iii/results/. 37, 60, 127, 136, 142
[6] P300 speller paradigm provided by Wadsworth Center, NYS Department of Health (Jonathan R. Wolpaw), the goal is to estimate to which letter of a 6-by-6 matrix with successively intensified rows resp. columns the subject was paying attention to
AEK N BELKACEM, Abdelhak Chibani.
Université des sciences et de la technologie d’Oran
Faculté de Génie Électrique - Département Électronique
Laboratoire De Recherche En Système Intelligent
belkacem011@hotmail.com
abdelhak.chibani@live.fr
Suite de l'article
I. INTRODUCTION
Certaines personnes atteintes de maladies neurologiques peuvent être totalement paralysées car elles ne peuvent plus contrôler leurs muscles.
Pour ces personnes, seule l’utilisation de leur activité cérébrale et les signaux qui en découlent permettent de communiquer.
L’utilisation des signaux de surface EléctroEncephaloGramme (EEG) en tant que vecteur de communication entre homme et machine constitue l’un des défis actuels de la recherche en traitement du signal.
L’élément principal d’un tel système de communication «Brain Computer Interface (BCI) ou interface cerveau machine» est l’interprétation des signaux EEG par rapport à des paramètres caractéristiques de l’activité cérébrale.
La recherche sur ce nouveau type d'interface est pratiquement rare, elle n’est qu’à ses débuts :
Par exemple le travail de Donchin en l’an 2000 qui a développé un clavier virtuel (matrice composé de 8 * 8 éléments), c’est le même principe de BCI P300 speller développé par Farwell. [1], il y a beaucoup d’investigations à faire, généralement pour réaliser une Interfaces Cérébrales synchrone prend des décisions binaires (oui/non), utilisant directement les signaux de surface de cuir chevelu du patient, il faut avoir une meilleure compréhension du fonctionnement cérébral tout en reliant l’analyse physiologique à l’analyse cognitive.
II. L’INTERFACE CERVEAU MACHINE ET LES POTENTIELS ÉVOQUÉS
Si vous attendez quelque chose, un événement, à l’instant où vous le voyez, vous engendrez le P300 spontanément, dans cet article, nous nous intéresserons aux interfaces cerveau-machine permettant d’épeler un mot.
Le BCI P300 speller qui est une interface permettant d’épeler des mots, une interface cerveau-machine synchrone qui prend des décisions binaires (oui/non).
Originalement développé par Farwell et al [1], il est basé sur le protocole suivant :
Il est demandé à un patient de fixer une matrice 6 × 6 composée de caractères.
Plusieurs stimuli visuels sont alors engendrés par l’illumination dans un ordre aléatoire des 12 lignes et colonnes.
Le patient doit alors compter le nombre de fois où la ligne ou la colonne du caractère qu’il souhaite épeler s’illumine.
Le fait de compter ainsi génère un potentiel évoqué avec un phénomène appelé P300 (apparaissant 300 ms après le stimulus visuel).
Notre objectif est donc de reconnaître parmi les signaux EEG la présence ou non d’un P300 dont les signaux répondent à un stimulus pour la base de données (P300 speller paradigm) [6].
A. Prétraitement :
Tout d’abord un processus de sélection de canaux est mis en oeuvre. Ensuite les signaux d’entrée sont normalisés de sorte qu’ils soient centrés et de variance unitaire. Parmi l’ensemble des 64 canaux, Kaper et al. [2] utilisent un nombre restreint et prédéfini de canaux. Cette approche suppose que l’activité cérébrale associée à la réponse aux stimulus soit localisée sur les mêmes parties du cerveau quelles que soient les conditions d’acquisitions. Dans ce papier, nous nous proposons de tenir compte de cette variabilité en sélectionnant automatiquement les canaux pertinents Fz, Cz, Pz, P1, P2, Po3, Po4, Oz.[meinicke, 2004]. On propose d’ajouter les deux canaux : Poz, Cpz, pour la simple raison c’est qu’on n’a pas une bonne résolution spatiale, cette sélection se fait grâce à l’expérience et la répétition.
Pour rendre le système de reconnaissance robuste, il faut vraiment normaliser les données par la formule :
…. (1)
: Signal normalisé. : Signal original de N échantillons. : Moyenne estimée est calculé par :
…… (2)
Puisqu’on n’a pas vraiment la densité de probabilité pour nos données dans le calcul de la moyenne, alors si on prend pour la variance , la moyenne estimée, la normalisation doit être (N-1) pour éviter le biais.
……. (3)
Une fois les données acquises, il est souvent nécessaire de les traiter afin de nettoyer les signaux et/ou de mettre en valeur l'information intéressante qui peut y être enfouie. En effet, les signaux EEG sont réputés pour être très bruités car ils peuvent être facilement perturbés électriquement, par l'activité musculaire des yeux ou du visage par exemple. Le premier prétraitement qui vient à l’esprit est d’éliminer une partie du signal dans le domaine temporel : C’est-à-dire de choisir une fenêtre, mais l’influence du choix de la fenêtre est inexistant dans notre cas, pour cela on utilise une fenêtre rectangle. On peut réduire la taille de fenêtre temporelle rectangle de [0s 1s] à [300ms 700ms] dans le but de minimiser le temps de reconnaissance pour la partie de prétraitement jusqu'à 50%. Dans notre cas on propose d’utiliser la méthode moindre carrée pour la phase de filtrage avec une courbe d'ajustement du 25 degrés. Une fois les bruits de mesure traités par filtrage, nous devons faire face à plusieurs autres problèmes.
B. La discrimination de signaux non stationnaires :
Les bruits liés à l’activité cérébrale du patient, les conditions d’acquisition changeantes, l’évolution de l’environnement du patient et de son état d’esprit font que les classes de données de ce problème sont à la fois fortement superposées et variables. Cela comporte également des implications au niveau de la représentation des signaux : l’idée est d’extraire un grand nombre de caractéristiques indépendants élargissant l’espace de description pour obtenir une vaste marge de discrimination inter classe et minimiser la variation intra classe. Dans un problème de discrimination, un descripteur n’a pas la vocation de reconstruire le signal, il est par exemple possible que la moyenne d’un signal soit un descripteur discriminant dans un problème de classification de signaux. Partant de ce principe et conformément à notre stratégie nous pouvons construire un grand nombre de descripteurs. Nous avons pensé utiliser deux caractéristiques temporelles, la première description temporelle qui vient à l’esprit est constituée des points de mesure du signal dont nous disposons : c’est à dire un ensemble de {ti, Si} i=1,..., N. Mais les Si sont des mesures bruitées du signal à traiter. Lorsque le rapport signal sur bruit se dégrade, toutes les mesures effectuées directement sur les Si se dégradent d’autant, cette approche est donc vouée à l’échec sur les problèmes fortement bruités. Concrètement, l’utilisation de signaux bruts similis dans les problèmes de classification mène la plupart du temps à des résultats médiocres [3]. Il est possible de distinguer la présence des P300 dans les signaux à travers les variables A1 et A2 correspondant aux échantillons se situant autour de 300 ms. En effet, la valeur médiane de ces variables est clairement plus élevée en présence des P300.
C. Classification des signaux EEG :
L’objectif de cette étude est de développer un système de reconnaissance des potentiels évoqués P300, permettant de tenir compte de la variabilité des signaux EEG. Nous avons opté pour stratégie sans modèle a priori pour discriminer les signaux EEG. On pense à l’identification des signaux EEG -qui sont déjà caractérisés par les échantillons A1 (0.360s), A2 (0.430s)- par une méthode qui a prouvé leur efficacité ces dix dernières années c’est la méthode Support Vector Machines (SVM) [4]. Les machines à noyaux qui sont des méthodes de résolution ne reposant sur aucun modèle à priori, tant pour les problèmes de discrimination que de régression. Elles aboutissent à un problème de minimisation convexe et souvent quadratique dont la résolution est aujourd’hui rapide, le problème du fléau de la dimensionnalité (le phénomène dit Curse of Dimensionality) est contourné par une formulation duale dans l’espace des points d’apprentissage et le théorème de la représentation repose sur un cadre théorique solide. Les Support Vector Machines, qui font partie de cette famille de machines, s’appuient directement sur le produit scalaire pour construire une fonction de décision.
III. Résultat
Si on veut vraiment comparer nos résultats avec ceux des autres chercheurs il faut d’abord comprendre qu’ils utilisent un nombre de répétition très élevé et les deux premières bases pour l’apprentissage, par contre nous utilisons seulement 40 signaux pour la phase d’apprentissage cela permet de généraliser le système de reconnaissance pour différents individus.Cette méthodologie a été appliquée aux données de la compétition BCI 2003 [5], [6].
Le taux d’erreur de la présence de P300 est très élevé pour le cas où nous utilisions 4 électrodes, par contre si on avait pris les 10 électrodes bien déterminées, il y aurait eu diminution d’erreur :
Erreur= FP/ (FP+VP)….. (4)
Où VP et FP sont respectivement le taux de vrais positifs et faux positifs.
Bien que le taux d’erreur de la présence de P300 soit élevé pour les trois bases, cela n’a pas une grande influence sur le taux de reconnaissance des caractères souhaités. De sorte que si on détecte le P300 dans 4 lignes pour notre matrice 6 × 6 d’épellation des mots, dans la première il est détecté 3 fois, et pour les trois dernières sa présence est moindre, on décide de prendre la première ligne où la présence de P300 est très élevée. Dans notre cas on peut basé uniquement sur les deux échantillons A1, A2 pour cela on va choisir la SVM non linière pour la classification avec une fonction noyau gaussienne, et la décision finale sera la combinaison entre les résultats de chaque canal, Il suffit que la moyenne des canaux présentent P300 pour que le résultat soit positif.
IV. CONCLUSION
Dans la première partie de cet article, nous avons proposé un chemin de prétraitement qui aboutit à la classification pour avoir une meilleure discrimination des signaux EEG. Dans la deuxième partie, nous avons proposé une méthode de classification qui repose sur un cadre théorique solide. Nous avons donc montré l’intérêt de choisir les méthodes non paramétriques comme SVM pour la classification de données cérébrales, et les résultats ont démontré que notre algorithme est très prometteur.
V. Travaux futurs
Nos premiers travaux nous permettent de mettre au point les outils nécessaires à l’identification automatique de tâche mentale, la difficulté majeure d’un tel problème est la variabilité des données qui est induite par les variations des conditions d’acquisitions et de l’état d’esprit de l’utilisateur. Dans notre approche, nous avons tenu compte de cette variabilité ce n’est pas grâce à un mélange de classifieurs mais grâce à la moyenne de caractéristiques des canaux EEG pertinents dans le but d’identifier le caractère désiré pour notre base de données. Notre objectif sera de réaliser des chaises roulantes pouvant être contrôlés par des personnes handicapées à l’aide d’une BCI.
Remerciements : Cette publication reflète uniquement le point de vue des auteurs.
BIBLIOGRAPHIES
[1] FARWELL, L. et DONCHIN, E. (1988). Talking off the top of your head: toward a mental prosthesis utilizing event-related brain potentials. In Electroencephalography and Clinical Neurophysiology, volume 70, pages 510–523. 30, 60, 119, 127, 136.
[2] KAPER, M., MEINICKE, P., GROSSEKATHOEFER, U., LINGNER, T. ET RITTER, H. (2004). Bci competition 2003 – dataset iib: Support vector machines for the p300 speller paradigm. IEEE Transactions on Biomedical Engineering, 51(6):1073–1076. 64, 139, 142
[3] GUIGUE, V., RAKOTOMAMONJY, A. et CANU, S. (2005e). Translation invariant classification of non-stationary signals. In European Symposium on Artificial Neural Networks, volume 13. 23, 29, 48, 126
[4] Classification d’EEG pour les Interfaces Cerveau-Machine Alain RAKOTOMAMONJY, Vincent GUIGUE, Gregory MALLET, Victor ALVARADO Laboratoire Perception Systèmes et Informations CNRS FRE2645, INSA de Rouen, 76801 Saint Etienne du Rouvray, France.
[5] SCHLÖGL, A., BLANKERTZ, B., SCHALK, G., SCHRÖDER, M. et MILLÁN, J. (2005). Bci competition iii, http://ida.first.fraunhofer.de/projects/bci/competition_iii/results/. 37, 60, 127, 136, 142
[6] P300 speller paradigm provided by Wadsworth Center, NYS Department of Health (Jonathan R. Wolpaw), the goal is to estimate to which letter of a 6-by-6 matrix with successively intensified rows resp. columns the subject was paying attention to
AEK N BELKACEM, Abdelhak Chibani.
Université des sciences et de la technologie d’Oran
Faculté de Génie Électrique - Département Électronique
Laboratoire De Recherche En Système Intelligent
belkacem011@hotmail.com
abdelhak.chibani@live.fr
Suite de l'article