Laurent Sparrow, chercheur en psychologie cognitive, revient sur le Forum sur l’interaction tactile et gestuelle

Laurent Sparrow est maître de conférences en psychologie cognitive à Lille 3 et membre de l’Unité de REcherches en Sciences Cognitives et Affectives (URECA). Ses recherches ont trait aux problématiques liées au langage et à certains handicaps, comme la surdité et la dyslexie. Il a participé le 13 novembre dernier, à l’Imaginarium de Tourcoing, à la 3e édition du Forum sur l’Interaction Tactile et Gestuelle (FITG), porté par la Plaine Images et l’Inria Lille – Nord Europe. Inforum revient sur cette intervention et se penche sur les recherches de Laurent Sparrow, à travers une interview réalisée en décembre dernier.

Laurent Sparrow, quel est l’objectif du Forum sur l’Interaction Tactile et Gestuelle ?

L’objectif de ce forum − qui réunit majoritairement des chercheurs, des entrepreneurs et des artistes – est d’échanger sur l’interaction tactile et gestuelle à partir d’exposés ou de démonstrations. L’idée, en clair, est de présenter les travaux de recherche et les dernières nouveautés liés aux nouvelles technologies. Cette année, un accent particulier a été mis sur le thème de l’accessibilité pour tous. Certains laboratoires et entreprises ont donc présenté des études ou des produits destinés à améliorer l’accès à la culture des personnes handicapées. À titre d’exemple, l’entreprise Orange a présenté ses nouveaux écrans tactiles à destination des personnes atteintes de handicap visuel. Je suis quant à moi intervenu sur les résultats d’une expérience menée avec l’association « Signes de Sens ».

Comment avez-vous rencontré cette association et en quoi a consisté l’expérience ?

Tout a démarré avec le projet d’Équipement d’excellence « Recherche et Innovation dans les Environnements Visuels Numériques et Interactifs » (Équipex IrDIVE), qui a permis à des associations, entreprises ou autres partenaires économiques de la région de découvrir dans leur environnement proche un laboratoire de recherche s’intéressant au comportement et aux nouvelles technologies. Parmi eux, l’association « Signes de sens », qui m’a contacté il y a environ un an.

« Signes de sens » est une association spécialisée dans le domaine de l’accessibilité pour les personnes sourdes. Elle accompagne des professionnels dans la mise en place d’une médiation adaptée, dans le but de favoriser la mixité des publics. Elle mène aussi ses propres projets visant à améliorer l’accès à la culture des personnes sourdes. C’est ce qui l’amène à produire des documents ou des outils multimédias, comme des vidéos pour tablettes tactiles permettant à la personne sourde qui se rend au musée de disposer de commentaires supplémentaires sur les œuvres. L’association m’a sollicité pour mettre en place une expérience destinée à optimiser ce type de dispositifs.

L’expérience en question, réalisée avec des adultes sourds, avait pour élément central une vidéo présentant le Sacre de Napoléon de Jacques-Louis David, un tableau peint vers 1805. L’objectif de l’expérience était de comparer deux versions du même film : une version enrichie en informations et une version simplifiée, moins chargée graphiquement et disposant d’un nombre restreint d’animations. Nous cherchions à découvrir quelle était la version la mieux adaptée, c’est-à-dire celle qui allait générer chez le sujet la meilleure compréhension et la meilleure mémorisation des informations délivrées au cours de la vidéo.

Cela veut-il dire que trop d’informations pourrait nuire à la mémorisation ?

Quand on regarde un adolescent aujourd’hui, on est surpris de voir sa capacité à communiquer de façon multiple. Il peut regarder un écran de télévision, en même temps qu’il communique sur son réseau social préféré, tout en discutant avec ses frères et sœurs. Il jongle sans cesse. Sa flexibilité est impressionnante. Mais est-ce la même chose pour tout le monde ? La question se posait ici pour les personnes sourdes, soumises, dans la version enrichie du film, à plusieurs canaux d’informations simultanés : un interprète en LSF, du sous-titrage et un petit avatar guidant le regard du sujet sur la vidéo.

Lorsque le sujet est soumis à un « trop-plein » d’informations, on parle de surcharge cognitive : le cerveau est appelé à faire trop de choses en même temps. Ce phénomène a été découvert dans les années 40, par un certain Donald Broadbent, engagé dans la Royal Air Force pendant la Seconde Guerre mondiale. Il observe alors chez les pilotes de nombreuses erreurs de commande, notamment au moment du décollage. Il s’aperçoit que les pilotes n’actionnent pas la bonne manette, au moment où leur attention est complètement absorbée par les paramètres du tableau de bord. Il en conclut que leurs ressources attentionnelles sont insuffisantes pour traiter l’ensemble des tâches auxquelles ils doivent répondre. Pour la petite histoire, à la suite de cette découverte, Broadbent entame des études de psychologie à Cambridge. Ses découvertes ont eu une importance considérable.

Comment met-on en évidence qu’un document, en l’occurrence ici une vidéo, engendre de meilleures performances attentionnelles − et donc une meilleure mémorisation − qu’un autre ?

Pour réaliser cette expérience, on a d’abord enregistré les déplacements oculaires des sujets pendant qu’ils visionnaient le film. On a donc observé avec précision le cheminement de leur regard. On a également obtenu des données physiologiques, comme le diamètre pupillaire, intimement lié à la question de la surcharge cognitive. Mais l’augmentation du diamètre pupillaire pouvant aussi signifier un état de grande concentration, sans que l’on puisse faire la différence, on lui a associé des mesures de la performance classiques relatives à la bonne mémorisation du film.

On a également cherché à évaluer la force de la trace mnésique, c’est-à-dire l’empreinte laissée dans le cerveau par une information. Car le cerveau ne mémorise pas uniquement l’information, mais aussi tout ce qu’il y a autour, c’est-à-dire le contexte. Plus la trace est forte, meilleur sera le rappel de l’information. Pour la mesurer, on met en défaut le système. Dans notre expérience, on a présenté aux participants des images tirées du film, et des images modifiées, dans lesquelles on fait par exemple passer le tableau de droite à gauche ou le pull de l’interprète du vert au bleu. Le participant devait indiquer si l’image avait été vue ou non. On a alors pu apprécier la précision de leurs réponses et donc la force de la trace mnésique.

Avez-vous été étonné des résultats de l’expérience ? Quelles suites comptez-vous lui donner ?

J’ai été surpris de constater que l’attention et la mémorisation des informations étaient meilleures face à la version enrichie du film. L’une des explications réside sans doute dans la présence de l’avatar, les petites saccades oculaires permettant d’analyser l’image plus finement.

Les déficients auditifs étant plus sensibles aux informations présentées en périphérie de leur champ de vision, il était important de vérifier que la lecture des sous-titres n’allait pas être perturbée. Ce genre d’études peut s’avérer très utile dans le cadre de l’optimisation de la qualité visuelle du sous-titrage à la télévision, puisque celui-ci est devenu obligatoire suite à la loi de 2005 sur le handicap.

L’idée que nous souhaiterions désormais explorer est celle d’un support multimédia qui serait valable et utilisable par tous les publics. C’est ce que l’on appelle le Design for all. Un projet de recherche, qui associe les laboratoires DeVisu (UVHC), GERIICO et URECA (Lille 3) ainsi que l’association « Signes de Sens« , a d’ailleurs été déposé dans ce sens, dans le cadre du programme « Chercheurs – Citoyens » du Conseil Régional du Nord – Pas de Calais.

En dehors de la sphère culturelle, quelles sont les autres situations de la vie courante qui pourraient bénéficier d’avancées significatives grâce à ce type de recherches ?

Parmi les domaines qui pourraient profiter d’innovations importantes, il y a par exemple l’éducation. On sait, grâce à des pré-tests que nous avons réalisés, que l’attention d’une personne est mieux mobilisée lorsque celle-ci entend un message concordant avec ce qu’elle voit, ou plus précisément, avec ce qu’elle regarde. Un exemple : si en parcourant une carte du monde un élève fixe du regard un pays en particulier et qu’il entend dans le même temps des données sur ce pays, celles-ci seront mieux mémorisées. Bon nombre de dispositifs éducatifs innovants, surfant sur le déroulement de l’attention, pourraient être mis en place. Seul problème : le matériel est très coûteux.

Ces recherches peuvent également servir de base à des dispositifs permettant notamment aux personnes handicapées de piloter un ordinateur. Vous me direz que ce genre de dispositifs existe déjà, et c’est exact. Mais les systèmes actuellement sur le marché sont en réalité très peu utilisés par les personnes handicapées. Ils sont à la fois peu pratiques et peu adaptés, voire extrêmement contraignants. Ceux qui les ont conçus s’appuient sur l’idée que les mouvements de l’œil sont comparables aux mouvements de la main, ce qui n’est pas tout à fait vrai. De surcroît, ces appareils sont inabordables pour les familles. Avec les connaissances que nous avons acquises en la matière dans nos laboratoires, il ne nous manque plus que le soutien d’un industriel pour concevoir, demain, un dispositif véritablement adapté et peu coûteux.

On compte beaucoup sur l’Équipex et l’environnement de l’Imaginarium : pour faire avancer la recherche, évidemment, mais aussi pour être au plus près des partenaires économiques et industriels qui nous permettront de traduire en produits finis les résultats de nos travaux.

Voir ou revoir l’intervention de Laurent Sparrow « Eyetracking : au-delà du regard − Étude sur la rétention d’informations dans un audiovisuel accessible » (FITG, 13 novembre 2012).

Enregistrer

Enregistrer