Accéder à ce que l’on voit, avant de formuler des phrases : c’est l’objectif d’un projet de recherches qui mêle histoire de l’art et informatique.

Par rapport à un historien de l’art ou à un critique de cinéma, nous sommes relativement démunis face à des tableaux ou des films. Il nous manque un lexique pour rendre compte avec précision de notre expérience visuelle. C’est encore plus vrai pour les enfants : nous ne savons pas vraiment ce qu’ils voient dans l’image.

Que regarde-t-on dans une image ? Comment lui donne-t-on du sens ? Pour rendre compte de cette expérience qui précède la parole, des chercheurs et ingénieurs − de l’Université de Lille et du CNRS − ont développé tout un ensemble d’outils, qu’ils souhaitent diffuser au plus grand nombre. Non seulement pour étudier de près cette expérience visuelle et filmique, mais aussi pour que d’autres parties de la société se saisissent de ces outils pour inventer de nouveaux usages. C’est le projet Visuall-tek (issu du projet Visuall financé par l’Agence nationale de la recherche.)

L’un des systèmes conçus par l’équipe reproduit sous forme numérique ce que nous faisons couramment sur une feuille de papier : dans une image, entourer ou griffonner les éléments qui nous semblent saillants. Le logiciel permet aux lecteurs de tracer des lignes, pour mettre en évidence des liens entre différents éléments de l’image (direction du regard d’un personnage, sens d’un mouvement, etc.), par exemple. Ou souligner le point de fuite de la perspective d’un tableau classique. L’avantage du numérique est qu’il permet de comparer facilement les approches des différents spectateurs, voire de compiler des statistiques sur ce qu’ils font face à l’image.

Et si chacun pouvait dessiner ce qu'il voit, quand il regarde un tableau ? (logiciel Ikonikat)

Et si chacun dessinait ce qu’il voit, quand il regarde un tableau ?

Le système s’inspire de la méthode élaborée par un historien de l’art allemand du XXesiècle, Max Imdahl, soucieux d’arriver coûte que coûte à une expérience visuelle débarrassée de toute forme de discours textuel. « Au départ, explique Mathias Blanc, coordinateur scientifique du projet, nos recherches visaient en particulier à étudier et faire connaître les importantes recherches germaniques du XXe siècle sur l’image, encore assez confidentielles en France. C’est grâce à la rencontre de chercheurs et d’ingénieurs en informatique affiliés au programme Sciences et Cultures du Visuel que notre projet a pris une autre tournure. »

Pour l’instant, les outils ont été testés principalement par des élèves, étudiants, enseignants et chercheurs. Ils seront déployés sous peu à plus grande échelle. L’équipe dispose de l’appui du CNRS pour diffuser l’outil. Le Ministère de la Culture et de la Communication a également apporté un soutien financier pour que l’équipe puisse étudier la réception des œuvres par les publics. « Nous allons interroger les visiteurs des musées sur leur expérience face à telle ou telle photo, ou tel ou tel tableau (« que pensez-vous avoir vu ?« ) » explique Mathias Blanc. L’équipe envisage par exemple coupler ces questions à un certain nombre de critères sociologiques (âge, genre, etc.) pour savoir ce qu’on pointe, ce qu’on identifie ou pas, le plus souvent, dans une image.

Disséquer le cinéma

L’équipe a appliqué une démarche similaire au cinéma. Au départ, ils avaient souhaité revisiter les théories d’un sociologue et critique de cinéma allemand, Siegfried Kracauer. Celui-ci avait défendu l’idée que les films de propagande nazie de la réalisatrice Leni Riefenstahl, exploitaient des motifs visuels présents dans le cinéma allemand des décennies précédentes − notamment ceux consacrés à la mythologie allemande comme les Niebelungen, célèbre épopée médiévale. De tels motifs auraient ainsi irrigué l’inconscient collectif de la population allemande.

L’équipe avait donc eu l’idée de mettre au point un outil pour effectuer des comparaisons entre les séquences de ces différents films, et tester la théorie du critique allemand.

Aby Warburg

Aby Warburg

Là encore, les chercheurs ont développé leur approche en référence à un grand historien de l’art allemand du XXe siècle, Aby Warburg. Celui-ci consacra les dernières années de sa vie, entre 1924 et 1929, à son ultime projet, l’atlas Mnemosyne. Il s’agit de près d’un millier de photos d’œuvres d’art, disposées sur des panneaux noirs, que le chercheur réarrangeait à façon, faisant naître des associations et des combinaisons insoupçonnées entre les images.

L’équipe a donc cherché à adapter ce système au cinéma. L’outil, appelé V Atlas, se présente comme un tableau noir sur lequel seraient disposés des vignettes, correspondant aux différentes séquences du film . Toutes peuvent être jouées et surtout réagencées : le spectateur peut en sélectionner certaines et les réordonner à sa guise, puis visualiser le résultat final (voir la photo au début de l’article.)

Pour pouvoir comparer les plans, il fallait un système pour découper automatiquement le film en différentes séquences. L’équipe fait appel à un dispositif popularisé par plusieurs artistes, le slitscan. Il consiste à prélever dans chaque photogramme du film une seule colonne de pixels. Toutes ces colonnes, assemblées, forment un dessin qui retrace l’évolution visuelle du film. « Ce procédé permet alors de révéler la « grammaire » cinématographique du film, explique Cécile Picard-Limpens, membre du projet, non seulement les mouvements de caméras mais aussi le rythme avec lequel s’enchaînent les plans, et les transitions entre eux. »

Mais pour essayer d’approcher la perception la plus directe, primaire des spectateurs face à ces films, il fallait absolument que l’ergonomie de l’outil ne freine pas d’une manière ou d’une autre son appropriation. Une artiste et enseignante-chercheuse leur fournit de précieux conseils. « Vos boutons me gênent » leur dit-elle, face à un premier état du logiciel, encore un peu trop chargé de contrôles et de réglages (play, pause, etc.) Les membres de l’équipe épurent alors l’interface. Puis, après les premières réactions lors des tests du dispositif, ils modifient un peu le projet initial : au lieu de commencer par placer les spectateurs face aux slitscan, une image un peu abstraite qui désarçonnait ces derniers, ils débutent par le plateau d’images. De cette manière, les spectateurs comprennent mieux l’enjeu. Ce n’est qu’après, lorsqu’ils se demandent comment les films ont été découpés, que le principe du slitscan est présenté.

Là aussi, les chercheurs ont commencé à analyser la réception de l’outil par ses utilisateurs (lorsqu’il a été présenté à l’Imaginarium de la Plaine Images à Tourcoing). Ils observent par exemple deux types d’appropriation de l’outil, l’une qui mène comme prévu aux comparaisons entre les différents éléments des séquences, l’autre qui s’en écarte : les utilisateurs se mettent à créer un nouveau film grâce à un nouveau montage. « Ce n’est que le début des études, indique Mathias Blanc. Par exemple, selon l’âge, le genre, les origines sociales, la situation de visionnage, dans quelle mesure s’approprie-t-on une image ? Il y a encore beaucoup de points à éclaircir. » L’équipe souhaite aussi étudier l’outil dans d’autres conditions que le grand écran disponible à l’Imaginarium. « Nous sommes en contact avec des musées d’histoire et des partenaires allemands, qui sont très intéressés. » indique Mathias Blanc. Plusieurs personnes leur font également remarquer l’intérêt que cela représente pour concevoir un logiciel de montage intuitif, permettant de bien visualiser l’ensemble des rushes avant de les monter.

Les membres du projet :

  • Mathias Blanc (CNRS − laboratoire IRHIS), coordinateur
  • François Gabrielli (CNRS − laboratoire IRHIS) (fin 08/2014)
  • Cécile Picard-Limpens (Université de Lille Sciences humaines et sociales − laboratoire IRHIS)
  • Florian Renaut (Université de Lille Sciences et technologies – laboratoire CRISTAL)
  • Julien Wylleman (Université de Lille Sciences et technologies – laboratoire CRISTAL)

Vidéo d’une présentation de Cécile Picard-Lipens à destination des chercheurs :

Share on Facebook0Tweet about this on TwitterShare on Google+0Share on LinkedIn0