Jeudi 15 octobre 2009

Rolf Tarrach, recteur de l'Université du Luxembourg

Nous sommes accueillis dans une Université très jeune (6 ans) qui a la particularité d'être trilingue: (français, anglais, allemand) et où l'obligation de mobilité des étudiants est inscrite dans la loi.
RT distingue les disciplines simples (physiques) et les disciplines complexes (sciences humaines).

Marianne Backes, directrice du Centre Virtuel de la Connaissance de l'Europe

« Cela ne sert à rien d'avoir de gros pipe-lines si vous n'avez pas de pétrole à mettre dedans ». 

René Leboutte, directeur d'études du Master en Histoire européenne contemporaine à l'Université du Luxembourg

RT estime qu'une définition des digital humanities n'est pas une tâche simple. Il pense qu'il faut lutter contre le scepticisme technologique. Pour lui, l'esprit critique ne change pas, même avec une masse de données considérable. Ce sens critique demeure le cœur du travail de l'historien, que ce soit sur Internet ou non, et il va devenir encore plus important avec le numérique. RL se demande aussi si l'on peut encore écrire l'histoire comme il y a 10 ou 15 ans. La réflexion scientifique et critique va prendre de l'ampleur pour la recherche et l'enseignement. RL termine en souhaitant que ce symposium devienne un événement récurrent, organisé tous les deux ans. 

Keynote de Marin Dacos, directeur du Centre pour l’édition électronique ouverte (CLEO) – Histoire 2.0. Vers une Cyberinfrastructure au cœur de la discipline historique

MD rappelle l'affaire Orwell sur le Kindle. Pour lui, nous sommes dans un monde numérique qui nous dépasse largement et l'autonomie dans l'écosystème numérique nécessite des logiques éthiques et scientifiques.
Les financeurs de la recherche s'interrogent sur la production de recherche en libre accès, à l'exemple du MIT qui impose un mandat openaccess.
Le paradigme du génie qui invente (seul) une théorie est un modèle problématique en histoire.
MD pose la question du partage des sources plutôt que celle de la théorie et du modèle imposé par le chercheur. Il mentionne l'exemple de l'archéologie qui a l'habitude d'archiver et de partager ses sources, car elle détruit son objet d'étude au fur et à mesure de sa progression.
En histoire, par contre, il n'y a pas vraiment de tradition de partage des sources.
MD critique le fait que certains chercheurs s'approprient certains territoires scientifiques et interdisent ces territoires aux autres. On peut même rencontrer des cas où un corpus est étudié par une seule personne.
Il est nécessaire d'impulser une tradition de partage sur les sources et ainsi permettre l'affrontement de l'analyse des sources et la richesse des points de vue.
MD rappelle l'histoire de l'éditeur Elsevier qui proposait des cd-roms remplis de documents non indexés mais numérotés. Il qualifie cette pratique d' « hypocrisie ».
MD aborde les questions de sécurité : revues.org subit une attaque par seconde en moyenne...
MD évoque la menace de la loi de Murphy (si quelque chose peut mal tourner, alors cette chose finira infailliblement par mal tourner) à propos de la destruction des informations.
L'obsolescence très rapide des techniques implique une action pour entretenir et renouveler les données et les techniques elles-mêmes; la « curation » des données a un coût très élevé.
Les langages non interopérables sont semblables à la tour de Babel.
L'importance des métadonnée : au delà d'un certain nombre (assez faible), les podcasts de Radio-France sans métadonnées sont inexploitables tandis que les podcasts de RTL qui possèdent des métadonnées restent utilisables.
MD aborde ensuite la privatisation de la science, les données protégées, la concentration sur ce qui est rentable; il y a un risque que le marché ne s'intéresse qu'aux données rentables et sur ce risque, la puissance publique doit avoir un rôle.

Une cyberinfrastructure est nécessaire.
C'est un « machin hybride un peu inquiétant qui constitue un ensemble abscons » mais ce n'est pas un gros mot.
Nous avons besoin de chercheurs qui se rapprochent des ingénieurs et des développeurs; ces différents métiers doivent être considérés de manière plus égalitaire.
Une cyberinfrastructure doit être conçue pour durer.
Il y a besoin de moteurs de recherche, notamment Isidore en SHS, et de personnels et de compétences dédiées pour les cyberinfrastructures.
La cyberinfrastructure doit proposer l'évolution des logiciels scientifiques vers le libre accès.
Le Dublin Core et ses problèmes, débats sur les métadonnées et protocoles.
MD évoque les identifiants uniques et la pérennité, et parle d'OAIS (Open Archival Information System).
MD pose la question de l'efficacité du système et des programmes parfois coûteux.
MD se réfère à l'intelligence collective de Pierre Lévy qu'il préfère à la position du génie isolé de type Einstein; il parle de systèmes légers et « auto-apprenants » avec ajustement permanent à l'exemple de Flickr. C'est la logique de l'assemblage et de la participation à un ensemble.
La cyberinfrastructure est un système évolutif qui doit pouvoir s'adapter à l'imprévu, et c'est probablement dans sa nature de s'écrouler sur elle-même au bout d'un certain temps. MD appelle cela « le syndrome du Titanic ».
MD décrit ensuite un autre syndrome, celui du village gaulois où différentes structures destinées à certaines catégories de chercheurs se côtoient.
Il pointe ensuite un risque de la cyberinfrastructure, celui d'une délégation de la science à des pouvoirs trop technologiques avec un risque de désappropriation.
MD aborde ensuite la gouvernance mondiale des données scientifiques et la question des DOI (Digital Object Identifier); les DOI sont une « pompe à fric ».
Il faut se doter d'un système de références; sur ce terrain, le système DOI a 10 ans d'avance.
Il ne faut pas construire un temple de l'IST.
MD appelle à un manifeste des digital humanities exposant des principes clairs.
Il suggère la création de digital humanities camps sur le modèle des barcamps.

En réponse à une question d'Olivier Le Deuff, MD estime qu'il faut créer des formations d'ingénieurs en SHS.
René Leboutte réagit aussi en évoquant les risques de fractures numériques scientifiques.

Keynote de Gino Roncaglia, philosophe, Université de Tuscia – Web 2.0 and the future of research: new tools for research networks

GR brosse un panorama des outils web 2.0; il a mis sa communication sur Kindle.
Il expose les huit principes du web 2.0 : User Generated Contents / Semantics / Collaborative filtering / Rss / Mash-up / Social networks / Page interaction / Interface design.
Le web2.0 possède une très large connotation ; GR se demande même s'il s'agit-il d'une fraude commerciale ou d'un nouveau paradigme.
GR effectue un lien avec les bibliothèques; il était présent au dernier congrès de l'IFLA.
Nous pouvons partager bien plus que les résultats de notre recherche. Nous pouvons aussi partager les processus de recherche, les sources, les brouillons, etc.
Comment harmoniser formal ontologies et social tagging ? Il faut un meilleur contrôle partagé des metadata et ontologies avec des outils open source.
A propos du collaborative filtering, GR décrit l'exemple emblématique d'Amazon.
L'évolution des métriques et de la scientométrie : il existe des potentialités, notamment avec Google Scholar.
Pour GR, les rss feeds constituent le cœur des réseaux sociaux grâce aux possibilités d'agrégation . Ils ouvrent la possibilité d'outils destinés aux réseaux orientés vers la recherche. Il souligne aussi l'importance de l'interface et estime ainsi que Facebook est plus utile pour les chercheurs que les réseaux purement académiques [opinion qui provoque diverses réactions twittées : « Assez d'accord » (Olivier Le Deuff), « Facebook sucks! J'y déverse mes flux, mais ne l'utilise pas » (Marin Dacos), « J'ai beau faire, je déteste Facebook » (Frédéric Clavert)].
Les réseaux sociaux sont un moyen de partage et de discussion autour de thématiques scientifiques et permettent l'élargissement des compétences; ils sont en train de détrôner le courrier électronique [« un peu exagéré et surtout générationnel » (Olivier Le Deuff)].
GR décrit l'exemple de Shelfari, le premier réseau social pour les gens qui aiment les livres, acheté en 2008 par Amazon.
Une proposition de GR : réaliser une plate-forme du type LibraryThing ou Shelfari dédiée aux travaux et mémoires scientifiques.
GR mentionne que Google Wave pourrait être intéressant pour les chercheurs.
L'exemple de Digital Texts 2.0 est décrit : "Digital Texts 2.0 helps you to organize and share your digital texts. You can group your texts into collections, associate them with authors, assign tags and other useful metadata, and add your notes and comments."

Question : comment s'y retrouver dans les profils et données personnelles générées ?
Réponse de GR : utiliser les protocoles communs et les formats communs pour organiser les informations et s'y retrouver.
Marin Dacos déplore le manque de force d'initiative des bibliothèques dans le domaine scientifique ; il évoque Daniel Bourrion et sa proposition de commandos de service et suggère de poursuivre l'idée avec des missions du genre « 12 salopards » pour faire bouger les choses...
La logique d'un WorldCat de documents scientifiques est aussi évoquée.

Andreas Bagias (CARDOC - European Parliament Archive and Documentation Centre) – Organisation et exploitation des archives du Parlement Européen dans un environnement électronique

Au Parlement Européen, la complexité des règlements rend l'accessibilité aux données très difficile.
Sont disponibles au CARDOC "seulement" 3000 mètres linéaires, les archives sont ensuite versées à l'Université de Florence.
Le CARDOC, c'est 25 fonctionnaires et 12 externes.
AB mentionne l'exemple de deux communiqués contradictoires préparés à l'avance par Josep Borrell, alors président du Parlement européen. Que faut-il archiver dans ce cas ?
Le système est opaque parce qu'il est compliqué, à tel point que le Parlement a créé la comitologie, discipline qui explicite les procédures de prise d'avis ou de décision.
L'objectif est de rendre l'archive du parlement européen accessible au niveau technique mais surtout au niveau intellectuel.
Pour AB, faire partager à travers les archives une partie de l'histoire européenne n'est qu'une obligation de principe : il s'agit de rendre aux citoyens ce qui leur appartient.
La volonté est d'aller de la disponibilité du document à la disponibilité de l'information, mais ce projet est extrêmement difficile à réaliser.

Annick Batard (Paris 13) – La presse écrite généraliste française sous l'emprise du web : une ressource de l'histoire culturelle contemporaine ?

AB débute son exposé en citant Bernard Miège et Jürgen Habermas.
La Provence se désabonne de l'AFP. Cela lui coûtait 550.000 € par an et le journal ne s'en servait pratiquement plus.
AB décrit les blogs de journalistes comme une hybridation de l'information et évoque Twitter comme source pour les journalistes.
AB est membre de la Société pour l'Histoire des Médias.

Tsuriel Rashi (Lifshitz College of Education) – The Media Memory Agenda and the Struggle against Holocaust Deniers

"The press may not be successful much of the time in telling people what to think, but it is stunningly successful in telling its readers what to think about" (Bernard Cohen, 1963).
TR décrit les archives établies au mémorial de Yad Vashem et l'influence des médias sur la mémorisation des événements.
Archives de Yad Vashem : 125 millions de pages, des films (combien ?) et 420 000 photos.
La base de données des victimes juives de la Shoah recense 3,1 millions de noms.
TR s'interroge sur le rapport entre la réalité et les médias et ses transformations à l'ère numérique. Il propose une réflexion sur la qualité des ressources et les stratégies et outils pour leur conférer un indice de confiance.

Aurore François (Université Catholique de Louvain) – Le portail Just-HIS.be. Un agrégateur de ressources sur l'histoire sociopolitique de l'administration de la justice en Belgique (1795-2005)

Démonstration du portail Just-His.be.
Dans ce portail interuniversitaire, le CMS open source Joomla encapsule des informations provenant de sources et systèmes très différents.
Pour AF, la pérennité dans le numérique consiste aussi à ouvrir des postes en CDI.

Patrick Peccatte (Soft Experience) – Une plate-forme collaborative pour la redocumentarisation d'un fonds photographique historique

Ma présentation est disponible sur Scribd ou Slideshare.
[Réactions sur twitter : Marin Dacos estime que le terme redocumentarisation est trop corporatiste; Frédéric Clavert le juge au contraire expressif].

Stéfan Halikowski-Smith (Swansea University) – European National Libraries and Digitization in History

Éva Deák (Central European University) – Study, store and share unpublished primary sources: the example of the Parallel Archive

Parallel Archive (PA) est un référentiel en ligne créé par et pour les universitaires pour stocker et partager leurs documents d'archives. Ce projet a été développée par l'Open Society Archives (OSA, un laboratoire sur les archives de la Central European University, Budapest) avec le soutien de l'Institute of Record (une organisation de bienfaisance hongroise). Le projet s'appuie sur les efforts de l'OSA pour collecter, préserver, rendre disponibles les documents relatifs à l'histoire récente et contemporaine et les droits de l'homme tout en expérimentant des moyens novateurs de contextualiser les sources primaires.
Parallel Archive regroupe trois fonctionnalités : archive, espace personnel, espace collaboratif.
Parallel Archive utilise les URLs permanentes fournies par le système handle.net pour l'identification unique de l'ensemble de ses documents et faciliter ainsi l'accès et les citations.

Question : Serge Noiret remarque qu'un système comme Parallel Archive risque d'aller contre les lois sur le copyright. ED répond en évoquant le fair use, grosso modo l'exception académique.

Vendredi 16 octobre 2009

Genaro Oliveira (University of Auckland) – How image editing software and Web development tools currently available on personal computers can be used as interactive/multimedia narrative resources contributing new ways to the writing and communicating of History

GO introduit le terme historiomediography, c'est-à-dire la compréhension de l'Histoire comme étant un média : "the possibility of writing History through the simultaneous use of verbal, visual and sonorous languages."
"Gaining multimedia writing skills in history: Autonomy; familiarity; relevance to historian's research".
GO reprend la métaphore du sucre proposée initialement par William Turkel et Alan MacEachern : dans un proche futur, la familiarité avec la technologie sera aussi banale que celle que nous avons actuellement avec le sucre.
GO cite le travail d'Alun Munslow et le concept de "the past as History".

Gerben Zaagsma (University College London) - Contemporary European Jewish History on the Internet

GZ décrit les réalisations suivantes :

Frédéric Clavert remarque que Dan Cohen et Roy Rosenzweig sont régulièrement cités aujourd'hui.
Conclusion de GZ : Le numérique apporte-t-il une meilleure compréhension ? Pas nécessairement.
Les nouvelles possibilités peuvent changer le domaine, mais l'historien doit toujours interpréter et "créer" le passé.

Olivier Le Deuff (Lyon 3) - Nouveaux outils et science : l’archéologie pour faire « sens »

Il faut comprendre ici le terme "Archéologie" au sens de Michel Foucault.
Il est nécessaire de mieux observer les objets techniques et d'acquérir une culture technique.
La culture technique permet de mieux comprendre le document dans toutes ses dimensions.
OLD mentionne le Web Squared.
Il faut avoir conscience que autorité et popularité procèdent de logiques différentes.
Le mécanisme d'autorité s'oppose au mécanisme de popularité, y compris pour les blogs scientifiques. Il s'agit cependant de notions mal définies.
On doit toujours avoir une analyse historique sur les outils.
Attention aux confusions que le Web 2 peut entraîner vis-à-vis du grand public : les historiens seraient ainsi en concurrence avec des amateurs.
OLD explique le classement Wikio et le flou de la notion de "blog scientifique".
Il pose la question de la pérennité de l'écriture de l'histoire : l'histoire se ferait en temps réel, elle serait en version bêta perpétuelle ? Mais alors qu'en serait-il d'une certaine stabilisation du savoir nécessaire en particulier dans l'enseignement ? Comment parvenir à produire des savoirs à transmettre face au risque de la controverse permanente ?
Le droit à l'oubli peut entraver, sur Internet, la mise en place d'archives pour les historiens - sans oublier la question du copyright des données.
Il est nécessaire de rester majoritaire face à la technique et de comprendre l'objet technique (à propos de la culture technique, OLD cite Gilbert Simondon).
Remarque de Frédéric Clavert : la confusion engendrée par la concurrence entre les historien professionnels et les historiens amateurs n'est pas nouvelle, cf. la controverse Aubrac-Chauvy dans le livre "Vichy un passé qui ne passe pas".

La présentation d'Olivier est disponible sur son blog, le guide des égarés.

Tito Menzani (Università di Bologna) - When the web is useful for scientific output. The case of Italian historiography on the cooperative movement

TM compare les deux sites Centro Italiano di Documentazione sulla Cooperazione e l'Economia Sociale cooperazione.net et movimentocooperativo.it.
Il étudie l'impact de ces deux sites sur l'historiographie du mouvement coopératif.
La base de données (1999-2009) contient 427 titres de 311 auteurs distincts.
Résultat de l'étude de TM : ces sites sont de plus en plus utilisés par la communauté scientifique. Il s'agit là d'une confirmation de leur utilité et de leur importance, mais également des capacités du web en ce qui concerne l'historiographie.

Shadia Kilouchi (CN2SV) et Alain P. Michel (Université d’Évry) - L’atelier C5 de Renault-Billancourt à l’ère digitale : nouvelle histoire d’une chaîne de 1922

Il s'agit d'une coopération entre trois institutions : CNRS, ANR, LHEST (Laboratoire d'Histoire Économique, Sociale et des Techniques - Université d'Évry). Ce n'était pas évident à mettre en place et le projet implique aussi le travail à distance.
La 3D doit permettre à AM de mieux comprendre la mise en place du travail à la chaîne.
La modélisation n'est qu'un outil de recherche.
Quatre types de sources graphiques sont utilisées : plans, films, reportages photos (fév. 1922), dessins d'illustrations (sept. 1922).
SK explique ensuite que les champs IPTC des photos sont renseignés avec XnView. Sur le plan technique, le projet utilise une base MySQL et un module OAI-PMH. L'instrument de recherche est basé sur EAD ISAD(G).
La communication sur le projet comporte en 3 parties : blog, description de la méthodologie, description des résultats de la recherche.
L'énigme du 13ème poste de montage sur la chaîne vient de la confusion entre poste et opération en 1922, et ceci est compris grâce à la 3D.
À venir et financé par un autre organisme : l'étude et la modélisation des mouvements des ouvriers.

Philippe Rygiel (Paris I) - La diffusion du savoir historique à l’âge du web 2.0. La « valorisation » de l’enquête « Histoire et mémoire de l’immigration en régions »

Autre projet de PR : Koutoshs, couteau suisse statistique pour SHS (et d'autres...).
L'historien est un graphomane, il passe son temps à prendre des notes, faire des listes, etc. qui ne seront pas publiées.
Il faut penser l'historien comme un ensemble de fonctions et non plus comme un individu.
PR évoque l'archéologie au sens de Foucault : « citer Foucault permet de gagner du temps ;-) ».

David J. Bodenhamer (Indiana University Purdue University Indianapolis) - The Spatialization of History: A New Web Paradigm Comparison

Pour DB, la visualisation consiste à relier le temps et l'espace (linking time and space).
Les technologies d'immersive visualization et de serious gaming permettent de concevoir de nombreuses d'applications pédagogiques pour l'historien.

Paul Arthur (Umeå University) - Digital History in Australia and New Zealand: An International Comparison

À consulter, l'article Digital History sur Wikipedia et le blog de PA.
Projets décrits lors de la session :

Marie-Pierre Besnard (IUT de Saint-Lô) - Renouveler l’expérience muséale à l’heure du Web : le e-musée

Selon MPB, l'histoire est le parent pauvre des musées en France.
Les musées sont surtout présents sur Internet sous la forme d'annuaires; ce sont des objets de e-marketing.
L'histoire officielle serait en danger? Et pourquoi pas ?
MPB avait proposé la réalisation d'un musée Sainte-Mère-Église sur Second Life. Ce projet a été refusé.
Dans les statuts de l'ICOM (The International Council of Museums), la définition de "musée" spécifie qu'un musée a des finalités d'éducation et de délectation.
MPB fait référence au livre d'Olivier Donnat « Pratiques culturelles et usages d'Internet » (2007), téléchargeable ici.
MPB relate la pose de première pierre virtuelle sur le projet de la reconstitution de l'église de Saint-Lô, puis elle décrit le projet Plan de Rome à l'Université de Caen.

Échange entre René Leboutte et MPB : les historiens doivent rester et s'imposer dans les musées.
MPB fait référence au travail de Pascal Cotte de la société Lumiere Technology sur les couleurs de la Joconde.

Cristina Blanco Sio-Lopez (CVCE) and Milagros García Pérez (Biblioteca Municipal de Estudios Locales) - Interacting localities: The case of the BMEL and its projects on collaborative online library systems for the study of Contemporary History 

Il s'agit d'un bel exemple de coopération entre bibliothécaires et historiens.
L'exemple de la Biblioteca Municipal de Estudos Locais et son Wiki biographique.

Grégory Miura (Bordeaux 3/OMNSH) - L’archéologie du web, science auxiliaire d’une histoire du temps présent

cf. le profil de GM sur l'Observatoire des Mondes Numériques en Sciences Humaines.
La pratique patrimoniale nous confronte à des objets culturellement et techniquement complexes.
GM décrit netpreserve.org et Internet Archive. Il mentionne que le format WARC (Web ARChive) est devenu récemment une norme ISO.
On peut proposer pour l'édition multimédia une approche historique analogue à celle de Roger Chartier à propos de l'histoire du livre. En ce qui concerne les jeux vidéos par exemple (40 ans d'âge), historiens et témoins partagent la même réalité sociale et temporelle vis-à-vis de cet objet d'étude.
La gestion de sa propre frustration devant les résultats quand on consulte les archives de l'internet constitue un exercice difficile; en effet, Internet se plie très mal à l'archivage.
Les Archives du Web à la BnF (GM travaillait précédemment à la BnF) : recherche par URL, par mots. La recherche dans les archives n'utilise pas les liens, la popularité; c'est de la recherche brute sur des mots.
GM rappelle que les Archives de l'Internet ne sont consultables qu'à la BnF.
[sur Internet Archive à la BnF voir l'interview de Gildas Illien, en deux parties].
Internet Archive veut ressembler à Internet.
La navigation dans les archives de l'internet ne permet pas une navigation chronologique : vous pouvez passer de 1999 à 2002 puis 2000.
Pour GM, la science du Web pourrait devenir pour l'historien une science auxiliaire.
Internet a déjà une histoire; Internet a existé avant que Google ne devienne le site le plus connu.
Autres projets décrits : WebAtlas et Webpages as Graphs.
Avec Google Analytics et Google Historique, Google jalonne le web de codes qui leur permettent de maîtriser la connaissance du web.

Questions : Serge Noiret évoque The World Wide Web Virtual Library et le travail du CVCE pour l'historique du web en ce qui concerne l'Europe (partie European Integration Index maintenue par Christian Lekl du CVCE).

Richard Hacken (Brigham Young University) - Online Primary Documentation of Contemporary History: Trends and Changes in the Past Twelve Years

RH cite Welter Benjamin. Il décrit ensuite :

Richard Hacken réinjecte dans le débat la question du crédit à apporter aux sources numériques.
Il cite le célèbre (et controversé) livre de Andrew Keen : The Cult of the Amateur. Il mentionne enfin le robot développé au Center for History and New Media et qui donne des indications sur la fiabilité de l'info. Ce robot est maintenant obsolète car il repose sur une API qui a été fermée par Google.

Élodie Nowinski (IEP de Paris) - Last nite Deezer saved my class

EN expose comment le web permet de faire certaines recherches et enseignements - par exemple en histoire du rock.
Un problème rencontré par EN : comment faire avec ce matériel insaisissable (sur le web) pour prouver que l'on effectue quand même une recherche ? Le directeur de thèse d'EN semblait sceptique.
Il est nécessaire de dépasser la question du copyright pour utiliser du matériel en ligne comme source. Le streaming permet de s'affranchir du problème du copyright.
La communication à travers les réseaux sociaux permet de récupérer des archives personnelles de fans du rock, par exemple.
Il existe néanmoins un problème méthodologique quand on s'adresse aux fans: ces derniers ne gardent en effet que ce qui a marché, pas ce qui n'a pas marché.
EN : « On n'est pas dans un changement du métier d'historien, mais dans une acculturation technique ».
EN mentionne la création d'un groupe sur les cultures populaires à IEP. Selon elle, il n'est pas possible d'enseigner l'histoire du rock sans des outils comme Deezer.
Une cinquantaine de sites comme Deezer permettent aussi d'étudier le rock russe et la chute du Mur, ce qui, au passage permet à EN de parler de Weber et Benjamin à ses étudiants.
Il faut toujours critiquer les sources, internet ou pas

Enrica Salvatori (Università di Pisa) - Listening, watching, living and (at the end) learning history: in and out the web

[Je n'ai pu assister à cette session]

Questions : Marianne Backes revient sur l'idée de Marin Dacos de mettre en place un manifeste.
Il faut définir ce que devraient connaître les chercheurs dans le domaine technique.
Le symposium s'achève sur le souhait de rester en contact.