ACTES
DU 3e COLLOQUE
SPÉCIALISÉ EN SCIENCES DE L’INFORMATION
(COSSI)
Management de l’information :
défis et tendances
8‐9 juin 2011 Université de Moncton, Campus de Shippagan
Shippagan, Nouveau‐Brunswick, Canada
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
2
3e Colloque Spécialisé en Sciences de l’Information (COSSI)
Management de l’information : défis et tendances
8 et 9 juin 2011
Université de Moncton, Campus de Shippagan, 218 Boulevard J.‐D.‐Gauthier,
SHIPPAGAN, Nouveau‐Brunswick, Canada, http://www.umoncton.ca/umcs/COSSI Le colloque En cette année de célébrations du 50e anniversaire de la formation postsecondaire dans la Péninsule Acadienne, l’Université de Moncton, Campus de Shippagan, a le plaisir d’accueillir la 3e édition du « Colloque Spécialisé en Sciences de l’Information (COSSI) ». Cette manifestation réunit des représentants de la Francophonie acadienne, canadienne et internationale, dont les intérêts de recherche et de pratique se concentrent sur les nombreux enjeux posés aux organisations et aux acteurs du marché du travail par l’évolution de la société de l’information et de l’économie de la connaissance. Problématique et axes de réflexion L’invitation au débat est lancée aux chercheurs et professionnels de la communauté canadienne et internationale, dont les intérêts de recherche et de pratique se concentrent sur les nombreux enjeux posés aux organisations et aux acteurs du marché du travail par l’évolution de la société de l’information et de l’économie de la connaissance. Le comité organisateur a sollicité des propositions originales portant sur des réflexions théoriques, sur des projets professionnels ou des études de cas abordant les problématiques informationnelles auxquelles les organisations de tout type sont confrontées actuellement, ainsi que les nouveaux concepts, théories, méthodes et outils en matière de management de l’information, en tant qu’éléments de réponse à ces défis. Les communications retenues sont regroupées sous les deux axes suivants : A. Gestion de l’information et des connaissances : méthodologies, normes et politiques, traitement et diffusion des documents, supports et documents numériques, questions de déontologie, cycle de l’information, Web en évolution, nouveaux publics et services, éducation et compétences informationnelles, bibliothèques proactives, collections numériques, travail collaboratif, … B. Gestion stratégique de l’information : culture informationnelle, repérage d’information critique, réseautage professionnel et social, veille stratégique, accès et droit à l’information, protection de l’information, intelligence économique et territoriale, communication stratégique, prospective, …
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
3
Le comité scientifique du COSSI 2011
‐ Lucie Bégin, École de Management de Normandie, France
‐ François Brouard, Université Carleton, Ottawa, Canada
‐ Carol Couture, Conservateur et directeur général, Bibliothèque et Archives nationales du
Québec, Canada
‐ Viviane Couzinet, Institut Universitaire de Technologie, Université Toulouse‐III, France
‐ Jacqueline Deschamps, Haute École de Gestion de Genève, Suisse
‐ Viviane du Castel, Institut Supérieur Européen de Gestion, Paris, France
‐ Raja Fenniche, Institut Supérieur de Documentation, Univ. de la Manouba, Tunisie
‐ Marcel Lajeunesse, École de Bibliothéconomie et des Sciences de l’Information, Univ. de
Montréal, Québec, Canada
‐ Vincent Liquète, IUFM Aquitaine, Université de Bordeaux IV, France
‐ Monica Mallowan, Univ. de Moncton, Campus de Shippagan, Nouveau‐Brunswick, Canada
‐ Dominique Maurel, École de Bibliothéconomie et des Sciences de l’Information, Univ. de
Montréal, Québec, Canada
‐ Christian Marcon, Institut de la Communication et des Technologies Numériques, Univ. de
Poitiers, France
‐ Sabine Mas, École de Bibliothéconomie et des Sciences de l’Information, Univ. de Montréal,
Québec, Canada
‐ Florence Ott, Univ. de Moncton, Campus de Shippagan, Nouveau‐Brunswick, Canada
‐ Shabnam Vaezi, Institut Universitaire de Technologie, Université de Tours, France
Le comité organisateur du COSSI 2011
‐ Monica Mallowan, présidente, Univ. de Moncton, Campus de Shippagan,
Nouveau‐Brunswick, Canada
‐ Florence Ott, membre, Univ. de Moncton, Campus de Shippagan,
Nouveau‐Brunswick, Canada
‐ Hélène McLaughlin, membre, Univ. de Moncton, Campus de Shippagan,
Nouveau‐Brunswick, Canada
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
4
Table des matières Marthe ROBICHAUD Le Carrefour de l’apprentissage – un modèle ................................................................................................ 6 Esther OLEMBE; Emmanuel MBEDE Le Knowledge Management et le partage des savoirs scientifiques en Afrique à l’épreuve du terrain des institutions universitaires : une expérience de recherche dans les universités publiques du Cameroun .......................................................................................................................................... 8 Fabrice PAPY; Corinne LEBLOND Continuité documentaire du lycée à l’Université : résultats d’une expérimentation originale de formation à l’information entre documentalistes de lycées, bibliothécaires en universités et chercheurs en Sciences de l’Information ................................................................................................. 20 Diane NADEAU L’évolution de la taxonomie du site Web au Gouvernement du Nouveau‐Brunswick ............. 30 Clarisse HOLIK Les bases d'un réseautage réussi : étude comparative de deux groupes de travail, convergence dans le mode de gouvernance ................................................................................................ 42 Adel LABIDI Crédibilité de l’information sur Internet : de l’autorité à la fiabilité ................................................ 52 Pierre GOGUEN L’évaluation de la crédibilité des ressources en ligne ............................................................................ 53 Florence OTT; Charlotte L'HEUREUX‐LEMIEUX Comment faire de l’information en santé une préoccupation commune entre la gestion documentaire et la science infirmière ? ........................................................................................................ 54
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
5
Christian MARCON De la communication stratégique maîtrisée à la communication collective intelligente. Le cas de la stratégie Twitter d’un institut de formation ............................................................................ 67 Ihtesham RASHID La veille stratégique au sein de Bibliothèque et Archives Canada : leçons tirées de l’expérience ............................................................................................................................................................... 78 Sékouna KEITA Médias publics en Afrique de l’Ouest : enjeu de prise et de conservation du pouvoir ............. 87 Camille ALLOING; Christophe DESCHAMPS Veille stratégique et internet participatif : les usages des agents‐facilitateurs remettent‐ils en en question le concept de signal faible ? ................................................................................................. 96 Florence CHERIGNY Les préoccupations concurrentielles liées aux pratiques de Google : l’avis de l’Autorité française de la concurrence ............................................................................................................................. 110 Louis‐René DESSUREAULT Le grand défi des professionnels de l'information : un défi technologique ou humain?.......123 Isabelle HARE; Mahsa YOUSEFI DARANI Communication stratégique et blogs durant la guerre de Gaza (2008‐2009) : l’Etat israélien et l’enjeu de l’information ................................................................................................................................ 125 Monica MALLOWAN; Yves de CHAMPLAIN La cartographie des connaissances pour la modélisation opérationnelle d’un outil de planification pédagogique transdisciplinaire – phases I et II ........................................................... 142
* * * Notes : Ce document contient les textes des communications présentées au Colloque Spécialisé en Sciences de l’Information (COSSI) 2011, tels que soumis par leurs auteurs. Pour les textes ne figurant pas dans ces actes, veuillez prendre contact avec les auteurs. Dans un souci de diffusion des résultats de la recherche, ces textes sont mis en ligne sur le site de l’Université de Moncton, Campus de Shippagan, www.umoncton.ca/umcs/recherche.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
6
Carrefour de l’apprentissage – un modèle
Marthe Robichaud,1 Doyenne des études par intérim, professeure de comptabilité,
Université de Moncton, campus de Shippagan
Résumé : Présentation de la mise en place d’un Carrefour de l’apprentissage à l’Université de Moncton, campus de Shippagan ainsi que de la réflexion menée pour offrir un nouveau lieu aux étudiants afin de faciliter leurs études et développer leurs compétences.
Motsclés : Carrefour de l’apprentissage, espace intégré, vie universitaire Mandat du carrefour de l’apprentissage Développer et réaliser un espace intégré devant contribuer de manière décisive à l’enrichissement de l’enseignement, notamment par l’offre de services favorisant l’intégration à la vie universitaire, la persistance aux études et l’acquisition de réflexes de réussite. Le mandat consiste à développer un modèle de service intégrant les quatre (4) dimensions fondamentales de l’expérience universitaire : la socialisation et la participation, la collaboration et la création, l’accès à l’information, le soutien à l’apprentissage et le 1 Marthe Robichaud a été à la direction générale de Manoir Édith B. Pinet, inc., centre de soins prolongés, et Centre de santé de Paquetville, inc. de 1986 à 2003 avant son entrée à l’Université de Moncton, campus de Shippagan (UMCS). Elle a une solide formation en administration des affaires et en administration publique en plus de satisfaire aux exigences de l’Ordre des Comptables généraux accrédités (CGA) du Nouveau‐Brunswick. Marthe Robichaud travaille pour l’Université de Moncton, campus de Shippagan (UMCS) comme professeure et chargée de cours depuis de nombreuses années. En plus d’avoir tenu le poste de chef de secteur Gestion de l’UMCS de 2003 à 2007, elle a occupé pendant trois ans le poste de doyenne adjointe. Ses fonctions comme chef de secteur et doyenne adjointe lui ont permis de travailler directement aux nombreux projets d’appui à la réussite des étudiantes et étudiants. Pour l’année universitaire 2011‐2012, elle a accepté d’agir en tant que doyenne des études par intérim. Ses fonctions au sein du Comité de gestion de Carrefour de l’apprentissage sont résumées dans les quelques lignes qui suivent. Marthe Robichaud gère les aspects des services offerts au Carrefour qui relèvent des affaires académiques. Elle travaille en étroite collaboration avec les responsables des secteurs académiques ainsi qu’avec les membres des instances et de la communauté universitaire pour coordonner les décisions et réalisations de l’Université en matière d’instauration d’un climat et d’activités propices à l’apprentissage. Certains facteurs à favoriser sont : présence marquée de professeures et professeurs, implications des secteurs académiques, appels à des projets de classe ou de groupes de travail académiques en incitant le décloisonnement disciplinaire et la coopération entre les secteurs académiques. Mettre à la disposition des espaces de communication, d’échanges et de diffusion des productions est important, mais ce n’est pas tout. Le soutien réel à l’acquisition de connaissances garanti par une liaison beaucoup plus étroite avec les enseignantes et enseignants, dès la mise en œuvre du projet, est primordial.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
7
développement personnel. Ces quatre (4) dimensions intégrées doivent fonctionner dans un espace physique ainsi que dans un espace virtuel. Le résultat attendu est la création d’un environnement global où la rencontre avec la connaissance et l’expérience universitaire seront vécues de manière intégrée dans la vie quotidienne des étudiantes et des étudiants. Ce nouvel environnement d’apprentissage leur permettra de développer des réflexes de réussite durables à l’aide d’approches individualisées et collaboratives. Le mandat va au‐delà d'une simple reconfiguration des espaces puisqu'il engage dans un processus de redéfinition de l'expérience universitaire telle qu'elle se vit à l’UMCS. Modèle Lors de la conception des espaces dynamiques et interactifs que touche le modèle proposé, il fallait se poser les bonnes questions. Au lieu de concentrer l’attention sur le plan d’aménagement et l’ameublement, il y avait davantage intérêt à s’interroger sur le type d’activités que les usagers y exerceront et les services à assurer. Une fois qu’on a trouvé réponse à ces questions, on peut commencer à prendre des dispositions pour trouver les partenaires sur le campus, choisir la situation des espaces de services requis et déterminer les différents types de personnels de soutien dont il faudra disposer pour pouvoir atteindre les objectifs visés. En prenant en compte la nature du vécu éducatif dans la conception stratégique des nouveaux espaces qui allait intégrer la bibliothèque, la planification a changé d’axe, faisant moins de place au fonctionnement de cette dernière et à l’actualisation des collections qu’elle contient pour s’intéresser davantage au processus d’apprentissage et au management de l’information.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
8
Le Knowledge Management et le partage des savoirs scientifiques en Afrique à l’épreuve du terrain des institutions universitaires : une expérience de recherche
dans les universités publiques du Cameroun
Esther Olembe2, Dr. en sciences de l’information et de la communication
ESSTIC/Université de Yaoundé II – SOA, laboratoire Yaounde Mediation & Information Studies
Mél : [email protected]
Emmanuel Mbede3, Dr. en sciences de l’information et de la communication
ESSTIC/Université de Yaoundé II – SOA, laboratoire Yaounde Mediation & Information Studies
Mél : [email protected]
Résumé : La présente communication a pour ambition d’interroger la capacité du Knowledge Management à s’imposer comme paradigme de construction de valeur ajoutée informationnelle face aux défis de développement de l’Afrique. L’article s’intéresse de manière spécifique à la question de l’accès et du partage des savoirs universitaires au Cameroun. Il s’agit de reprendre à contre courant le postulat Knowledge Management appliqué en sciences de gestion et l’envisager à partir d’une perspective science de l’information et de la communication afin de vérifier son applicabilité dans le champ de la recherche scientifique.
2 Esther OLEMBE est Docteur en sciences de l’information et de la communication des universités Lumière Lyon 2 (France) et Yaoundé 2‐SOA (Cameroun). ‐ Enseignante permanente au département de l’information documentaire de l’Ecole supérieure des sciences et technique de l’information et de la communication (ESSTIC) – Université de Yaoundé II ‐ SOA. ‐ Membre du laboratoire YMIS (Yaounde Mediation & Information Studies) de l’ESSTIC. Intérêts de recherche : Sciences de l’information et de la communication, organisation des savoirs, philosophie de la connaissance, épistémologie historique. ‐ Domaines de compétences : Systèmes d’information documentaire (Audit, conception, implémentation, informatisation, design/ingénierie des formations en Bibliothéconomie‐Documentation‐Archivistique), Management (Projets, RH, évaluation des risques etc.) 3 Emmanuel MBEDE, docteur en sciences de l’information et de la communication de l’université Lumière Lyon II, Emmanuel Mbede est enseignant, Chargé de cours à l’Ecole supérieure des sciences et techniques de l’information et de la communication (ESSTIC) de l’université de Yaoundé II Soa. Ses principaux thèmes d’enseignement sont : la communication des organisations, la communication médiatique et le management des connaissances. Membre du laboratoire YMIS (Yaounde Mediation & Information Studies) de l’ESSTIC, Emmanuel Mbede est coordonnateur du département des Relations publiques de l’ESSTIC et Secrétaire de rédaction de la revue de recherche Fréquence Sud.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
9
Motsclés : Knowledge Management, savoirs scientifiques, recherche scientifique, Afrique, Universités d’État du Cameroun
I Introduction Le développement du continent africain est une préoccupation récurrente et sans cesse actualisée qui mobilise de manière cyclique des communautés spécifiques à travers des approches qui se veulent à chaque fois originale. Après la révolution annoncée des TIC et notamment d’Internet qui devait radicalement transformer le modèle de développement du continent, le Knowledge Management se présente aujourd’hui pour certains comme la nouvelle issue possible. La facette « idéaliste » du Knowledge Management qui articule partage accéléré des compétences/coconstruction des connaissances/résolutions collectives des problèmes/échanges de pratiques résonne en effet comme un kit clés en main qui serait la panacée des problèmes de l’Afrique. C’est ainsi que la troisième conférence internationale de l’initiative « Knowledge Management Africa (KMA) » a mobilisé en 2009, à Dakar (Sénégal), 300 participants venus d’une trentaine de pays d’Afrique, d’Asie, d’Amérique latine et d’Amérique du nord sur le thème « le savoir pour repositionner l’Afrique dans l’économie mondiale ». L’idée principale des organisateurs mais aussi de la communauté d’universitaires, de bailleurs de fonds et d’organismes de développement mobilisés à cet effet est de poser qu’une utilisation efficace des connaissances (donc leur capitalisation) et des technologies assurerait « le développement durable de l’Afrique ». Cette assertion repose sur des intuitions anthropologiques (Afrique continent de l’oralité qui par nature favorise la volatilité des savoirs) et sur le bilan de cinquante années d’efforts de développement qui ont donné des résultats variables d’une partie du continent à l’autre. Affirmer que « l’Afrique n’a pas su tirer profit des énormes potentialités offertes par les connaissances scientifiques » c’est en soi poser de manière impérative la question du Knowledge Management dans l’approche du développement de l’Afrique. Face à ce constat plein de bon sens, il paraît pertinent d’envisager une interrogation scientifique sur la réception du Knowledge Management dans la problématique du développement de l’Afrique. Cela exige comme préalable de délimiter un terrain d’observation et d’opérationnalisation cohérent et pertinent. Celui qui découle le plus directement du constat établit ci‐dessus est la recherche scientifique. Les missions cardinales de l’université et qui résonnent avec encore plus d’écho pour les pays africains sont l’enseignement, la production des connaissances et l’appui au développement. Face au problème de développement, envisagé comme une faillite de la capitalisation des connaissances, il peut paraître intéressant d’interroger l’institution dont le travail est justement de produire des savoirs et de partager des connaissances. Interroger la recherche scientifique et l’université est d’autant plus intéressant que naguère considéré comme service public, l’université, institution phare de la science, n’échappe plus
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
10
aujourd’hui à la loi du marché. Du fait de la généralisation de l’économie de marché et de la libéralisation « forcée »4 des Etats africains, l’enseignement supérieur s’est retrouvé dans une « économisation » progressive. Si la plupart des universités publiques africaines ont été des pupilles de l’Etat grâce aux financements publics leur assurant non seulement une autonomie certaine, mais aussi une confiance tacite sans obligation de résultats vis‐à‐vis de la société et avec un détachement du système mercantile, cette protection s’amenuise de plus en plus. Le discours contemporain sur l’enseignement supérieur et la recherche scientifique s’oriente vers une conception de l’université et des instituts de recherche où il est question sinon de les revisiter dans leur ensemble, à tout le moins de redéfinir leurs missions et de reconsidérer les pratiques de production et de diffusion des savoirs. Les notions de compétence et de performance sont devenues des problématiques essentielles qui expliquent ou justifient les réformes engagées dans le système d’enseignement supérieur de bon nombre de pays. Deux variables sont ainsi repérables dans ce contexte. La première est circonscrite dans l’effacement du service public avec pour indicateur, la réduction des financements de l’Etat. La deuxième se construit autour des processus de privatisation de l’enseignement supérieur caractérisés par des pratiques de fonctionnement qui s’apparentent inexorablement à celles des marchés. Malgré les débats éthiques que suscitent la conception mercantiliste des institutions scientifiques, force est de constater que ces dernières sont en passe de perdre leur autonomie cognitive (définition des agendas de recherche, tyrannie de la recherche appliquée ; etc.). Aussi envisageons‐nous par hypothèse de valider la dimension téléologique du Knowledge Management afin de pouvoir questionner son application dans le domaine de la recherche scientifique. Cette réflexion qui va suivre va donc s’attacher à définir l’approche Knowledge Management mobilisable dans le cas d’espèce à travers son écartèlement entre sciences de gestion et sciences de l’information et de la communication. Elle évoluera ensuite vers l’indication des modalités d’application du Knowledge Management dans le champ scientifique à travers le cas spécifique des recherches effectuées dans les universités camerounaises, ce qui sera l’occasion d’évaluer l’hypothèse du Knowledge Management comme outil de partage des connaissances et par ricochet « outil de développement ». II Littérature théorique du modèle Knowledge Management : une perspective en SIC Il est techniquement difficile de faire un état de l’art complet sur le Knowledge Management dans le format actuel imposé par notre réflexion. Il s’agit davantage d’indiquer quelques informations bibliographiques sur la question et par la même occasion, d’identifier les courants qui se dégagent de la littérature sur le Knowledge Management, notamment dans le champ des sciences de l’information et de la communication. 2.1 Esquisse de l’état de l’art sur le Knowledge Management Le Knowledge Management a été défini initialement comme étant un processus d’application d’une approche systématique de capture, de structuration, de gestion et de
4 Du fait des programmes d’ajustement structurel et autres mesures prises pour pallier la mauvaise gestion des Etats africains dès les milieux des années 80.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
11
diffusion des connaissances. L’objectif de cette approche est d’assurer une certaine fluidité dans le travail collectif, de démocratiser l’utilisation des bonnes pratiques et d’optimiser la productivité grâce à l’usage des ressources cognitives des organisations (Wallace, 2007). Selon Barclay & Murray (Barclay & Murray, 1997), le Knowledge Management est une activité managériale qui induit deux aspects :
- le traitement des composantes de la connaissance issue des activités de l’entreprise à tous les niveaux
- la connection entre le capital cognitif de l’entreprise et le savoir faire de ses acteurs. Bien au‐delà de la prospérité du Knowledge Management dans le champ des sciences de gestion, Wallace affirme qu’il s’appréhende de ce fait comme étant une interdiscipline qui s’inspire de plusieurs techniques et champs disciplinaires, à l’instar des sciences de l’information et de la communication (Wallace, 2007). Les sciences de l’information et de la communication en elles‐mêmes ne sont pas restées en marge de la réflexion sur la thématique Knowledge Management. Bien au contraire ! Sous une vision apologétique elles y ont creusé un sillon supplémentaire de réflexion notamment sur la légitimation des professions de l’information et de la communication, la réadaptation des curricula à l’aune des développements technologiques et de leurs diverses applications dans les métiers et les organisations5. Parallèlement, et au fur et à mesure des applications des plates‐formes Knowledge Management ainsi que du bilan mitigé qui en a résulté, des réflexions théoriques ont continué de se construire. N’a‐t‐on pas délivré trop rapidement un chèque en blanc au Knowledge Management en le hissant comme nouveau paradigme de construction de valeur ajoutée informationnelle ; ou encore comme gage de productivité incontestée de la « nouvelle économie » ? Au regard du discours engagé qui justifie le Knowledge Management, n’y aurait‐il pas confusion entre information, connaissance, savoir ? Ou alors, ne s’agit‐il pas d’un habillage sémantique économiquement correct qui reprend à son compte tout ce qu’on connait depuis Dewey, Paul Otlet ou Ranganathan sur l’organisation classique des connaissances (Jo Link Pezet, 1998) ? Ce d’autant plus que, malgré la difficulté définitionnelle du Knowledge Management, sa démarche telle que proposée par Steve Denning (capture, création, codification, partage, accessibilité, application et réutilisation) semble avoir un lien filial avec celle de l’élaboration d’un système d’organisation des connaissances dont parle Hodge (Hodge, 2000).
5 En témoigne les congrès de l’IFLA en 2000 et 2001 dont les thèmes portaient essentiellement sur la thématique du Knowledge Management. 66th IFLA General Conference and Council Jerusalem, Israel, 1318 August 2000 "Information for Co‐operation: Creating the Global Library of the Future. "67th IFLA General Conference and Council Boston, USA, 1625 August 2001 "Libraries and Librarians: Making a Difference in the Knowledge Age".
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
12
En effet ce système plus englobant dans l’élaboration des outils de traitement de contenu prend en compte les types de schèmes de classification et de catégorisation qui permettent l’accès et l’utilisation des informations. La critique peut encore se radicaliser dans une logique de réification du Knowledge Management. Il est dans ce cas essentiellement confiné dans un visage instrumental (Robillard, 2008) qui récuse toute possibilité d’accession au stade de discipline universitaire à part entière comme l’a suggéré Wallace. De plus l’usage abusif du terme connaissance, véritable tarte à la crème depuis la dernière décennie du XXe siècle ne serait selon Henneron & al., qu’un avatar du mythe de la société des savoirs, un outil mercantiliste à haute valeur commerciale pour la quincaillerie TIC et la cohorte de logiciels qui l’accompagne (Henneron & al., 2004). 2.2 Knowledge Management et paradigmes SIC d’organisations des connaissances dans la sphère universitaire De manière simplifiée, la saisie du Knowledge Management par les SIC prend en compte trois éléments : le questionnement épistémologique de l’objet connaissance dans le Knowledge Management, la méthode et les outils du Knowledge Management et le terrain de mise en œuvre du Knowledge Management. En premier lieu, les SIC [sans en réclamer l’exclusivité] voudraient s’entourer de toutes les précautions épistémologiques nécessaires lorsqu’il s’agit de manipuler un concept hautement complexe : la connaissance. Ceci est également valable pour le réseau sémantique explicatif tissé autour du Knowledge Management (information, savoir, savoir‐faire, compétence, connaissance tacite, connaissance explicite, partage, collaboration, organisation apprenante, communauté de pratique, etc.). A cet égard, les SIC ne pourraient retenir que le volet explicite des connaissances, susceptibles d’être codifiées et partagées, même si certaines recherches, influencées par la terminologie des lieux communs arrivent par des raccourcis à rendre synonyme l’information, le savoir et la connaissance. Les SIC envisagent alors le Knowledge Management à partir de l’inscription et de la médiatisation des connaissances dans le document (médiation documentaire), objet symbolique à caractère informationnelle et à visée communicationnelle (Courbière, 2004). Deuxièmement, au‐delà de l’idéologie de partage qui le sous‐tend, les méthodes utilisées pour la mise en place des plates‐formes Knowledge Management ne semblent pas véritablement différentes des techniques documentaires classiques. La trop grande importance accordée aux outils Knowledge Management et le déterminisme technologique qui s’ensuit suggèrent aux SIC une distanciation vis‐à‐vis de la tendance des pourfendeurs de ce modèle qui consiste en gros à faire porter à l’outil une responsabilité qui la dépasse en lui trouvant des capacités d’objectivation de l’activité humaine, et donc de désincarnation des connaissances. Troisièmement, le terrain de mise en œuvre du Knowledge Management semble prioritairement réservé aux organisations marchandes (entreprises). Pourtant, la philosophie du partage qui sous‐tend le Knowledge Management est consubstantielle aux institutions de la science, de l’éducation et de la culture. En effet, ces institutions ne sauraient être envisagées autrement que par le partage et la transmission. Il est surprenant
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
13
de constater notamment la fascination de l’UNESCO qui se positionne en véritable caisse de résonnance du Knowledge Management, transformant en un tour de bras ses slogans d’antan, tel l’« Éducation pour tous » en « Knowledge Sharing » (Henneron & al., 2004)6. En admettant que le « Knowledge Sharing » est un « habit neuf » pour les organisations y compris les institutions de la science, il se pose alors le problème de la contextualisation et de l’adaptation des outils dont on prétend que leur utilisation est susceptible de réduire le gap en matière de développement dans les pays du Sud, développement conditionné selon l’idéologie du moment par la capitalisation des connaissances, comme nous l’avons indiqué dans notre introduction. Dans la suite de notre réflexion, nous essayons de confronter cette hypothèse à l’épreuve d’une recherche de terrain dans les universités camerounaises. III – Le Knowledge Management et la question de l’accès et du partage des savoirs universitaires : exemple d’application et limite dans les universités camerounaises Dans la sphère universitaire et de recherche, si nous validons la dimension téléologique et ustensilaire du Knowledge Management, il s’inscrit dans la mouvance des systèmes d’évaluation de la recherche scientifique (fondamentale ou appliquée). Ces derniers sont nés prioritairement de la nécessité de dégager des indicateurs qui permettent de déterminer les résultats issus des activités scientifiques. Les résultats de la recherche fondamentale sont pourtant difficilement perceptibles à court et moyen terme. Toutefois, ce type de recherche n’échappe pas aux indicateurs liés à la communication des résultats, la continuité des recherches ou la reconnaissance par les pairs. En revanche, l’évaluation de la recherche appliquée, plus perceptible, se fonde sur une double nécessité : le rapprochement de l’activité scientifique aux besoins des sociétés et la justification de l’effort de financement de l’État ou des entreprises aux institutions formelles qui exercent l’activité scientifique. Il s’agit ainsi dans l’intention noble de mettre en place un dispositif garantissant la prise en compte par l’université des problématiques de la collectivité et dans une autre optique, de l’exigence d’un droit de regard et d’un devoir de rendre compte. Ce qui nécessite inéluctablement la mise en place des dispositifs de stockage de l’information scientifique et technique, pour en assurer la traçabilité et l’accès. Nous présentons dans cette partie quelques résultats d’une recherche que nous avons menée pendant six mois dans les universités du Cameroun. 3.1 Contexte et méthode En posant un regard sur l’actualité (sociale, politique et scientifique) relative à l’évaluation des universités dans le monde en général (classement de Shanghai notamment), et la question de la production utilitaire des savoirs en Afrique en particulier, nous nous sommes intéressés aux productions cognitives susceptibles d’être disponibles dans chacune des six
6 L’on a observé par exemple la levée de bouclier des chercheurs et universitaires au cours d’un colloque international organisé par le Centre de recherche pour le développement au Sénégal en mai 2008, où il était question justement de mettre en place des dispositifs Knowledge Management en vue de faire appliquer les normes ISO sur la qualité dans l’évaluation de la recherche scientifique.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
14
premières universités d’État du Cameroun issue de la réforme de janvier 19937. Il s’est agit plus simplement d’observer quantitativement et qualitativement le rapport de la production des savoirs à la demande sociale. La méthode retenue n’était pas dénuée d’une intention réactionnaire face aux modèles dominants d’évaluation de la recherche. Elle visait à terme, la redéfinition des critères d’évaluation, la mise en place des dispositifs technologiques et la construction d’un modèle contextualisé de la production des connaissances et de son accumulation dans ce territoire précis de l’Afrique Subsaharienne crédité d’un niveau de productivité des connaissances quasi nul à l’échiquier international8. En choisissant comme axe méthodologique la démarche Knowledge Management (Capture‐Création‐Codification‐Partage‐Accessibilité‐Application‐Réutilisation) il était question de mener une enquête en vue de collecter et d’organiser les productions universitaires via des dispositifs technologiques (Intranet, shareware etc.). Partant donc des missions fondamentales assignées aux universités Camerounaises et au regard de leur structuration, trois questionnaires d’enquête ont été élaborés à l’intention des principaux acteurs que sont les instances dirigeantes administratives, les instances dirigeantes académiques et les enseignants‐chercheurs. Le tableau ci‐dessous présente les niches d’information que nous avons explorées.
Missions Domaine d’application
Formation
• Filières de formation/université (départements) • Nombre d’enseignants et filiation scientifique • Nombre d’étudiants (ratio étudiants/enseignants) • Nombre de laboratoire/département • Nombre de revues scientifiques vivantes ou mortes • Programme de formation (contenu cognitif) par filière de
formation • Nombre de bibliothèques : état des collections et dispositif
d’accès à l’information • Dispositifs technologiques d’appui à la formation • Budget des universités etc.
7 Au sortir de la première réforme universitaire de 1993, six universités d’État avaient simultanément été créées et réparties dans cinq villes du Cameroun : Deux universités à Yaoundé dans le Centre du Cameroun, une université à Douala dans le littoral, une université à Buea dans le Sud‐ouest, une université à Dschang dans l’Ouest et une université à N’Gaoundéré dans l’Adamaoua (Partie septentrionale du Cameroun). Bien qu’il existe des instituts privés d’enseignement supérieur au Cameroun, notre enquête s’est intéressée uniquement aux universités publiques (Universités d’État). 8 Les statistiques actuelles disent que l’Afrique dans son ensemble pèse environ 0,36% du potentiel de chercheurs, 0,4% de la dépense mondiale de recherche et développement et 0,3% de la production scientifique Source : Les liens entre les programmes de recherche et les politiques bi et multilatérales de développement : cas de l’Afrique subsaharienne. Disponible sur http://.www.gdnet.org/pdf2/gdn_library/annual_conferences, consulté le 02/11/2006.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
15
Recherche
• Production scientifique des enseignants chercheurs (entité
éditoriale, thématique étudiée, bibliographie etc.) • Brevet d’invention • Activité de communication scientifique orale, écrite et
électronique (colloque, table ronde, séminaire, collaboratoire, etc.)
Appui au développement
• Activité de communication en rapport avec la vulgarisation
scientifique et dédié aux partenaires sociaux : Secteur privé :
• identification des entreprises implantées dans les zones géographiques des universités ou instituts de recherche
• Conventions signées avec les universitaires • Flux migratoire cognitif des universitaires et chercheurs
vers le secteur privé (rapports de recherche commanditée) • Partenariat de financement etc.
Secteur public :
• Mobilité des chercheurs et universitaires vers l’administration publique ;
• Subvention de l’état aux institutions de la science • Apport cognitif de l’université dans l’élaboration et la mise
en œuvre des politiques publiques etc.
Le volet quantitatif de la recherche s’est fondé sur l’identification d’une population cible et la construction d’un échantillon présenté dans le tableau ci‐dessus et expliqué dans la suite.
Population Cibles Échantillon retenu Nombres de questionnaires soumis
Instances dirigeantes administratives : Recteur & Vice –Recteur chargé de la recherche
6 12
Instances dirigeantes académiques : Doyen, Vice doyen ou Directeur, Directeur adjoint chargé des enseignements
34 68
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
16
Enseignants chercheurs/grade : Assistant, Chargé de cours, Maitre de conférence, Professeurs
225 225
Total 265 305
Les instances dirigeantes administratives des universités camerounaises comprennent un Recteur accompagné de trois vice‐recteurs dont les missions sont précises (Inspection, Recherche et coopération, Enseignement), un Secrétaire général et des Conseillers. Nous avons ciblé dans cette catégorie et pour l’ensemble des six universités intéressées par l’étude, le Recteur (questions de politique générale) et le vice‐recteur chargé de la recherche et de la coopération, soit au total 12 questionnaires. Dans la catégorie instances dirigeantes académiques nous avons identifié 34 établissements pour l’ensemble des six universités, objet de notre enquête. Deux principales cibles ont été retenues : les doyens ou directeurs d’établissement et les vice‐doyens chargés de la recherche et de la coopération ou les directeurs adjoints chargés des études selon que l’établissement concerné est une faculté ou une grande école. Cette catégorie devrait être concernée par 68 questionnaires. Pour la catégorie enseignant‐chercheur, nous nous sommes fondée sur les dernières statistiques (2006) du Ministère de l’enseignement supérieur qui indiquait une population de 2226 enseignants‐chercheurs permanents. La répartition de ces enseignants par grades était la suivante : 115 professeurs, 244 maîtres de conférences, 1074 chargés de Cours et 786 assistants. En tenant compte de ce nombre, nous avons choisi d’appliquer le taux de 10% par grade pour la constitution de l’échantillon (soit : 12 professeurs, 25 maîtres de conférences, 108 chargés de cours et 80 assistants). Ce qui signifie in fine que l’échantillon nous donnerait environ 225 enquêtés dans cette catégorie. Pour ratisser large, nous avons procédé à l’envoi des questionnaires par mail (pour ceux des enquêté dont nous avions des adresses électroniques) ou par voie postale pour les universités non visitées. Pour les universités dont nous avions obtenu l’autorisation de recherche, nous procédions à des entrevues directes à l’aide du questionnaire. 3.2 Résultats, discussion et limites Au terme du délai de six mois que nous nous sommes fixés pour la collecte des données, les résultats en terme quantitatif ont été faibles. A titre d’illustration, des 225 questionnaires soumis entre les mois de mars et août 2007 dans la catégorie enseignant‐chercheur de notre cible, nous avons eu un retour d’à peine dix formulaires de questionnaire remplis. De plus, les données principales recueillies relatives aux dispositifs de production des savoirs notamment les laboratoires de recherche, se sont avérées très incomplètes. A titre
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
17
d’exemple, nous avons recensé 40 laboratoires au sein de la faculté des sciences de l’Université de Yaoundé I. Les activités de ces laboratoires étant d’une telle opacité qu’il ne nous a pas été possible d’obtenir des données sur la production réelle de chacun d’eux en termes d’output (revues, articles, manifestations scientifiques etc.). Il faudrait également relever que la plupart des laboratoires présentés n’existent que sur du papier, ou au meilleur des cas, est la propriété d’un enseignant‐chercheur, généralement le coordonateur. S’agissant des outputs de recherche (publications de tout genre), nous avons observé dans l’ensemble des universités, l’absence d’un dispositif susceptible de recenser toutes les productions endogènes des enseignants‐chercheurs. Un embryon de base de données dont les dernières mises à jour dataient d’un peu plus de cinq années (Microsoft ACESS) a été observé à l’Université de Buea, université de tradition anglo‐saxonne. A la faculté des sciences de l’université de Douala, le doyen de l’époque tentait de constituer une liste de publications des enseignants de son établissement sur Microsoft EXCEL, celle‐ci pouvant être utilisé d’après lui comme élément objectif de motivation du travail des acteurs de la recherche. Ces quelques éléments des résultats pourraient suggérer dans l’approche outil du Knowledge Management qu’il suffit de disposer d’outils technologiques fiables pour améliorer l’organisation de la production et le travail scientifique dans les universités camerounaises. Si cette solution mérite d’être envisagée au regard des outils utilisés, il convient d’interroger au départ les modalités de capture de l’information dans ce cas précis. En effet, le système de collecte des données telle que proposé par les modèles Knowledge Management devrait permettre a priori d’obtenir des données primaires en temps réel. Mais un tel système n’est valable que pour des environnements où l’information scientifique et technique est collectée organisée systématiquement, et dont la traçabilité est assurée. Or l’enquête effectuée au sein des universités camerounaises a mis à jour un ensemble de contraintes et des réalités contextuelles parmi lesquelles, la rétention de l’information et l’absence d’un traitement adéquat des outputs de l’activité de recherche. Il n’est pas non plus inutile de rappeler comme piste explicative une étude qui avait été menée en son temps par des chercheurs du Centre de recherche sur le développement et qui portait sur l’analyse des contenus et des modes de productions scientifiques dans les institutions de la science au Cameroun. Elle identifiait notamment l’individualisme en matière de production, qui malgré l’existence de milieux de spécialistes, laisse peu de place à la structuration des communautés scientifiques ; l’inexistence d’une communauté scientifique locale ; la faible communication entre chercheurs et institutions de recherche (Gaillard & Waast, 2001). Ce constat renouvelle ainsi le débat d’ensemble sur les modèles et outils qui somme toutes ont la prétention de résoudre les problèmes de développement. Conclusion Indépendamment des postures qui animent la réflexion sur la thématique Knowledge Management notamment dans le champ des sciences de l’information et de la communication, force est de constater que la coïncidence temporelle entre l’évolution des TIC et ses capacités réelles ou supposées a ouvert un champ protéiforme de réflexion sur
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
18
des objets et des outils. La fascination pour ces objets et ces outils innerve à loisir toutes les sphères sociales avec des tentatives de pénétration dans des secteurs assez conservateurs comme ce fut jadis le cas de l’université et des institutions de recherche. Dans les sphères universitaire et de la recherche, on assiste à de nouvelle structuration sociale de production des connaissances scientifiques à l’instar des collaboratoires9. Ceux‐ci ont la particularité d’utiliser les réseaux informatiques pour la production et la communication des informations scientifiques et techniques. Quel que soit le champ d’application, le Knowledge Management résonne davantage comme le prolongement d’un taylorisme postindustriel. À cet égard et à partir de la modélisation de l’action et des processus de pensée, on s’achemine vers une tyrannie des formes de rationalités substantive et procédurale (Grimand, 2006). Il n’est donc pas surprenant que dans la sphère universitaire et de la recherche, il y ait des tentatives d’application des procédés du Knowledge Management dans l’organisation du travail scientifique. Toutefois, la réalité du terrain ralentit tout ardeur dans l’effort de justification de l’adoption tous azimuts des démarches et plate‐forme Knowledge Management. En même temps que la réflexion se poursuit, ne serait‐il pas judicieux, précisément dans le champ universitaire et de la recherche d’enrichir le Knowledge Management par les élaborations théoriques de la sociologie des sciences et de l’innovation ou celles de l’anthropologie des connaissances dans la préhension de la construction des communautés de pratique au sein des institutions et organisation de recherche scientifique (Latour & Woolgar, 1988 ; Latour & Callon, 2005) ? In fine, pour fécond qu’il s’est avéré, le Knowledge Management dans le contexte de notre expérience nécessite une inscription dans un processus constructiviste. Processus qui s’émancipe du rapport instrumental de ce concept, et qui ouvre sur l’analyse des stratégies mises en œuvre dans la production des connaissances et la sémantisation des énoncés issues de la connaissance codifiée et stockée. Bibliographie Bekhti S. et al., « Représentation des connaissances dans une mémoire de projet ». Document numérique, 2001/3 Vol. 5, p. 193‐209. DOI : 10.3166/dn.5.3‐4.193‐209. Courbevières, C. « Documents, signes et savoirs : retour sur l’analyse documentaire » In Metzger, J.P. (dir) Médiation et représentation des savoirs, Harmattan, 2004.
9 Dans le document servant à décrire les objectifs de l'administration Clinton, la notion de collaboratoire désigne les "centres de production scientifique et technique "sans murs" dans lesquels les chercheurs réalisent leurs recherches sans être limités par leur localisation géographique. Grâce aux réseaux, ils peuvent tout à la fois interagir interactivement avec leurs collègues dans d'autres universités; accéder à des instruments à distance; partager leurs données et leurs ressources computationnelles et, enfin, accéder aux informations réunies dans les bibliothèques électroniques".
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
19
Grimand A. « Quand le Knowledge Management redécouvre l'acteur : la dynamique d'appropriation des connaissances en organisation », Management & Avenir, 2006/3 n° 9, p. 141‐157. DOI : 10.3917/mav.009.0141. Henneron, G.; Palermiti, R.; Polity, Y. « Le partage des savoirs ou les nouveaux habits du mythe de la société de l’information » In Metzger, J.P. (dir) Médiation et représentation des savoirs, Harmattan, 2004. Hodge G., Systems of Knowledge Organization for Digital libraries. Beyond traditional authority files. Washington, DC: the Council on Library and Information Resources, 2000. http://www.clir.org/pubs/reports/pub91/contents.html Latour, B & Callon M. La science en action : introduction à la sociologie des sciences, nouvelle édition, Paris, La Découverte, 2005. Latour, B. & Woolgar, S. La vie des laboratoires, Paris, La Découverte, 1988.
Pezet, J. L. « De la représentation à la coopération : évolution des approches théoriques du traitement de l’information ». In revue SOLARIS 1998, http://biblio=fr.info.unicaen.fr/bnum/jelec/Solaris/d05/link=pezet.html Robillart J. Critique épistémologique du concept de «Knowledge Management». 2008 http://w3.univtlse2.fr/aislf/gtsc/DOCS_SOCIO/FINITO_PDF/Robillard.pdf Waast, R. & Gailard, J. La science en Afrique à l’aube du 21e siècle : la science au Cameroun. 2001 www.ird.fr/fr/science/dss/sciences_afrique/pdf/cameroun/cameroun2_ressources.pdf, Wallace, P. Knowledge Management : historical and CrossDisciplinary Themes. Libraries unlimited Knowledge Management Series, 2007.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
20
Continuité documentaire du lycée à l’Université : résultats d’une expérimentation originale de formation à l’information entre documentalistes de lycées, bibliothécaires en universités et chercheurs en Sciences de l’Information
Fabrice Papy10,
Professeur des Universités en sciences de l’information et de la communication, Université Nancy 2 / LORIA, 2 ter boulevard Charlemagne ‐ CS 55227, 54052 Nancy Cedex,
fabrice.papy@univ‐nancy2.fr
Corinne Leblond11, Conservateur d'État de bibliothèque, directrice du service commun de documentation, Université d’Artois / Document Numérique & Usages, 9 rue du Temple ‐ BP 665, 62030
ARRAS Cedex, corinne.leblond@univ‐artois.fr _________________________________________________________________________________________________________ Résumé : Cette contribution décrit l’action collaborative de continuité qui a permis de relier les enseignements documentaires destinés aux lycéens à ceux proposés aux étudiants dans le but d’augmenter l’efficacité des formations à l’information. Cette action expérimentée pendant l’année scolaire et universitaire 2009/2010 a rassemblé bibliothécaires en poste dans une université, professeurs‐documentalistes exerçant dans huit établissements d’enseignement secondaire, et chercheurs en Sciences de l’Information et de la Communication. Elle a porté sur plusieurs classes d’élèves issues de disciplines différentes et a visé à replacer les contenus des enseignements documentaires dispensés en lycée par les professeurs‐documentalistes dans la perspective d’une réutilisation au sein de la bibliothèque universitaire. Dans ce but et afin d’homogénéiser notamment les pratiques instrumentales de recherches documentaires dans les deux environnements institutionnels, les élèves expérimentateurs ont bénéficié d’un nouvel OPAC, le «Visual Catalog», utilisé par le Service Commun de Documentation de l’Université d’Artois sur son propre fonds bibliographique depuis 2006.
10 Fabrice Papy est Professeur des Universités en sciences de l’information et de la communication à l'Université de Nancy. Ses travaux de recherche l’amènent à s’intéresser depuis plusieurs années au rôle de la médiation technologique dans la construction et l’évolution socio‐technique de la Société de l’Information. Il dirige le laboratoire "Document numérique & usages". Il dirige en qualité de rédacteur en chef la revue "Les Cahiers du Numérique" et est directeur éditorial chez Hermes Science Publishing du domaine "Traitement de l'Information". 11 Corinne Leblond est conservateur d'État de bibliothèque, directrice du service commun de documentation de l’Université d’Artois et membre associé de l’équipe de recherche « Document numérique et usages ». Elle participe activement aux actions Visual…Catalog (intégration du dispositif au portail documentaire de l’université et évaluation des impacts sur les usages et l’appropriation des collections). Elle a coordonné en 2009 un ouvrage intitulé "Archivage et stockage pérennes : enjeux et réalisations" aux éditions.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
21
Motsclés : Continuité documentaire, lycée, Visual Catalog, recherche documentaire, compétences numériques, bibliothèque universitaire, Centre de Documentation et d’Information 1 Culture informationnelle et citoyenneté numérique La démocratisation et l’utilisation massive des Technologies de l’Information et de la Communication (TIC) [SALENCON 2008] ont manifestement accentué la désintermédiation documentaire en milieu académique [VAN DOOREN 2009] mais ont également ravivé les questions relatives à la formation à la recherche documentaire en milieu scolaire et universitaire [DENECKER 2003] [FEO 1998] [COULON 1997]. Les publications de ces deux dernières décennies concernant les actions consacrées à de telles formations, soulignent la prise de conscience politique des compétences numériques et informationnelles qu’il apparaît indispensable d’acquérir pour évoluer sereinement dans la Société de l’Information [GARDIES 2010] [JO EUROPE 2006]. Si ces questions de formation ont été prises en compte par les structures publiques en charge de l’enseignement et de la formation, une forme de découplage se produit actuellement entre les actions institutionnelles de formation à l’information et l’évolution de la société. Ce découplage résulte d’un différentiel de plus en plus marqué entre les moyens à consacrer à telles formations et l’intensification avec laquelle les chantiers numériques transforment notre société [BERRY 2009] [DOUELHI 2008] [SEMPRINI 2003] [DUBEY 2001]. C’est une nouvelle forme de fracture numérique – reliée notamment au non‐usage ‐ qui se développe actuellement [KIYINDOU 2009] [CHAPRON&DELAMOTTE 2010] dans cette société de l’information en genèse. C’est bien là que le découplage est le plus manifeste : alors que les formations à la culture informationnelle constituent un impératif sociétal crucial pour les élèves et les étudiants [JO EUROPE 2006], et que l’économie nationale se conjugue de plus en plus intimement avec le numérique, l’offre de formation à l’information, parcellaire et touchant encore trop peu d’étudiants, a déjà atteint son seuil de saturation dans l’enseignement supérieur : "En 2001‐2002, la progression du nombre total de formés semble se stabiliser autour de 140 000 étudiants (...). On peut y voir un signe de rationalisation, par les bibliothèques, de leur offre de formation : devant la masse d'étudiants à former, elles choisissent de consacrer leurs moyens aux formations les plus efficaces" [BLIN&STOLL 2005]. Depuis plusieurs années, les formations à l’information constituent une mission importante des bibliothèques universitaires qui doivent répondre à une demande grandissante. Malgré d’ingénieux dispositifs pédagogiques élaborés au sein même de la bibliothèque (TP, ressources en lignes, visites, etc.) ou dans le cadre de collaboration avec les formations diplômantes de l’université (TD de méthodologie documentaire, C2i étudiant, etc.), les SCD n’ont guère de perspective à voir se généraliser ces formations à tous les étudiants en l’absence, notamment, de personnels et d’équipements (salles, informatique) dimensionnés en conséquence [ROUANET 2006]. Dans l’enseignement secondaire, bien que la formation documentaire représente un enjeu pour la réussite des études supérieures, elle est non seulement « discontinue et erratique »
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
22
mais « les professeursdocumentalistes de lycées et les bibliothécaires des universités ne se fréquentent pas alors qu’ils partagent des objectifs communs de médiation dans l’accès à la connaissance » [DURPAIRE 2009]. Les problématiques documentaires et informationnelles corrélées à celles des TIC sont source d’une nouvelle complexité dans les processus (cognitifs) d’accès à l’information [GIRAUDIN 2007]. La diversification des sources et des medias a accru les difficultés à appréhender une information pertinente adaptée aux exigences académiques au point où elles ne peuvent plus être envisagées dans le cadre d’auto‐apprentissage ou d’autodidaxie ou d’autoformation [JOLLY 2001]. S’il est difficile d’apprécier l’utilisation optimale des contenus numériques mis à disposition des usagers [BOUKACEM 2010] [SCHOPFEL 2005], les bibliothécaires en charge des collections numériques des bibliothèques, ne cessent de constater la sous‐utilisation par leurs usagers des ressources numériques gratuites et onéreuses. Ils en livrent clairement une analyse chiffrée dans les rapports d’activité annuels de leur service. Bien que les établissements du supérieur, au travers des initiatives courageuses et volontaires portées par leurs services communs de documentation [PUAUT 2009] [LEBLOND 2007], cherchent à répondre à ces enjeux modernes de la formation à l’information par des démarches locales de coopération, il n’en demeure pas moins que ces actions demeurent fréquemment isolées, peu connues des autres établissements et finalement rarement analysées afin d’établir les éléments d’une politique ambitieuse de formation globale et continue à l’information [IANTE 2009]. Lors de l’expérimentation menée avec l’Université d’Artois et les lycées de l’académie de Lille, la bibliothèque universitaire a occupé une place centrale autour de laquelle se sont articulées les actions pédagogiques menées au sein des lycées expérimentateurs et les interventions du laboratoire « Document numérique & Usages ». 2 La politique de formation documentaire à l’Université d’Artois Les enseignements documentaires dispensés par l’équipe d’enseignants et de formateurs du SCD de l’Université d’Artois répondent depuis de nombreuses années à la diversité des attentes en matière de formation à l’information dans le supérieur (licence, master, doctorat, C2i). Malgré le poids conséquent de cette charge pédagogique, le SCD de l’Université d’Artois s’est engagé dès sa création en 1992, dans une démarche ascendante de la formation à l’information et a élaboré des modules de formation spécifiques à destination des lycées de la région dans le but de préparer les lycéens (et probables étudiants) à leur nouvel environnement documentaire. Cette présence historique de l’université auprès des établissements secondaires se traduit par une participation fréquente aux forums organisés dans la quarantaine de lycées du bassin de formation. Elle est relayée au sein même de l’établissement par des actions générales (de type journées portes ouvertes) et des initiatives plus spécifiques (accueil de groupes de lycéens pour des cours et des TD adaptés à leur niveau). L’enjeu consiste à valoriser les évolutions de l’établissement et de sa stratégie d’accueil auprès des différents
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
23
acteurs des lycées qui gardent l’image préconçue d’une structure où les étudiants sont livrés à eux‐mêmes et où l’insertion professionnelle relève de l’aléatoire. 3 Réseautage avec les CDI Le SCD a inscrit dans son projet de contrat quadriennal 2010‐ 2013 un ensemble d'actions au service de la liaison lycées‐université fondées tant sur le développement d’un fonds pluridisciplinaire d’accompagnement à la réussite que sur la mise en réseau avec les CDI sur la base d’un dispositif de référence commun («Visual Catalog»‐ Visual CDI). Dans le contexte d’évolution permanente des modalités de l’offre documentaire (tant en termes de collections que de services), l’analyse des pratiques et usages effectifs ainsi que des nouvelles habiletés nécessaires à la maîtrise de l’activité de recherche d’information constitue un enjeu essentiel pour l’ensemble des acteurs qui participent à la transition documentaire du Lycée à l’université et souhaitent accompagner chacun dans son parcours de réussite. Pour favoriser le partenariat entre les bibliothèques universitaires, les bibliothèques publiques et les CDI, la formation en commun des enseignants‐documentalistes et des bibliothécaires apparaît comme le moyen le plus efficace. L’objectif prioritaire consiste en la constitution d’un référentiel commun, définissant les compétences documentaires et informationnelles nécessaires pour aborder cette transition en toute sérénité (mobilisation des différents catalogues et bases de données, techniques et langages d’interrogation, utilisation critique et autonome des bases de données, etc.). Le développement exponentiel des ressources numériques et l’avènement d’Internet comme espace numérique banalisé de la recherche d’informations, rendent essentielles à la réussite des étudiants s’engageant dans tout cursus universitaire, la maîtrise des outils d’exploration ainsi que la méthodologie permettant d’appréhender la complexité des ressources disponibles. En ce sens, la mise en œuvre de dispositifs et de formations mutualisés pour garantir la continuité des apprentissages documentaires au lycée et à l’Université se présente comme un moyen d’assurer une cohérence globale dans le but de « partager dans la continuité l’effort pédagogique des documentalistes des lycées et des bibliothécaires municipaux ou universitaires pour favoriser et développer la pratique documentaire de leurs jeunes usagers » [IGEN 2009]. 4 «Visual Catalog» et VisualCDI Le «Visual Catalog», système de recherche d’information bibliographique expérimental a été élaboré dans le but d’observer l’adéquation des dispositifs techno‐documentaires à la réalité des pratiques instrumentales des usagers et de leurs attentes [FOLCHER 2006, LEBLOND 2007, PAPY&LEBLOND 2007].
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
24
Le «Visual Catalog» propose aussi bien aux usagers de l’université qu’aux professionnels de la bibliothèque universitaire un outil informatique commun de recherches documentaires exploitant les fonctionnalités technologiques du Web actuelles. Il se présente principalement comme un OPAC "de nouvelle génération" [MAISONNEUVE 2009] mieux adapté aux attentes/besoins/comportements des usagers. Compte tenu de ses caractéristiques de conception, le «Visual Catalog» a été rapidement adapté aux données bibliographiques traitées par BCDI, solution documentaire globale proposée par le Centre Régionale de Documentation Pédagogique (CRDP) de Poitou‐Charentes et largement utilisée dans les établissements scolaires. Il a permis de pallier l’absence d’outil informatique de recherche documentaire qui soit commun au lycée et à l’Université. En effet, si à l’évidence les formations à l’information dispensées par les professeurs‐documentalistes au sein des établissements du secondaire ne sont pas fondamentalement éloignées de celles qui sont proposées aux étudiants par les bibliothécaires exerçant dans les établissements du supérieur, l’absence de dispositifs technologiques communs, nourrit chez les usagers (élèves et étudiants) la certitude que CDI et SCD sont deux lieux documentaires totalement disjoints. Elaborés sur des mécanismes techniques identiques, les «Visual Catalog» des CDI expérimentateurs et le «Visual Catalog» de l’Université d’Artois se distinguent sur le fonds documentaire interrogé. Les données exploitées, les notices bibliographiques des ouvrages et des articles, proviennent des logiciels BCDI utilisés dans les CDI. Exportées en format XML (memonotices) par les professeurs‐documentalistes les modalités techniques de transfert du fichier export (FTP) et de mise à jour ont été réduites au maximum. Compte tenu de la durée conséquente de la procédure d’exportation des notices par BCDI, le rythme d’actualisation a été laissé à la discrétion des professeurs‐documentalistes en fonction de l’évolution de leur base bibliographique. Le rapprochement entre les autorités‐matières de RAMEAU, le langage MotBis et les descripteurs libres retenus par les professeurs‐documentalistes pour indexer les ouvrages de leur fonds documentaire a constitué un apport non négligeable de cette action de continuité. Pour les ouvrages communs au SCD de l’Université d’Artois et aux CDI expérimentateurs, les mots‐clés des ouvrages des CDI se trouvaient automatiquement enrichis par les vedettes‐matières RAMEAU extraite de la notice bibliographique provenant du SCD. 5 Mise en place dans les lycéesexpérimentateurs L’expérimentation proprement dite s’est déroulée pour chaque établissement à l’occasion d’une séance d’une heure lors de laquelle les élèves ont été amenés à traiter un exercice‐type conçu collectivement à cette intention. Préalablement à cette séance d’évaluation, les élèves ont été initiés en quelques séances au fonctionnement du nouveau dispositif de recherche d’information VisualCDI, présenté non pas comme une alternative au logiciel BCDI habituellement utilisé par les élèves mais comme un outil complémentaire à celui‐ci. Les diverses particularités fonctionnelles de ce dispositif ont été décrites aux élèves : structuration et informations présentes dans les différentes colonnes (titre, mots‐clés,
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
25
indices Dewey), synthèse graphique (catégories, classes Dewey), filtrage de colonnes à colonnes, exploration des indices Dewey, etc. Lors de la séance d’évaluation, afin d’impliquer davantage les lycéens, l’exercice‐type a été adapté par les professeurs‐documentalistes en les spécialisant sur des thèmes de recherches proches des sensibilités disciplinaires des élèves ou de leurs intérêts pour des sujets particuliers. Si la diversité des recherches documentaires menées par les élèves a révélé les intérêts particuliers que ceux‐ci pouvaient manifester pour certains sujets d’actualités, plus ou moins (in)dépendants de leur cursus scolaire, l’expérimentation a été l’occasion de renforcer la continuité entre enseignements documentaires et enseignements généraux. En effet, pour plusieurs établissements, les thèmes de recherche sur lesquels les élèves ont finalement travaillés, ont été identifiés en concertation avec les enseignants des disciplines principales afin de prolonger des sujets d’étude préalablement bordés dans ces disciplines. 6 Bilan de l’expérimentation du point de vue des professeursdocumentalistes Acquis à la démarche globale de continuité Lycée‐Université, auxquels certains participent déjà depuis plusieurs années avec l’Université d’Artois notamment, les remarques des professeurs‐documentalistes ont porté pour l’essentiel tournées sur l’impact d’un nouvel outil de recherche documentaire venant « paraphraser » le logiciel BCDI que les élèves utilisent fréquemment et pour lequel ils ont été formés. Bien que les données disponibles dans les deux dispositifs soient les mêmes, il ressort de leurs analyses que le VisualCDI apporte aux élèves une plus grande compréhension des principes de structuration des classifications et d’une utilisation pragmatique de celles‐ci. L’approche de la catégorisation induite par la Dewey leurs suggère une autre façon d’apprendre, de cerner un sujet et d’en percevoir les contours, de s’approprier les domaines de savoir et de percevoir les transversalités enrichissantes (par exemple, une recherche effectuée sur le mot‐clé photographie a montré qu’en un coup d’œil on pouvait situer ce sujet en sociologie ou en sciences et arts). La traduction du sujet en mots‐clés pose toujours beaucoup de problèmes. Le réservoir lexical des élèves étant souvent limité, ceux‐ci usent (et abusent), pour effectuer leurs recherches documentaires, des premières notions immédiates qu’ils ont identifiées. Celles‐ci finissent inéluctablement par « boucler » sur les mêmes références documentaires lorsque l’élève n’a pas recours à un thésaurus (comme celui de BCDI) qui leur permet d’ouvrir son champ lexical. Sur ce point précis, presque unanimement, malgré la confusion que VisualCDI entretient entres mots‐clés et descripteurs, les professeurs‐documentalistes ont constaté que le VisualCDI permettait d’augmenter sensiblement ce champ lexical en le complétant automatiquement de nouveaux termes hérités de Motbis et du répertoire d’autorité‐matière RAMEAU. Le « nuage de termes » que renvoie le logiciel à chaque recherche ouvre ainsi beaucoup de portes « Dans BCDI, il faut avoir une idée précise de son sujet dès le départ, dans VisualCDI, on a plus d’idées pour choisir. Quand on ne sait pas où on va, VisualCDI, c’est bien ! »
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
26
Eclipsant la crainte préalable de confusion sur le fait de disposer de dispositifs pour interroger le même fonds catalographique, les professeurs‐documentalistes ont constaté que la notion de logiciel documentaire et d’interface était mieux comprise. Passer par deux interfaces différentes se révèle formatrice et constructrice de sens pour les élèves. Ils se familiarisent avec la notion d’interrogation de bases de données et acquièrent des compétences transversales qu’ils peuvent réinvestir ailleurs. Au lycée Queneau, les élèves ont perçu non seulement les différences entre les deux interfaces, mais ont trouvé la façon d’en exploiter les fonctionnements complémentairement : VisualCDI a donné l’impression aux élèves d’explorer « à fond le fonds » par les mots‐clés et la Dewey, BCDI de pouvoir choisir les documents pré‐repérés par VisualCDI en validant leur pertinence par le résumé et de rédiger la bibliographie. Enfin, en raison de l’interaction particulière que le cadre de l’expérimentation avait introduite, certains professeurs‐documentalistes ont noté que les élèves situaient mieux l’activité du professeur‐documentaliste et le lien entre données secondaires et documents primaires. 6 Perspectives Les enjeux de la réussite des primo‐arrivants à l’Université sont étroitement liés à la question d’une utilisation efficace des documentations que les Universités mettent à disposition de leurs usagers [BRETELLE‐DESMAZIERES 1999] [COULON 1997]. De nombreuses actions de formation à l’information ont été – et continuent à être ‐ engagées en ce sens au sein des Universités, mais compte tenu du nombre d’étudiants à former, de leurs attentes extrêmement variables et des moyens limités dont disposent les SCD, elles parent finalement au plus urgent en donnant une part trop grande à la manipulation des innombrables dispositifs technodocumentaires des bibliothèques universitaires. Le rapport conjoint IGB‐IGEN sur les questions de la continuité Lycée‐Universitaire en matière documentaire, rappelle pourtant bien que les compétences info‐documentaires sont à considérer comme compétences clés. La présence de telles compétences dans les certificats B2i et C2i qui jalonnent le parcours de l’écolier, du collégien, du lycéen et de l’étudiant, souligne, de fait, une confirmation des actions institutionnelles nationales pour se conformer aux recommandations européennes. Mais la formation et la place de ces différents certificats dans les cursus des élèves et des étudiants sont très réduites et ne répondent pas aux enjeux de la réussite des étudiants. Une des pistes que le rapport IGEN‐IGB privilégie, réside dans une meilleure articulation des apprentissages documentaires que proposent lycées et universités. Compte tenu des enjeux liés à la réussite des lycéens engagés dans des études supérieures, l’inspection de l’académie de Lille avait envisagé, lors des réunions préparatoires à la mise en place de l’expérimentation, de généraliser le dispositif à l’ensemble des lycées de l’académie. La phase actuelle de « post‐expérimentation/pré‐généralisation » poursuivie actuellement avec une vingtaine d’établissements du secondaire, en étroite collaboration avec l’Université d’Artois, peut se lire d’ores et déjà comme une réussite de cette démarche expérimentale collective autour de la liaison documentaire Lycée/Université. Sans augurer du bilan qui sera dressé prochainement, tout laisse à penser que les résultats obtenus avec
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
27
les 8 premiers lycées expérimentateurs se retrouveront avec les 12 autres lycées. La généralisation apparaît alors comme une action d’envergure se profilant dans un futur proche. Le financement récent par le Pôle de Recherche et d’Enseignement Supérieur « Lille Nord de France » d’une passerelle documentaire visant à équiper graduellement les SCD de chaque université de l’académie de Lille d’un Visual Catalog fédérateur constitue une contribution significative dans la démarche de généralisation envisagée. Bibliographie Gérard BERRY, Pourquoi et comment le monde devient numérique ? Collège de France, Paris, 2009, 78 p. Frédéric BLIN, Mathieu STOLL « La formation des usagers dans l'enseignement supérieur », Bulletin des Bibliothèques de France, 2005, n° 6, p. 5‐15. Cherifa BOUKACEM‐ZEGHMOURI (dir) L'information scientifique et technique dans l'univers numérique : mesures et usages, Collection : Sciences et techniques de l'information, ADBS, 320 pages, 2010. Danièle BRETELLE‐DESMAZIERES, Véronique MESGUICH, Hervé LE MEN, Christophe BOUDRY, Caroline WIEGANDT, Marie‐Françoise BISBROUCK, Françoise SOGN, « Évolutions de la relation avec les usagers », DocumentalisteSciences de l’information, 2009, Volume 46, p. 32‐44. Françoise CHAPRON, Eric DELAMOTTE (dir.) L’Education à la culture informationnelle, Presses de l’ENSSIB, 308 pages, mars 2010. Alain COULON, Le métier d’étudiant. L’entrée dans la vie universitaire, PUF, Paris, 1997, 217 p. Claire DENECKER, Les compétences documentaires : des processus mentaux à l’utilisation de l’information, Presses de l’ENSSIB, 2003. Danièle BRETELLE‐DESMAZIERES, Alain COULON, Christine POITEVIN, « Apprendre à s'informer; une nécessité : évaluation des formations à l'usage de l'information dans les universités et les grandes écoles françaises », Association internationale de recherche ethnométhodologique, Laboratoire de recherche ethnométhodologique, Saint‐Denis, 1999,114 p. Milad DOUELHI, Comment le monde devient numérique, Editions du Seuil, Paris, 2008, 271 p. Alain DUBEY, Le lien social à l'ère du virtuel, PUF, 2001, 258 p. Jean‐Louis DURPAIRE, Daniel RENOULT, « L’accès et la formation à la documentation du lycée à l’université : un enjeu pour la réussite des études supérieures », Rapport IGENIGB n°2009000, 2 mars 2009, 65 p.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
28
Aniela FÉO, « L'enseignement de méthodologie documentaire à l'Université Paris‐8 : un accompagnement bien tempéré ». Documentaliste Sciences de l'information, 1998, vol. 35, n° 3, p 147‐155. www.adbs.fr/uploads/docsi/1636_fr.pdf Viviane FOLCHER, « Usage comparé d'outils de recherche documentaire : premiers résultats et pistes d'analyses ouvertes », La bibliothèque entre physique et virtuel : objet complexe de sens, objet d'usages complexes, journée d'étude du 11 mai, Université Paris‐8, 2006, http://www.archivesaudiovisuelles.fr/674/ Cécile GARDIES, Isabelle FABRE, Viviane COUZINET, « Re‐questionner les pratiques informationnelles », Études de communication, n°35, 2010. Jean‐Pierre GIRAUDIN. «Complexité des systèmes d’information et de leur ingénierie», eTI la revue électronique des technologies d'information, Numéro 3, 9 mai 2007, http://www.revue‐eti.netdocument.php?id=1180. Claude JOLLY, « Bibliothèques universitaires. Regard sur les changements », Bulletin des Bibliothèques de France, 2001, Paris, t.46, n°6, p. 50‐54. Alain KIYINDOU (dir) Fractures, mutations, fragmentations : de la diversité des cultures numériques, Hermes‐Lavoisier, 2009, 257 p. Corinne LEBLOND. « Un système d’information documentaire à l’Université, fédération des ressources et personnalisation des services : de l’idéal du projet à la réalité des usages ». In : Fabrice Papy (dir.), Usages et pratiques dans les bibliothèques numériques. Paris : Hermès Science Publications : Lavoisier, 2007, p. 73‐93. (Traité IC2, série Management et gestion des STIC). Marc MAISONNEUVE, Le catalogue de la bibliothèque à l'heure du Web 2 : étude des opacs de nouvelle génération, ADBS Editions, 2009, 305 p. Fabrice PAPY, Corinne LEBLOND, « L'interface de recherche d'information du Visual…Catalog : un outil innovant à double détente », DocumentalisteSI, Vol. 44, n°4‐5, p. 288‐298, 2007. Fabrice PAPY, « Au‐delà de la transfiguration du catalogue », Bulletin des Bibliothèques de France, 2005, n° 4, p. 5‐12, http://bbf.enssib.fr/ Maud PUAUD, Construire un partenariat entre le SCD de l’Université d’Angers et les CDI de lycées : étude de faisabilité, Mémoire DCB, ENSSIB, octobre 2009, 57 p. Recommandation du Parlement européen et du Conseil, du 18 décembre 2006, sur les compétences clés pour l'éducation et la formation tout au long de la vie [Journal officiel L 394 du 30.12.2006].
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
29
Joachim SCHÖPFEL, Chérifa BOUKACEM‐ZEGHMOURI, « Statistiques d'utilisation des ressources électroniques », Bulletin des Bibliothèques de France, 2005, n° 4, p. 62‐66. Bruno VAN DOOREN, Bibliothèques universitaires et nouvelles technologies, Ministère de l’Education Nationale, de la Recherche et de la Technologie, juin 2009. Jean SALENCON, Rapport du comité Information Scientifique et Technique, Ministère de l’Education Nationale de l’Enseignement Supérieur et de la Recherche, juin 2008. Andrea SEMPRINI, La société de flux: formes du sens et identité dans les sociétés contemporaines, l’Harmattan, 2003, 280 p.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
30
L’évolution de la taxonomie du site Web au Gouvernement du NouveauBrunswick
Diane Nadeau12, IPA Baccalauréat en Sciences de l’Informatique (UNB)
Stratège en chef, gestion de l’information, Services gouvernementaux de l’informatique, Ministère de l’Approvisionnement et des Services,
Gouvernement du Nouveau‐Brunswick, Canada
Résumé : Les sites Web gouvernementaux offrent une multitude d’information et de services en ligne dans des domaines très variés. Trouver ce que vous désirez peut créer des inconvénients occasionnant des obstacles pour les entreprises et citoyens et peut créer des embarras politiques. L’attention de cette présentation s’appuiera sur l’évolution de la taxonomie pour la gestion des documents et pour la présentation des services et information du site Web au Gouvernement du Nouveau‐Brunswick. La vision 2020 du N.‐B., tel que rédiger en 2011, pour participer à la fondation de la grille de l’information sera présentée, y compris les composantes nécessaires à son succès. Motsclés : Taxinomie, taxons, facettes, méthode de classification des informations, règles du classement, ordre, placement, sciences de l’information, architecture structurée, système de gestion de contenu, CMS Introduction/Contexte Le site du Gouvernement du Nouveau‐Brunswick fut créé en 1995, le premier au Canada. On pouvait y retrouver entre autre des sites ministériels, communiqués de presse, lois et règlements, téléphone web et une liste alphabétique des services. Au début des cinq à dix ans du site, organiser l’information du Web n’était pas une priorité.
12 Diane Nadeau travaille depuis les vingt‐neuf dernières années pour le Gouvernement du Nouveau‐Brunswick. Depuis 2006, elle est le "Stratège en chef de la gestion de l’information", aussi responsable de l'architecture de l'information d'entreprise et des recommandations pour la réduction des silos, des systèmes de veilles stratégiques et projets concernant les sites Web du gouvernement. Pendant sa carrière, Diane a travaillé sur des projets avec onze ministères et une agence fédérale. Diane a aussi travaillé avec Sun Life du Canada. Elle a un Baccalauréat en Sciences de l’Informatique de l'Université du Nouveau‐Brunswick, détient une certification d’Informaticien professionnel agréé (IPA) et est membre de l’Association of Records Management Administrators (ARMA) et du Canadian Information Professional Society (CIPS).
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
31
Problématique Comme bien des choses, nos programmes sont mesurés et évalués premièrement par la quantité, et deuxièmement par la qualité. Alors, les informations sur le Web ont évolué de plus en plus sans gestion. Comme on le disait « Plus de pages Web, c’est mieux! ». Mais les résultats : « qualité médiocre à l'entrée = qualité médiocre des résultats ». Objectifs Les objectifs pour commencer à mettre de l’ordre dans le site Web du Gouvernement (et complétés pendant les années 2000‐2010) étaient les suivants :
1. Répertoire des organismes du gouvernement et des employés (2001), 2. Répertoire des services groupes en catégories familiers aux citoyens et entreprises,
et aux autres gouvernements du pays (en tenant compte de l’international) (2005 et 2010),
3. Développement d’une taxonomie et la mise à jour continuelle (2005 et 2010).
Revue des travaux gouvernementaux
- Entreprises Canada (i.e., Centre des Services pour les Entreprises du Canada – CSEC, 1998).
- Mandat du Service Nouveau‐Brunswick (SNB) et Services en ligne. - Réduction des formalités administratives. - Sous‐comité pancanadien XML. - Sous‐comité pancanadien « Service Mapping Sub‐Committee » (SMSC). - Taxonomie canadienne des services humains 211.
Méthodologie/ Mise en œuvre de la solution
Pour le premier lancement en l’année 2005, le projet répondait à une des recommandations de l’initiative « Réduction des formalités administratives » avec un focus de produire une liste des frais ou des droits pour les entreprises. Le gouvernement, après une présentation du concept d’un répertoire complet, a agrandi le cadre pour y inclure les services pour citoyens.
Le gouvernement a établi un Mémorandum d’accord avec tous les ministères et un administrateur et des coordonnateurs ministériels y ont été attribués.
Huit cent cinquante (850) services ont été décrits suivant un modèle cohérent en anglais et en français. En voyant le volume de tous les services, une taxonomie devenait une priorité. En moins de six (6) mois, cette information devait être disponible au public.
Due à la courte échéance, aucune recherche pour établir une taxonomie basée sur des normes n’a pu être effectuée. La taxonomie a été développée basée sur l’expérience acquise avec le Centre des Services pour les Entreprises du Canada (CSEC) en 1998. Les leçons
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
32
apprises pendant ce projet nous ont permis la construction rapide de la taxonomie et du répertoire des services.
La mise à jour de la taxonomie et le classement des services sont toujours demeurés des responsabilités de l’administrateur des services. Cette fonction demeure toujours avec le Stratège en chef de la gestion de l’information.
En 2007, ce Répertoire était encore le premier de son genre de toutes les juridictions au Canada. Plusieurs de ces juridictions ont fait des demandes pour l’acquérir. Mais la technologie utilisée n’était pas interopérable car nous avions développé ce répertoire sans financement additionnel.
Nous avions encore des problèmes : ancienne technologie, taxonomie non normalisée. Mais nous avions huit cent cinquante (850) services disponibles au public, décrits suivant une méthode cohérente, avec un site Web et moteur de recherche basé sur le SQL. Les problèmes étant localisés au central pourront être corrigés, dans le futur, en n’affectant pas les ministères.
Pendant 2008‐2010, il y avait un appétit de réorganiser le site Web du Gouvernement du Nouveau‐Brunswick en entier. Celui‐ci utilisait encore de la vieille technologie depuis sa naissance en 1995.
Des opportunités se présentaient. Une était de faire du répertoire des services une concentration importante du nouveau site. Ce qui nous permettrait d’enlever les informations en double, de faire une nouvelle taxonomie qui deviendrait la concentration importante de la navigation du nouveau site et d’installer un moteur de recherche à facettes.
La taxonomie était devenue une cible importante. Utiliser des normes pour supporter la flexibilité et l'interopérabilité avec les autres sites Web des autres juridictions, principalement pancanadiennes, était aussi une cible importante.
Après un engagement avec un consultant, nous retrouvons le « 211 LA County Taxonomy of Human Services ». Inform Canada nous donne la version française « Taxonomie canadienne des services humains 211 ». Nous pouvons aussi y appliquer des termes localisés.
Pour les entreprises, nous faisons le saut vers le « Système de classification des industries de l'Amérique du Nord (SCIAN) » fourni par Statistiques Canada, et aussi utilisé par PerLE. PerLE est un point d’accès unique en ligne pour les entrepreneurs qui simplifie le processus de recherche de renseignements sur les licences et permis d'affaires à tous les niveaux de gouvernement – fédéral, provincial et municipal.
Nous utilisons aussi les références des sous‐comités pancanadiens « XML » et « Service Mapping Sub‐Committee (SMSC) » dont les membres ont développé le « Modèle de référence des gouvernements canadiens » pendant les dernières dix années. Ce modèle
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
33
n’est pas encore une norme canadienne. Ce modèle est plutôt utilisé à l’interne des gouvernements pour identifier les services et processus communs.
Les premières versions de la taxonomie furent délibérées par un comité d’agrément constitué de membres de l’équipe de développement du nouveau site, de Communication Nouveau‐Brunswick (administrateur chef du site Web gouvernemental), de Service Nouveau‐Brunswick, et des Services gouvernementaux de l’informatique. Cette dernière organisation retient les responsabilités de gestion de la taxonomie et de l’attribution de « tags » au contenu du site Web.
Aujourd’hui, nous y retrouvons encore seulement les services avec les « tags » reliés à la nouvelle taxonomie. Ceci est fait manuellement! Le moteur de recherche à facettes est aussi seulement utilisé pour la recherche sur les services.
Le répertoire des services est devenu une composante importante du nouveau site. Chaque ministère a adopté le répertoire. Les informations en double sont éliminées. Les informations sont de meilleures qualités.
Le deuxième lancement eut lieu en juillet 2010.
Analyse (après le deuxième lancement)
Le logiciel choisi répond bien aux besoins du « tagging », en anglais et en français, et de la navigation utilisant la taxonomie. Le moteur de recherche à facettes fonctionne bien pour les services. Les facettes peuvent être vues dans la colonne gauche de la page Web, et peuvent être utilisées pour affiner les résultats de recherche.
Avec notre connaissance des services depuis 2005, l’application des « tags » des branches « catégories » et « organismes » en anglais et français pour huit cent cinquante (850) services s’est exécutée pendant trois (3) semaines par l’administrateur.
Par contre, nous avons accumulé du travail de classement tel que:
- l’application des « tags » pour groupes cibles et types de contenu pour tous les services.
- l’application des « tags » pour tout contenu du site Web, soit : o 300 000 pages Web o 2 000 communiqués de presse o 6 000 actifs numériques (publications, audio, images, vidéos, etc.)
Nous avons accumulé du travail auprès des lacunes dans la taxonomie. L’application des « tags » révèle des lacunes. Il nous faudra créer de nouvelles facettes et de nouveaux niveaux. C’est un travail continuel. Nous continuons à faire de la révision toujours en référence avec les normes.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
34
Un ajout, une suppression ou un changement à n’importe quelle branche ou niveau de la taxonomie signifie que l’administrateur doit faire une revue du contenu du site Web affecté. Ceci prend beaucoup de préparation et d’attention aux détails pour s’assurer que rien n’est oublié.
Pendant le classement ou l’application des « tags », l’administrateur doit de temps en temps être en contact avec les coordonnateurs ministériels pour demander de l’aide pour mieux comprendre le service ou le contenu. Faire des changements à la taxonomie occasionne beaucoup de temps.
Malheureusement, le logiciel choisi ne gère pas la taxonomie et ne fait pas de classement automatique. Ces composantes peuvent se faire avec autres logiciels dédiés à ces fins. Vous pouvez accéder sur le site du Répertoire des services au http://www2.gnb.ca/content/gnb/fr.html en cliquant sur « Services » qui se trouve au haut de la page (voir figures 1.1, 1.2 et 1.3).
Figure 1.1 Accéder au site du Répertoire des services
Figure 1.2 Le moteur de recherche à facettes du Répertoire des services
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
35
Figure 1.3 La méthode cohérente de description des services
Solution
Présentement, la taxonomie est divisée en quatre (4) branches principales (voir figure 2.0):
- Catégories (14) - Organismes (72) - Types de contenu (73) - Groupes cibles (11)
Chaque branche a un à trois niveaux. En tout, quatre cent soixante‐dix (470) termes sont utilisés dans chacune des deux langues officielles de la Province. Voir l’appendice A : Figure 2.0 Taxonomie du Gouvernement du Nouveau‐Brunswick (pour le Web).
Résultats
Trois points sont à relevér :
1) Communication Nouveau‐Brunswick (CNB) est satisfait des résultats du nouveau site, du nouveau répertoire, de la nouvelle taxonomie et de la recherche à facettes. Il reconnaisse que l’information est diversifiée, que la gestion est multi‐ministérielle et qu’il faut parfois faire des compromis. Pour une gestion plus efficace, il faudra que les organismes centraux responsables fassent un ajustement à leur mandat, politiques gouvernementaux et budget.
2) Service Nouveau‐Brunswick (SNB) a un site à l’égard du site gouvernemental, ce qui lui permet d’offrir des services hors gouvernementaux. Malgré que le SNB soit
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
36
membre du comité d’agrément pour la taxonomie, l’adoption de celle‐ci pour leur site Web est encore en attente. L’étude de l’Australie « Online Service Delivery Models – An International Comparison in the Public Sector » nous indique l’inconsistance des deux sites qui contribue probablement à une baisse de satisfaction de la part de nos citoyens.
3) Le travail du « Service Mapping Sub‐Committee (SMSC) » se concentre principalement sur le partage de l’information entre ses membres. Toutes juridictions pancanadiennes ont une catégorie appelée « Événements de la vie », sauf le Nouveau‐Brunswick. Deux ans passés, le comité d’agrément de la taxonomie avait décidé de ne pas avoir cette catégorie pour deux raisons :
1) Tout évènement peut être considérer un Événement de la vie, 2) Ce terme était utilisé dans les années 2000 et est maintenant moins utilisé
dans les autres juridictions nord‐américaines et internationales.
Conclusion Le travail est continuel. Les objectifs pour les prochains 10 ans (2010‐2020) sont : ‐ Adopter un thésaurus anglais et français. ‐ Installer un moteur de gestion de taxonomie. ‐ Installer un moteur de gestion de thésaurus. ‐ Installer un moteur de classement automatique. ‐ Installer un moteur de recherche par facettes qui inclut plusieurs sources d’information à format divers. ‐ Étiqueter (appliquer des tags) au contenu total du site gouvernemental, soit manuellement ou par un classement automatique. ‐ Adopter plus de normes de métadonnées. ‐ Adopter plus de normes pour s’adapter aux Données ouvertes.
Et éventuellement, l’objectif est d’adopter plus de normes pour adapter la taxonomie, les métadonnées et le Répertoire des services à la grille internationale d’information qui se développe continuellement.
Avec cette fondation, nous serons prêts pour participer au développement de portails 3 tiers gouvernementaux plus perfectionnés. Dans les dernières années, des projets pilotes ont existé comme « Portail pour personnes aînés », mais les provinces et ministères opèrent en silos et n’adopte pas les normes, ce qui ne permet pas d’accélérer ces projets.
À l’interne du gouvernement, la taxonomie doit devenir une plus grande priorité du gouvernement. Elle doit s’évoluer et y comprendre les services internes et l’automatisation des processus. Elle doit être appliquée pour gérer les intranets et les sites documentaires. Nous devons atteindre une conformité. On devra aussi l’appliquer aux autres sources autoritaires.
Mais surtout, nous devons ajuster la gouvernance en ajustant les mandats, les politiques, les responsabilités et la relation avec l’architecture de l’entreprise.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
37
Malgré tous ces ajouts, les juridictions canadiennes nous envient. Nous avons eu plusieurs appels pour les logiciels du répertoire. C’est clair que les provinces veulent ces logiciels et moteurs.
Pour les prochaines années, le Nouveau‐Brunswick est positionné pour : ‐ être un « Leader » dans ce domaine, ‐ gérer les taxonomies pancanadiens gouvernementales, ‐ gérer les registres pancanadiens des services gouvernementaux, et ‐ gérer les portails 3 tiers gouvernementaux basés sur les groupes cibles.
En 2010, « Canada 3.0 », un forum pour discuter des besoins digitaux, recommande un service en ligne de « concierge ». Ce service réunirait tous les gouvernements pancanadiens ensemble dans un portail pour rechercher et accéder aux programmes et services offerts par ces entités. Est‐ce que le Gouvernement du Nouveau‐Brunswick saura s’élever à l’occasion ?
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
38
Appendice A : Figure 2.0 Taxonomie du Gouvernement du NouveauBrunswick pour le Web
(La taxonomie est imprimée en quatre (4) pages pour y faciliter la lecture)
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
39
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
40
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
41
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
42
Les bases d'un réseautage réussi : étude comparative de deux groupes de travail, convergence dans le mode de gouvernance
Clarisse Holik13,
Attachée de conservation du patrimoine, Archives départementales de Seine‐Maritime
Résumé : Effet de mode ou techniques incontournables ? A l’heure où réseaux et archives électroniques sont l’objet de nombreuses publications, nous nous proposons à travers l’étude de deux réseaux professionnels centrés sur l'étude des archives électroniques, de déterminer les facteurs clés conditionnant le bon fonctionnement de ces réseaux et l'aboutissement de leurs travaux. Après avoir rappelé les grandes lignes du fonctionnement des réseaux, nous revivrons l’histoire du groupe PIN (Pérennisation des Informations Numériques) de l'association Aristote né en l'an 2000, puis celle de la Commission Archives Electroniques de l'Association des Archives français, née, elle, en 2004. Une étude comparative portant sur leur mode de gouvernance, leurs publications et leurs interventions nous permettra de relever les points suivants : un mode d'organisation rigoureux centré sur un animateur de tête de réseau énergique, un partage des tâches, un but clairement identifié : l'émergence de solutions pratiques et fiables pour la pérennisation des informations dans un cas, la reconnaissance du rôle primordial de l'archiviste dans l'édification de ces solutions, dans le second cas, des participants motivés participant également à d’autres réseaux. Conditions nécessaires pour un bon fonctionnement, suffisantes pour un succès d’estime ? Motsclés : Réseau professionnel, Réseautage, archives électroniques, pérennisation des informations numériques, Cycle de vie de l’information, Groupe PIN, Groupe CAE AAF
13 Après une maîtrise de Biochimie en 1981 et un Dess de Documentation et Technologie Avancées en 1988 obtenu à l'Université Paris 8, Clarisse Holik mène une carrière de documentaliste scientifique puis d'archiviste tout en enseignant à l'Université Paris 8, de 1986 à 2005, les techniques de recherche documentaire et de traitement de l'information et de 1997 à 2006 à Paris 10 le "management des SID, Service d'Information et de Documentation". Elle est embauchée au Centre National de Transfusion Sanguine puis dans un laboratoire scientifique en tant que documentaliste scientifique. Elle est ensuite engagée à TF1 en 1991 comme responsable du service Documentation Technique Archives administratives où elle reste plus de 10 ans, crée le service, met en place des procédures d’archivage, participe au déménagement, est chef de projet Intranet et étudie un système de Ged pour le service de documentation de l’Information; de 2003 à 2008, elle est responsable du secteur Documentation Archives à l’AFSSET (l'Agence Française de Sécurité Sanitaire de l'Environnement et du Travail) où elle crée le service et met en place des procédures d’archivage. Depuis septembre 2008, elle est chargée de collecter et traiter les archives contemporaines aux Archives Départementales de Seine‐Maritime et participe à la mise en place d'une plate‐forme d'archivage électronique. Clarisse Holik intervient pour le centre de formation de l’AAF, de l'ADBS et du centre de formation des Archives de France. Faisant partie du groupe de travail Archives Electroniques de l’AAF du groupe PIN (Pérennisation des Informations Numériques), elle a été responsable du centre de formation de l'AAF de 2007 à 2010 et fait plusieurs interventions dans le domaine de l'archivage électronique notamment à Montréal en 2004. Enfin, elle est membre d'associations de protection de la nature.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
43
I Quelques précisions de vocabulaire Le cycle de vie de l’information GED = Gestion électronique de documents (Généralement documents nés en analogique et élevés en numérique) RM = Records management ou gestion des archives courantes et intermédiaires SAE= Système d’Archivage Electronique. Le réseau Au XIIème siècle, le mot désignait un « filet pour prendre des animaux ». Par analogie de forme, le réseau désigne un ensemble permanent ou accidentel de lignes, de bandes, entrelacées ou entrecroisées plus ou moins régulièrement et depuis 1849, un ensemble des lignes, des voies de communication, des conducteurs électriques, des canalisations qui desservent une même unité géographique, dépendent de la même compagnie. Enfin, il peut s’agir de la répartition des éléments d’une organisation en différents points (un réseau commercial) voire même d’une organisation clandestine formée par un certain nombre de personnes en relation directe ou indirecte les unes avec les autres et obéissant aux mêmes directives. Un réseau d’espionnage. (Petit Robert, 1988) Le réseau physique n’est pas neutre : son utilisation formate les relations qui peuvent être à l’image de la télévision unidirectionnelles (un émetteur, de multiples récepteurs) ou à l’image du téléphone multidirectionnelles). D’autres facteurs comme la fréquence, l’intensité ou la valeur des échanges caractérisent l’utilisation du réseau. En effet, le chemin peut être direct ou emprunter des voies détournées, faire des étapes qui constituent autant de nœuds, chaque nœud pouvant être relié à un autre et constituer ainsi un maillage. Le filet de pêche peut être une bonne image de ce maillage. Un réseau physique multidirectionnel par son maillage d’émetteurs et de récepteurs permet l’interactivité des relations. Il le permet mais n’est pas le facteur essentiel ; en fait, ce réseau physique se double d’une organisation réticulaire de l’information et des connaissances. Ce seront des facteurs tels que les ressources informationnelles disponibles (les stocks d’information) ou des facteurs humains comme l’intérêt des participants, leur motivation (Gerstlé, 2003), leurs liens, les transactions et le mode de gouvernance qui vont déterminer le fonctionnement du réseau. Ces liens peuvent être des liens d’identification ou de différentiation ou être un mélange des deux. Ils peuvent être faibles ou forts selon le temps consacré au réseau, l’intensité émotionnelle, l’intimité ou la réciprocité (Granovetter, 1973). Les réseaux sociaux comme ceux qui se créent sur Facebook ou Twitter montrent des liens faibles. Les réseaux professionnels ont existé de tout temps : un exemple est le « collège invisible » ainsi nommé dans les années 1990 par certains chercheurs du réseau des Instituts Pasteur
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
44
dans le monde.(conversation avec l’auteur). La nouveauté vient de la possibilité d’établir des ponts entre les catégories différentes et de réorganiser l’information. En effet, avec la problématique Archives Electroniques, les ponts entre ces catégories sont nombreux et la notion d’interdisciplinarité apparaît. Appartenir à un groupe de travail actif dans un domaine transdisciplinaire donne le pouvoir d’être informé plus vite. II Le contexte Avec la convergence de l’informatique, des télécommunications et de la télévision, dans les années 1990, de nouveaux types de travail collaboratif sont apparus, prolongeant et amplifiant les productions des groupes de travail et des réseaux professionnels, transformant également toutes les étapes du traitement de la chaîne de l'information, de la collecte à la communication. Parallèlement le passage d'une information de type analogique à une information de type numérique, l'obsolescence rapide des supports de cette dernière ont fait craindre la disparition à court ou moyen terme de cette information numérique. Comment préserver son patrimoine numérique ? Comment préserver de manière pérenne des documents stockés sur un support éphémère ? D’autre part, il n’y a pas au niveau des organisations, qu’elles soient publiques ou privées, de prise en compte du cycle de l’information dans l’organisation elle‐même et de prise en charge de la chaîne de traitement de l’information. L’identification du document, la traçabilité des événements qui l’affectent tout au long de sa vie deviennent indispensables afin de prouver la fiabilité du système, l’intégrité et l’authenticité du document. Enfin, de l’absence de culture commune entre les différentes professions traitant d’archivage électronique, pouvaient naître des sources d’erreur et de confusion. En effet, le mot archivage désigne pour les archivistes une conservation à moyen ou long terme. Pour un informaticien, ce mot désignera un stockage d’information qui pourra être remplacé par un autre au bout de quelques mois. Le plan de classement des uns désignera l’arbre de références des autres, et les calendriers de conservation, vieux outils des archivistes sont une nouveauté pour les informaticiens. III Création du groupe PIN (Pérennisation des Informations numériques) Les questions se posèrent d’abord au sein du Centre national d’études spatiales (CNES). Ce dernier avait le premier constaté les problèmes que pouvait causer la perte des données collectées sur la planète Vénus et avait donc participé à la mise au point le modèle de référence OAIS (Open Archive Information System). En juin 2000, conjointement avec la Bibliothèque Nationale de France (BnF), le CNES organisa une réunion inter‐organismes pour présenter et faire connaître en France ce modèle. Les participants constatant l’intérêt qu’il y avait à travailler ensemble, ont créé en août 2000, un groupe de travail, le groupe PIN ; ce groupe est constitué au sein d’une association à but non lucratif, l’association
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
45
Aristote qui regroupe la majorité des grands comptes publics français (grandes écoles de formation d’ingénieurs, Archives Nationales, Bibliothèque nationale de France, Commissariat à l’énergie atomique) comme Pérennisation des Informations Numériques avec l'arbre comme symbole. Le groupe est un échange de savoirs, de savoirs‐faires et d'actions dans le domaine de pérennisation. Plus de 40 personnes issues des grands comptes cités plus haut y participent. Les compétences sont également très diverses. Gouvernance et fonctionnement Le groupe publie un site Web 1 (http://pin.cines.fr) sur lequel les comptes rendus de réunion et les présentations des intervenants, classées par thème, sont disponibles. Il dispose également d’un forum de messageries par internet et se réunit une fois par trimestre en réunion plénière ; cette réunion, à laquelle les participants doivent s’inscrire à l’avance, se tient au siège social du Centre National d’Etudes Spatiales à Paris au Forum des Halles. Veille informative, annonce de conférences ou de parution de livres ouvrent la réunion. Des présentations faites par les acteurs du domaine ou des retours d’expérience rythment la journée. Les pauses, très attendues, sont l’occasion d’échanges verbaux et le déjeuner pris en commun poursuit les conversations professionnelles. L’animation du groupe est collégiale mais la personnalité des animateurs marque le groupe Le départ à la retraite du principal animateur fut l’occasion de réflexions intenses sur le rôle et la disponibilité de son successeur. Il en eu deux, un Olivier Rouchon, du centre informatique de l’enseignement supérieur (CINES à Montpellier) traitant de l’organisation intellectuelle, l’autre, Dominique Heulet (CNES à Toulouse), plus spécialisé dans l’organisation matérielle. L'objectif du groupe PIN est de contribuer à l'émergence de solutions pratiques et fiables pour la pérennisation des informations. Son programme d’actions comporte outre la veille informative et les retours d’expériences, la création d’une culture PIN, la publication de manuels pratiques (Dhérent, 2002 ; Poivre, 2004 ; Banat‐Berger, 2009), l’animation de session de formation et l’organisation de formation dont une formation universitaire de niveau BAC + 5. Les thématiques abordées sont :
o L’évaluation de format de données o Les normes (OAIS, MoReq2, ISADG, PSE) o La politique d’archivage o Les formats d’archivage et de restitution/ support de stockage pour pérenniser
l’information (incluant les évolutions de la Z42013) o Les métadonnées. o Le Plan de classement o La Cinématique du versement avec intégration de métadonnées
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
46
Chaque participant a conscience du caractère stratégique de la pérennisation, pérennisation qu’il tentera de mettre en place dans son institution. Lieu non‐marchand et non concurrentiel, lieu d’échanges des savoirs et des expériences, le groupe PIN rappelle parfois l’ambiance des débuts d’Internet. Enfin c’est un lieu d’action où on cherche des solutions. Cette expérience n'a pas de précédent en France. Mais elle a une fille : la Commission Archives Electroniques de l'Association des archivistes français. IV Création de la Commission Archives Electroniques de l’AAF En 2004, les archivistes d’entreprise de l’Association des Archivistes français dont certains faisaient déjà partie du groupe PIN constatent que dans bon nombre d’entreprises françaises, l’archiviste demeure isolé et est peu présent dans la conception des systèmes d'archivage électronique. Comment faire connaître les compétences d'un archiviste, valoriser la fonction ? Comment en faire un véritable chef de projet reconnu, un acteur de nouvelle génération, un fédérateur qui communique avec les autres archivistes, les informaticiens, les équipes de management, les prestataires et les autres professionnels ? Comment acquérir une culture commune et comment la diffuser ? L’archiviste de la CAE doit devenir un véritable ambassadeur, faire du « lobbying ». C’est dans cette logique que la commission, qui compte 14 membres, a mis en place un plan d’action qui se présente de la manière suivante : ‐ Elaborer et diffuser sur le site internet de l’AAF des fiches‐conseils et fiches de synthèses sur l’archivage électronique. ‐ Etre l’ambassadeur des archivistes (Faire du lobbying) auprès des différents acteurs du monde de l’archivage (décideurs, prestataires, acteurs du monde économique et de l’entreprise). ‐ Véhiculer une nouvelle image de l'AAF et des archivistes. Gouvernance et fonctionnement Deux animatrices Frédérique Fleisch (Haute Autorité de Santé HAS) et Anita Frieh (Cabinet Shearman et Sterling) veillent au bon fonctionnement du groupe, Frédérique s’occupant de l’organisation intellectuelle et des relations avec l’AAF, Anita s’occupant de l’organisation matérielle des réunions, de la rédaction des comptes rendus et de la mise à jour des fiches. Frédérique Fleisch est aussi membre du Conseil d’Administration de l’AAF. A l’origine en 2004, les membres étaient tous issus de la section « Archives d’Entreprises » de l’AAF. Il comportait un salarié d’EDF GDF, un du Bureau de Recherche Géologiques et minières, quatre agents des agences de sécurité sanitaire, l’informaticien d’un prestataire en archivage qui se lançait dans l’archivage électronique, deux archivistes de cabinet d’avocat. En sept ans, des personnes ont changé d’activité mais la participation au groupe de travail a été transmise avec le poste. A l’heure actuelle, des archivistes issues des Archives Nationales se sont jointes au groupe. Le groupe se réunit une fois par mois et dispose d’un espace sur le site web de l’AAF, accessible via un mot de passe. Les échanges préparatoires ont lieu essentiellement par courriel, chacun des membres étant spécialiste d’un domaine ou pouvant faire appel à son propre réseau professionnel.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
47
Les publications de la commission – 8 fiches conseil ‐ «Archiver une base de données » en cours d’élaboration ‐ « Les règles de nommage des fichiers » 2011 ‐« Comment établir un plan de classement » 2011 ‐« Les facteurs de coûts pour la mise en place d’un système d’archivage électronique » ‐ « Conseils pour rédiger le cahier des charges du SAE » (décembre 2008) ; ‐ « L’archivage des e‐mails ». (janvier 2008) ; ‐ « Qu’est‐ce que l’archivage électronique ? » (juin 2007, mise à jour en novembre 2009) ; ‐ « Le rôle du tiers archiveur ». (2005, mise à jour en mai 2006) ; ‐ « Le rôle des différents acteurs d’un projet d’archivage électronique ». (novembre 2005). Communications A l’attention du monde de l’entreprise : Organisation de petits déjeuners sur le thème de l’archivage numérique, signature d’une convention avec des représentants des prestataires et fournisseurs l’APROGED, tenue de stand lors de salons professionnels, A l’attention du monde « savant » Présentation de la démarche de la Commission lors de la 8ème Conférence européenne sur l'archivage digital (ECA), Genève, avril 2010. L'intervention de la CAE était centrée autour des « Techniques Marketing appliquées à l’archivage électronique ». Formations Le groupe a élaboré des préconisations à l’attention du centre de formation de l’AAF afin que la formation en archivage électronique puisse comprendre un premier niveau culturel et un deuxième niveau pratique sur la mise en place d’une plate‐forme d’archivage électronique. Il est périodiquement sollicité par le service de formation du ministère de la culture pour intervenir dans le domaine des archive électroniques ou apporter des retours d’expériences. V Comparaison Dans un monde neuf où l’on a peu de retours d’expérience, où la transdisciplinarité devient un facteur incontournable, ces deux structures ont abordé le problème par le biais de la technique, de l’organisation de l’information et de la mise en place de structures simples ; elles ont produit, chacune à son échelle, des normes ou des fiches conseil et tenté de produire et diffuser une culture transversale. Le facteur humain seraitil la clé de la réussite ? PIN ce sont surtout des hommes issus de l'aéronautique CAE ce sont surtout des femmes issues du monde de l'archive
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
48
TABLEAU COMPARATIF
PIN CAE
Structure S’appuie sur une autre grande association
ARISTOTE issue des grandes écoles d’ingénieurs
AAF fondée en 1904
Nombre de participants 40 14 Sous groupes de travail oui Groupes cooptés issus de
l’AAF Mode de fonctionnement
Fréquence des réunions 1 fois par trimestre 1 fois par moisTravaux connexes Sous‐groupe de travail Travaux personnels
réalisés par les participants
L’échelle n’est pas la même Mode de gouvernance
Animateur Animation collégiale avec référent « charismatique » Type de réunion Restitution des travaux des sous‐groupes
ou audition d’un expert dans le domaine Et/ou retour d’expérience Et/ou veille
Finalisation d’une fiche technique préparée par un des participants, expert du domaine ou simplement motivé
Domaines d’intervention Technique et pédagogique
Pratique et depuis peu pédagogique
Lieu de réunion Au siège du Centre National d’Etudes Spatiales à Paris aux Halles
Chez des avocats d’Affaires Shearing et Sterling sur les Champs Elysées
Objectifs Emergence de solutions pratiques et fiables pour la pérennisation des informations numériques
Reconnaissance du rôle primordial de l’archiviste dans l’édification de ces solutions
Publications Manuels pratiques Fiches techniques Enseignements dispensés Interventions ponctuelles dans le cadre de la formation permanente Conception d’une formation 5 jours intensifs sur la culture
informatique et la mise en place d’un SAE Préconisations pour le centre de formation de l’AAF
Etude et mise en place d’un master II Immatériel Création d’une culture « PIN »Forces La notoriété est là avec une antériorité certaine pour le groupe PINFaiblesses Bénévolat des participants
Depuis 2010 les interactions avec d’autres réseaux sont de plus en plus nombreuses, les demandes d’intervention dans le domaine de l’enseignement augmentent
Avenir Remaniement de l’enseignement Remise en question du mode d’organisation
Travail thématique Un binôme = un thème
Echanges formalisés entre les deux groupes de travail
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
49
VI Résultats Nous avons constaté que les deux groupes ne fonctionnaient pas dans les mêmes dimensions mais que de nombreux points communs surgissaient : ‐ un mode d'organisation rigoureux centré sur un animateur de tête de réseau énergique, ‐ un partage des tâches ‐ un but clairement identifié : l'émergence de solutions pratiques et fiables pour la pérennisation des informations dans un cas, la reconnaissance du rôle primordial de l'archiviste dans l'édification de ces solutions, dans le second cas. ‐ des échanges d’information, de savoir‐faire et de savoir‐être basés sur la réciprocité dans un cadre non marchand et non concurrentiel. ‐ des participants motivés appartenant également à d’autres réseaux ; ils bénéficient ainsi, outre une augmentation de leur savoir ou de leur savoir‐faire, d'un réseau relationnel qui enrichit leur capital. Enfin, les réunions périodiques, exigeant un déplacement physique des participants, se tiennent dans des lieux prestigieux. Ces points communs seraient‐ils les conditions nécessaires et suffisantes pour amener un groupe de travail, tête informelle de réseaux professionnels à bien fonctionner et à produire des résultats satisfaisants ? Vers une convergence ? Récemment, de nouvelles sollicitations ont amené chaque groupe de travail à se remettre en question, à se reconnaître mutuellement et renforcer leur coopération. Conclusion Face à l’évolution des normes et standards, la volonté de réduire les coûts, l’augmentation de la dématérialisation des processus et des échanges, la judiciarisation de la société, les attentes gouvernementales et les demandes de prestataires, les deux groupes de travail, victimes de leurs succès réfléchissent à d’autres modes d’organisation. Les liens entre eux s’officialisent de même que les liens avec d’autres institutions comme le service Formation de la Direction des Archives de France. La force de ces groupes de travail qui tenait à la motivation des participants, à la réflexivité de l’organisation en réseau et à l’absence presque totale d’expériences de terrain dans leur domaine d’étude va‐t‐elle perdurer ? Saura‐t‐elle s’adapter à la retombée de l’ » effet de mode » ? Les enseignements tirés de cette expérience sauront‐ils rendre ces groupes de travail aussi pérennes que l’objet de leurs études ? Bibliographie Actes de colloque Fleisch F, Frieh A, « les techniques marketing appliquées à l’archivage électronique », Actes de la 8ème conférence européenne sur l’archivage digital 26‐30 avril 2010, Genève, http://www.bar.admin.ch/dokumentation/0045/00527/index.html?lang=fr
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
50
Francophonies et bibliothèques : innovations, changements et réseautage. Actes du premier congrès de l’Association internationale francophone des bibliothécaires et documentalistes, Montréal, 3‐6 août 2008 Sous la direction de Dominique Gazo et Réjean Savard, Montréal, AIFBD, 2009, 536. Le numérique : impact du cycle de vie sur le document, Montréal, Québec, 13 au 15 octobre 2004. Monographies Gerstlé J. Les effets d’information en politique. PARIS : L’Harmattan, 2001. Huc C. Préserver son patrimoine numérique. Classer et archiver ses emails, photos, vidéos et documents administratifs. Guide à l’usage des particuliers et des entrepreneurs individuels. Paris : Eyrolles, 2011. Musso P. (sous la direction de) Réseaux et Société. Paris : Presses Universitaires de France, 2003. Articles de périodiques Bourdieu P. « Le capital social. Notes provisoires » Actes de la recherche en sciences sociales.31, 23, 198l. Grannovetter Mark S.”The strength of weak ties” American Journal of Sociology, 78,6, 1973. Huc C., Banat‐Berger F., Chabin M.‐A. et al « Le Groupe PIN : lieu d'échange, lieu de réflexion, lieu d'action ».Document numérique, vol. 9, p 127‐134, 2004/2. Mahé, A. » Pérenniser le document numérique » Bulletin des Bibliothèques de France, 2, 2007. Poinsot T. »: Du collaboratif au social : l'avènement de la conversation » DocumentalisteSciences de l’Information, 47, 2010. Sites Internet http://bbf.enssib.fr/ consulté le 05 mai 2011 http://www.archiviste.org http://www.archivistes.org/L‐AAF‐a‐la‐8e‐conference http://www.ccsds.org http://pin.association‐aristote.fr
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
51
Annexe 1 : L’Association des Archivistes Français L’Association des Archivistes Français (AAF) regroupe plus de 1300 adhérents,
professionnels des archives du secteur public comme du secteur privé.
Consciente du défi que représente, dans le monde contemporain, la maîtrise de la
production documentaire et de l’information qu’elle renferme, l’Association des Archivistes
Français se définit comme un organe permanent de réflexion, de formation et d’initiative au
service des sources de notre mémoire, celles d’hier comme celle de demain.
Ses principaux objectifs sont :
‐ La promotion de la profession.
‐ L’édition de publications sur les archives, pour un large public.
‐ L’organisation de nombreux colloques et journées d’études.
‐ La formation continue des professionnels des archives.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
52
Crédibilité de l’information sur Internet : de l’autorité à la fiabilité
Adel Labidi14, Bibliothécaire de référence de la Bibliothèque Champlain de l’université de Moncton
_________________________________________________________________________________________________________ Résumé : Avec l’avènement d’Internet et le développement de la technologie numérique qui a créé le Web 2.0, l’usager du 21ème siècle est devenu de plus en plus autonome et indépendant aussi bien dans la recherche et la récupération de l’information que dans l’évaluation des résultats. Toutefois, l’implication de l’usager dans tout le processus informationnel a incité pleinement le débat autour de la crédibilité de l’information retrouvée. Comment les outils utilisés sur la toile ont affecté la crédibilité de l’information? Est‐ce que l’usager est capable lui‐même de déterminer cette crédibilité ? Est‐ce que les médiateurs de l’information sont conscients de ce changement? La présente communication essaiera de répondre à ces questions tout en analysant les exigences de l’usager 2.0 et leurs impacts sur le rôle des bibliothèques et des bibliothécaires. Motsclés : Internet, Web 2.0, crédibilité de l’information, technologie numérique
14 Adel Labidi a obtenu une maîtrise en gestion des bibliothèques universitaires de l'Institut Supérieur de Documentation de l’Université de la Manouba en Tunisie en 2000 ainsi qu’une maîtrise en sciences de l'information et de la communication et médiation des connaissances de l’Université Aix‐Marseille III en France en 2002. Il a commencé sa carrière en bibliothéconomie en 2000 en Tunisie. En arrivant au Canada en 2007, il a eu l'occasion de travailler dans les centres de documentation du Québec comme celui du CRDI‐CA et a également enseigné au collège François‐Xavier Garneau. Il a été embauché par la Bibliothèque Champlain en janvier 2010.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
53
L’évaluation de la crédibilité des ressources en ligne
Pierre Goguen15, Bibliothécaire de référence de la Bibliothèque Champlain de l’université de Moncton
_________________________________________________________________________________________________________ Résumé : Étant donné que les méthodes traditionnelles de détermination de la crédibilité ont été perturbées par l’avènement de l’Internet et, plus précisément, par le Web 2.0, les professeurs et les bibliothécaires doivent faire face à cette réalité. Finis sont les jours où les étudiants se fiaient uniquement à ces autorités dans l’évaluation des sources d’informations crédibles. Déjà, des recherches ont démontré que les étudiants partagent non seulement des définitions différentes sur le concept de la crédibilité, mais ils viennent aussi à déterminer la crédibilité en utilisant une combinaison de plusieurs critères, certains parmi eux agissant même de façon inconsciente. Le contenu de l’information, ainsi que le contenant, et plusieurs autres facteurs influencent l’opinion de l’étudiant. Former les étudiants à prendre conscience de ce phénomène, en plus de les guider sur la détermination de la crédibilité devient ainsi un des défis, non seulement des universités, mais aussi des écoles, dans la formation des étudiants. Motsclés : Internet, Web 2.0, crédibilité de l’information, technologie numérique
15 Pierre Goguen a obtenu une maîtrise en science de l’information de McGill University en 2009. Il a commencé sa carrière en bibliothéconomie en 2009 à la Bibliothèque publique de Moncton et est à l’Université de Moncton depuis décembre 2009, où il occupe le poste de bibliothécaire à la référence.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
54
Comment faire de l’information en santé une préoccupation commune entre la gestion documentaire et la science infirmière ?
Florence Ott16, Professeure en gestion de l’information, UMCS
Charlotte L’HeureuxLemieux17, Professeure en science infirmière, UMCS site Bathurst
16 Florence Ott, originaire d’Alsace en France, a dirigé à partir de 1985, durant une vingtaine d’années, le Centre Rhénan d’Archives et de Recherches Économiques de Mulhouse, centre pilote dans la sauvegarde et la valorisation du patrimoine économique alsacien. En 2002, pour son action en faveur du patrimoine industriel, la Société d'Encouragement pour l'Industrie Nationale de Paris lui a décerné le Montgolfier du Commerce, du Tourisme et de l'Outre‐Mer. Après avoir obtenu une licence et un diplôme supérieur spécialisé en archivistique de l’Université de Haute‐Alsace ainsi qu’une maîtrise en muséologie, elle a terminé son doctorat en histoire et civilisation à l’École des Hautes Études en Sciences Sociales de Paris en 1999. Conjointement à la direction du centre d’archives, elle a été maître de conférence en archivistique privée à l’université de Haute‐Alsace à Mulhouse de 1996 à 2006, date de son départ pour le Canada où elle enseigne à présent en tant que professeure en gestion de l’information à l’université de Moncton, campus de Shippagan au Nouveau‐Brunswick. Ses recherches ont porté sur les archives privées et l’histoire économique et sociale alsacienne qui ont donné lieu à de nombreux articles. Elle a publié deux ouvrages sur le patronat mulhousien réformé et obtenu, en 2000, le grand prix de la Décapole de l'Académie d'Alsace pour le meilleur livre d’histoire d’Alsace sur La Société industrielle de Mulhouse : ses membres, son action, ses réseaux (1826‐1870). En 2004, elle a publié un second livre sur la Société industrielle et les conséquences de l’annexion allemande à Mulhouse. Depuis son arrivée à l’université de Moncton, ses études portent sur l’interdisciplinarité et l’information en santé, la gestion documentaire ainsi que sur le patrimoine religieux institutionnel de l’Acadie et sur l’enseignement francophone. Elle est également co‐fondatrice en 2008 avec le professeur Nicolas Landry du Groupe de recherche en patrimoine religieux acadien (GRPRA) de l’UMCS. 17 Charlotte L’Heureux‐Lemieux est originaire de la ville de Québec. Après avoir fait un cours d’infirmière à Campbellton, Nouveau‐Brunswick, elle exerce sa profession dans un hôpital de soins de courte durée entre 1974 et 1979. Par la suite, elle complète un baccalauréat en science infirmière à l’Université de Moncton et y travaille à titre de chargée de cours jusqu’en 1983. De retour au Québec, elle occupe des postes d’infirmière dans différents champs et milieux cliniques. En 1992, elle termine ses études de maîtrise en science infirmière à l’Université de Montréal. Comme praticienne, elle démarre, avec un groupe de médecins et de professionnels, une clinique externe de gériatrie et enseigne à temps partiel pour cette même université. En 1997, elle obtient un poste de professeure en science infirmière à l’Université de Moncton au Campus de Shippagan, site de Bathurst et développe des projets en santé internationale en Afrique et en Haïti pour les étudiants et étudiantes. Sa rentrée au Québec en 2000 lui permet d’occuper différents postes de cadres supérieurs, dont celui de commissaire aux plaintes et à la qualité des services dans un centre de santé et de services sociaux de Montréal. Tout en travaillant à temps plein, elle décroche un diplôme de « Médiation : civile, commerciale et travail » au Barreau des avocats du Québec. En 2001, elle parfait ses connaissances sur la prise de décision partagée (share decision making) à l’Université d’Oxford en Angleterre et en 2002, elle obtient un Master en qualité, de la Faculté de Médecine de l’Université de Montréal en collaboration avec l’Université de Technologie de Compiègne et l’École Nationale de Santé publique de Rennes en France. Elle joue aussi le rôle de visiteur pour Agrément Canada, un organisme d’accréditation. Ces formations alimentent son rôle de commissaire pour la défense des droits des usagers dans le réseau de la santé. De nombreuses communications ont été présentées au Québec, en Europe et ont donné lieu à des articles dans des revues de santé. Lors du séisme en Haïti en 2010, elle agit à titre de conseillère avec des professionnels en santé sur le « Plan d’action au comité d’hébergement du bas ArtiboniteSéisme 2010 ». En juillet de la même année, elle réintègre son rôle de professeure à l’École Réseau de science infirmière à l’Université de Moncton, Campus de Shippagan au site de Bathurst.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
55
Résumé : A travers l’exemple du dossier médical électronique et du dossier de santé électronique au Canada, deux professeurs ont étudiés les défis qui les attendent, pour intégrer une préoccupation commune, entre la gestion documentaire et la science infirmière dans leurs formations universitaires en matière d’information en santé, et mieux sensibiliser les praticiens en santé à utiliser les expertises des professionnels de l’information et surtout à instaurer un dialogue entre les différentes disciplines qui souvent s’ignorent. Motsclés : Interprofessionnel, dossiers médicaux électroniques, dossiers de santé électroniques, gestion documentaire, science infirmière, éthique de la santé Introduction La gestion de l’information en santé regroupe tous les défis liés à la production et à la tenue de dossiers médicaux fiables, complets et facilement accessibles aux personnes autorisées ainsi que l’imposante masse de renseignements à conserver sur une longue durée. L’apport des technologies de l’information et des communications entraîne des changements de supports avec la dématérialisation des documents notamment dans la mise en place des dossiers médicaux électroniques (DME) et des dossiers de santé électroniques (DSE). Ajoutons à cela l’obligation de protection des données personnelles et de réponse aux exigences règlementaires, notamment pour l’obtention d’agréments, le besoin d’exploitation de statistiques médicales et de recherche. Dans ce contexte de mouvance, deux professeures se sont interrogées sur les collaborations possibles entre leurs disciplines, soit la gestion documentaire et la science infirmière pour apporter des éléments de réflexion et mieux préparer les étudiants à leurs futures professions. La mise en commun de compétences supposait l’obligation d’élaborer des stratégies et des règles et surtout de développer une préoccupation commune pour une meilleure gestion et utilisation de l’information. En étudiant les impacts de l’implantation du DME auprès des professionnels de santé et des patients à l’aide d’un sondage pour confronter leurs points de vue, ainsi que d’un partenariat entre les professeures pour proposer une étude de cas aux étudiants, un dialogue renouvelé a révélé l’importance de l’information comme préoccupation commune. Dans notre exposé, nous allons nous interroger plus particulièrement, sur les impacts du DME et du DSE au Canada, poser les défis qui nous attendent, intégrer cette préoccupation dans nos formations universitaires et mieux sensibiliser les praticiens en santé à utiliser les expertises des professionnels de l’information.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
56
Contexte du monde de la santé La Loi canadienne sur la santé est l’instrument législatif fédéral qui régit le régime d’assurance de santé publique18. L’objectif premier est « de protéger, de favoriser et d’améliorer le bien‐être physique et mental des Canadiens et de faciliter un accès satisfaisant aux services de santé ». Le système de santé canadien est fondé sur l'universalité des services médicalement nécessaires. Ces services sont gérés et dispensés par les gouvernements provinciaux et territoriaux et sont fournis gratuitement. Au cours des dernières années, le système de santé a été soumis à des tensions en raison de nombreux facteurs, tels que le vieillissement de la population, la transformation des processus cliniques, les coûts élevés de la technologie, l’implantation du DME, du DSE et la protection accrue des renseignements personnels qui l’exige et l’interopérabilité qui en découle. Le DME a été lancé par une société indépendante appelée, Inforoute Santé du Canada19, à but non lucratif et a été créé pour favoriser et accélérer le déploiement et l’utilisation de systèmes électroniques d’information. Inforoute, s’est engagée à fournir aux résidents du Canada et à leurs prestataires de soins, un accès adéquat et sécurisé se rapportant à la bonne information, au bon moment et au bon endroit, correspondant à la porte d’entrée de l’usager, dans le réseau de la santé. Le mandat d’Inforoute Santé du Canada en rapport avec la confidentialité est d’intégrer la protection des données de santé et des renseignements personnels dans ses activités suivant les lois et les principes appliqués au Canada.
Les provinces et les territoires ont la responsabilité, sur leur territoire respectif, de la prestation des soins de santé, de la législation sur la protection des renseignements personnels et des solutions de dossiers de santé électronique (DSE). À ce jour, les administrations publiques en sont à divers stades dans l’élaboration et la mise en application des lois et des politiques sur les systèmes d’informations qui régiront le réseau des dossiers de santé électronique de leur territoire.20
Des investissements totalisant 4 milliards de dollars ont été attribués au réseau de soins de santé visant la mise en place de l’Inforoute incluant des normes de confidentialité, de sécurité et d’interopérabilité. À ce jour, les investissements d’Inforoute ont permis de mettre en place, les DSE donnant aux cliniciens un accès aux antécédents médicaux, aux
18 Santé Canada. La mise en œuvre des dossiers médicaux électroniques dans les établissements de soins de santé primaires. Trousse des dossiers médicaux électroniques. 2006. http://www.troussedme.ca/view_section.php?section=90, consulté le 20 septembre 2008. 19 I Infoway‐Inforoute.Ca et Inforoute Santé du Canada. Interoperable electronic health record solutions (EHRS) ‐ A giant step forward for healthcare delivery in Canada, april 2006. https://www2.infoway‐inforoute.ca/Documents/EHRS‐Blueprint‐v2‐Exec‐Overview.pdf., consulté le 29 avril 2011. 20 Infoway‐Inforoute.Ca. Mandat d’Inforoute sur la protection de la confidentialité, https://www.infoway‐inforoute.ca/privacy‐mandate, consulté le 22 mars 2011.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
57
images diagnostiques radiologiques, aux résultats de laboratoire, au profil pharmaceutique, aux antécédents vaccinaux, et autres rapports cliniques, en tout temps et en tout lieu. Inforoute s’est aussi donnée comme mandat de mettre sur pied une unité de collaboration de normalisation pancanadienne pour la mise en forme efficace du réseau. En 2010, 49 % de l’objectif ciblé était atteint. C’est donc dire qu’il en reste encore 51 % à atteindre21. Les cinq prochaines années seront déterminantes pour le déploiement des DSE et des DME. Selon Santé Canada, cette transformation profitera aux Canadiens en termes de soins de santé plus efficaces, plus sûrs et de plus grande qualité. De son côté, l’Association médicale canadienne a publié une étude pancanadienne sur l’état d’avancement des projets réalisés dans 20 cliniques de divers milieux. Selon cette étude, les données probantes ont révélé des avantages pour les patients, les médecins et le système de santé. Les améliorations sont d’ordre des processus et des soins continus, d’efficience de gestion des maladies chroniques, de satisfaction et de rétention du personnel, de bonification des communications, d’éducation, d’habilitation et d’autonomisation22 des patients au niveau de la prise en charge, de la sécurité dans les traitements, etc.
Pour les médecins, les opérateurs hospitaliers et l’ensemble du personnel médical, le DME donne l’opportunité de structurer, d’automatiser et de rationaliser le déroulement du travail. Il fournit un dossier complet rassemblant toutes les informations suite à des consultations médicales ou des activités liées à la santé. Les défis principaux demeurent l’interopérabilité interne et externe entre les fournisseurs, la non‐intégration des outils d’aide à la décision, un accès plus important et plus rapide aux bases de données existantes et la difficulté pour les patients d’accéder à un portail en ligne, axé sur leurs besoins de santé.
Quant à l’Union des consommateurs23, elle relève dans son rapport sur le DSE et le contrôle des données personnelles de santé dans un contexte d’informatisation des dossiers médicaux que les Canadiens sont préoccupés par l’intégrité de leurs renseignements personnels, en particulier ceux touchant leur santé. D’après ce rapport, 88 % approuvent le DSE. Le principal motif de désapprobation concerne la sécurité des données : 45 % des personnes interrogées craignent que quelqu’un de mal intentionné utilise leurs renseignements à mauvais escient, 42 % redoutent que ceux‐ci servent à d’autres fins que
21 Infoway‐Inforoute.Ca. Guide de l’Unité collaborative de normalisation. Créer des solutions, améliorer les résultats en santé…tous ensemble, 2007. https://www.infoway‐inforoute.ca/working‐with‐ehr/solution‐providers, consulté le 11 mai 2011. 22 Profession Santé. Qu’arriveraitil si… le système de santé était complètement informatisé ?2011. http://www.professionsante.ca/gestionnairesdesante/interprofessions/quarriverait‐il‐si/quarriverait‐il‐si‐le‐systeme‐de‐sante‐etait‐completement‐informatise‐2‐9383/6, consulté le 11 mai 2011. 23 Union des consommateurs. Le dossier de santé électronique : le contrôle des données personnelles de santé dans un contexte d’informatisation des dossiers médicaux. Rapport final du projet présenté au Commissariat à la vie privée du Canada. 2010. http://www.consommateur. qc.ca/union‐des‐consommateurs/docu/vieprivee/100331UC_CVPC_DSE.pdf, consulté le 10 mai 2011.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
58
celle d’assurer leur santé et 37 % d’entre elles, s’inquiètent du risque d’atteinte en matière de protection et de sécurité des renseignements. En conclusion, les Canadiens sont en faveur de l’informatisation de leurs renseignements de santé, mais à condition d’être rassurés quant à leur sécurité et leur confidentialité. Un des répondants mentionnait : « Si vous êtes capable de protéger ma vie privée, je suis à l’aise avec le DSE ou le DME ». Le DSE fait circuler les informations rapidement et en grand volume vers un grand nombre d’utilisateurs finaux. Il est l’outil privilégié des décideurs. Il est aussi innovateur, car il permet aux professionnels de la santé d’accéder à l’information essentielle sur la santé des patients à l’endroit où il se trouve, sans avoir à consulter les dossiers papier. Ses caractéristiques doivent être bien comprises, car elles influent énormément sur le traitement de l’information. Avant tout il s’agit de données dématérialisées portant sur le patient et qui peuvent être des enregistrements sonores, des vidéos, des images, du texte disponible électroniquement. Elles revêtent un caractère longitudinal qui suppose que les informations sur le patient soient recueillies et stockées dans le temps et englobent tout le continuum de la prestation des services de santé. Enfin, elles doivent être accessibles aux professionnels de la santé autorisés pour appuyer la prestation de soins et consultables par le patient pour la partie qui le concerne24. Afin de répondre à ces points, il est indispensable de mettre en place une politique concertée de la gestion et de la conservation du DSE ainsi que d’assurer la protection de l’information en veillant de plus à garantir l’interopérabilité du système. Il en va de même pour le DME qui est l’équivalent du contenu du dossier médical sur support papier. Il résume une relation entre un patient et un professionnel de la santé et contient les diagnostics, les notes des professionnels et appartient à un établissement de santé ou à une clinique médicale. Par contre, le DSE, englobe les informations de tous les professionnels de la santé et fait circuler un grand volume d’informations rapides à un grand nombre d’utilisateurs. L’enjeu réside dans le fait de passer d’un modèle de protection des renseignements personnels basé sur la divulgation volontaire des patients (DME) à un modèle dont la principale préoccupation est la circulation de l’information (DSE). Comment harmoniser ces deux logiques en préservant la protection des renseignements personnels des patients ?
Problématique
Comment le monde de la santé gère‐t‐il le développement et le changement relié aux technologies de l’information, à la profusion de nouvelles connaissances informationnelles, à l’augmentation des règlementations et des nouvelles pratiques d’éthique
24 Santé Canada, Bureau de la santé et l'inforoute. Vers les dossiers de santé électroniques. 2001. http://www.hc‐sc.gc.ca/hcs‐sss/pubs/ehealth‐esante/2001‐towards‐vers‐ehr‐dse/index_f.html, consulté le 9 mai 2011.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
59
interdisciplinaire ? Peut‐on apporter des réponses aux gestionnaires de l’information qui ont du mal à cerner les besoins découlant de l’inflation documentaire, de l’absence d’organisation, de coordination et de normalisation dans la gestion des dossiers ? Est‐il possible de mieux former les étudiants pour qu’ils développent un esprit critique, une capacité d’évaluation et d’analyse face aux problèmes et aux exigences de leur métier ? Pourquoi est‐ce important de sensibiliser et de former les futurs professionnels en science infirmière à mieux comprendre les besoins et les obligations en matière de pratiques informationnelles actuelles ? Le DME risque‐t‐il de modifier la consignation des notes de l’infirmière au dossier ? Cette sensibilisation, leur permettrait‐il d’assurer une meilleure qualité de services ? Aborder l’éthique en santé sous l’angle des pratiques informationnelles devenait plus significative en raison des formations différentes des étudiants, mais aussi complémentaires. Aussi pour mieux comprendre cette problématique, allons‐nous présenter les résultats d’un sondage et d’une étude de cas.
Analyse et résultats d’un sondage sur l’implantation du DME Une étudiante en gestion de l’information a fait un travail de recherche25 sur le DME à partir d’Inforoute Santé du Canada et a regardé le dossier du point de vue de la confidentialité. Cet organisme à but non lucratif et investisseur stratégique veille à ce que la fonction « confidentialité » soit incorporée dans la création et la mise en place des systèmes de DME. Une architecture conceptuelle a été développée sur les aspects de la confidentialité et de la sécurité. Les avantages offerts par le DME sont multiples et concernent aussi bien la qualité des soins et la sécurité des patients que la diminution des coûts, une communication facilitée entre les prestataires de services et les patients, la diffusion rapide des données et le renforcement de la capacité d'analyse de ces dernières. De ce fait, les renseignements sur le patient sont de meilleure qualité, des erreurs cliniques peuvent être évitées et le continuum des services de santé assuré. Il aide les prestataires de soins à tenir des dossiers plus complets en les obligeant à consigner des renseignements précis, au fil du temps et entre les milieux de soins. L’accent est mis sur les renseignements essentiels grâce au recours à des rappels automatisés. L’information est structurée, normalisée, rendant plus efficace l’analyse et les communications entre les prestataires et les organisations de services de santé. Le DME, limite les services superflus en raison de la non‐disponibilité des résultats d’examens et favorise un accès plus rapide aux résultats de laboratoires, de pathologie, de radiologie et de profil pharmaceutiques. En cas d’urgence, il est donc facile de retracer le profil global et les antécédents du patient de manière à le traiter efficacement et sécuritairement. On peut extraire facilement des données médicales ou d’interventions et de statistiques sans travail supplémentaire lors de la saisie. De plus, les renseignements sont exacts, complets et accessibles rapidement et en temps réel. Ces renseignements permettent de mieux connaitre la santé populationnelle et la mise en place
25 Power, M. Dossier médical électronique. Rapport remis dans le cadre du Cours GEIN3050 d’éthique, politique sur l’information, Université de Moncton, campus de Shippagan, 2011.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
60
de programmes correspondant aux besoins.26 Cela a l’avantage de fournir de l’information pour appuyer la recherche et l’analyse afin d’améliorer les connaissances de la pratique médicale et professionnelle. Enfin, cela accentue la capacité d'analyse des données et la démonstration de la compétence clinique à des fins de revalidation, d’homologation et d’amélioration continue de la qualité. Une fois maîtrisé, le DME devient un facilitateur de pratique. Il serait pourtant grave d’ignorer les inconvénients du DME qui sont parfois occultés par les promoteurs du projet. La perte d’information et le vol de données sont à prendre en compte27. Une mauvaise sauvegarde, un bris d’équipement, une dépendance informatique ou une simple incompatibilité de systèmes ou de logiciels sans parler du transfert des données peuvent conduire à des problèmes de restitution de l’information complète ou valide. Il s’agit aussi de protéger adéquatement la sécurité de l’information et de veiller au remplacement périodique des supports informatiques qui sont d’une grande fragilité. Il est aussi plus facile de voler un grand nombre de dossiers médicaux sous format numérique à partir du moment où on peut s’introduire dans le système. Une seule clé USB peut conduire au vol de nombreux dossiers. Il faut être prudent lors des mises à jour dans les dossiers médicaux et être certain d’avoir la bonne version du document. La traçabilité doit être prise en compte, car il peut être difficile de savoir si des informations ont été effacées d’un dossier ou si l’historique des modifications est absent. Le dossier médical électronique crée une dépendance aux technologies et peut entrainer des problèmes lors de panne de courant ou encore de serveur informatique. Enfin, le point le plus important est le problème de confidentialité et de protection des données. Comment protéger les données personnelles de manière efficace ? Ainsi, les soumissionnaires de projets doivent remplir ces conditions pour l’obtention de financement. Le mandat d’inforoute consiste à intégrer la protection des données personnelles dans ses activités suivant les lois et les principes appliqués au Canada. Le sondage mené auprès de 40 patients et de 10 professionnels de la santé avait pour but de mieux cerner leurs opinions en ce qui a trait à l’implantation du DME. Le sondage a été fait par courriel, par téléphone et sur format papier. Il semblerait que la population soit peu sensibilisée aux enjeux du DME, qu’elle méconnaisse les dangers de divulgations de leurs données personnelles, les risques rattachés à la sécurité et à la pérennité de l’information. De plus, le sondage révèle que plusieurs répondants connaissaient mal le DME qui selon eux, n’est que la reproduction du dossier papier patient sur ordinateur. Par ailleurs, les enjeux liés à l’exploitation du DME sont méconnus de ces derniers. Le tableau ci‐dessous présente les « pour » et « contre » de l’implantation du DME concernant les patients et les professionnels. Les commentaires semblent plus positifs que 26 Profession Santé. Qu’arriverait‐il si… le système de santé était complètement informatisé ?2011. http://www.professionsante.ca/gestionnairesdesante/interprofessions/quarriverait‐il‐si/quarriverait‐il‐si‐le‐systeme‐de‐sante‐etait‐completement‐informatise‐2‐9383/6, consulté le 11 mai 2011. 27 Auffrey, Ch. Vol de données médicales : un pirate demande une rançon, 6 mai 2009. http://www.zdnet.fr/actualites/vol‐de‐donnees‐medicales‐un‐pirate‐demande‐une‐rancon‐39500888.htm, consulté le 18 mars 2011.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
61
négatifs, cependant les craintes de perte de confidentialités, d’atteintes aux données personnelles, de fragilité et de sécurité des systèmes, sont les plus évoquées. Les avantages sont nombreux en particulier pour l’accès rapide aux données sur l’état de santé du patient, la continuité et l’amélioration des soins prodigués ainsi que le transfert rapide de l’information vers les spécialistes et les professionnels de la santé.
Avis des répondants sur l’implantation du DME (Source : synthèse des questionnaires d’enquête auprès de patients et de professionnels de la santé28)
Avis des patients (40 répondants) Avis des professionnels de la santé (10 répondants)
Pour l’implantation Transparence du dossier médical Simplification de la tâche lors d’urgences Diminution du temps d’attente pour prise d’informations et des résultats de tests
Diminution des risques (antécédents médicaux, médicaments, allergies)
Base de connaissance pour soins donnés et réussis sur un autre patient présentant les mêmes symptômes
Meilleurs suivis et mise à jour de la médication prescrite, traitements et autres
Meilleur accès et suivi Regroupement rapide de données de santé Économie de papier et de frais d’entreposage Lisibilité et compréhension de l’informationContinuité dans les dossiers Économie de temps et d’argent Accessibilité facilitée aux professionnels de la santé
Élimination de duplication de documents
Amélioration des communications sur l’état de santé
Facilité de consultation
Amélioration du travail interdisciplinaire Transfert de dossiers entre les professionnelsRapidité d’accès aux données en cas d’urgence Relevé complet de l’état de santé Informations suivent les déplacements du patientSoins administrés plus rapidement Améliorations des soins aux personnes âgéesSoins favorisés en cas de maladie à l’étrangerTransfert rapide à un spécialiste Statistiques
Contre l’implantation Risque de fraudes, de modifications des données Nécessité d’un support papier complémentaireTrop d’informations recueillies par rapport aux soins demandés
Dépenses importantes pour l’achat et l’entretien de matériels informatiques
Perte, vol d’information, piratage Piratage, falsification des données, virusPeur de divulgation des données personnelles (recherche, assurances, sondage, voisinage)
Peur de divulgation des données personnelles(recherche, assurances, sondage, voisinage)
Bris de confidentialité Nécessité d’un personnel qualifié pour gérer les dossiers
Dépendance à la technologie Manque de sécurité des systèmes Problèmes de conservation à long termeErreurs de saisie
28 Power, M. Dossier médical électronique. Rapport remis dans le cadre du Cours GEIN3050 d’éthique, politique sur l’information. Université de Moncton, campus de Shippagan, 2011.Annexes des réponses, 27‐43, 2011.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
62
Obsolescence des supports technologiquesAccès non contrôlé au dossier Peu de garanties de sécurité Étude de cas éthique interdisciplinaire Que se soit dans le domaine de la santé ou dans celui de la gestion de l’information, chaque professeur rencontre des difficultés quand il s’agit de faire assimiler les nombreuses contraintes de ces métiers aux étudiants. Plus encore, passer de la théorie à la réalité du monde professionnel demande de s’intéresser aux nombreuses disciplines. La pratique solo n’est plus possible! C’est pourquoi, Mesdames Charlotte L’Heureux‐Lemieux, professeure d’éthique professionnelle au baccalauréat en Science infirmière et Florence Ott, professeure en gestion documentaire au baccalauréat en gestion de l’information, toutes deux de l’université de Moncton, Campus de Shippagan, ont décidé de tenter une première expérience interdisciplinaire au site de Bathurst, le 18 novembre 2010. Il s’agissait de proposer à leurs étudiants respectifs une étude de cas construite en partenariat et rejoignant des préoccupations communes, notamment dans la protection des données personnelles et dans la tenue des dossiers par l’entremise d’une étude de cas. Dans un premier temps, un échange de sommaires eut lieu, l’un sur l’éthique professionnelle en science infirmière et l’autre sur la gestion d’information en santé. Était‐ce réalisable ou faisable de rassembler ces deux entités à travers un médium quelconque permettant aux étudiants de vivre une expérience interdisciplinaire et complémentaire simulant la réalité du travail ? Selon la définition de Prevost et Bougie29, nous entendons par expérience interdisciplinaire, la mise en commun des compétences des professionnels appartenant a un même organisme qui se complètent et s’harmonisent pour répondre aux objectifs fixés par l’équipe ce qui favorise l’interactivité et la dynamique de groupe. Pour leur part, D’amour et Oandasan30, précise que l’interdisciplinarité est une réponse à des disciplines diverses dont les connaissances sont fragmentées. Le but étant de les rassembler et de les rendre cohérentes au profit des besoins de santé des clients/patients/familles et communautés. L’interdisciplinarité devenait l’approche crédible et susceptible de confronter les idées afin de faire surgir des solutions en éthique de la santé. Dans un second temps, les professeures se sont rencontrées pour mettre en commun leur champ d’expertise et explorer les possibilités de collaboration pour enrichir les connaissances et développer de nouvelles compétences interdisciplinaires se rapportant au 29 Prevost, A-P. et Bougie, C. 2008. « Équipe multidisciplinaire ou interdisciplinaire qui fait quoi ? ». Le médecin du Québec, volume 43, numéro 11, 43-48, novembre 2008. 30 D’Amour, D. et Oandasan, I. « Interprofessionality as the field of interprofessional practice and interprofessional education : An emerging concept ». Journal of Interprofessional Care, Supplement 1, 8-20, Mai 2005.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
63
monde de la santé. Les professeures ont conclu que l’étude de cas apparaissait le moyen ou la méthode privilégiée pour y parvenir. Par la suite, la professeure en éthique professionnelle a rassemblé des documents portant sur cinq situations infirmières cliniques réelles. À partir de ces documents, les deux professeures ont développé une situation infirmière clinique, allant de l’admission de la cliente en passant par l’hospitalisation et par son retour à domicile. Pour stimuler la réflexion, l’étude de cas était accompagnée de vingt questions, de quatre articles et du texte de loi sur l’accès et la protection en matière de renseignements personnels sur la santé au Nouveau‐Brunswick, sanctionnée le 19 juin 200931. Avant l’expérience clinique du 18 novembre 2010 à Bathurst, les étudiants devaient préalablement faire leurs lectures et répondre aux questions sur l’étude de cas. La méthode choisie s’est déroulée au cours d’une session où les étudiants des deux disciplines se devaient de faire un jeu de rôle lié à l’étude de cas. Cinq groupes ont été formés de façon aléatoire et chacun d’eux a reçu six rôles, qu’ils devaient se partager. Parmi ces rôles, nous retrouvions la cliente ayant subi une atteinte à sa dignité, les deux infirmières impliquées dans la situation, une commissaire aux plaintes et à la qualité des services, un directeur général et un observateur. Chaque groupe se voyait attribuer un consultant en information qui avait la responsabilité de questionner les interventions et les commentaires émis par les membres de l’équipe interdisciplinaire. Au cours de l’exercice, les professeures sont intervenues l’une à titre de journaliste et l’autre comme responsable de la gestion des risques. La durée de l’exercice a été de 90 minutes incluant une revue des questions liées à l’étude de cas aux fins de confirmation et de suivi se rapportant aux lectures demandées. Cet exercice a suscité l’engouement, la participation active et une réflexion intensive sur des sujets tels que le respect de la vie privée et des renseignements personnels de la personne, la rédaction exhaustive des notes d’évolution au dossier médical, la tenue des dossiers et la gestion de l’information dans l’ère de l’informatisation. Comme on le voit, la gestion des données personnelles contenues dans les dossiers des patients du réseau de la santé constitue une question cruciale dans le contexte actuel. Comment protéger les renseignements personnels contenus dans le DME et le DSE ? Comment assurer l’éthique en santé dans la circulation des informations et des renseignements personnels dans le réseau de la santé ? Est‐ce possible que de nouveaux risques éthiques surgissent et que les questions éthiques se multiplient ? Les résultats obtenus par cette étude de cas ont permis d’apprécier la satisfaction des quarante étudiants. Plusieurs ont mentionné que l’expérience leur a permis de sortir de leur
31 Gouvernement du Nouveau‐Brunswick. Loi sur l’accès et la protection en matière de renseignements personnels sur la santé. 2009. http://www.gnb.ca/0062/PDF‐acts/p‐07‐05.pdf, consulté le 9 février 2011.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
64
isolement et de réaliser que d’autres professionnels pouvaient se joindre à eux pour la résolution des problèmes éthiques. Les étudiantes en science infirmière ont compris l’importance de la rédaction rigoureuse des notes, car elle reflète la qualité des soins prodigués aux patients au dossier médical. En ce qui concerne les étudiants en gestion de l’information, ils ont réalisé que leur présence et leurs interventions à titre de responsable ou de gardien des informations sont cruciales dans la bonne marche du processus et au niveau de la qualité des soins et services. Les formulaires d’appréciations remplis par les étudiants révèlent que l’expérience est concluante. Les pistes d’améliorations suggérées sont : préciser les rôles des acteurs dans l’étude de cas, clarifier certaines questions et en élaborer de nouvelles sur la gestion de l’information. De ce fait, l’apprentissage des apprenants sera bonifié. En général, les étudiants ont apprécié la libre expression et le partage d’opinions. Une étudiante en science infirmière cite : « cette approche m’a permis de confronter mes idées avec d’autres personnes que des infirmières. Je comprends que l’éthique professionnelle est un travail d’équipe et de collaboration. Je saisis mieux la portée du travail interdisciplinaire. Les étudiants en gestion de l’information étaient bien préparés pour intervenir avec nous. Garder un esprit ouvert est capital dans la santé ». Conclusion En conclusion, les enjeux du DME sont un bon exemple de réflexion à tenir entre les deux disciplines que sont la gestion documentaire et la science infirmière, puisqu’ils sont concernés par la qualité et la sécurité de l’information en santé. Chacun en fonction de ses connaissances peut favoriser la discussion et la mise en place de stratégies auprès des décideurs et des praticiens et apporter sa pierre à l’édifice pour favoriser l’implantation réussie du DME. Les collaborations entreprises ont démontré l’intérêt commun dans le souci de développer une prise de conscience des étudiants et des praticiens à ces nouvelles problématiques d’informatisation des réseaux de la santé et aux répercussions retentissantes dans la vie privée des personnes. Le sondage a confirmé la pertinence de poursuivre une meilleure sensibilisation à la gestion et à la protection de l’information. Pour se faire, les gestionnaires de l’information doivent impérativement s’associer aux disciplines médicales et professionnelles actuelles. Il serait utopique de vouloir travailler seul dans un monde en profonde mutation qui réclame des compétences multiples, complexes et sans cesse renouvelées. L’intégration d’études de cas interdisciplinaires entre les étudiants de programmes complémentaires est une opportunité d’apprentissage à ne pas négliger. Au cours des travaux, les professeures ont réalisé que les sujets traités en éthique professionnelle, tels que la tenue des dossiers, le respect de la vie privée des patients, les informations partagées entre les professionnels de la santé, le respect de la loi sur l’accès et la protection en matière de renseignements personnels sur la santé et les modes de défaillances en cours de processus interpellaient les étudiants des deux programmes. Le partenariat et
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
65
l’interdisciplinarité devenaient donc possibles, voire indispensables, surtout à l’ère de l’informatisation. Maintenant que nous sommes convaincues de la pertinence et de la richesse des collaborations, il nous faut élargir les partenariats à d’autres champs cliniques du réseau de la santé et aux organismes qui font la promotion des DME et des DSE. L’expérience a été interactive et novatrice pour les étudiants et la communauté universitaire. De nouveaux projets sont en route notamment des interventions dans les cours universitaires, dans l’activité clinique en santé, la sensibilisation des administrateurs et dans les communications auprès des chercheurs. Nous espérons que de nouvelles collaborations viendront stimuler ces expériences et faire évoluer les mentalités et les façons de travailler pour favoriser des partenariats ouverts sur tous ces enjeux technologiques et informationnels qui interagissent sur les personnes. Un système complètement informatisé amènerait‐il des effets sur les patients en termes d’autonomisation et de prise en charge ? Une piste à suivre lors d’une prochaine communication. Bibliographie Auffrey, Ch. Vol de données médicales : un pirate demande une rançon, 6 mai 2009. http://www.zdnet.fr/actualites/vol‐de‐donnees‐medicales‐un‐pirate‐demande‐une‐rancon‐39500888.htm, Consulté le 18 mars 2011. D’Amour, D. et Oandasan, I. « Interprofessionality as the field of interprofessional practice and interprofessional education : An emerging concept ». Journal of Interprofessional Care, Supplement 1, 8‐20, Mai 2005. Gouvernement du Nouveau‐Brunswick. Loi sur l’accès et la protection en matière de renseignements personnels sur la santé. 2009. http://www.gnb.ca/0062/PDF‐acts/p‐07‐05.pdf, consulté le 9 février 2011. Herveg, J., Verhaegen, M‐N. et Poullet, Y. 2002. « Les droits du patient face au traitement informatisé de ses données dans une finalité thérapeutique: les conditions d'une alliance entre informatique, vie privée et santé ». Revue du droit de la santé, n° 2, p. 56‐85, 2002. Inforoute santé du Canada et Association médicale canadienne. Expériences de l’utilisation du DME aux premières lignes, 2009. https://www.infoway‐inforoute.ca/flash/lang‐fr/emr‐case‐studies/docs/EMR_Case_Studies_FR_lowres.pdf, consulté le 10 mai 2011. Infoway‐Inforoute.Ca. Guide de l’Unité collaborative de normalisation. Créer des solutions, améliorer les résultats en santé…tous ensemble, 2007.https://www.infoway‐inforoute.ca/working‐with‐ehr/solution‐providers, consulté le 11 mai 2011. Infoway‐Inforoute.Ca et Inforoute Santé du Canada. Interoperable electronic health record solutions (EHRS) ‐ A giant step forward for healthcare delivery in Canada, april 2006.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
66
https://www2.infoway‐inforoute.ca/Documents/EHRS‐Blueprint‐v2‐Exec‐Overview.pdf., consulté le 29 avril 2011. Larouche, Ch. et Dulude, S. « Les dossiers médicaux électroniques : êtes‐vous prêt pour l’adoption ? ». Le médecin du Québec, Fédération des médecins omnipraticiens du Québec, volume 45, numéro 2, 67‐69, février 2010. Menart, J‐P. et Ménard, M. « Le dossier patient au Québec : Confidentialité et accès ». Réseau juridique du Québec. 2007. http://www.avocat.qc.ca/public/iidossiermedical4.htm, consulté le 9 février 2011. Oandasan, I. et Reeves S. « Key elements of interprofessional education. Part 2: Factors, process and outcomes ». Journal of Interprofessional Care, Supplement 1, 39‐48, May 2005. Portail du droit des nouvelles technologies. Le dossier médical informatisé : la délicate protection des données personnelles, 2005. http://www.droit‐technologie.org/actuality‐831/le‐dossier‐medical‐informatise‐la‐delicate‐protection‐des‐donnees‐pe.html, consulté le 9 février 2011. Power, M. Dossier médical électronique. Rapport remis dans le cadre du Cours GEIN3050 d’éthique, politique sur l’information. Université de Moncton, campus de Shippagan, 2011. Prevost, A‐P. et Bougie, C. 2008. « Équipe multidisciplinaire ou interdisciplinaire qui fait quoi ? ». Le médecin du Québec, volume 43, numéro 11, 43‐48, novembre 2008. Profession Santé. Qu’arriveraitil si… le système de santé était complètement informatisé ? 2011. http://www.professionsante.ca/gestionnairesdesante/interprofessions/quarriverait‐il‐si/quarriverait‐il‐si‐le‐systeme‐de‐sante‐etait‐completement‐informatise‐2‐9383/6, consulté le 11 mai 2011. Santé Canada. La mise en œuvre des dossiers médicaux électroniques dans les établissements de soins de santé primaires. Trousse des dossiers médicaux électroniques. 2006. http://www.troussedme.ca/view_section.php?section=90, consulté le 20 septembre 2008. Santé Canada, Bureau de la santé et l'inforoute. Vers les dossiers de santé électroniques. 2001. http://www.hc‐sc.gc.ca/hcs‐sss/pubs/ehealth‐esante/2001‐towards‐vers‐ehr‐dse/index_f.html, consulté le 9 mai 2011. Union des consommateurs. Le dossier de santé électronique : le contrôle des données personnelles de santé dans un contexte d’informatisation des dossiers médicaux. Rapport final du projet présenté au Commissariat à la vie privée du Canada. 2010. http://www.consommateur. qc.ca/union‐des‐consommateurs/docu/vieprivee/100331UC_CVPC_DSE.pdf, consulté le 10 mai 2011.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
67
De la communication stratégique maîtrisée à la communication collective intelligente. Le cas de la stratégie Twitter d’un institut de formation
Christian Marcon32 Maître de conférences hors classe, habilité à diriger des recherches
en sciences de l’information et la communication Chercheur au laboratoire CEREGE – Centre de Recherche en Gestion EA 1722 ‐
Université de Poitiers _________________________________________________________________________________________________________ Résumé : La recherche‐action présentée ici a consisté à confier à des étudiants l’initiative d’émettre des messages sur la plateforme Twitter au nom de leur institut de formation. Cette communication présente l’analyse préalable, les modalités de la mise en œuvre, les résultats observés et les conclusions qui en ont été tirées en termes de confiance dans la collaboration, de progression de la présence sur Internet et de complexité de maîtriser les possibilités d’interaction offertes. Motsclés : Internet, communication, stratégie, Twitter, web 2.0 ________________________________________________________________________________________________________
Contexte de la recherche action
L’apparition du web 2.0 a introduit une rupture dans les conditions de la maîtrise de la communication stratégique. L’ère de l’avant web, et dans une très large mesure celle du web de première génération, étaient celles de l’asymétrie forte des moyens dans la communication entre les acteurs institutionnels et les acteurs individuels. Aux premiers, les dispositifs organisés de communication (personnels spécialisés, dotations financières, 32 Christian Marcon est maître de conférences hors classe en sciences de l’information et la communication à l’Université de Poitiers où il dirige l’ICOMTEC (Institut de la Communication et des Technologies numériques) et le master « Stratégie et Management de la Communication ». Habilité à diriger des recherches, il accompagne plusieurs doctorants au sein du laboratoire CEREGE (Centre de Recherche en Gestion). Il est membre et vice‐président de la commission d’expertise scientifique de la section universitaire mixte sciences de l’information et la communication – sciences économiques à l’Université de Poitiers. Christian Marcon est l’auteur de la première thèse française sur l’intelligence économique dans le domaine des sciences économiques en 1998. Depuis lors, seul ou en collaboration notamment avec le Pr Nicolas Moinet, il développe des recherches dans trois domaines : l’intelligence économique (intelligence territoriale, information informelle, perception de l’environnement pertinent), les stratégies d’acteurs en réseau (dans leurs dimensions stratégique, communicationnelle, organisationnelle…) et les stratégies‐réseaux dans le champ spécifique de l’intelligence économique. Il a publié trois ouvrages et en prépare un quatrième. Ses derniers travaux portent sur l’épistémologie en intelligence économique dans le champ de l’information‐communication, notamment sa dimension communicationnelle et sur les blogs consacrés aux réseaux sociaux numériques et à l’intelligence économique (colloques MUSSI 2010 & 2011).
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
68
maîtrise des outils et des techniques de communication telles que la propagande, le journalisme, la publicité) leur donnant une relative maîtrise de leur communication tant en termes de messages que de programmation ; aux seconds, l’amateurisme avec ses talents de créativité, d’enthousiasme, de débrouillardise, parfois suffisants pour que, dans un rapport de David à Goliath, David garde quelques chances occasionnelles de succès lorsque les médias veulent s’emparer des messages ainsi émis. Le web 2.0 a bouleversé la donne au niveau technique. Là où la première génération des technologies du web imposait un apprentissage long avant une maîtrise des outils de réalisation de sites, préambule à toute expression d’une opinion sur la toile, le web 2.0 permet à presque tout le monde (en exagérant à peine) d’être présent sur Internet (Cardon, 2010) et facilite les interactions à grande vitesse et grande échelle. Le web 2.0 a également transformé la manière commune de calculer la valeur des réseaux de communication. On estimait couramment avec la « loi » dite de Sarnoff33 que la valeur d’un réseau descendant (one to many) était proportionnelle au nombre de récepteurs de l’information via le réseau, comme dans les réseaux de télévision par exemple. Cette « loi » pouvait caractériser la communication institutionnelle traditionnelle. On estima ensuite par la « loi » de Metcalfe34 que la valeur d’un réseau dans lequel chacun peut échanger avec chacun (one to one) tel le réseau téléphonique, devait être estimée en fonction du nombre de paires qui pouvaient se constituer pour communiquer, soit le carré du nombre d’utilisateurs. Bien des auteurs actuels adoptent, sans trop y réfléchir, une troisième « loi », dite de Reed35 (Reed, 1999) qui verrait la valeur du réseau communautaire (many to many) augmenter à la puissance du nombre d’internautes en mesure de se connecter techniquement. Cette « loi » est contestée par d’autres auteurs qui, portant un regard empirique sur les communications opérées réellement au sein des réseaux communautaires (Lefebvre, 2005), considèrent Reed comme « très théorique », ce qui, dans leur propos, signifie que la mesure proposée par Reed est illusoire. Dans ces conditions, au delà de la controverse sur la formule même, l’idée d’une maîtrise de la communication stratégique par l’organisation, qui renvoie à une communication essentiellement descendante, « à l’ancienne », ou bijective (entre l’entreprise et chacun de ses parties prenantes isolément) est une illusion. Les organisations de toutes natures sont confrontées à une communication des acteurs individuels massive, rapide, sans doute moins construite en termes de techniques de communication habituelles, mais beaucoup plus réactive et innovante, se coordonnant par d’autres procédés plus intuitifs, et surtout, une communication décomplexée tant sur la question de la technologie que de l’expression. Le problème Face à un contexte bouleversé, l’organisation désireuse de communiquer sur ce qu’elle est et ce qu’elle fait peut choisir entre plusieurs voies. La première, aujourd’hui en voie de
33 Homme d’affaires américain, pionnier de la radio et la télévision. 34 Ingénieur américain, inventeur d’éthernet. 35 Informaticien ayant participé à la normalisation du protocole TCP/IP.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
69
disparition, est le conservatisme, qui conduit à maintenir un dispositif classique de communication reposant sur les outils traditionnels que sont les relations presse, l’organisation d’évènements, la production de supports papier… La seconde voie est celle de la mise en place d’un site web portail qui permet de chercher à canaliser l’expression des internautes en leur offrant des possibilités de contacter l’organisation, tout en essayant de maitrisant l’émission des messages, dans leur rythme, leur contenu et leur forme. Dans cette voie, l’organisation continue de chercher à contrôler les possibilités d’expression des personnels de l’entreprise, via une charte de bon usage, des clauses de confidentialité, un système de modération des messages… Une troisième voie représente un véritable défi : celui de l’appui sur l’expertise et l’envie de contribuer à la communication manifestée par les membres de l’organisation, en complément du maintien d’une démarche de communication institutionnelle intégrant les outils numériques. Cette voie du pari de la coconstruction va à l’encontre des préconisations courantes des Directions des Services Informatiques dont le contrôle des usages et des logiciels est une prérogative habituelle, justifiée par la nécessaire cohérence interne du dispositif et une appréhension à l’égard de tout risque d’introduction d’élément malveillant (virus, logiciels espions). Elle va aussi à l’encontre d’une volonté commune des directions de la communication, relayant en cela leurs directions générales, de contrôler les messages émis avant toute diffusion par crainte de dérapages. Dans une perspective plus précise d’intelligence stratégique, elle constitue également une prise de risque sensible. Cette situation est précisément celle que rencontre l’Institut de la Communication et des Technologies Numériques (ICOMTEC) de l’Université de Poitiers. Jusqu’à présent, sa communication externe était restée maîtrisée dans la mesure où tout message institutionnel imprimé ou diffusé sur Internet faisait l’objet d’une procédure de validation par le directeur de l’institut. Cette procédure, classique et qui donnait satisfaction, introduisait un délai avant parution, avec pour conséquence de limiter les informations diffusées à celles qui pouvaient supporter ce relatif délai. Une analyse des dispositifs de communication à l’œuvre a conduit à constater au printemps 2010 que, si l’information institutionnelle construite, validée, pesée mot à mot, demeurait pertinente sur certains sujets pour constituer une référence officielle, elle présentait plusieurs limites :
- Le fait brut, l’information non construite et officialisée, était souvent déjà diffusé par les multiples canaux dont disposent les étudiants de l’institut (plateformes de réseaux sociaux, téléphone).
- Seule une petite partie de ce qui mériterait d’être communiqué l’est effectivement car les supports classiques ne se prêtent pas à l’exposition de toutes les informations.
- Les pratiques des publics de l’institut (étudiants, partenaires, médias) ont intégré des moyens de communication plus réactifs que le site web ou la lettre d’information semestrielle.
- L’institut ne peut plus se contenter de communiquer sur lui‐même. Il doit aussi jouer un rôle de « tiers facilitateur » (Alloing & Deschamps, 2011) pour construire et
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
70
entretenir son image. Il peut aussi chercher à susciter le maillage d’un réseau d’experts issus de ses diplômés, dont l’animation marquerait une volonté de l’institut de « créer une interaction, un partage, des échanges d’informations entre les diverses micro‐communautés reliées aux experts présents dans [ce] réseau. » (Alloing & Moinet, 2010)
- Les étudiants de l’institut ont de plus en plus une présence numérique sur Internet sous la forme de blogs, de pages personnelles ou institutionnelles (associations d’étudiants, Junior Entreprise), de pages sur les réseaux sociaux Facebook, Linkedin, Viadeo, etc, d’interventions sur Twitter. Cette présence n’est pas utilisée par l’Institut pour démultiplier sa communication et renforcer sa réputation numérique.
Les objectifs Les constats précédents, en termes de dynamique de communication, doivent être complétés de trois observations managériales :
- Contrainte de ressources humaines : l’institution n’a pas les moyens humains nécessaires pour assurer un contrôle ex ante de toutes les communications émises avec un délai de réaction très court et sa communication institutionnelle finit par relever du « bricolage » (Ciborra, 2004 ; Comtet, 2009), sans que cela soit négatif par nature.
- Ressources internes en termes de compétences : les étudiants de l’institut se forment au management de la communication pour une part et à l’intelligence économique et la communication stratégique pour l’autre part. Ils se forment donc précisément à la maîtrise des outils et stratégies de la communication sur Internet. S’ils sont en apprentissage, il se trouve parmi eux des étudiants avancés, voire quasi experts dans certains domaines de la communication sur Internet.
- Management : la communication de l’institut est déjà confiée, sous la responsabilité du directeur, à un « Service Communication », piloté par deux chargés de communication (interne & externe) depuis quatre ans. L’expérience a prouvé que, globalement, les étudiants investis dans ce projet professionnel (chargés de communication, chefs de pôles) ont conscience de leur responsabilité vis à vis de l’institut et des limites à ne pas franchir dans leur liberté d’action.
Dans ce contexte, l’objectif général de l’expérimentation est de développer la présence numérique de l’institut tout en testant le degré de confiance qui peut être accordé aux étudiants dans ce processus de co‐construction qui s’appuie lourdement sur eux. La solution retenue Pour essayer d’atteindre cet objectif, quelques étudiants se sont vus confier, pour le compte de l’institution, l’ensemble des outils de type « réseaux sociaux » : pages Viadeo & Facebook (2 étudiants), compte Twitter (2 étudiants). La responsabilité éditoriale engagée est celle du directeur de l’institution, qui accepte le risque de ne pas contrôler chaque mouvement de communication engagé au nom de l’institution par ce petit groupe d’étudiants.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
71
Dans le cadre de cette communication, ce sont les résultats de l’expérience menée sur Twitter qui sont présentés. Rappelons que Twitter est un service en ligne qui permet l’émission de messages courts (140 caractères au maximum, incluant éventuellement une adresse internet) à une liste d’abonnés ou « followers », tout en suivant soit même les messages émis par d’autres via des « abonnements ». Le principe de Twitter est celui de la réactivité par rapport à l’information. Méthode La mise en place de cette recherche‐action a suivi, naturellement, une logique empirico‐inductive, les sources scientifiques manquant encore pour procéder autrement. La démarche est essentiellement qualitative, même si une observation quantitative des productions est également opérée. Nous avons procédé en quatre étapes.
Etape 1. Suggestion par les étudiants de la création d’un compte Twitter institutionnel, sur la base d’une analyse globale de la présence de l’institut sur Internet. Cette suggestion est refusée, ce qui conduit les étudiants à remettre un dossier complet d’analyse et d’argumentation.
Etape 2. Sur la base de cette argumentation, acceptation du principe et définition de principes généraux : confiance accordée aux étudiants chargés du compte pour ne pas diffuser de messages pouvant porter atteinte à l’image de l’institut ou impliquer sa responsabilité juridique ; choix des sujets libre ; initiative d’envoi accordée, sans validation préalable, aux étudiants concernés, seuls habilités.
Etape 3. Création du compte le 26 janvier 2011 et début de l’envoi de tweets. Parallèlement, les étudiants consultent l’abondante littérature professionnelle disponible en ligne, tant pour maîtriser techniquement l’outil que pour en appréhender la « philosophie ». Création d’un compte personnel pour suivre les tweets émis.
Etape 4. Evaluation des résultats sur une base qualitative et quantitative. Résultats Analyse quantitative : Rythme de publication : sur la période concernée (26 janvier – 12 mai), soit 131 jours, 157 tweets ont été émis, à un rythme d’abord très rapide, puis plus lent à partir de début avril comme le montre le graphique ci‐dessous qui opère une comparaison entre le nombre d’informations émises par ce canal avec celles mises en ligne sur la page Facebook de l’ICOMTEC et celles diffusées via Twitter par la Junior Entreprise de l’institut : Icomtec Consultants ©.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
72
Figure 1. Tweets émis par le compte officiel ICOMTEC du 26 janvier au 12 mai 2011
Poids des envois originaux : l’analyse du contenu de ces messages montre la part accordée aux envois en nom propre et la part des renvois de messages reçus dans le cadre des abonnements choisis (re‐tweets). Là encore, une comparaison mérite d’être faite entre les deux émetteurs disposant d’une légitimité institutionnelle et contribuant, tous deux, à l’image de l’institut.
Figure 2. Poids des messages originaux dans les tweets envoyés.
‐ Nombre d’abonnés : ICOMTEC compte sur Twitter 253 abonnés. Ce chiffre n’est pas considérable si on le compare aux abonnés de certains étudiants ou anciens étudiants de l’institut (CaddeReputation – 4512 ; terryzim – 1024 ; diawan – 300 ; koboyboyboy ‐ 547…). Mais la plupart d’entre eux sont inscrits sur le service depuis plus longtemps et y montrent une activité très intense (CaddeReputation ‐ 7957 tweets au 19 mai 2011 ; koboy – 7666 à la même date). La Junior Entreprise compte 349 abonnés et a émis 671 tweets depuis sa création.
0
50
100
150
200
250
1‐1‐11 2‐1‐11 3‐1‐11 4‐1‐11 5‐1‐11
Twitter JE cumul
Facebook ICOMTEC cumul
Twitter ICOMTEC cumul
050100150200
1‐1‐11 2‐1‐11 3‐1‐11 4‐1‐11 5‐1‐11
Twitter ICOMTEC cumul
dont re‐tweet cumul
0
200
400
1‐1‐11 2‐1‐11 3‐1‐11 4‐1‐11 5‐1‐11
Twitter JE cumul
Dont re‐weet cumul
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
73
Analyse qualitative : L’analyse qualitative des messages envoyés depuis le compte Twitter de l’ICOMTEC semble indiquer :
- que le rythme d’émission est directement lié à l’existence d’une actualité générée par l’institut, dans la mesure où, durant la période d’observation, le nombre de re‐tweets est extrêmement faible. Or le premier trimestre de l’année civile est toujours celui le plus générateur d’actualité. Comparativement, la Junior Entreprise, qui maintient un rythme plus rapide, compense ses périodes de manque d’actualité propre par davantage de re‐tweets.
- que le rythme d’émission est également lié à la présence des étudiants dans leur institut. A partir de début avril, non seulement l’actualité de l’institut s’est ralentie, mais les étudiants sont partis en stage, ce qui a réduit la place de leur institut dans leur champ d’attention, et par conséquent le rythme d’émission de messages.
Une enquête de Jean‐Sébastien Chouinard, du cabinet canadien Adviso (Balagué & Fayon, 2010), distinguait cinq types de comportements sur Twitter : parler de ses émotions (15% des tweets), discuter d’un sujet (20%), partager des liens (45%), fil de presse (20%), spamming (marginal). Notre analyse des sujets abordés dans les tweets révèle ici l’existence de trois catégories:
- les messages de courtoisie : annonce de création, bienvenue aux nouveaux abonnés, remerciements pour re‐tweets opérés… Ils représentent une quarantaine de message, soit environ un quart du tout. Ces messages ne contribuent pas particulièrement à la construction de l’image, quoiqu’ils témoignent d’une compréhension des règles de sociabilité associées à l’outil. Ils exercent une mission phatique au sens de Jakobson (Jakobson, 1963).
- Les messages relais d’information origine extérieure : que ce soit sous la forme de re‐tweets ou d’informations que les étudiants prennent l’initiative de communiquer, ils visent à diffuser aux abonnés des informations qui ne relèvent pas d’une autopromotion mais de sujets d’actualité en lien avec les deux orientations de formation de l’institut, soit l’intelligence économique (annonce de manifestations, de parutions d’articles), soit de la communication (concours, articles, informations humoristiques…) Le procédé vise à montrer l’existence dans l’institut d’une veille thématique dont les abonnés bénéficient d’une partie, sélectionnée, des résultats. En aucun cas il n’apparaît que les informations ainsi diffusées transgressent les consignes données. Si quelques messages semblent au chercheur de moindre intérêt, il s’agit d’un jugement de valeur personnel qui n’est sans doute pas partagé par la plus grande fraction des abonnés qui sont largement des étudiants, des anciens étudiants, des futurs étudiants. Cette catégorie représente une cinquantaine de messages, soit environ un tiers, qui remplissent une double fonction conative (invitation à la consultation) et expressive (manifestation d’intérêt pour l’information transmise).
- Les messages d’autopromotion ou hédonistes : ils sont le cœur de la construction de l’image de l’institut en en montrant l’activité, les succès, les échos obtenus dans la presse. Cette catégorie recouvre quelques thèmes centraux : l’annonce d’événements organisés par l’institut ou auxquels participe l’institut (21) et leur suivi après achèvement (10), la mise en ligne d’articles sur le site web de l’institut (10), les
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
74
parutions d’articles sur l’institut dans la presse (6), mais aussi les parutions de la lettre d’information en intelligence économique Vigie (3), les activités de l’association des étudiants et diplômés en intelligence économique Métis (3), celles de la Junior Entreprise (3), l’actualité d’anciens ou intervenants de l’institut (4)… Le tout représente près de soixante dix messages.
Figure 3. Nuage de motsclés caractéristiques du contenu textuel des tweets envoyés.
Leur fonction est essentiellement conative mais il nous semble qu’ils remplissent aussi une fonction phatique à l’égard des membres de l’institut impliqués ou concernés par les informations transmises qui attendent de l’institut une forme de reconnaissance via l’émission de ces messages. Conclusions de l’expérimentation Le premier enseignement, managérial, de l’expérience est que la confiance placée dans les deux étudiants « missionnés » n’a pas été trahie. Ceux‐ci ont respecté une éthique de responsabilité (Weber, 1919) ou formelle (Reynolds, 2006) en étant vigilants sur les conséquences de chaque message émis. Nous formulons l’hypothèse que, conformément aux observations de Dukerich (et al., 1990) et Schminke (et al., 2002), notre propre éthique formelle, rappelée avec insistance dans nos rapports quotidiens avec les étudiants, ainsi que celle des étudiantes chargées d’encadrer la communication de l’institut, ont influencé en ce sens les décisions prises par les étudiants autorisés à émettre des tweets. Cependant, l’expérience devra être poursuivie plus longtemps, y compris dans des situations plus délicates en terme de vie de l’institut pour mesurer jusqu’à quel point l’influence de l’éthique du leader sur le groupe est prégnante.
Un deuxième constat est que l’action menée ne suffit pas à conclure que la présence sur Internet de l’institut, sa « réputation numérique » a progressé de manière sensible. Des messages ont été émis, vers un petit collectif d’un peu plus de 250 personnes qui a souhaité les recevoir et, parfois, a réagi ou les a relayés, introduisant une dimension plus interactionnelle dans la communication de l’institut. A l’aune de l’immensité communicationnelle du web 2.0, c’est moins qu’une goutte d’eau. Vis à vis des publics ciblés, dans les domaines professionnels qui intéressent l’institut, c’est une amorce sensible qu’il
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
75
semble justifié de pérenniser. En termes de pédagogie, c’est une pratique pertinente. Qu’en est‐il en termes stratégiques ? Résumons les formes de la présence numérique directe de l’ICOMTEC : un site web réactualisé chaque semaine par de l’actualité pour qui prend l’initiative de venir le consulter (approche pull) ; un compte Facebook pour informer un public essentiellement composé d’anciens (approche push) ; un compte Twitter pour élargir la cible, introduire davantage de réactivité, créer des flux vers les autres espaces numériques, élargir nos interventions (approche interactive). Le tout, sans être misérable, n’est pas considérable parce que l’institut n’a pas directement les moyens de faire beaucoup plus sans adopter une approche plus collaborative avec ses étudiants et ses anciens. Déjà, ceux‐ci constituent le plus actif vecteur de construction d’image pour l’institut, avec les risques que cela comporte. Une rapide exploration permet, en quelques minutes, d’identifier 25 étudiants ou anciens étudiants actifs, lesquels ont émis un total de 39200 tweets depuis leur inscription. Tous ne sont pas encore followers de l’ICOMTEC ; tous n’ont pas forcément envie de re‐tweeter ses messages. Mais ils peuvent, lorsque l’occasion se présente, contribuer spontanément à diffuser des informations. Plus largement, d’ailleurs, en s’identifiant comme diplômés ou étudiants, par leur propos, ils sont indirectement porteurs d’image. A partir de cette expérimentation au périmètre bien circonscrit et de ses résultats se pose finalement la question de la co‐construction de la communication numérique d’une organisation avec ses membres, en l’occurrence un institut avec ses étudiants et diplômés. La problématique diffère des approches classiques de stratégie‐réseau (Marcon & Moinet, 2000) dans lesquelles étudiants et diplômés s’appuient sur un parcours de formation commun pour s’ouvrir des opportunités, construire leur entregent, se forger des relais dans des perspectives d’emploi et d’échange de services tout en communicant sur leur institution. Il s’agit ici, non pas de relationnel direct établi dans le cadre d’échanges qui permettent l’émission de messages éventuellement négatifs sur l’organisation parce que ceux‐ci sont privés, mais de propos diffusés et dont on souhaite qu’ils aient la plus grande audience et qu’ils soient relayés. La contribution des membres de l’organisation, souhaitée, n’est pas programmable dans l’univers du numérique. Comme le souligne Dominique Cardon, la manière dont se forment les collectifs sur Internet est particulière. Il est difficile d’y recruter des internautes engagés au service d’une cause : « la demande de participation se conçoit plus souvent comme une expérimentation qui s’organise autour d’un dispositif permettant d’agir et de coopérer » (Cardon, 2010). Une communication numérique institutionnelle co‐construite n’est donc pas complètement contrôlable ; il n’est pas possible non plus, à défaut, de la « manager » au sens habituel du terme. Entre l’absence de communication sur le web 2.0 qui, en s’excluant de l’interaction, laisse la place à n’importe quel discours, et le mythe d’une communication contrôlée se trouve donc un espace stratégique communicationnel intelligent, hybride (Marcon, 2001), mi institutionnel ‐ mi collaboratif, qui interroge la répartition des pouvoirs dans l’organisation, le mode de relation aux membres et des membres avec l’image de l’organisation. La maîtrise de cette interaction (Fayard, 2000) nous semble être le défi des années qui viennent, notamment pour des acteurs universitaires qui n’en sont pas familiers
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
76
en général, formés davantage à la diffusion de leurs savoirs qu’à la co‐construction de ceux‐ci. Bibliographie Alloing, C. & Moinet, N. « Des réseaux d’experts à l’expertise 2.0 ». Les cahiers du numérique, vol. 6, 2010/1. Alloing C. & Deschamps C. « Veille stratégique et internet participatif : les agents facilitateurs remettent‐ils en question le concept de signal faible ? ». Actes du 3e Colloque Spécialisé en Sciences de l’Information, 2011. Cardon, D. La démocratie Internet. Promesses et limites. Editions du Seuil, 2010. Ballagué, C. & Fayon, D. Facebook, Twitter et les autres, Intégrer les réseaux sociaux dans une stratégie d’entreprise. Editions Pearson, 2010. Berry, M. & Deshayes, C. Les vrais révolutionnaires du numérique. Editions Autrement Frontières, 2010. Champloix S. Limites et dangers des réseaux sociaux ouverts dans le cadre d’une utilisation professionnelle, Documentaliste – Sciences de l’information, vol 47, n° 3, 2010. Ciborra, C. « Bricolage, heuristics, serendipity, and make‐do », in Avgerou C., Ciborra C., Land, F. The social Study of Information and Communication Technology : innovation, actors and contextes. Oxford University Press, 2004. Comtet, I. « Entre usage professionnel des TIC et structure organisationnelle : la capacité au bricolage comme compétence adaptative ». Etudes de communication, n° 33, 2009. Dukerich, J.M., Nicol,s N.M., Elm, D.R., Vollra,t D.A., « Moral reasoning in groups : leaders make a différence », Human Relations, 43, pp. 473‐493. Fayard, P. La maîtrise de l’interaction. Editions Zero Heure, 2000. Huberman, B.A., Romero, D. M., Wu F. « Social networks that matter : Twitter Under the microscope », base Arxiv.org, 2008. Jakobson, R. Essai de linguistique générale, Editions de Minuit, Paris, 1963. Lefebvre, A.Les réseaux sociaux, pivot de l’Internet 2.0, M2 Editions, Paris, 2005.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
77
Licoppe, C., Proulx, S., Cudicio, R. « L’émergence d’un nouveau genre communicationnel dans les organisations fortement connectées : les « questions rapides » par messagerie instantanée ». Etudes de communication, n° 34, 2010. Marcon, C. & Moinet, N. La stratégieréseau. Editions ZeroHeure, 2000. Marcon, C. « Le champ d’action réticulaire : un espace de communication stratégique hybride ». Communication et Organisation, n° 20, 2001. Reed, D. « That sneaky exponential », 1999, Disponible sur le site de l’auteur à l’adresse : http://www.reed.com/dpr/?sel=dprbiog Reynolds, S. J. « Moral awareness and ethical predispositions:Investigating the role of individual differences in the recognition of moral issues ». Journal of Applied Psychology, 91(1), 2006. Schminke, M., Wells, D., Peyrefitte, J., & Sebora, T. C. « Leadership and ethics in work groups: A longitudinal assessment ». Group and Organization Management, 2002. Weber, M. Le savant et le politique, 1919. Disponible en ligne à l’adresse suivante : http://classiques.uqac.ca/classiques/Weber/savant_politique/Le_savant.html
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
78
La veille stratégique au sein de Bibliothèque et Archives Canada : leçons tirées de l’expérience
Ihtesham Rashid36
Analyste de la recherche, Recherche stratégique Bibliothèque et Archives Canada ihtesham.rashid@lac‐bac.gc.ca
Résumé : La présentation suivante a pour but de partager les leçons apprises par les membres de la division de la recherche stratégique de Bibliothèque et Archives Canada (BAC) depuis sa création en 2008. La première partie expliquera les raisons qui ont mené BAC à créer une capacité institutionnelle pour entreprendre une veille stratégique continue. La deuxième partie présentera les divers produits de recherche que la division a conçus à travers cette fonction administrative. La troisième partie discutera l’expérience de l’équipe en ce qui a trait la mise en œuvre des produits de recherche. Finalement, la conclusion présentera quelques défis auxquels la division de la recherche stratégique à BAC doit faire face actuellement.
Motsclés : Ère numérique, gouvernement du Canada, veille stratégique, outil d’affaires, capacité institutionnelle, documents de nature informationnelle, tactique ou stratégique Contexte Mise en place en 2008, la division de la recherche stratégique à BAC a le mandat de fournir des renseignements pertinents et de grande qualité afin de soutenir la prise de décision institutionnelle et pour assurer que l’institution demeure pertinente pour la société canadienne à l’ère du numérique. La division a également le mandat d’entreprendre la recherche et l’analyse en se basant sur des données probantes sur divers sujets de l’heure qui ont un impact direct sur BAC en tant qu’entité administrative au sein du gouvernement du Canada et à titre d’institution publique responsable de la préservation à long terme du patrimoine documentaire canadien.
36 Ihtesham Rashid est titulaire d'un baccalauréat en arts (2003) et d’une maîtrise en analyse de politiques et administration publique (2006) de l’Université de Concordia. En 2005, il se joint à la fonction publique en tant qu’analyste junior des politiques au sein du Leadership Network et participe à l’élaboration de la politique en matière d'apprentissage, de formation et de perfectionnement. La même année, Monsieur Rashid se joint à Bibliothèque et Archives Canada (BAC) où il participe au cours des cinq prochaines années au développement et implémentation de divers projets de nature stratégique tels que l'initiative sur la tenue de documents; ainsi qu’à d’autres projets de nature opérationnelle tels que La tenue de documents et la gouvernance dans le monde. Depuis 2008, Monsieur Rashid travaille en tant qu’analyste de recherche au sein de la division de la recherche stratégique à BAC.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
79
Pour atteindre ces objectifs principaux, la division de la recherche stratégique développe, entre autres, des produits de recherche de nature à la fois informationnelle, tactique et stratégique destinés à la haute direction à partir d’une veille stratégique continue dans les domaines des sciences de l’information, de la bibliothéconomie, des technologies de l’information, de l’administration publique, et des sciences sociales. La présentation suivante a pour but de partager les leçons apprises par les membres de la division de la recherche stratégique de BAC. La première partie expliquera les raisons qui ont mené BAC à créer une capacité institutionnelle pour entreprendre la veille stratégique continue. La deuxième partie discutera des produits de recherche que la division de recherche a développée à travers cette fonction administrative. La troisième partie partagera l’expérience de l’équipe en ce qui a trait la mise‐en‐œuvre des produits de recherche. Finalement, la conclusion présentera quelques défis auxquels la division de la recherche stratégique à BAC doit faire face. I Le problème Aujourd'hui, la vitesse de l'innovation et la démocratisation de la technologie ont conduit à l'émergence d'une classe d’utilisateur‐créateur, des usagers qui consomment autant de produits numériques qu’ils en produisent. Cela a contribué à une surabondance d'information, dont la plupart est de valeur transitoire (IDC, 2008). Par exemple, on n'a qu'à penser au phénomène récent de mashups, vidéos sur Youtube et des messages sur Twitter et Facebook. Dans ce contexte, la technologie transforme la façon dont nous participons et communiquons les uns avec les autres. Du point de vue de BAC, ces changements sociétaux à l'ère numérique nous poussent non seulement à réviser nos pratiques et méthodes existantes qui visent à acquérir, à rendre accessible et à préserver le patrimoine documentaire du Canada pour les générations actuelles et futures, mais aussi à nous questionner sur la manière dont nous pouvons demeurer pertinents aux yeux de nos usagers à l’ère numérique. Pour les professionnels de BAC, il n’est plus possible de faire face aux défis du 21ème siècle en adaptant des solutions analogues développées d’abord au 19ème siècle et raffinées par la suite au fil des ans. Tout ceci nous oblige présentement à revoir nos pratiques, en nous posant certaines questions fondamentales : Comment devrait BAC déterminer ce qu'il est important de documenter de manière durable pour les générations actuelles et à venir? BAC devrait‐elle agir comme filtre et évaluer toute forme d'information pour en déterminer la valeur? Comment pourrait‐on demeurer vigilant à l'égard de l'information instantanée, sans négliger de saisir et capter d'autres ressources documentaires, qui s'avèrent tout aussi importantes? Comment devrait‐on rassembler et intéresser les citoyens et les professionnels de tous les horizons autour de notre travail? Comment pourrait‐on refléter la diversité des points de vue et des perspectives sur un même sujet? Et enfin, comment devrait‐on collaborer avec de multiples parties prenantes? (Caron, 2010).
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
80
Objectifs Pour alimenter la réflexion continue de la haute direction sur les sujets courants qui la préoccupent, réduire le risque d’impacts négatifs qui pourraient être causés par des évènements imprévus, et pour assurer la planification stratégique à long terme de l’institution, le Bibliothécaire et Archiviste du Canada, en tant qu’administrateur général, créa la division de la recherche stratégique à BAC en 2008. Cette division de BAC fut mandatée de concevoir des produits de recherche tel que des rapports techniques, des présentations, ainsi que d’autres produits connexes pour appuyer la prise de décision au sein l’institution. Pour atteindre ces objectifs, le cadre exécutif initial au sein de l’équipe adopta une approche horizontale ou la division se transforma en une boîte de recherche opérationnelle (se concentrant exclusivement sur la recherche de nature informationnelle et tactique). Le changement de cadres exécutifs à BAC, incluant ceux au sein de la division de recherche, mena à l’adoption d’une approche plus hiérarchique, ainsi qu’un soutien continu et direct du Bibliothécaire et Archiviste du Canada qui nous demanda de créer des rapports de nature stratégique principalement en s’appuyant sur une veille stratégique mettant l’accent sur les axes de recherche suivante: les sciences de l’information et la bibliothéconomie, les technologies de l’information, l’administration publique, et les sciences sociales. Étant donné les ressources limitées de l’équipe, les analystes de la division de la recherche stratégique ont choisi d’entreprendre une veille stratégique sur ces thèmes généraux sur une base quotidienne, ce qui leur permettrait d’avoir un aperçu des tendances socio‐économiques et technologiques pouvant soutenir directement et indirectement le développement de solutions pour les divisions opérationnels de BAC, soit l'acquisition, l'accès et la préservation des ressources documentaires. II Les solutions mises en place Les outils et les techniques employées par l’équipe de la recherche pour bien mener leur travail de veille ont progressivement évolués. La conceptualisation des premières ébauches en 2008 fut tout un défi car l’équipe avait besoin de définir la quantité et la qualité des sources d’information à partir de rien, malgré les grands thèmes de recherche identifiés par l’administrateur général. En outre, les débats sur la pertinence et la valeur des différentes sources à retenir, de même que sur les méthodes de sélection et de diffusion, ont amplement évolués. Au cours de cette première période, les analystes avaient convenu que chacun d’entre eux devrait d’abord identifier les sources incontournables de son domaine d’expertise. Cela a permis à la division de la recherche de créer un outil d’affaires transdisciplinaire dans les domaines qui incluent par exemple la bibliothéconomie, l’informatique, l’anthropologie, les sciences de l’information, l’administration publique et la sociologie. Après avoir identifié les sources, l’équipe avait décidé d'allouer un montant spécifique de temps par jour pour examiner les affaires courantes et ce, en consultant des listes de diffusion par courriel, des sites Web d’entreprises et d’institutions de mémoire et des flux RSS. Pour identifier et diffuser les nouvelles tendances repérées, une rencontre hebdomadaire de l'équipe permettait à chaque analyste de partager avec ses collègues ses principales conclusions. Si l'équipe était collectivement en accord à propos de l’importance
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
81
d’une nouvelle ou d’une tendance, une fiche d’analyse serait créée pour le bulletin d'information, un document analytique bimensuel visant à communiquer les informations identifiées, de nature tactiques et stratégiques à la haute direction de BAC. La division de la recherche stratégique constata rapidement que ce premier outil de diffusion de leurs résultats de recherche n’était pas efficace parce qu’il ne permettait pas de communiquer l’information au moment opportun aux clients. Il était trop ambitieux et difficile à maintenir compte tenu du cycle de production relativement court. Trois ans plus tard, la situation s’est considérablement améliorée. L’équipe développe maintenant trois produits clés de recherche suite à leur survol quotidien des sources d’information. Le premier produit, le Business Intelligence Report (BIR), est un rapport d’analyse trimestriel de nature stratégique qu’elle créé pour la haute direction. Ce document regroupe des rapports techniques, compte‐rendu de monographies ainsi qu’une analyse des tendances (identifiées, entre autres, dans des tweets quotidiens) dans les axes de recherche adoptées. Après avoir reçu une rétroaction sur les résultats d'analyse et sur les thèmes de recherche actuels, les analystes de la division passent en revue leurs sources, de temps à autre, afin de s'assurer qu'elles sont toujours pertinentes. Il s'agit essentiellement d’une évaluation continue de leur fonction de veille stratégique pour que l’équipe puisse continuer d’élaborer et d’offrir des produits de veille et de recherche qui répondent aux besoins du cadre exécutif au fil du temps. Le deuxième produit est un journal quotidien, The strategicresearch Daily (http://paper.li/pdesrochers/strategic‐research). Il présente des tendances et rassemble des nouvelles dans les domaines de recherche identifiés précédemment. Accessible au public, mais conçu principalement pour la haute direction de BAC et pour son personnel interne, ce produit de recherche de nature informationnelle recueille les tweets de l’équipe de recherche et le présente d’une manière efficace. Le troisième produit, la veille de média, est un document d'analyse de nature tactique qui est produit occasionnellement à la demande de la haute direction pour soutenir, par exemple, les prochaines réunions, des présentations ou des « questions d'actualité » qui peuvent avoir un impact sur BAC dans un avenir proche. Les veilles de médias récentes portaient sur des sujets variés tels que l'accès à l'information et l'économie numérique. La production de ce type de rapport d’analyse repose sur la surveillance et l’analyse des travaux entrepris par la Chambre des communes, les réunions du Comité permanent du Sénat, les blogs de spécialistes du domaine (juristes, économistes, professeurs universitaires, etc.) et de plus en plus, les médias sociaux comme Twitter, en particulier les tweets des journalistes qui rapportent les nouvelles en direct des rencontres des comités permanents. III Mise en œuvre des solutions et résultats obtenus La division de recherche a appris beaucoup de choses grâce à la mise en œuvre du bulletin d’information. Premièrement, le délai entre l'identification et la transmission d'informations stratégiques par la division de la recherche étaient beaucoup trop longs. Le seul moyen de contact de l’équipe avec leurs destinataires visés (principalement, la haute
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
82
direction) était uniquement à travers le bulletin d'information. En raison du flux de travail, qui incluait la création d'une version française et anglaise du document, les membres de l’équipe avaient constaté que l’information qu’ils communiquaient avait peu de valeur stratégique au moment où elle se rendait à leur destinataire. Deuxièmement, au lieu d'analyser la somme des informations repérées, l’équipe se concentrait plutôt sur la microanalyse de ces informations. Par conséquent, elle n’était pas en mesure de fournir une vue globale des tendances émergentes. La troisième et dernière leçon apprise réside dans le fait que le changement rapide des priorités, ainsi que le manque d’un soutien continu de la haute direction, ne facilitaient pas l’existence du bulletin d’information en tant qu’outil analytique institutionnel. Ce premier document analytique ne répondait pas aux attentes et aux besoins du public cible. Il fut abandonné après un cycle de vie très court et l’équipe retourna à la planche à dessin pour trouver une meilleure méthode de diffusion des résultats de leurs travaux de veille et de recherche. Avec la création du BIR, les analystes commencèrent à aborder ces questions ainsi que d’autres défis identifiés. Tout d'abord, sous la direction du Bibliothécaire et archiviste du Canada, il a été convenu que l’administrateur général de l'établissement et la haute direction serait les clients principaux du rapport analytique. Pour répondre à leurs besoins et réflexions qui sont en évolution constante, la division décida dès le départ d’intégrer le processus d’évaluation dans leur plan de travail. De ce fait, une fois le BIR distribué, l’équipe demande à ses clients de leur faire part de leurs opinions et commentaires sur le choix des thèmes et le contenu général pour qu’elle soit assurée d’être sur la bonne voie institutionnelle. Ainsi, on peut noter une progression naturelle des thèmes de recherche qui reflètent les besoins changeants de la haute direction et du Bibliothécaire et archiviste du Canada. Par exemple, le premier numéro du BIR contient deux sections: 1) Affaires et tendances actuelles et émergentes, et 2) Analyse de la recherche sur des thèmes d'intérêt du Bibliothécaire et archiviste du Canada. Cette section a été subdivisée en cinq sous‐sections: la valeur des ressources de l'information et information du secteur public; transformation des institutions de l’information, les idéologies de l'information et l'information des professions; l’information et des communications; le gouvernement et la gouvernance; et l’épistémologie sociale. Le dernier numéro du BIR (no 6), pour sa part, a été composé de trois sections: 1) la théorie sociale, 2) le perfectionnement professionnel en sciences de l'information; et 3) la modernisation, elle‐même composée des sous‐sections suivantes: 1) Acquisition, 2) Exploration des ressources, et 3) Préservation. Dans un sens, l’identification et l’analyse des sources clés portant sur l'épistémologie sociale, tels que Manuel Castells Communication Power (2009), et les écrits de Luciano Floridi, entres autres, ont progressivement influencé les priorités du Conseil de direction, qui à son tour, a redirigé les priorités de la division. C'est‐à‐dire, la communication des résultats de la veille a conduit les clients à reconnaître l'importance des théories sociales et critiques, en termes généraux et en termes spécifiques (leur application dans les sciences de l'information et archivistiques). Leur appétit grandissant pour ce sujet a conduit les membres de la division à découvrir des joyaux récents tels que l’ouvrage Critical Theory for Library and Information Science (2010) et
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
83
le travail de Barry Wellman sur l'analyse des réseaux. Ces études sont actuellement en train de guider le développement de projets internes ainsi que des discussions continues avec les parties prenantes à l'égard de discussions autour des compétences des professionnels de l'information au 21e siècle. Donc après avoir identifié leur auditoire clé et pour se donner une marge de manœuvre suffisante pour développer le BIR, l’équipe décida de garder un cycle de production assez souple pour publier un nouveau numéro à tous les trois ou quatre mois. Ceci a permis d'adopter un régime de publication qui a déjà fait ses preuves dans le monde académique, et plus encore, de suivre l'année fiscale du gouvernement du Canada (septembre‐avril). La division a également convenu collectivement que compte tenu de la nature confidentielle du document (destiné pour la circulation interne seulement) et de leur public cible (l’administrateur général et la haute direction), chaque analyste est encouragé d’écrire des articles dans la langue de son choix. Le BIR sera traduit lorsqu’une décision sera prise au sein de l’institution de publier une version abrégée (qui sera plus de nature informationnelle) pour partager nos découvertes avec la communauté externe. Pour offrir véritablement une « vision d'ensemble » de l'analyse de tendances dans les domaines indiqués, les membres de l’équipe décidèrent que la collecte de données doit être modifiée, et que l'analyse doit se faire au niveau macro. Ainsi, en plus de consulter les sources traditionnelles (par exemple, les périodiques, les livres et les documents d'archives), les analystes commencèrent également à suivre de près les discussions et les présentations en format vidéo mise en ligne sur les sites populaires comme Youtube, TED Conférence, et tel que mentionné précédemment, les réseaux sociaux comme Twitter. Maintenant en ce qui concerne l'analyse au niveau macro, les analystes veillent à ce qu’ils aient analysé leurs données au niveau du thème (par exemple, l'acquisition) et non au niveau de l’unité (par exemple, un seul article sur l'acquisition). En outre, ils ont développé un cadre analytique pour s'assurer que tous les conseils fournis à leurs destinataires à travers le BIR (et autres produits connexes), a pris en compte les évolutions et les priorités du gouvernement canadien en place et au niveau international, de l'état mondial socio‐économique des affaires et de développement dans les domaines indirectement liés (les technologies de l'information, la théorie sociale, l'anthropologie, les sciences humaines numériques, etc.). En adoptant cette approche, la division de la recherche est confiante que leur public est informé de tous les défis potentiels qui peuvent surgir et ou qui doivent être traitées dans un avenir proche. Et dans l'ensemble, en adressant les carences du bulletin d’information. En tant que membre de l’équipe, je crois que la division de la recherche a créé un outil essentiel au niveau institutionnel qui facilite la prise des décisions et l'élaboration d’une vision à long terme pour BAC. Avec la création du strategicresearch Daily, la division de la recherche a finalement réussi à résoudre un des plus grands défis: le partage d'information de nature informationnelle en temps opportun par un moyen accessible et facile. Le chemin emprunté pour arriver à cette étape a néanmoins été long et ardu. Avec la création du BIR, les principaux résultats identifiés et capturés par l'intermédiaire de la veille stratégique, ont été communiqués par le biais de la première section du BIR. Ce n'est qu'après la publication du 6e numéro de ce rapport que l’équipe commença a expérimenté avec les nouvelles
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
84
technologies pour faciliter la diffusion des constatations quotidiennes. En fait, pendant cette période, les « trouvailles » quotidiennes étaient communiquées directement au Bibliothécaire et archiviste du Canada par courriel. Cette approche était inefficace. Pour contrer cette inefficacité, l’équipe créa un flux RSS interne. Mise à jour hebdomadairement, le public ciblé pouvait maintenant parcourir les sources beaucoup plus facilement et ce, sur une interface dynamique. Bien que l’équipe ait reçu des éloges pour cette nouvelle approche, on réalisa rapidement que cette méthode de communication nécessitait beaucoup de ressources. En fait, les ressources allouées à l'exécution de la veille stratégique étaient désormais transférées progressivement à la programmation et les fonctions de saisie des données ; deux activités nécessaires à l'entretien de notre flux RSS interne. Cette approche fut donc abandonnée suite a la découverte du site web : www.paper.li. Paper.li facilite la découverte de contenus pertinents et d'autres personnes d'intérêt sur le web en se connectant avec le compte Twitter ou Facebook de l'usager. Pour être concis en ce qui concerne Twitter, un journal est créé en utilisant tous les liens (articles, sites web, annonces de conférences, etc.) partagés au cours des 24 dernières heures par l'usager (rédacteur en chef) et les personnes qu'il suit (les contributeurs). Un journal peut également être créé en utilisant une balise # Twitter (#hashtag), autrement dit, un mot‐clé. Il s'agit d'un journal #tag. Il sera créé en utilisant tous les liens partagés au cours des 24 dernières heures avec la balise # associée, mais ne sera pas détenu par l'utilisateur. Le dernier type de journal qui peut être créé en utilisant la page Web www.paper.li est basé sur une liste Twitter (Twitter@list). Ce journal est créé en utilisant tous les liens partagés au cours des 24 dernières heures par tous les usagers de Twitter sur la liste sélectionnée. La division de la recherche était déjà en train d'expérimenter avec Twitter et avait créé une liste composée de membres de l'équipe pour faciliter l'accès à la haute direction à la veille stratégique sur une base quotidienne. Comme il y avait un consensus général à l'interne que les tweets quotidiens (repérage des principaux résultats) étaient de caractère informatif, ils pouvaient être partagés avec les parties intéressées (personnel interne et public externe). L’équipe créa donc The strategic‐research daily. Les avantages de cet outil par rapport à ceux utilisés précédemment (le courriel par exemple, le rapport officiel bilingue et le flux RSS) étaient nombreux. Tout d'abord, on n’avait pas besoin d'allouer des ressources à la création de gabarits, à la programmation ou autres activités de nature administratives et techniques. Deuxièmement, les usagers pouvaient accéder le quotidien à partir du site web sans qu’il leur soit nécessaire de créer un compte Twitter. Troisièmement, le site web offrait des données de base (par exemple, le nombre d'abonnés) pour évaluer l’utilisation du quotidien. Enfin, le quotidien offrait aux analystes de la division une occasion de résauter avec la communauté de la science de l’information et autres en partageant leurs trouvailles avec celle‐ci. Conclusion Pour conclure, avant 2008, la veille stratégique en tant qu'une fonction d’affaires n'était pas institutionnalisée à BAC. En fait, cette fonction était entreprise d’une manière plus
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
85
organique parce que chaque secteur opérationnel, incluant les chefs de projet, était responsable de la collecte de renseignements sur une base régulière. Comme les récents succès de l'organisation (par exemple, la Directive sur la tenue des documents) le démontrent, cela n'a pas affecté la production institutionnelle de BAC. Toutefois, les initiatives de modernisation en cours nous ont permis de reconnaître qu'il y avait un déséquilibre dans la maturation des connaissances à travers l'institution. C'est‐à‐dire, il y avait des poches de divisions opérationnelles au sein de notre institution, ceux qui ont travaillé sur des projets pilotes novateurs pour être précis, qui étaient plus avancés dans leur réflexion que d'autres divisions. À ce titre, il devint de plus en plus clair qu'il est presque impossible d’avoir une discussion franche entre le personnel interne pour travailler à l'élaboration de solutions pour répondre aux nouveaux défis à l'ère numérique. En outre, alors que les cadres professionnels, au niveau opérationnel fut informés dans leur domaine, il était également devenu évident que notre institution avait besoin de développer une approche transdisciplinaire de la veille stratégique institutionnelle. Tel qu’identifié par le gouvernement du Canada, l’administrateur général doit, entre autres, posséder une habilité menant à la réflexion stratégique. C’est‐à‐dire, il doit dénoter une profonde compréhension des lois et de son rôle dans son interprétation des enjeux; identifier les liens entre les tendances mondiales, sociétales et économiques, les préoccupations des intervenants, le programme politique, les valeurs de la fonction publique ainsi que les questions ministérielles, régionales et horizontales; extraire les enjeux clés des contextes complexes, ambigus et instables; et étudier les problèmes en profondeur avant d’élaborer des solutions. Pareillement, l’administrateur général doit faire preuve d’un bon jugement et offrir des conseils éclairés en matière de politiques au ministre; élaborer une vision et des politiques qui se fondent sur la vision globale et les politiques dans le contexte national ; mettre de l’avant, au‐delà du statu quo, la contribution possible de son ministère à la société ; établir les objectifs transformationnels nécessaires dans une perspective vaste et avec des échéances à long terme ; favoriser la discussion et suscite des idées qui transcendent les échelons hiérarchiques, les ensembles de compétences et qui proviennent de différents intervenants et finalement doit prévoir les nouveaux enjeux et l’évolution du contexte et élaborer rapidement des stratégies visant à résoudre les problèmes ou à saisir les occasions qui se présentent (Bureau du Conseil privé, 2010). Pour relever les défis institutionnels et pour répondre aux attentes individuelles, le Bibliothécaire et archiviste du Canada a conçu notre division de recherche en 2008. Comme ce fut élaboré, il a fallu plusieurs années et le soutien continu de la haute direction avant que la division de la recherche stratégique fut capable de s’établir comme un organe important de l'institution qui désormais, facilite la discussion non seulement au niveau de la haute direction, mais aussi au niveau opérationnel. Cependant, plusieurs obstacles doivent être surmontés: la volonté du personnel interne d’adopter les conclusions de recherche quand elles contredisent leurs opinions traditionnelles, le développement d'une organisation de données conviviales d'archivage pour saisir et faciliter l'accès à nos constatations à l'état brut et finalement, du point de vue de l'auteur, le développement d'un réseau informel de chercheurs et analystes à travers le Canada, facilitant la collaboration
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
86
pour résoudre les grands défis communs auxquels font face les bibliothèques et les archives au 21e siècle et dans l’avenir. Bibliographie Bourgon, Jocelyne. Quatrième rapport annuel au Premier ministre sur la fonction, Bureau du Conseil privé, 1997. Brouard, François. «La veille stratégique, un outil pour favoriser l’innovation au Canada», 2002, Statistics Canada Economic Conference, Ottawa, May 2002. Bureau du Conseil privé. Lignes directrice du programme de gestion du rendement : Sous‐ministres, sous‐ministres délégués et personnes rénumérées selon l'échelle salariale GX. Directive, Gouvernement du Canada, 2010. Calof, Jonathan and F. Brouard. "Competitive Intelligence in Canada." Journal of Competitive Intelligence and Management 2, no. 2 (Summer 20004): 1‐21. Caron, Daniel J. "Édifier ensemble notre mémoire continue : Constituer un patrimoine documentaire représentatif." Library and Archives Canada. March, 22, 2010. http://www.collectionscanada.gc.ca/bac/012007‐1000.001‐f.html (accessed 02 19, 2011). Castells, Manuel. Communication Power. New York: Oxford University Press, 2009. Floridi, Luciano. Information: A Very Short Introduction. New York: Oxford University Press, 2010. —. The Philosophy of Information. New York: Oxford University Press, 2011. IDC. The Diverse and Exploding Digital Universe : An Updated Forecast of Worldwide Information Growth Through 2011. White Paper, Framingham: IDC, 2008. Critical Theory for Library and Information Science : Exploring the Social from Across the Disciplines. ( eds) Leckie, Gloria J, Given, Lisa M. & John E Bushman, Santa Barbara: Libraries Unlimited, 2010. Wellman, Barry & S.D. Berkowitz. Social Structures: A Network Approach. New York: Cambridge University Press, 1988. Wouters, Wayne G. Dixhuitième rapport annuel au Premier ministre sur la fonction. Bureau du Conseil privé, 2011.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
87
Médias publics en Afrique de l’Ouest : enjeu de prise et de conservation du pouvoir
Sékouna Keita37 Directeur général adjoint du Quotidien national Horoya
Ministère de l’Information BP. 191 Conakry, Guinée Tel. 224 68 21 47 32
Email : [email protected]
Résumé : Les médias de service public, généralement appelés médias d’Etat, constituent des moyens stratégiques de conquête et de conservation du pouvoir en Afrique. Composés principalement de la radio et de la télévision nationales, ils procurent la légitimité et la puissance à ceux qui en prennent le contrôle. Malgré le pluralisme médiatique, l’audiovisuel public garde une place considérable dans les stratégies de communication, d’information ou de désinformation ciblant les masses populaires. La prise de contrôle de ces médias est un enjeu essentiel dans la bataille pour le pouvoir, que ce soit par les élections ou par la force. Motsclés : Médias, information, Afrique, démocratie, politique, pouvoir Introduction La bataille de la communication est un enjeu important tant en période de crise qu’en temps normal, quand on sait que la qualité de l’information peut avoir une influence significative sur la prise de position et la réaction de ceux à qui l’on s’adresse. Chaque partie s’évertue à convaincre le plus tôt et le mieux possible de la justesse et du bien‐fondé de son point de vue sur la situation. Pour ce faire, en Afrique, la radio et la télévision publiques dénommées « Médias d’État » sont l’objet de toutes les convoitises.
Les médias sont considérés comme la pierre angulaire de la démocratie, en ce sens que par leur indépendance, leur professionnalisme et leur objectivité, ils servent de plateforme 37 Sékouna Keita est docteur en Sciences de l’information et de la communication de l’Université Paul Verlaine de Metz depuis 2009 et titulaire d’un Master en Administration des affaires (IAE/UPVM) également obtenu en France en 2006. Il détient un DESS en Liberté de presse et démocratie de l’Université de Montréal au Canada (2000) et une Maîtrise en Journalisme de Université de Conakry en Guinée (1997). Il a été journaliste‐reporter au Quotidien national Horoya à Conakry de 1997‐2003 puis durant 4 ans responsable de la communication de l’antenne guinéenne de l’Union internationale de la presse francophone (UPF) à Conakry. Conjointement à ses études menées en France, il sera de 2004 à 2010, moniteur chargé de l’utilisation des nouvelles technologies à la bibliothèque universitaire de Metz. Depuis mars 2011, il est Directeur général adjoint du Quotidien national Horoya. Il est l’auteur d’articles et de communications dans des colloques et des conférences en Europe, en Afrique, au Moyen‐Orient et au Canada.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
88
pour le débat, ils permettent l’expression de tous les courants de pensée et la production d’une information juste en direction du public. Dans la réalité des faits, force est de constater que nombre de médias, au Nord comme au Sud, sont loin de jouer correctement ce rôle. Que ce soit en Afrique ou ailleurs, les pressions, les manœuvres d’intimidation, les tentatives de prise de contrôle ou de manipulation de la part du pouvoir, de groupes économiques et de lobbies divers entravent l’exercice du journalisme professionnel.
Les médias constituent un élément central sur lesquels s’appuient les régimes autoritaires et dictatoriaux pour mettre en œuvre leur stratégie de communication fondée sur la propagande et la désinformation. Une « manipulation de l’opinion publique, à des fins politiques, avec une information traitée par des moyens détournés » (V. Volkoff 1999 : 31). La désinformation est donc une volonté délibérée de déformer les faits et la réalité dans le but d’induire l’opinion en erreur ou de lui faire croire à autre chose que la réalité. Cette pratique, l’Afrique en connaît encore, malgré une évolution significative de l’univers des médias. C’est une méthode qui a toujours été employée afin de convaincre le peuple, de le mobiliser dans le sens voulu et l’amener à accepter des choix politiques mêmes injustes.
I ‐ Radio et télévision publiques : des instruments d’importance stratégique
En Afrique, mieux qu’ailleurs, la télévision et surtout la radio permettent de toucher la majeure partie du public. En décembre 2010, la situation post électorale en Côte d’Ivoire a ramené au premier plan le rôle central que joue l’audiovisuel public dans la conquête, l’exercice et la conservation du pouvoir en Afrique. Le premier acte de la confrontation entre les deux camps chacun revendiquant la victoire a été autour de la Radiotélévision ivoirienne (RTI) dont la prise de contrôle apparaissait pour les uns et les autres comme une nécessité vitale pour mettre en place une communication de crise, adresser des messages aux Ivoiriens et requérir leur soutien. De part et d’autre, le fait de contrôler la RTI apparaissait comme un avantage considérable pour gagner la bataille de la communication et réussir la mobilisation des troupes. En pareil contexte, « l’information, c’est le pouvoir »38.La RTI est sous le contrôle du gouvernement en place qui nomme son directeur général et ses principaux responsables, lesquels lui restent favorables ou soumis. Le président sortant Laurent Gbagbo, battu dans les urnes selon la Commission électorale indépendante (CEI) et les Nations‐Unies mais proclamé vainqueur par la Cour constitutionnelle, exerçe un contrôle absolu sur la RTI et s’en sert comme un instrument de légitimation de son pouvoir à travers des discours et des messages favorables à son camp et hostiles à ses adversaires.
Conscient de l’importance cruciale de l’information dans la formation et la prise de contrôle de l’opinion publique, Alhassane Dramane Ouattara, candidat du RHDP (Rassemblement des Houphouetistes pour la Démocratie et la Paix) déclaré vainqueur de l’élection présidentielle du 28 novembre par la CEI et reconnu par la communauté internationale comme le président légitime de la Côte d’Ivoire, décide de prendre le contrôle de la RTI. Il
38 Propos de John Foster Dulles, Secrétaire d’État américain du 21 janvier 1953 au 22 avril 1959, dans Le Monde diplomatique de janvier 1979 (p. 18), cité dans CHAR Antoine, 1999, La guerre mondiale de l’information, Québec, Presses de l’Université du Québec, coll. Communications et relations publiques.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
89
nomme un nouveau directeur général et son Premier ministre Guillaume Soro s’engage à aller l’installer le 16 décembre 2010 en appelant ses partisans à se mobiliser et à les suivre. La suite est tragique : l’armée fidèle au président sortant L. Gbagbo intervient pour empêcher la marche vers le siège de la RTI, tire à balle réelle sur les manifestants, une trentaine de personnes sont tuées et des dizaines d’autres sont blessées. La RTI reste sous bonne garde, contrôlée par le pouvoir de M. Gbagbo. Cet épisode est très révélateur de l’importance stratégique de l’audiovisuel public qui reste, en Afrique, le plus facilement accessible aux masses populaires. La mainmise du pouvoir sur ces médias est une pratique inébranlable sur le continent depuis les indépendances.
En Afrique en général, lors des coups d’État militaires ou tentatives de prise de pouvoir par la force qui émaillent le continent depuis cinq décennies, l’enjeu principal est toujours la prise de contrôle du siège de la radiotélévision publique. En 1999, pendant son coup d’État qui a renversé le président Henri Konan Bédié, c’est à la RTI que le général Robert Guéï s’est rendu pour lire sa déclaration de prise de pouvoir. En Guinée, pendant le coup d’État qui a suivi la mort du président Lansana Conté, en décembre 2008, l’objectif numéro un des putschistes a été la prise de contrôle de la Radiotélévision guinéenne (RTG), mais aussi de toutes les radios privées, réduisant ainsi au silence les représentants du gouvernement et des institutions de la république. Totalement privés de moyens de communication de masse et rendus impuissants, ces derniers devaient perdre la face.
Historiquement bien implantées, la radio et la télévision bénéficient de l’avantage de la notoriété. Pourquoi ces médias sont‐ils si importants ? En Afrique, les médias d’État confèrent la légitimité et la puissance à celui qui les contrôle. Ce sont des outils de communication classiques qui restent les plus accessibles aux populations africaines. Ces dernières, du fait de l’analphabétisme, sont tentées de croire ou de prendre pour vérité absolue tout ce qui vient de ces médias. Plus qu’ailleurs, la télévision et la radio ont une force de pénétration et un impact énormes en Afrique. Elles permettent d’atteindre des publics plus larges et plus nombreux.
Conscients de cette place décisive dans la démarche vers le peuple, les dirigeants en font leur première arme de communication. Une mainmise qui se reflète dans le contenu de l’information produite. L’information est orientée, peu critique mais toujours insistante sur le côté positif des dirigeants et de leur action. « L’actualité événementielle ne semble pas toujours commander la hiérarchie de l’information du journal qui commence le plus souvent par des nouvelles officielles ou institutionnelles et des communications gouvernementales » (Tozzo, 2004 : 106). En Côte d’Ivoire, après la proclamation des résultats de la présidentielle de 2010, le fait que la RTI ne faisait plus aucune référence au candidat de l’opposition Alassane Dramane Ouattara, ne citant même plus son nom, est une illustration de cette réalité. L’objectivité et l’impartialité, gages de la crédibilité du travail journalistique, sont ignorées volontairement ou sous contrainte. « Croire que les médias informent ou permettent de mieux saisir la réalité sociale est à mon avis un leurre », souligne M. El Yamani (1998 : 11) en introduisant un ouvrage qui explique comment les organes d’information occultent certaines réalités et empêchent le public de comprendre la situation réelle.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
90
Moyens de communication de masse importants, la radio et la télévision publiques, en Afrique plus qu’ailleurs, restent sous strict contrôle des gouvernants qui les orientent, les censurent, les manipulent à souhait. Avec une intervention directe et constante dans le contenu de l’information. A. Char (1999 : 50‐52)39, dans l’analyse générale qu’il fait des logiques de choix de l’information selon le type de régime et le contexte historique, permet une bonne compréhension de cette situation. S’agissant des pays en développement, notamment ceux d’Afrique, il résume ainsi les critères de l’information : « l’information, c’est le progrès, la croissance ; l’information ce sont de nouveaux barrages, de nouvelles routes, de nouveaux hôpitaux ; l’information doit « enseigner et instruire », en mettant l’accent sur les réussites de la nation, en minimisant ou en ignorant tout simplement les aspects négatifs, les échecs ; l’information c’est l’intégration nationale ; c’est en résumé le journalisme de développement et de responsabilité sociale ».
La tradition de mainmise totale sur les médias publics est consécutive à « la généralisation des autoritarismes au lendemain des indépendances » (Gazibo, 2006 : 86). Ces médias, pratiquement inaccessibles à toute voix discordante du temps des régimes autoritaires, avaient alors été considérés comme des instruments devant servir à l’éducation et à l’endoctrinement des masses populaires. De cette façon, le pouvoir cherche à s’assurer que la population reçoive de l’information produite et diffusée suivant la ligne politique officielle définie. L’objectif principal étant de garantir la solidité du régime, notamment en créant le consensus et en mobilisant le soutien des citoyens, grâce à une information de propagande assurant la promotion de l’idéologie du parti. En effet, hormis quelques exceptions, les États africains constitués après les indépendances étaient des régimes autoritaires où les règles de démocratie et de bonne gouvernance étaient ignorées. « Des années 1960 à 1990, la plupart des pays africains ayant vécu sous l’emprise de ces régimes coercitifs et répressifs, les moyens de communication étaient des instruments au service d’une idéologie et d’un pouvoir arbitraire » (Makosso Kibaya, 2007 : 90).
II Ouverture démocratique et nouveau paysage médiatique
Longtemps ignorées et bafouées sur le continent, des indépendances au début des années 90, les libertés publiques fondamentales, dont celles relatives à la libre expression des opinions et aux médias, ont refait surface à la faveur de l’émergence des processus de démocratisation. « A la fin de la décennie quatre‐vingt, un composé très réactif de pressions internationales et de contestations intérieures a fini de mettre à mal l’ordre ancien en Afrique. Celui‐ci était fondé sur un principe d’autorité que les graves difficultés économiques avaient déjà amoindri. L’une des premières manifestations tangibles de cet affaiblissement est le relâchement du monopole sur l’information » (Perret, 2005 : 9). À partir de là, des réformes institutionnelles s’engagent sur le continent. Des conférences nationales sont organisées et de nouvelles constitutions démocratiques adoptées. Dans chaque pays, la constitution consacre les principes fondamentaux et universels de la démocratie et de l’État de droit : la séparation des pouvoirs, le suffrage électoral, l’indépendance de la justice, la reconnaissance des partis politiques et des organisations de la société civile, la liberté d’expression, les médias libres. 39 CHAR Antoine, 1999, La guerre mondiale de l’information, Québec, Presses de l’Université du Québec.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
91
Une traduction directe de cette ouverture démocratique est le pluralisme médiatique concrétisé par la naissance des médias privés, principalement des journaux et des stations de radios. « D’une presse monopartisane marquée par l’intervention directe des États, au sein de laquelle les journalistes jouaient le rôle d’agents de développement et de la pensée unique […] on est passé au début des années 1990 à l’explosion des journaux indépendants »40. L’étau s’étant un peu desserré, on assiste à l’émergence d’un contexte marqué par une pluralité des titres de presse et des stations de radios, mais aussi à une diversification des contenus médiatiques. Les citoyens, téléspectateurs, auditeurs et lecteurs, constamment mieux avertis, sont à la recherche d’informations justes et complètes sur ce qui se passe dans leur pays et autour d’eux. « L’ère des réseaux inaugure un nouveaux mode de relations entre les citoyens et les hommes politiques » (Wade et Falcand, 1998 : 169).
Les progrès technologiques ont permis de diversifier et de renforcer le paysage médiatique africain. Au cours des deux dernières décennies, ils ont généré de nouveaux moyens d’information et de communication d’une toute autre nature : des moyens numériques qui renforcent le rôle et la portée des médias classiques et permettent aux citoyens d’accéder à davantage de sources d’informations et d’espaces de libre expression. Comme le remarque J.‐F. Havard analysant l’influence des médias privés sur l’émergence d’une conscience citoyenne et sur l’avènement de l’alternance politique en Afrique, « le pluralisme des médias est en lui‐même un facteur de démocratisation » (Havard, 2004 : 25). L’un des faits marquants est la naissance des médias en ligne qui participent de l’animation du débat démocratique, de la prise de conscience et de la formation de l’opinion publique. Ces médias modernes, fruit des progrès technologiques, ont aidé à faire face à un besoin : celui d’un déficit de moyens d’expression médiatiques libres. Ils ont contribué à abattre, sinon à affaiblir, l’écran de difficultés mises en place par les pouvoirs politiques afin de restreindre la marge de manœuvre des membres de l’opposition politique, des acteurs de la société civile et des citoyens en général. En se demandant si les TIC sont un viatique pour démocratiser l’Afrique, J.‐M. Ledjou (2008 : 279) explique qu’elles engendrent « de nouvelles logiques d’expression du collectif et qu’elles contraignent les gouvernements à une plus grande transparence ». Au Sénégal, en 2000, l’un des facteurs de transparence de l’élection présidentielle qui a porté l’opposant historique Abdoulaye Wade au pouvoir et sonné la défaite du président sortant Abdou Diouf a été le rôle joué par les radios privées et les téléphones portables. Dans un document, l’Institut Panos, une ONG qui œuvre au pluralisme médiatique en Afrique de l’Ouest, explique par exemple le rôle capital joué dans cette alternance démocratique par « le téléphone portable [qui a servi de] principal outil de liaison »41 aux mains de différents acteurs engagés dans le processus électoral, permettant de contrôler en temps réel le déroulement des opérations de dépouillement des bulletins de vote et empêchant ainsi les tentatives de fraude.
40 Jeune Afrique L’INTELLIGENT, nº 2277, 2004 (p.40). 41 Institut Panos, 2001, Médias et élections au Sénégal. La presse et les nouvelles technologies de l’information dans le processus électoral, Dakar, Les Nouvelles Éditions Africaines du Sénégal (p. 144).
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
92
Parmi les populations, beaucoup ne se contentent plus des informations officielles des médias d’État. Internet et divers outils numériques leur permettent d’accéder à une large palette d’informations produites de façon plus libre. Malgré la fracture numérique entre le Nord et le Sud, l’usage des moyens d’information et de communication modernes se développe dans les pays africains. Progressivement, pour ce continent, se tisse le lien positif entre « l’appropriation des TIC [et] la multiplication des médias en ligne » (Lenoble‐Bart, Tudesq, 2008 : 113). Ces médias numériques dont beaucoup sont créés et animés à partir de l’étranger, y occupent une place centrale. Ils échappent au contrôle et à la régulation dont sont l’objet les autres types de médias de la part d’autorités gouvernementales.
Si jusqu’à la fin des années quatre‐vingt, en Afrique, les gouvernements étaient très maîtres chez eux, pouvaient contrôler l’espace médiatique en filtrant les informations, freiner ou empêcher la propagation des médias étrangers, l’avènement des technologies numériques a changé la donne. Les moyens d’expression nés dans cette révolution technologique réduisent la marge de manœuvre des États. Internet, dont l’appropriation se développe sans cesse sur le continent, « constitue une scène inédite d’expression publique, sur laquelle chacun peut librement entrer et évoluer » (Lepage, 2006 : 19).
Dans le contexte africain, exprimer librement son opinion à travers l’audiovisuel public, n’est pas toujours garantie. L’accès des partis politiques et des organisations de la société civile à ces médias est souvent très limité, le débat démocratique contradictoire rarement toléré. Les nouveaux médias représentent donc une grande opportunité pour les citoyens et pour les acteurs de la vie politique et sociale, tant sur le plan de l’accès à l’information que sur celui de la libre expression des opinions. Ainsi, la révolution numérique vient‐elle « déstabiliser le système et perturber le contrôle de l’information par les pouvoirs » (Ba, 2003 : 236).
Le formidable développement des TIC permet de transcender d’une manière efficace les barrières et les entraves diverses quant à la circulation de l’information, des images, des vidéos et de divers types des documents. Par sa spécificité, « internet est perçu comme un vecteur de démocratie ‐de la liberté d’expression et d’information‐ dans les États autoritaires et liberticides » (Jeanne‐Perrier, Candel, 2007 : 226). En l’espace de deux décennies, ces technologies dont l’appropriation se poursuit avec néanmoins des disparités plus ou moins grandes entre les régions et les pays, ont entraîné une transformation profonde du secteur de l’information et des médias, en occasionnant plus d’offres de contenants et de contenus, et conséquemment, plus de choix pour les usagers. De ce fait, elles permettent de contourner plus facilement les barrières à l’évolution de l’espace médiatique et démocratique africain. Internet, les blogs, les forums de discussion et divers outils électroniques sont devenus des moyens importants d’expression et de combat démocratique.
III Un audiovisuel public prépondérant
L’analphabétisme, l’inégal développement des infrastructures et les disparités entre les zones urbaines et rurales sont de nature à relativiser la portée des nouveaux médias et leur impact sur l’évolution démocratique et l’information de l’opinion publique. Car seuls les
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
93
habitants des villes disposant des équipements et services nécessaires bénéficient des avancées technologiques en matière d’information et de communication. En conséquence, malgré le pluralisme médiatique favorisé par l’amorce de la démocratie et les technologies numérique, la place et le rôle de l’audiovisuel public restent prépondérants.
Dans la plupart des pays, les radios et les télévisions privées créées suite à l’instauration de la liberté de la presse ont une capacité de couverture territoriale réduite, parfois très limitée. De plus, l’étroitesse du marché de la publicité dû au faible dynamisme économique ne leur fournit pas suffisamment de recettes pour améliorer les capacités techniques installées et faire face à tous les coûts. Certes, Internet a permis d’accroître la portée de ces médias. Mais dans la réalité de terrain, certains facteurs réduisent l’effet de cet avantage technologique : l’insuffisance des réseaux physiques de télécommunication, les problèmes d’électricité, la faiblesse des ressources financières etc. Cela étant, la radio et la télévision publiques demeurent souvent les seules capables d’assurer une couverture totale du territoire et de supporter les coûts élevés de fonctionnement, grâce au soutien de l’État qui pourvoit à tout (salaires, équipements, logistique, maintenance, production, formation). Nombre de pays africains ne disposent pas encore de télévision privée en raison du coût financier important que nécessite une telle entreprise. Le fonctionnement de la radio et de la télévision nécessitent des investissements importants et constants.
Malgré l’enclenchement des processus de démocratisation au début des années 90 et la mondialisation qui rend aléatoire, voire quasi impossible, toute possibilité de mettre des freins à la circulation de l’information, nombre d’États africains, même aux gouvernements élus, continuent de s’obstiner dans les pratiques d’un autre temps. Cela se traduit notamment par le fait qu’en dépit d’une certaine ouverture et la métamorphose de l’espace médiatique, l’audiovisuel public, en Afrique, reste très soumis aux pressions et aux ordres du pouvoir politique. Or, « plus les médias dépendent des autres pouvoirs, plus ils peuvent être considérés comme des appareils idéologiques » (Gingras, 2006 : 53). IV Conclusion Au cours des deux dernières décennies, le paysage médiatique africain s’est métamorphosé en se diversifiant grâce à deux facteurs : l’ouverture démocratique et le développement des TIC. Cependant, certaines pratiques africaines en matière d’information et des médias, surtout en période de crise, dénotent le fait que le continent peine à sortir de trois décennies de régimes à parti unique, contexte dans lequel les médias et autres outils de communication sont restés un quasi‐monopole de l’État, l’information soigneusement retenue, voire déformée au besoin, même au détriment de l’intérêt national. Et ce, quel que soit le sujet : politique, économie, santé, armée… Chercher à cacher la vérité à l’opinion nationale et internationale apparaît encore comme un réflexe.
Dans les pays développés, outre les médias du service public, les médias privés (radio, télévision, presse) et divers autres moyens de communication modernes sont aisément accessibles au public. En Afrique, malgré un progrès continu dans l’appropriation d’internet et des technologies numériques, avec à la clé le renforcement pluriel du paysage médiatique, l’audiovisuel public occupe une place centrale. Plus que d’autres moyens de
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
94
communication, la radio et la télévision publiques sont au cœur des manœuvres stratégiques pour garder le pouvoir ou le conquérir. Bibliographie Monographies Ba, A., Internet, cyberespace et usages en Afrique. Paris, L’Harmattan, 2003. Bellenger, L. Du bon usage des médias. Vers une nécessaire remise en cause. Paris, Editions Stratégies, coll Stratégies, 2000. Char, A. La guerre mondiale de l’information. Québec, Presses de l’Université du Québec, coll. Communications et relations publiques, 1999. El Yamani, M. Médias et féminisme. Minoritaires sans paroles. Paris, L’Harmattan, coll. Logiques sociales, 1998. Gazibo, M. Introduction à la politique africaine. Presses de l’Université de Montréal, coll. Paramètres, 2006. Gingras, A‐M. Médias et démocratie. Le grand malentendu. 2ème éd., Presses de l’Université du Québec, 2006. Lenoble‐Bart, A. et Tudesq. A‐J. (dirs.). Connaître les médias d’Afrique subsaharienne. Problématiques, sources et ressources. Paris, Karthala, 2008. Lepage, A. (dir.). L’opinion numérique. Internet : un nouvel esprit public, Paris, Dalloz, 2006. Perret, T. Le temps des journalistes. L’invention de la presse en Afrique Francophone, Karthala, 2005. Wade, P. et Falcand D., Cyberplanète. Notre vie en temps virtuel. Paris, Éditions Autrement, coll. Mutations n°176, 1998. Chapitres d’ouvrage Havard, J‐F. « De la victoire du "sopi" à la tentation du "nopi". "Gouvernement de l'alternance" et liberté des médias au Sénégal ». Politique africaine, n° 96, pp. 22‐38, 2004. Jeanne‐Perrier, V. et Candel, E. « De la liberté de la presse à la liberté d’expression : quand les blogs s’emmêlent, RSF s’en mêle », dans Dahmani Ahmed, Do‐Nascimento José, Ledjou Jean‐Michel, Gabas Jean‐Jacques, (dirs.), La démocratie à l’épreuve de la société numérique. Paris, éd. Karthala, pp : 225‐239, 2007.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
95
Klinenberg, E. « Médias américains et désinformation pendant la guerre d’Irak », dans GELARD J.‐P. (dir.), Médias, mensonge et démocratie. Rennes, PUR, pp. 69‐74, 2005. Ledjou, J‐M. « Les TIC : un viatique pour démocratiser l’Afrique » dans Dahmani Ahmed, Do‐Nascimento José, Ledjou Jean‐Michel, Gabas Jean‐Jacques, (dirs.), La démocratie à l’épreuve de la société numérique. Karthala, pp. 279‐291, 2007. Makosso Kibaya, J‐F. « Mc Luhan, le village planétaire et l’Afrique », dans Biyele Franck François, coord., Nouvelles approches des problématiques de communication sur l’Afrique subsaharienne. Représentations, idéologie et instrumentalisation. Paris, L’Harmattan, pp. 83‐94, 2007. Volkoff, V. Désinformation. Flagrant délit, Monaco, Éditions du Rocher, 1999. Articles de périodique Tozzo, E. A. « La réforme des médias publics en Afrique de l’Ouest. Servir le gouvernement ou le citoyen ». Politique africaine, nº 97, Paris, Karthala, pp. 99‐115, 2004. Autres sources Jeune Afrique L’INTELLIGENT, nº 2277, 2004. Institut Panos, Médias et élections au Sénégal. La presse et les nouvelles technologies de l’information dans le processus électoral, Dakar, Les Nouvelles Éditions Africaines du Sénégal (p. 144), 2001.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
96
Veille stratégique et internet participatif : les usages des agentsfacilitateurs remettentils en en question le concept de signal faible ?
Camille Alloing42
[email protected] Ingénieur R&D La Poste, Doctorant au laboratoire CEREGE (EA 1722)
Christophe Deschamps43
Consultant‐Formateur en veille stratégique et gestion de l’information
Résumé : Le concept de signal faible, ou signe d’alerte précoce, est inhérent aux pratiques de veille stratégique. A l’heure du web dit 2.0, où la possibilité est donnée à chaque internaute de produire et diffuser du contenu, il parait nécessaire de s’interroger sur la place du signal faible dans ce nouveau contexte informationnel. Mais aussi, sur les moyens de le détecter, et ce en s’appuyant sur une nouvelle classe d’usagers du web : les agents‐facilitateurs, dont le rôle premier est de servir d’alternative aux moteurs de recherches par le biais de recommandation sociale de contenus. Motsclés : Veille stratégique, signal faible, agents‐facilitateurs, internet, réseaux sociaux Introduction Internet et ses applications web, dont la démocratisation en terme d’accès et d’appréhension technique est souvent qualifiée de « 2.0 » ou « web social », est devenu un enjeu majeur en terme de gestion de l’information pour les organisations, et plus particulièrement en ce qui concerne la recherche d’informations stratégiques utiles à la prise de décisions. Dans ce contexte où les usages des « internautes » sont de plus en plus autoritatifs, à savoir « l'attitude consistant à produire et à rendre public des textes (…) sur le WWW, sans passer par l’assentiment d’institutions de référence référées à l’ordre 42 Camille Alloing est diplômé du Master IECS de l’ICOMTEC, ancien consultant en e‐réputation, il est actuellement chercheur en innovations digitales au sein du Groupe La Poste (Courrier), et Doctorant en Sciences de l’Information et de la Communication au CEREGE de l’IAE de Poitiers. Ses travaux portent sur l’apport de la recherche sociale pour le développement de méthodologie de veille en e‐réputation. 43 Christophe Deschamps est consultant‐formateur en veille et intelligence économique, après avoir été responsable de veille en entreprise. Il est l'animateur du blog «Outils froids» ‐ www.outilsfroids.net, (Prix spécial du Salon I‐Expo 2005), consacré à la veille et à la gestion des connaissances. Il enseigne depuis 10 ans dans plusieurs formations en Intelligence économique (dont l’ICOMTEC, l’EISTI et HEG Genève) et écrit régulièrement dans des revues spécialisées (Veille Mag, Archimag, La lettre Recherche & Référencement). Il a publié en 2009 « Le nouveau management de l’information. La gestion des connaissances au cœur de l’entreprise 2.0 » (FYP Editions) et en 2011 un second ouvrage intitulé « Organisez vos données personnelles – L’essentiel du Personal Knowledge Management » (Eyrolles).
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
97
imprimé. » (E. Broudoux, 2003), où ceux‐ci passent du statut de consommateurs d’informations à celui de pronétaire (« nouvelle classe d’usagers des réseaux numériques capables de produire, diffuser, vendre des contenus numériques non propriétaires », (J. de Rosnay, 2006)), les processus de détection et de qualification des « signaux faibles » (Ansoff, 1975), ou « signes d’alertes précoces » (Lesca, 2001) se complexifient. Les actes de prescriptions informationnels sur les réseaux socionumériques s’inscrivant dans ce que nous pourrions qualifier, en référence à B. Stiegler44, « d’économie de la contribution », voient apparaitre un nouveau type d’usagers que nous nommons « agents facilitateurs ». Leurs pratiques de sélection, qualification, annotation, éditorialisation et diffusion à destination de leurs réseaux ou communautés, du contenu produit sur les web, amène à les envisager comme des substituts possibles aux moteurs de recherche et à leurs algorithmes. Entre producteurs et consommateurs de contenus numériques, ces agents‐facilitateurs apparaissent comme un nouveau levier à intégrer dans un processus de veille stratégique, un filtre humain et social potentiellement porteur de signes d’alertes précoces. Problématique Cette communication vise à identifier de quelle(s) manière(s) la détection de signes d'alerte précoces dans un contexte de veille stratégique sur Internet peut s'appuyer sur les usages d’agents‐facilitateurs. Elle se questionne notamment sur les critères de détection et d'identification d’agents‐facilitateurs, sur l'usage des nouveaux outils mis à leur disposition, ainsi que sur les méthodes managériales et technologiques visant à intégrer ces agents‐facilitateurs comme sources émettrices potentielles de signaux faibles au sein d'une cellule de veille stratégique. Au final, cette recherche pose la problématique suivante : les usages des agents‐facilitateurs remettent‐ils en question le concept de signal faible ? Revue de littérature Le concept de signal faible a été formulé initialement par Igor Ansoff en 1975. Il montre dans cet article45 fondateur que, si un évènement peut constituer une surprise en soi, les éléments d’information qui auraient permis de l’anticiper existent cependant. Les signaux faibles sont donc des éléments susceptibles de venir perturber un futur que les décideurs ont trop souvent tendance à envisager comme une simple extrapolation du présent. Réussir à les « capter » devrait alors être possible, voire recherché par les organisations afin d’être en mesure d’en anticiper les conséquences sur leurs activités. Dans ce même article fondateur, Ansoff ne donne pas de définition des signaux faibles mais explique que : « De tels évènements sont des surprises stratégiques : des changements
44 Bernard Stiegler, Pour une nouvelle critique de l’économie politique, Paris, Galilée, coll. Débats, 2009, p.66. 45 Ansoff H.I., Managing strategic surprise by response to weak signals, California Management Review, 1975. Vol. 18 n°2, p. 21‐33.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
98
soudains, urgents, imprévus dans les perspectives de l’entreprise et qui la menacent soit d’un renversement important de ses gains, soit de la perte d’une opportunité majeure ». Il faut attendre 1984 et la publication de l’ouvrage Implanting Strategic Management, pour qu’Ansoff et McDonnell46 donnent du signal faible la définition suivante: « Un fait à propos duquel seules des informations partielles sont disponibles alors qu’une réaction doit être entamée, si l’on veut qu’elle soit parachevée avant impact sur la firme de l’évènement nouveau »47. En France, les chercheurs du CERAG, sous la direction d’Humbert Lesca, travaillent sur l’intégration du signal faible dans les dispositifs de veille depuis de nombreuses années. Lesca indique, à la suite d’Ansoff, que chez le récepteur, il s’agit d’une sensation proche de l’intuition et qu’elle « est déclenchée par une donnée qui aura été perçue et examinée avec attention. (…) Ensuite le manager ainsi interpellé devrait avoir le désir d’en savoir plus et d’obtenir des informations supplémentaires pour affiner sa sensation.»48. Blanco introduit par ailleurs une distinction utile entre signal faible et signe d’alerte précoce. Le mot « signal » prête en effet à confusion car il évoque la diffusion volontaire d’une information par son émetteur dans le but qu’elle soit captée par un récepteur (idée de signalisation). Or, ce qui nous intéresse ici est plutôt de l’ordre du non‐volontaire, non‐conscient, de la part de l’émetteur. Il diffuse effectivement une information (article de presse, billet de blog, message de microblog de type Twitter,…) mais ce que le récepteur déduit du message n’est pas nécessairement ce que l’auteur y avait placé de manière intentionnelle. Tout comme on dit trivialement que « le vice est dans l’œil de celui qui regarde », ce qui « fait signe » ici est dans l’œil du récepteur et, sauf acte volontaire de tromperie de sa part, échappe à l’émetteur. Ce que nous captons est donc de l’ordre du signe et non du signal. Blanco caractérise ainsi le signe d’alerte précoce 49 : Nature Commentaires Qualitatif Il ne consiste pas en des nombres et des faits puisqu’ils
concernent des faits non encore survenus, non factuels. Il s’agit de « bribes », de « rumeurs », de « commentaires », « d’indications fragmentaires »
Ambigu Il peut être sujet à de multiples ou bien à aucune interprétation
Sans pertinence intrinsèque Il n’est pas en relation avec les décisions ou les préoccupations en cours
46 Ansoff H. I., McDonnell E., Implanting Strategic Management, 520 p., Prentice Hall International, Englewood Cliffs, NY, 1990 (1ère edition 1984). 47 Cité par Castagnos, J‐C. et Lesca, H. Capter les signaux faibles de la veille stratégique : retoursd’expérience et recommandations. E & G, Economia et Gestäo, Belo Horizonte, v.4, n.7, p. 15‐34. 2004. 48 Humbert Lesca, Veille stratégique – La méthode L.E. Scanning. Editions EMS. 2003, p. 23. 49 Sylvie Blanco, Gestion de l’information et intelligence stratégique : cas de la sélection des signes d’alerte précoce de veille stratégique. Thèse de doctorat en Science de gestion, Grenoble 2 UPMF, ESA, CERAG, 307 p. Cité par Nicolas Lesca, processus de construction du sens à partir de signes d’alerte précoce : proposition d’un nouvel outil d’aide à la production de connaissance : PUZZLE. Actes de la 9ème Conférence de l'Association Internationale de Management Stratégique (AIMS), Montpellier, 24‐26 mai, 2000, 22 p.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
99
Fragmentaire Il ne constitue qu’un « morceau » d’un événement futur possible. Par conséquent, son exploitation requiert des informations complémentaires
De formes et sources diverses Ils peuvent provenir d’émetteurs, de canaux et de supports variés tels qu’un bout de conversation, des documents électroniques, des coupures de presse, etc.
Dans le cadre de cette communication, une autre dimension déjà évoquée prend une place centrale. Il s’agit de l’aspect intuitif et nécessairement individuel du captage des signes d’alerte précoces. En effet, l’interprétation d’un signe en tant que signe d’alerte précoce est totalement dépendante de l’individu qui le reçoit. Caron‐Fasan explique que « chaque individu mémorise et construit du sens aux signes qu’il perçoit en fonction de son humeur, de ses intentions, de son projet, de son interprétation de celui de l’organisation, de l’environnement, de sa mémoire et de ses expériences précédentes »50. Or, comme nous le verrons, c’est bien de cet aspect purement subjectif dont il est question lorsque l’agent‐facilitateur sélectionne une information sur le web et décide de la diffuser. Vers la détection d’agentsfacilitateurs Le cabinet d’étude américain Forrester a publié en 2010 une étude (Social Technographics51) visant à définir les profils des internautes américains en termes de comportements informationnels. Les résultats de cette étude mettent notamment en avant que 70% des personnes interrogées se définissent comme « spectateurs » sur Internet, à savoir consommateurs et non producteurs d’informations. Là où 24% des interrogés se présentent comme créateurs de contenus, et 59% comme utilisateurs de réseaux socionumériques, il est intéressant de remarquer que 20% d’entre eux se voient comme « Collectors » : leur activité consiste à agréger du contenu et l’annoter (métadonnées). Ce rôle de collecteur de l’information, notamment produite par les créateurs de contenus, voit son importance affirmée par les utilisateurs des réseaux socionumériques et de certains « spectateurs » qui, face au volume grandissant de données présentes sur Internet, se trouvent face à un fort « bruit informationnel ». Là où le rôle des moteurs de recherche et de leurs algorithmes de classement des pages web (tel le Page Rank de Google) a toujours été de trier cette masse de données pour les internautes, voir pour certains algorithmes tels celui d’Amazon 52 un mode de « filtrage cognitif » (Le Thran, Cheung‐Mon‐Chan, Bothorel, 2011), le développement des usages de « recommandation sociales » ou de prescription par et pour l’utilisateur jouent aujourd’hui un rôle prépondérant (Stenger et Coutant, 2010). Appliquée à la recherche d’information, ce rôle de collecteur et de facilitateur d’accès au contenu informationnel sous forme de prescriptions explicites (que nous qualifions d’ « agents‐facilitateurs », en référence notamment aux recherches menées en systèmes d’informations) a vu son activité devenir 50 Caron‐Fasan M.L, Une méthode de gestion de l’attention aux signaux faibles, Revue Système d’information et management, N°4 – Vol. 6, pp. 73‐90. 51 http://forrester.typepad.com/groundswell/2010/01/conversationalists‐get‐onto‐the‐ladder.html. 52 http://www.amazon.com
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
100
un enjeu économique aux USA (qualifié de « the new billion‐dollar opportunity » par le blogueur Robert Scoble du site de référence TechCrunch53). Ce rôle de médiateur de l’information, proche de celui « d’infomédiaire » (A. David, A. Knauf, 2004), les aspects managériaux et économiques mis de côté, a été qualifié par certains blogueurs américains54 de « curator », en référence au rôle opéré par les conservateurs de musées de sélection et d’agencement des œuvres artistiques. Au‐delà du terme difficilement définissable (et très mercatique) de « curator », auquel nous préférons donc celui d’agent‐facilitateur plus explicite, l’identification de cette activité de collecteur/prescripteur d’informations a amené de nombreuses entreprises à développer des « plateformes de curation » : proche des outils de bookmarking (comme Delicious55 ou Diigo56), ces applications Web permettent à l’internaute de collecter, classer, annoter et diffuser des contenus de son choix. Ces plateformes donnent l’opportunité d’identifier rapidement des agents‐facilitateurs sur des thématiques définies pour, potentiellement, les intégrer à un processus de veille stratégique (défini par Lesca et Blanco comme « le processus par lequel un individu (…) traque, de façon volontariste, et utilise des informations à caractère anticipatif »). Nous proposons ici une méthodologie simple de sélection d’agents‐facilitateurs basée sur le fonctionnement de deux plateformes dites de curation : Scoop.it et Pearltrees. Ces plateformes ont été sélectionnées en fonction de 5 critères (voir ANNEXE 1). Les critères de sélection des agents‐facilitateurs reposent alors sur ceux communément présents dans les profils des utilisateurs des plateformes choisies, à savoir : ‐ Les thématiques abordées par l’agent‐facilitateur : notamment à l’aide de métadonnées descriptives des contenus (tags), l’affinement de ces thématiques permettant de définir leur adéquation avec la stratégie de veille. ‐ Le volume de contenus présents sur le compte pour une thématique donnée : ce volume permet notamment de définir le niveau d’exhaustivité voulue par l’agent‐facilitateur, le périmètre dans lequel il s’inscrit, et sa capacité de filtrage. ‐ Le nombre d’abonnés au compte : ce chiffre peut être vu comme garant de la légitimité57 de l’auteur, de l’« expertise 2.0 » (Alloing, Moinet, 2010) que d’autres agents‐facilitateurs lui concèdent en lisant, annotant, ou rediffusant le contenu qu’il filtre. La qualité de son éditorialisation et de son filtrage passe donc en partie par ce critère. Critère associable à celui du volume de visites du compte. ‐ Description de l’agent‐facilitateur : la « mise en récit de l’identité personnelle » (Cardon, Delaunay‐Téterel, 2006) de l’agent est un critère de sélection essentiel puisqu’il permet
53 http://scobleizer.posterous.com/the‐new‐billion‐dollar‐opportunity‐real‐time 54 L’un des premiers étant le blogueur Robin Good, de son vrai nom Luigi Canali de Rossi, dans une série d’articles dont le premier est accessible ici : http://www.masternewmedia.org/real‐time‐news‐curation‐newsmastering‐and‐newsradars‐the‐complete‐guide‐part‐1 55 http://www.delicious.com 56 http://www.diigo.com 57 Légitimité ne signifiant pas véracité des informations sélectionnées, mais reconnaissance comme source fiable et experte par d’autres internautes.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
101
d’identifier la posture que celui‐ci souhaite adopter sur le web, la façon dont il se définit dans un contexte donné, et amène ainsi une idée de la fiabilité des informations qu’il diffuse. ‐ Comptes de réseaux sociaux associés : le fait de pouvoir se reporter à d’autres comptes de l’agent‐facilitateur sur d’autres plateformes web permet de renforcer l’identification de celui‐ci, mais aussi d’intégrer potentiellement de nouvelles sources d’information, et d’ainsi élargir ce que l’on pourrait nommer son « panel d’agents‐facilitateurs thématiques ». ‐ L’hétérogénéité des sources : plus l’agent‐facilitateur basera sa sélection sur des sources web différentes, variées et « difficilement accessibles » (comme par exemple ce que certains nomment « le web invisible »), plus la possibilité d’obtenir des signes d’alertes précoces augmentera. Ces critères sont fortement dépendants des fonctionnalités proposées par les outils sélectionnés. Ils ne sont bien entendu pas les seuls possibles mais permettent néanmoins de capter rapidement de l’information à valeur ajoutée sur une thématique donnée. Pour les deux plateformes choisies, si nous prenons la thématique de « l’e‐réputation », Pearltrees nous permet d’identifier 51 profils différents collectant des contenus liés à cette thématique. Et Scoop.it 14 profils. Ces profils ne traitent pas exclusivement de ce sujet, mais à eux seul, proposent un très fort volume de ressources sur « l’e‐réputation » (parfois redondantes). Après qualification des profils, selon les critères cités précédemment, 3 profils sur Pearltrees et 3 sur Scoop.it peuvent être potentiellement intégrés à un processus de veille stratégique (ANNEXE 2) : ils traitent de la thématique voulue, proposent un fort volume de contenu, ont un nombre d’abonnés compris entre 12 et 55 pour cette thématique, se présentent de manière claire et identifiable, font le lien vers d’autres de leurs comptes sur le web, et enfin « puisent » de l’information dans (en moyenne) une vingtaine de sources différentes.
Agentfacilitateur, cellule de veille et signal faible L’intégration des agents‐facilitateurs à une politique de veille stratégique en organisation ne doit pas avoir pour objectif de reposer entièrement sur ces pratiques souvent moins structurées que celles d’un professionnel de la gestion de l’information. En considérant que l’information recouvre deux facettes (D. Wolton, 2009), celle normative renvoyant à l’idée de vérité et celle fonctionnelle soulignant le fait qu’on ne puisse vivre dans nos sociétés sans informations, il est opportun de considérer que l’agent‐facilitateur en privilégie une (fonctionnelle) plutôt qu’une autre (normative). En effet, si l’agent‐facilitateur est un relais, il peut tout aussi bien diffuser une information non emprunte de vérité (« une rumeur »), cette qualification dépendant totalement de sa capacité à évaluer une information et une source web, et à le signaler (certaines plateformes comme Scoop.it permettant par exemple les commentaires). Il revient donc au veilleur professionnel de développer un système de qualification des sources efficace et cohérent. Cependant, et tout comme le souligne Blanco, une rumeur peut tout de même être porteuse de signes d’alertes, qui plus est si l’objectif de la veille est d’évaluer l’image ou la réputation que reflète le web d’une organisation. De plus, si le public premier d’un agent‐facilitateur est la « communauté virtuelle » (S. Proulx, G. Latzko‐Toth, 2000) ou le réseau auxquels il diffuse ses informations il parait utile
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
102
d’analyser le fonctionnement de ces dits communautés ou réseaux afin d’en appréhender les codes, notamment en matière de qualification de l’information. Dans le cas des pratiques de « curation » il y a bien volonté explicite de rechercher et agréger de l’information de qualité et potentiellement porteuses de signes d’alertes précoces de la part de l’agent facilitateur, et ce généralement à destination des communautés auxquelles il appartient. Soulignons que les différences entre ce que permettent différentes familles de services utiles aux agents‐facilitateurs (curation, bookmarking, micro‐blogging) sont très faibles. Depuis plusieurs années déjà, les blogs, à condition qu’ils soient orientés thématiquement, jouent ce rôle d’outils de diffusion au service de ceux qui souhaitent exprimer leur connaissance/passion/expertise sur un sujet donné. Les internautes souhaitant simplement partager leurs découvertes se tournent vers des services de bookmarking social dont l’emblématique Delicious, « créant ainsi et sans vraiment le savoir, l’annuaire le plus exhaustif et le plus actualisé existant à ce jour, un annuaire du pauvre certes58, mais un annuaire quand même59 ». Plus récemment, Facebook et a fortiori Twitter, ont permis la mise en œuvre de pratiques similaires sous une forme à peine différente. Les services de curation cités dans cet article reposent pour beaucoup sur le principe de ceux de bookmarking social et un service déjà ancien comme Pearltrees, s’est d’ailleurs initialement positionné ainsi. Enfin, remarquons que les signes font sens pour celui (veilleur, manager) qui les voit mais qu’ils ne sont pas forcément perçus comme tels par l’émetteur. Le veilleur qui utilisera les contenus proposés par les agents‐facilitateurs pour mener sa veille prend alors le pari que ces personnes, dont il a initialement validé la production, pourraient multiplier sa capacité à détecter les signaux faibles. Plus exactement, le simple choix d’article qu’ils effectuent est le résultat de leur expertise ou de la bonne connaissance qu’ils ont du sujet qu’ils traitent. Ces mêmes qualités devraient théoriquement leur permettre de repérer les signaux faibles de leur domaine. Discussion L’approche présentée ici, principalement au niveau de la méthodologie, est volontairement restrictive. Les plateformes dites de curation sont encore jeunes, et il est raisonnable d’envisager que d’ici quelques temps elles subissent le contrecoup de « l’effet de mode » (Internet étant friand des bulles spéculatives sur ses usages). Comme nous le soulignons précédemment bien d’autres plateformes web peuvent être prises en compte. D’un point de vue épistémologique les concepts de signes d’alertes précoces et d’agents facilitateurs s’intègrent dans une vision constructiviste de l’information et de la communication. Tout d’abord, et comme nous l’avons souligné, car le « signe » est une représentation subjective propre au récepteur (une construction de l’esprit), qu’il n’existe pas de « réalité objective donnée » (A. Mucchielli, 2000) quant à l’appréciation de ces signes
58 Pauvre s’entendant ici en références aux métadonnées ajoutées. 59 Deschamps C., Le nouveau management de l’information – La gestion des connaissances au cœur de l’entreprise 2.0. FYP. 2009.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
103
et leur intégration possible dans une prise de décision. Les agents‐facilitateurs, quant à eux, construisent aussi une certaine réalité informationnelle grâce aux contenus produits par d’autres acteurs du web (producteurs de contenus principalement). Il est d’ailleurs intéressant de mettre en exergue le fait que, dans un environnement complexe comme Internet, les agents‐facilitateurs s’inscrivent dans le principe de récursion organisationnelle définie par E. Morin60 où cause et effet se confondent. En l’occurrence, l’agent‐facilitateur est à la fois émetteur de signes d’alertes (pour le veilleur), et récepteurs de ces mêmes signes. Si d’un côté il permet donc de « faire remonter » certains signes permettant la construction de schémas prédictifs, d’un autre côté il « noie » ces mêmes signes dans une mise en contexte qui lui est propre et peut être difficilement appréhendable par un autre individu. En quelque sorte, l’agent facilitateur réduit le bruit informationnel tout en produisant des échos pouvant brouiller l’interprétation de certains signes d’alertes. Ce paradoxe, s’il ne remet pas totalement en question le concept de signes d’alerte précoces, accentue cependant son aspect subjectif et la nécessaire prise en compte du rôle managérial et méthodologique dans la captation de ces dits signes. Comme nous le soulignons dans la partie précédente, l’intégration d’agents facilitateurs au sein d’une cellule de veille pose la question de l’expertise du veilleur pour le domaine qu’il traite, expertise qui, paradoxalement encore une fois, si elle est trop pointue amène le risque de se fermer à certains signes d’alertes (par « routine » principalement). L’intégration des agents‐facilitateurs dans la détection de signaux faibles renforce une fois de plus la conviction que la captation de ces signes dépend de l’individu et de ses capacités d’étonnement plus que de méthodologies parfois (trop) restrictives.
Conclusion A l’heure du « tous producteurs d’informations » sur le web dit 2.0, la mise en contexte de données amenant à l’émergence d’informations utiles à la prise de décisions voit elle aussi son fonctionnement redéfinie : le filtrage technologique entre en concurrence avec le filtrage humain et social, accentuant ainsi la redondance d’informations similaires mais dont l’interprétation est déjà fortement influencée par la vision d’un tiers. Dans ce contexte, la détection de signe d’alerte précoce est à la fois facilitée par ce filtrage social, tout en multipliant les possibles interprétations individuelles des signaux émis. La démultiplication des plateformes et outils dédiés à ces pratiques renforce l’importance d’une approche sociotechnique et du développement de méthodologies adaptées, que ce soit du point de vue du veilleur voulant collecter de l’information filtrée par les agents‐facilitateurs, comme pour celui du manager souhaitant s’appuyer sur ce filtre humain et social afin de prendre des décisions adéquates. Si la mise en corrélation des concepts d’agents‐facilitateurs et de signal faible laisse entrevoir de nouvelles possibilités en termes de veille stratégique sur le web, elle offre
60 E. Morin, Science avec conscience, Paris, Fayard, 1982.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
104
aussi de nouvelles perspectives en termes de gestion des connaissances propre aux organisations : et si chaque collaborateur était aussi un agent‐facilitateur ? Bibliographie ALLOING, C., MOINET, N., « Des réseaux d’experts à l’expertise 2.0. Le web 2.0 modifie‐t‐il la création et la mise en place de réseaux d’experts ? », Les Cahiers du numérique, 2010/1 (Vol.6). ANSOFF, H. I., « Managing strategic surprise by response to weak signals »,California Management Review (Vol. XVIII), 1975. ANSOFF, H. I., MCDONNELL, E., « Implanting Strategic Management »., Prentice Hall International, Englewood Cliffs, NY, 1990 (1ère edition 1984). BLANCO, S., « Gestion de l’information et intelligence stratégique : cas de la sélection des signes d’alerte précoce de veille stratégique », Thèse de doctorat en Science de gestion, Grenoble, UPMF, ESA, CERAG. CARDON, D., « La démocratie Internet », Seuil, 2010. CARDON, D., DELAUNAY‐TETEREL, H. « La production de soi comme technique relationnelle », Réseaux 4/2006 (no 138), p. 15‐71. CARON‐FASAN, M.L., « Une méthode de gestion de l’attention aux signaux faibles », Revue Système d’information et management, N°4 – Vol. 6, pp. 73‐90. CASTAGNOS, J‐C., LESCA, H. « Capter les signaux faibles de la veille stratégique : retours d’expérience et recommandations », E & G, Economia et Gestäo, Belo Horizonte, v.4, n.7, p. 15‐34, 2004. DESCHAMPS, C., « Le nouveau management de l'information: La gestion des connaissances au coeur de l'entreprise 2.0 », FYP, 2009. Forrester, Social Technographics: Conversationalists get onto the ladder, 2010, http://forrester.typepad.com/groundswell/2010/01/conversationalists‐get‐onto‐the‐ladder.html KNAUF, A., DAVID, A., « Vers une meilleure caractérisation des rôles et compétences de l’infomédiaire dans le processus d’intelligence économique », VSST 2004, Toulouse, Oct 25‐29, 2004. LESCA, H., « Veille stratégique : passage de la notion de signal faible à la notion de signe d'alerte précoce », VSST 2001, Barcelone, Actes du colloque Tome 1.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
105
LESCA, H., BLANCO, S., « Contribution à la capacité d’anticipation des entreprises par la sensibilisation aux signaux faibles », 6° Congrès international francophone sur la PME, Octobre 2002, HEC, Montréal. LESCA, H., « Veille stratégique – La méthode L.E. Scanning », EMS, 2003. LE THRAN, CHEUNG‐MON‐CHAN, BOTHOREL, « Conception et développement de fonctionnalités innovantes liées a Facebook pour un système de recommandation », Rapport bibliographique, TELECOM Bretagne, 2011. Masternewmedia, RealTime News Curation, Newsmastering And Newsradars, 2010, http://www.masternewmedia.org/real‐time‐news‐curation‐newsmastering‐and‐newsradars‐the‐complete‐guide‐part‐1 MORIN, E., « Science avec conscience », Fayard, 1982. MUCCHIELLI, A. « La nouvelle communication », Armand Colin, 2000. PROULX, S., LATZKO‐TOTH, G., « La virtualité comme catégorie pour penser le social : l’usage de la notion de communauté virtuelle », Sociologie et sociétés, vol. XXXII, Presses de l’Université de Montréal, Montréal, p. 99‐122, 2000. PUJALTE‐BUSSEUIL, V., RAMADOUR, P., TRANVOUEZ, E., Conception par réutilisation : des composants aux agents composants, Actes du colloque INFORSID, 2006. ROSNAY, de., .J, La révolte du pronétariat : des mass média aux média de masse, Fayard, 2006. Scobleizer, The new billiondollar opportunity: realtimeweb curation, 2009, http://scobleizer.posterous.com/the‐new‐billion‐dollar‐opportunity‐real‐time STENGER, T., COUTANT, A. « La prescription ordinaire sur les réseaux socionumériques », Médias 09, entre communautés et mobilité, Aix‐en‐Provence, France, 2009. STIEGLER, B., « Pour une nouvelle critique de l’économie politique », Galilée, coll. Débats, Paris, 2009. WOLTON, D., « Informer n’est pas communiquer », CNRS Editions, 2010.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
106
Annexe 1 : Critère de sélection des plateformes
Plateforme Langue principale
des contenus
Critères AF Flux RSS
Mode éditoria‐lisation
Moteur de recherche interne
Scoop.it Français/ anglais
Thématique(s) du compte, date de création, dernière mise en ligne, volume de pages visitées, volume de visiteurs uniques, volume de contenus mis en ligne, nombre d’abonnés au compte, tags descriptifs des contenus, comptes de réseaux sociaux associés
Oui Manuel Non (recherche aisée depuis un moteur classique)
Curated.by Anglais Thématique(s) du compte, date de création, dernière mise en ligne, volume de pages visitées, nombre d’abonnés au compte, principales sources partagées, comptes de réseaux sociaux associés
Non Automatique Oui
Storify.com Anglais Thématique(s) du compte, volume de pages visitées, nombre d’abonnés au compte
Non Manuel/ automatique
Non
Trunk.ly Anglais Thématique(s) du compte, description de l’utilisateur, nombre d’abonnés au compte, nombre de comptes auquel l’auteur est abonné, tags descriptifs des contenus, principales sources partagées, localisation de l’utilisateur
Non Manuel Non
Pearltrees. com
Français Thématique(s) du compte, date de création, volume de pages visitées, volume de contenus mis en ligne, nombre d’abonnés au compte, description de l’utilisateur, comptes de réseaux sociaux associés, localisation de l’utilisateur
Oui Manuel/ semi‐automatique (plug‐in)
Oui
Bagtheweb. com
Anglais Thématique(s) du compte, date de création, volume de pages visitées, volume de contenus mis en ligne, nombre d’abonnés au compte, description de l’utilisateur, comptes de réseaux sociaux associés, localisation de l’utilisateur
Oui Manuel/ automatique
Oui
Keepstream.com
Anglais Nombre d’abonnés au compte, nombre de comptes auquel l’auteur est abonné, comptes de réseaux sociaux associés
Non Manuel/ automatique
Non
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
107
Les 7 plateformes analysées ont été préalablement sélectionnées par :
- Le fait qu’elles se présentent explicitement comme « des plateformes de curation » - Leur présence dans un recensement effectué par le blog CaddE-Réputation61 ainsi que le
magazine en ligne 01Net62 - Leurs citations répétées (5 fois en moyenne) dans les 30 premiers articles de blogs
fournis par Google Blogs63 pour la requête « plateforme curation » au 1er mai 2011 La sélection finale des plateformes s’est appuyée principalement sur le contenu francophone présent dans celles‐ci, le volume de critères permettant de qualifier les agents‐facilitateurs présents, et le fait que le mode d’éditorialisation privilégié est manuel (plus grande souplesse d’annotation). Ainsi que deux critères fonctionnelles : la présence de flux RSS (pour une automatisation du suivi post‐sélection) et la présence d’un moteur de recherche interne (pour faciliter la recherche de thématiques et agents‐facilitateurs).
61 http://caddereputation.over‐blog.com/article‐20‐plateformes‐de‐curation‐a‐experimenter‐64867079.html 62 http://pro.01net.com/editorial/529626/le‐guide‐de‐la‐curation‐%283%29‐les‐outils 63 http://blogsearch.google.com
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
108
ANNEXE 2 : profils d’agentsfacilitateurs sur l’eréputation Pearltrees Les comptes présentés ici ne traitent pas exclusivement de l’e‐réputation. La colonne « Thématique » du tableau indique donc l’intitulé exact de la thématique traitée et en lien avec l’e‐réputation. A noter que Pearltrees (tout comme les autres outils dits de curation) développe son propre langage pour désigner, par exemple le « nombre d’abonné » (appelé « Prises »). Toujours pour les abonnés, Pearltrees à la particularité de faire la différence entre le nombre d’abonnés à l’ensemble des thématiques (regroupant donc diverses sources) abordées par un compte, et le nombre d’abonnés totaux au compte. De même pour le volume de contenu (sur l’ensemble des thématiques ou pour une thématique donnée). Dans les deux cas, sont comptabilisés et présentés ici seulement les volumes liés à la thématique voulue, soit l’e‐réputation. De plus, Pearltrees regroupe les liens par « perles » : une perle peut contenir plusieurs liens tout en étant rattachée à une même thématique (par exemple : pour la perle principale eréputation, il y a 10 lien plus 4 perles contenant elles‐mêmes 10 liens chacune). Ne sont présentés que les chiffres donnés explicitement par Pearltrees dans la présentation des profils, et que nous nommons donc « perles ». Nom du profil
Thématique de la « perle »
Volume de contenu
Nombre d’abonnés
Présentation Liens vers d’autres comptes
Volume de sources différentes
Miniseb
E‐réputation 32 perles
37 Oui Blog 30
Terryzim Veille image et e‐réputation
18 perles
40 Oui Blog 16
lavigiedelacomm E‐réputation 38 perles
22 Oui (seulement nom de famille)
Blog 30
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
109
Scoop.it Scoop.it à un fonctionnement différent de Pearltrees (notamment au niveau de l’éditorialisation des contenus), mais repose cependant sur le même principe de pages thématiques : un utilisateur peut avoir plusieurs pages agrégeant des liens et du contenu sur des thématiques différentes. Nous nous sommes donc concentrer, pour notre exemple, sur les utilisateurs ayant développé une page sur la thématique de l’e‐réputation, page dont le titre contient explicitement le terme « e‐réputation ». De plus, et tout comme Pearltrees, Scoop.it fournit des statistiques générales pour un compte, et des statistiques spécifiques pour chaque page liée à ce compte. Nous présentons ici les statistiques issues des pages thématiques sur l’e‐réputation. La présentation et les liens vers d’autres comptes sont cependant issus du compte en lui‐même. Nom du profil
Nom de la page thématique
Volume de contenu
Nombre d’abonnés
Présentation Liens vers d’autres comptes
Volume de sources différentes pour la page
Mathieu Bruc
E‐réputation, outils de veille et monitoring
22 55 Oui Twitter, Facebook
21
gaelmallet
e‐reputation
14 14 Oui Twitter 10
Kevin Granger
Hotel EReputation
145 19 Oui Twitter, facebook
112
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
110
Les préoccupations concurrentielles liées aux pratiques de Google : l’avis de l’Autorité française de la concurrence
Florence Cherigny64
Maître de Conférences à la Faculté de Droit et des Sciences Sociales de Poitiers Coresponsable du Magistère en Droit des TIC
(Techniques de l’Information et de la Communication) Membre du laboratoire « Propriété Intellectuelle et Nouvelles technologies » du CECOJI
(Centre d’Etudes sur la Coopération Juridique Internationale), (UMR 6224). florence.cherigny@univ‐poitiers.fr
Résumé : Dans un avis consultatif rendu le 14 décembre 2010, l'Autorité française de la concurrence a affirmé que Google jouissait d'une position dominante sur le marché de la publicité en ligne liée aux moteurs de recherche et elle a exprimé des préoccupations de concurrence tenant aux potentiels abus liés à cette position dominante. Elle a caractérisé de possibles abus d’éviction destinés à éliminer les concurrents par des procédés ne relevant pas d’une compétition par les mérites et d’éventuels abus d’exploitation, par lesquels le moteur de recherche imposerait des conditions exorbitantes à ses partenaires ou clients. Elle s’est également préoccupée du sort de la presse, à la fois cliente, partenaire, concurrente et potentiellement fournisseur de Google. Motsclés : Google, moteurs de recherche, recherche d’informations, publicité en ligne, concurrence, pratiques anticoncurrentielles. Introduction Dans sa course à la centralisation de l’information mondiale, Google se trouve de manière récurrente confronté à trois critiques de la part des juristes : son absence de considération pour le respect de la vie privée, son mépris de la propriété intellectuelle et ses pratiques anticoncurrentielles. C’est ce dernier point qui retiendra notre attention aujourd’hui.
64 ‐ Maître de Conférences en Droit privé (HDR) à la Faculté de Droit et des Sciences Sociales de Poitiers depuis 1994. ‐ Co‐responsable du Magistère en Droit des TIC (Techniques de l’Information et de la Communication) et des Licence III et Master Professionnel Droit des TIC à la Faculté de Droit et des Sciences Sociales de Poitiers. ‐ Responsable des aspects juridiques de la certification C2I (Informatique et Internet) Métiers du Droit dans le cadre de l’UNR‐PCL (Université Numérique en région Poitou‐Charentes‐Limousin). ‐ Membre du laboratoire « Propriété Intellectuelle et Nouvelles technologies » du CECOJI (Centre d’Etudes sur la Coopération Juridique Internationale), unité mixte de recherches associant l’Université de Poitiers et le CNRS (UMR 6224). ‐ Membre du Comité d’expertise scientifique de la Section de Droit privé de la Faculté de Droit de Poitiers.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
111
Les activités de Google font ces derniers temps l’objet d’une attention croissante de la part des autorités de la concurrence en Europe : deux plaintes ont été déposées auprès de l’office des cartels allemands ; deux procédures ont été engagées auprès de l’Autorité de la concurrence italienne ; la Commission européenne a ouvert une enquête approfondie sur Google le 30 novembre 2010 et, comble de l’ironie, même Microsoft a décidé de se joindre à la vaste procédure d’enquête concernant Google, en apportant son témoignage et ses griefs. De son côté, l’Autorité française de la concurrence a également été conduite à s’exprimer sur les activités de Google. Elle l’a fait, notamment, dans le cadre d’un important avis consultatif de 80 pages, rendu le 14 décembre 2010, sur le secteur de la publicité en ligne. Nous nous proposons de vous livrer une analyse critique de cet avis, en adoptant une méthodologie en cinq points. Nous commencerons par éclairer le contexte qui a présidé à cette demande d’avis à l’Autorité de la concurrence (1). Puis, nous étudierons les préoccupations concurrentielles exprimées à l’Autorité par les concurrents et clients de Google (2) et découvrirons les analyses développées par l’Autorité à propos des pratiques concurrentielles de Google (3). Enfin, après avoir commenté les recommandations que l’Autorité a adressées aux pouvoirs publics et à Google (4), nous serons en mesure d’apprécier la portée de l’avis rendu par l’Autorité de la concurrence (5). 1 Le contexte présidant à la demande d’avis adressée à l’Autorité de la concurrence L’Autorité de la concurrence a été saisie par le ministre de l’Economie pour donner son avis sur le fonctionnement concurrentiel du secteur de la publicité en ligne, secteur très marqué par le modèle économique de la publicité liée aux recherches ainsi que le développement économique de la firme Google. 11 La saisine pour avis de l’Autorité de la concurrence sur le fonctionnement concurrentiel du secteur de la publicité en ligne La situation centrale de Google dans le secteur de la recherche sur Internet a provoqué des inquiétudes de la part de nombreux protagonistes. Ces inquiétudes ont notamment été relayées, en janvier 2010, dans le rapport «Création et Internet » remis au Ministre de la Culture et de la Communication. Ce rapport suggérait de saisir, pour avis, l’Autorité de la concurrence. Le 17 février 2010, le Ministre de l’Economie a saisi l’Autorité de la concurrence pour solliciter son avis sur la situation concurrentielle existant dans le secteur de la publicité en ligne. Cette procédure ne mettait pas nommément Google en cause, contrairement à l’enquête anti‐trust initiée, depuis lors, par la Commission européenne. Néanmoins, l’enquête sectorielle réalisée par l’Autorité française a fourni l’occasion d’investigations très approfondies sur Google, au point d’ailleurs que la firme s’est émue des soupçons dont elle semblait personnellement faire l’objet. Pour réaliser leur enquête, les services d’instruction de l’Autorité ont entendu les grands acteurs du secteur de la publicité en ligne ainsi que des spécialistes des études statistiques. Google a été reçue plusieurs fois. Ont également été entendus Pages Jaunes, Facebook et des moteurs de recherche concurrents de Google. L’instruction a aussi permis de recueillir les
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
112
témoignages de syndicats des régies Internet et des acteurs de la presse. Enfin, les services de l’Autorité de la concurrence ont épluché 230 questionnaires soumis à des annonceurs, questionnaires dont Google a d’ailleurs critiqué la méthodologie, estimant qu’elle le visait trop directement. L'Autorité de la concurrence a donc mobilisé d'importants moyens pour rendre son avis, selon une méthode de travail qui se rapproche de celle aujourd’hui mise en œuvre par la Commission européenne, dans le cadre de l'enquête ouverte à l'encontre de Google pour abus de position dominante. 12 Le modèle économique biface de la publicité en ligne liée aux recherches En peu de temps, Google s’est imposé comme le moteur de recherches le plus utilisé au monde, au point que le nom de la firme se décline désormais comme un verbe. Aujourd’hui, pour rechercher sur Internet on « googlelise ». Cette réussite spectaculaire en cache une autre, plus discrète : Google est également devenu la première régie cyber‐publicitaire sur le plan mondial, grâce aux liens sponsorisés qui sont au cœur de son modèle économique. L’activité de moteur de recherche et celle de fourniture d’espaces publicitaires constituent, en effet, les deux versants d’un marché « biface », au sein duquel la réussite de la première conditionne l’attractivité de la seconde. D’un côté, l’activité de « référencement naturel » est fondée sur un algorithme qui s’efforce de classer les pages du réseau Internet selon la pertinence par rapport à la requête. Il fournit « gratuitement » des résultats organiques, c'est‐à‐dire non sponsorisés. De l’autre, le moteur de recherche propose aussi une activité rémunérée de liens commerciaux qui pointent vers la page Internet du site d’un annonceur. Ce modèle publicitaire présente de nombreux avantages pour l’annonceur, pour l’internaute et pour le moteur de recherche. L’annonceur cible de manière pertinente des clients potentiels grâce au contexte de la recherche de l’internaute, ce qui augmente son retour sur investissement. En effet, l’affichage de la publicité dépend d’une intention de l’internaute et la publicité est sensée répondre à un besoin de l’utilisateur. L’internaute, quant à lui, ne subit pas le temps de chargement des pages dû à l’affichage de lourdes bannières publicitaires qui s’avèrent, le plus souvent, sans intérêt pour lui. Les liens sponsorisés qui s’affichent, rapidement, à côté des résultats naturels présentent l’avantage d’être discrets. Enfin, pour le moteur de recherche, le système est très rentable. Entièrement automatisé, il permet ‐ détail non négligeable ‐ de laisser définir le prix d'un clic par un système d’enchères sur les mots‐clés. 13 Le développement des activités économiques de la firme Google Google est une société américaine fondée en 1998, dont la principale activité rémunérée est la vente de publicité. Sa réussite marchande est étroitement liée au succès de l’algorithme du moteur de recherche, développé par les fondateurs de l’entreprise il y a quinze ans, « PageRank ». À la différence des moteurs de l’époque, PageRank ne se limite pas à calculer l’occurrence des mots‐clés présents dans une page. Il intègre d’autres méthodes indépendantes du contenu des documents, afin d’obtenir un classement plus pertinent des
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
113
résultats, notamment des méthodes de tri basées sur une notion de popularité. Cet algorithme « populaire » a fortement contribué à la popularité du moteur de recherches. Le succès du moteur auprès des internautes français a été très rapide. Dès septembre 2001, Google détenait en France une part de marché de 30 % des connexions. En 2007, cette part de marché atteignait 90 %, position que depuis lors, Google a toujours maintenue. La réussite de Google sur le marché français de la cyberpublicité est tout aussi impressionnante. Google représente plus de 90 % du marché de la publicité liée aux recherches en France. La vente de publicité s’organise schématiquement autour de deux services. Aux annonceurs, Google propose «AdWords», un programme publicitaire à base d’enchères qui permet aux annonceurs de placer leurs annonces sur les pages de recherche Google ou sur les sites web du réseau Google AdSense. Aux éditeurs, Google propose «AdSense», qui permet d’accueillir automatiquement de la publicité contextualisée sur leurs pages en fonction du contenu de ces pages, moyennant un partage des recettes entre le site de contenu et Google. Par ailleurs, le succès publicitaire de Google lui a permis de diversifier ses services et applications. La firme Google devient ainsi omniprésente. Google nous « offre » la possibilité de consulter les dernières actualités (Google Actualités), de comparer les prix de différentes marchandises (Google Shopping), de chercher notre route (Google Maps), de repérer la piscine de notre voisin (Google Street View) ou de visualiser le campement de Ben Laden (Google Earth). Google nous propose également de lire des ouvrages numérisés dans les plus grandes bibliothèques du monde (Google Books), de visionner des vidéos (rachat de Youtube), de téléphoner (Androïd). Enfin, Google nous invite à partager avec lui notre correspondance électronique (Gmail), à naviguer (Google Chrome) ou à nous réfugier dans les nuages («cloud computing » ou « informatique dans les nuages»). Ce développement tout azimut de Google sur différents marchés suscite l’inquiétude de nombreux acteurs économiques. Ainsi que l’a observé l’Autorité de la concurrence, « l’hégémonie de Google est redoutée, son pouvoir de marché est craint, les risques d’arbitraire sont mis en avant ». Google se trouve ainsi sous le feu de plusieurs critiques. 2 Les préoccupations concurrentielles exprimées par les acteurs économiques à l’Autorité de la concurrence Les critiques émanent des concurrents de Google, de ses clients et de la presse, qui se trouve être dans une position délicate puisqu’elle est à la fois cliente et concurrente de ce dernier. 21 Les préoccupations des concurrents de Google Les concurrents de Google fustigent des stratégies qui consistent, pour Google, à décourager, retarder, éliminer les concurrents et élever des barrières à l’entrée du marché. Ces barrières peuvent être soit de nature contractuelle, soit de nature technique.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
114
Les concurrents de Google contestent d’abord une politique contractuelle destinée à les priver de la possibilité d’indexer les contenus de manière aussi exhaustive que Google. Les contrats d’exclusivité signés par Google avec des bibliothèques pour la numérisation de leurs fonds posent notamment problème. Ainsi, l’instruction a relevé l’existence d’un contrat entre Google et la bibliothèque de Lyon qui comporte une clause d’exclusivité de 25 ans, emportant l’interdiction de faire numériser le fonds de la bibliothèque par une autre entreprise durant toute cette période. Par ailleurs, les contrats qui régissent les relations entre Google et les sites partenaires du réseau AdSense comprennent des clauses accordant à Google l’exclusivité des liens commerciaux. Ainsi, le site partenaire ne peut pas afficher les publicités de réseaux concurrents s’il expose des publicités fournies par Google. Ces clauses d’exclusivité favorisent le réseau de Google et rendent plus difficile pour un concurrent la constitution d’un réseau de sites partenaires. L’élévation des barrières à l’entrée du marché peut également prendre la forme d’obstacles techniques, ainsi que l’illustre le problème de l’indexation de Youtube. Certains éléments suggèrent que Google ne favoriserait pas l’indexation des pages de Youtube par les autres moteurs de recherche, car le site de vidéos de Google ne comporterait pas de « Site Maps ». Il semble notamment que Bing, le moteur de recherche de Microsoft, ne parvienne qu’à indexer une fraction de Youtube, contrairement à Google. Par ailleurs, certains sites Internet se sont plaints de pratiques de Google concernant le classement ou le score de qualité qui leur avait été attribué. Ils ont notamment fait état d’évolutions brutales, et à leurs yeux injustifiées, de ces classements ou scores, ainsi que des classements ou scores plus favorables dont bénéficieraient des services de Google ou de ses filiales (notamment le service de vidéo Youtube et le service de recherche géographique Google Maps). C’est précisément le sujet dont est saisie la Commission européenne, à la suite de plaintes déposées par des fournisseurs de service de recherche verticaux. En France, la présentation des résultats de recherche géographique focalise particulièrement l’attention des acteurs économiques. Quand les termes d’une requête laissent deviner une recherche géographique, Google affiche une carte « Google Maps » sans faire apparaître les autres services de recherche géographique. Certes, «Google Maps » n’est pas payant aujourd’hui en France. Mais il l’est dans certaines villes des États‐Unis, ce qui pourrait annoncer une évolution. Enfin, la participation de Google ou de ses filiales aux enchères du service AdWords a également été mise en cause. Plusieurs comptes Google sont recensés dans la liste des 500 plus gros annonceurs utilisant AdWords, ce qui peut fausser la concurrence des prix. En particulier, Youtube achèterait des mots‐clés associés au thème de la vidéo à un prix qui serait incompatible avec celui du marché.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
115
22 Les préoccupations des clients de Google Les clients annonceurs dénoncent principalement les agissements arbitraires et opaques de Google Adsens. L’un des avantages d’AdSense est de fournir des annonces ayant un rapport avec le contenu de la recherche de l’internaute. Mais cette qualité peut se transformer en défaut pour les annonceurs qui ne parviennent pas à savoir quelles sont les annonces qui sont parues et soupçonnent que leurs résultats puissent être dilués à cause de la fraude aux clics (pratiques des « serial cliqueurs »). De nombreux clients ont également souligné que Google disposait d’une certaine marge de manœuvre lui permettant de manipuler les enchères. En effet, le classement des enchérisseurs dépend d’un coût par clic pondéré par un score de qualité, dont l’élément central est le taux de clic. Ainsi, un annonceur qui n’est prêt à payer qu’un euro par clic, mais qui a un taux de clic élevé, pourra être mieux positionné qu’un annonceur qui est prêt à payer 10 euros, mais dont les annonces ne génèrent aucun clic. L’instrumentalisation de ce score de qualité peut donc permettre à Google de manipuler les enchères. Enfin, les éditeurs de sites Internet membres du réseau publicitaire de Google se plaignent de manquer d’informations à propos des services de Google. Ils soulignent particulièrement l’opacité qui préside aux modalités de partage des revenus. Cette préoccupation est également exprimée par les acteurs de la presse. 23 Les préoccupations de la presse La presse se trouve dans une relation très particulière car elle est à la fois cliente, partenaire, concurrente et potentiellement fournisseur de Google. L’une des raisons de l’insatisfaction des éditeurs provient de l’absence d’audit ou de certification des données fournies par Google, notamment les recettes nettes à partir desquelles est calculé le reversement dû aux partenaires. Outre l’opacité de ces relations contractuelles, la presse dénonce une déstabilisation du modèle économique traditionnel basé sur la qualité éditoriale et l’apparition d’un nouveau paradigme fondé sur les seuls indicateurs de performance (comme le coût par clic). Enfin, la presse reproche une forme de parasitisme économique à l’oeuvre dans le fonctionnement de l’agrégateur « Google Actualités ». Google, en présentant le meilleur de chaque titre, deviendrait le site de référence de l’accès à l’information, et cela sans verser de contrepartie financière aux journaux qui supportent les coûts de la création d’une information de qualité. La presse fait observer que, pourtant, Google a pu signer des accords comportant une contrepartie financière avec l’AFP ou Twitter.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
116
3 L’analyse des pratiques concurrentielles de Google par l’Autorité de la concurrence L’analyse des pratiques concurrentielles de Google a conduit l’Autorité de la concurrence à établir la position dominante de Google sur le marché de la publicité en ligne et à mettre en exergue de possibles abus de position dominante. 31 La position dominante de Google sur le marché de la publicité en ligne L’Autorité de la concurrence a estimé que la publicité liée aux recherches sur Internet constitue un marché non substituable à d'autres formes de communication, notamment parce qu'elle permet d'approcher un prospect dans une démarche de recherche active et donc proche de l'acte d'achat. Elle a considéré que le marché géographique de la publicité liée aux recherches présente une dimension nationale, en raison de l’existence de frontières non seulement linguistiques, mais également culturelles. Elle rejoint encore, sur ce point, l’opinion émise par la Commission européenne dans sa décision Google/DoubleClick. Sur le marché en cause, l’Autorité de la concurrence n’a pas éprouvé de difficultés à démontrer la position dominante de Google. La part de marché de Google représente plus de 90 % du marché de la publicité liée aux recherches en France, ce qui constitue évidemment un premier indice fort. La profitabilité très élevée de l’activité de Google est également remarquable, puisque le taux de marge de Google sur les liens commerciaux atteindrait 35%. Les prix pratiqués par Google sur les mots‐clés vendus aux enchères aux annonceurs seraient jusqu’à 4 fois supérieurs à ceux observés chez son concurrent Yahoo! Par ailleurs, le fait que Google puisse s’abstraire assez largement de l’insatisfaction des annonceurs dans le cadre des relations contractuelles qu’il noue avec eux, constitue également un indice de position dominante. Enfin, il existe un certain nombre de barrières à l'entrée des deux côtés du marché biface. Les barrières à l’entrée semblent élevées pour concurrencer le moteur de recherche en raison de coûts fixes élevés, d’un effet de taille pour améliorer la pertinence de l'algorithme et de l'avance de Google s'agissant de l'exhaustivité de l'indexation. Les barrières sont également élevées pour concurrencer l’activité de publicité en raison de la faiblesse du trafic des autres moteurs, de la difficulté de développer un réseau de syndication et de la difficulté de proposer une offre complémentaire de publicité contextuelle. Tous ces éléments convergent pour établir la position dominante de Google. Cependant, de manière très classique, l’Autorité de la concurrence considère que la position dominante de Google n'est pas condamnable en soi et que seul l'exercice abusif d'un tel pouvoir de marché pourrait être sanctionné. 32 Les possibles abus de position dominante de Google
L'avis met en exergue les possibles abus d'éviction destinés à décourager les concurrents et les éventuels abus d'exploitation vis‐à‐vis des partenaires et des clients.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
117
321 Les possibles abus d'éviction destinés à décourager les concurrents
L’Autorité a d’abord examiné les accords d’exclusivité relatifs aux contenus indexés. Elle considère que ces exclusivités ne peuvent être condamnées en elles‐mêmes, car elles visent à protéger un investissement, la numérisation étant une opération coûteuse. Il est vraisemblable que Google ne réaliserait pas une telle opération si les fichiers concernés étaient libres de droits. Mais, si les clauses d’exclusivité paraissent relever d’une concurrence par les mérites, le champ et la durée des exclusivités ne doivent pas être excessives. A cet égard, l’Autorité de la concurrence estime, avec raison, que la clause d’exclusivité de 25 ans stipulée avec la Bibliothèque de Lyon paraît très exagérée, surtout au regard du rythme de changement du secteur. Google semble d’ailleurs en avoir pris conscience en précisant au cours de l’instruction qu’elle n’appliquerait pas cette clause du contrat.
Les obstacles techniques empêchant les concurrents d’indexer Youtube n’appellent pas d’observations très approfondies de la part de l’Autorité de la concurrence, ce que l’on peut regretter. L’Autorité de la concurrence n’a pas vraiment cherché à déterminer si l’absence de mise en place de « Site Map » par Youtube peut trouver une justification objective, si elle est réellement la cause du retard d’indexation de Youtube par les moteurs concurrents, et enfin dans quelle mesure le moteur de recherche de Google dispose d’informations plus détaillées de la part de sa filiale. La commission européenne aura à charge de trancher cette question. S’agissant de la manipulation du classement ou du score de qualité, l’Autorité formule deux observations importantes. D’une part, elle considère recevable, dans son principe, l’argument de Google selon lequel le moteur de recherche doit être en mesure de prévenir ou de corriger certains comportements trompeurs ou malveillants, dès lors qu’ils sont contraires à l’intérêt des internautes. Encore faut‐il, selon elle, vérifier que c’est bien la protection des internautes, et non le souci d’accroître les revenus du moteur de recherche, qui justifie l’altération du classement. D’autre part, l’Autorité ne s’avoue pas convaincue par l’affirmation de Google selon laquelle un moteur de recherche n’aurait pas intérêt à biaiser la présentation des résultats de recherche, dans la mesure où les internautes pourraient alors détecter aisément cette baisse de pertinence et se tourner vers la concurrence. Elle estime, en effet, que Google est sensiblement en avance sur ses concurrents dans l’exhaustivité des contenus indexés, ce qui lui laisserait, jusqu’à un certain point, une plus grande liberté pour altérer la pertinence du classement, s’il le désirait.
De manière plus circonstanciée, l’Autorité considère que l’apparition d’une carte « Google Maps » en cas de recherche géographique avantage artificiellement le service de Google. Il conviendrait de rechercher dans quelle mesure l’avantage ainsi conféré est de nature à avoir un effet positif sur la concurrence.
La participation de Google ou de ses filiales aux enchères du service AdWords pose également problème car, dès lors qu’il s’agit d’un simple transfert financier entre deux activités du même groupe, Google peut avoir intérêt à faire artificiellement monter les enchères sans que cela ne lui coûte réellement. Il serait donc nécessaire de rechercher si le montant des enchères provenant des filiales de Google reste proportionné à la valeur
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
118
intrinsèque du lien commercial ou s’il inclut une dimension stratégique sous la forme d’une prime d’éviction.
322 Les possibles abus d’exploitation visàvis des partenaires et des clients
L’Autorité de la concurrence a déjà eu l’occasion, dans le cadre d’une procédure opposant Google à la société Navx, une petite société qui proposait des logiciels permettant de localiser des radars routiers, de déplorer le manque d’objectivité et de transparence des règles publiés sur AdWords. Elle avait alors mis en évidence des différences de traitement entre les fabricants de GPS, qui pouvaient promouvoir la fourniture de ces bases de données sans être exclus du service AdWords, et les fabricants d’avertisseurs qui ne le pouvaient pas. L’Autorité avait donné cinq jours à Google pour rétablir le compte de Navx et quatre mois pour clarifier sa gestion des Adwords. Des engagements pris par Google devant l’Autorité de la concurrence, et rendus obligatoires par celle‐ci, avaient finalement permis une solution négociée. L’autorité de la concurrence observe que cette affaire illustre de manière convaincante que le droit de la concurrence peut apporter une réponse, dans des délais rapides, aux problèmes soulevés par certains abus de comportements.
S’agissant du reproche fait par la presse de « parasitisme économique » à l’oeuvre dans le fonctionnement de «Google Actualités », l’Autorité observe qu’avec ce service, Google fait davantage qu’indexer les contenus des éditeurs de presse : elle les agrège, les classe et les met en forme. En proposant un contenu éditorial d’aspect similaire à ceux offerts sur les sites d’information, avec les rubriques standards par grandes thématiques, sans supporter de coût de production de l’information, elle tire bien profit des spécificités de chaque éditeur et de leurs avantages comparatifs dans chaque domaine. Elle estime donc que les éditeurs de presse doivent pouvoir demander et obtenir d’être exclus de « Google Actualités » sans pour autant être déréférencés du moteur de recherche de Google. Google a pris récemment des engagements en ce sens devant l’autorité de concurrence italienne. S’agissant des problèmes d’opacité des modalités de partage des revenus publicitaires, l’Autorité française observe que Google a également pris l’engagement devant l’Autorité de concurrence italienne de divulguer les pourcentages de recettes reversées aux éditeurs partenaires. 4 – Les recommandations formulées par l’Autorité de la concurrence Alors que l’Autorité de la concurrence avait la possibilité de s'autosaisir des pratiques mises en œuvre par Google, elle a décidé de ne pas ouvrir d’enquête de son propre chef, soulignant que la Commission européenne avait engagé une telle procédure fin novembre. L’Autorité a préféré préconiser des mesures ciblées, en établissant un remarquable document pédagogique récapitulant ses propositions. Dans ce tableau synthétique, elle a indiqué les suites à donner en cas de non observation de ses recommandations (soit, selon les cas, un examen par l’Autorité de la concurrence ou une enquête de la Commission européenne). L'Autorité a ainsi rédigé un petit « guide‐âne” de la concurrence à l’intention de Google. Celui‐ci doit conduire Google à réajuster ses comportements. Une entreprise avertie, en vaut deux…
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
119
Par ailleurs, l’Autorité de la concurrence a déconseillé aux autorités françaises d'instaurer une nouvelle réglementation pour l'ensemble du secteur de la publicité en ligne, ce dont on ne peut que se féliciter, compte tenu de la propension du législateur à intervenir de manière désordonnée dans le domaine des nouvelles technologies. L’Autorité a tenu au contraire à attirer l'attention des pouvoirs publics sur les risques qu'entraînerait une intervention réglementaire trop précoce ou trop rigide.
En revanche, l’Autorité de la concurrence a préconisé que les pouvoirs publics adoptent des mesures ciblées pour garantir plus de transparence et d’équité dans la façon dont Google partage ses revenus publicitaires avec les médias sur internet. Elle a notamment proposé de compléter une loi de 1993, la loi Sapin, qui réglemente les procédures d’achat d’espaces publicitaires dans les médias en imposant que les conditions tarifaires soient publiques et la facture d’achat envoyée à l’annonceur. Le législateur pourrait mettre en place, par exemple, des obligations de rendre compte de façon très détaillée le mode de calcul du partage des revenus publicitaires en indiquant les mots‐clés, la destination des liens, le nombre de clics reçus… L’Autorité envisage également, pour les médias ou groupes de médias les plus importants, que les critères selon lesquels Google partage ses revenus publicitaires fassent l’objet d’un audit, qui pourrait être certifié par une entreprise extérieure compétente.
5 La portée de l’avis rendu par l’Autorité de la concurrence L’Autorité de la concurrence a misé sur la patience et la pédagogie. Sa patience s’explique, sans nul doute, par l’ouverture de l’enquête formellement dirigée contre Google par la Commission européenne. Il est d’ailleurs vraisemblable que la Commission européenne prêtera une attention toute particulière à l’étude très approfondie réalisée par l’Autorité de la concurrence. Il y a également fort à parier que les concurrents et les clients mécontents de Google trouvent dans cet avis de nombreux arguments à l’appui de leurs actions judiciaires. La patience de l’Autorité de la concurrence peut aussi s’analyser comme la volonté de ne pas entraver un processus d’innovation, essentiel dans le domaine des nouvelles technologies. L’hégémonie de Google, reléguant loin derrière ses concurrentes, rappelle la position de Microsoft il y a quelques années. C'est l’éternelle histoire de l’arroseur arrosé. Google assume aujourd’hui la position de Microsoft il y a quelques années, quitte à devoir fustiger un jour, à son tour, l’abus de position dominante d’un futur concurrent. Car, l’histoire pourrait bégayer… L’autorité de la concurrence a souhaité, dans son avis, faire œuvre de pédagogie. Elle a clairement entendu signifier à Google que le droit de la concurrence était en mesure de sanctionner ses comportements anticoncurrentiels. Si Google doit faire le grand écart entre ses objectifs qualitatifs de pertinence de ses résultats et les impératifs de rentabilité économique de son activité publicitaire, il lui appartient de trouver, entre ces deux objectifs, un équilibre qui puisse être jugé conforme au droit de la concurrence. « Errare humanum est, perseverare diabolicum ».
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
120
Le travail mis en œuvre par l’Autorité de la concurrence a déjà porté certains fruits. Dans le cadre de la procédure négociée à l’occasion de l’affaire Navx, Google a été conduit à clarifier sa gestion des Adwords. Lors de l’instruction réalisée dans le cadre de l’enquête sectorielle, Google a également renoncé à la clause d’exclusivité de 25 ans stipulée avec la Bibliothèque de Lyon. Mais les préoccupations liées aux possibles abus de position dominante de la firme restent trop nombreuses. Elles sont d’autant plus alarmantes qu’elles mettent sérieusement en cause le pluralisme de l’information. La question de la numérisation des bibliothèques est évidemment, à cet égard, éminemment symbolique. Les problèmes liés aux relations de « coopétition » (coopération et compétition) entre Google et les éditeurs de presse sont également très significatifs. Mais les difficultés les plus importantes restent sans doute celles liées à la manipulation du score de qualité de son algorithme. Au cœur de la recherche d’informations des internautes du monde entier, se trouve une petite boîte noire qui dissimule bien des secrets. Selon les fondateurs de Google, « PageRank est un champion de la démocratie ». Libre à ses fondateurs de le croire, libre aux autres d’en douter. Il est certain, dans tous les cas, que l’intérêt du moteur de recherche ne converge totalement ni avec celui de l’annonceur, ni avec celui de l’internaute. Ici réside, sans aucun doute, le côté obscur de la force de Google...
Au‐delà des controverses techniques liées aux caractéristiques de PageRank, une évidence s’impose. Les pratiques contractuelles de Google revêtent, quant à elles, très clairement un caractère anticoncurrentiel : opacité des relations contractuelles, manque de transparence pouvant conduire à des traitements discriminatoires, exclusivités « verrouillantes »… la liste est impressionnante. Il reste à espérer que la Commission européenne mette un terme à ces pratiques contestables. Car, le respect de la libre concurrence s’impose, tout particulièrement sur le marché de la recherche d’informations, comme un véritable enjeu démocratique.
Conclusion En caractérisant les préoccupations de concurrence liées à la « forte position dominante » de Google et en incitant ce dernier à observer ses multiples recommandations, l’Autorité de la concurrence adresse un signal fort à l’entreprise américaine, l’invitant ainsi à prendre son propre slogan à la lettre : « Google, don’t be evil ! ». Dont acte. Orientations bibliographiques Décisions des autorités de la concurrence ‐ Autorité de la concurrence, Avis n° 10‐A‐29 du 14 décembre 2010 de l’Autorité de la concurrence sur le fonctionnement concurrentiel de la publicité en ligne, http://www.autoritedelaconcurrence.fr/pdf/avis/10a29.pdf
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
121
‐ Autorité de la concurrence, Décision 10‐D‐30 du 28 octobre 2010 de l’Autorité de la concurrence relative à des pratiques mises en œuvre dans le secteur de la publicité sur Internet, http://www.autoritedelaconcurrence.fr/pdf/avis/10d30.pdf ‐ Autorité de la concurrence, Test de marché du 21 juillet 2010, de l’Autorité de la concurrence, dans le cadre d'une procédure ouverte devant l'Autorité de la concurrence à l'initiative de la société Navx, les sociétés Google Ireland Ltd et Google Inc. proposent des engagements portant sur le service de publicité en ligne http://www.autoritedelaconcurrence.fr/user/standard.php?id_rub=378&id_article=1448
‐ Autorité de la concurrence, Mesure conservatoire 10‐MC‐01 du 30 juin 2010 de l’Autorité de la concurrence relative à la demande de mesures conservatoires présentée par la société Navx : L'Autorité de la concurrence ordonne à Google de mettre en œuvre de manière objective, transparente et non‐discriminatoire la politique de contenus de son service AdWords, http://www.autoritedelaconcurrence.fr/pdf/avis/10mc01
‐ Commission européenne, «Antitrust: La Commission enquête sur des allégations d'infraction aux règles antitrust par Google », IP/10/1624, le 30 novembre 2010, http://europa.eu/rapid/pressReleasesAction.do?reference=IP/10/1624&format=HTML&aged=1&language=FR&guiLanguage=en
‐ Commission européenne, « Concentrations: la Commission autorise le projet de rachat de DoubleClick par Google », Décision de la Commission européenne C(2008) 927 final du 11 mars 2008 dans l’affaire n° COMP/M.4731, http://ec.europa.eu/competition/mergers/cases/decisions/m4731_20080311_20682_fr.pdf ‐ Conseil de la concurrence, Décision n° 05‐D‐34 du 27 juin 2005 du Conseil de la concurrence relative à des pratiques mises en oeuvre sur le marché de la vente sur Internet d'appareils audiovisuels, Concurrence c/ Stés Google France, Kelkoo, Sony France et Fotovista, www.autoritedelaconcurrence.fr/pdf/avis/05d34.pdf
Monographies
Battelle, J. La révolution Google. Comment les moteurs de recherche ont réinventé notre économie et notre culture, Eyrolles, 2009.
Cassin, B. Googlemoi, La deuxième mission de l’Amérique, Banc public, Albin Michel,
Ippolita, La face cachée de Google, Manuels Payot, 2008.
Articles de périodique Bosco, D. « Google et le droit de la concurrence : avis de tempête ! », Communication Commerce électronique, n° 4, Avril 2011, étude 7.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
122
Bosco, D. « Google dans le viseur de l'Autorité de la concurrence», Contrats Concurrence Consommation, n° 2, Février 2011, comm. 36. Chérigny, F. « Le référencement sur l’internet au regard du droit interne de la concurrence », Droit des technologies avancées, Vol. 8 ‐ n° 2/2001, Hermes sciences, p. 201 à 232. Girard, B. « Google, une formidable machine à innover », Le journal de l'école de Paris du management, 2007/5 ‐ n°67, p. 8. Girard, B. « Google en parfait modèle du capitalisme cognitif », Multitudes 1/2009 (n° 36), p. 78‐81, www.cairn.info/revue‐multitudes‐2009‐1‐page‐78.htm. Kiryou, A. « Beyond Google », Multitudes 1/2009 (n° 36), p. 38‐43, www.cairn.info/revue‐multitudes‐2009‐1‐page‐38.htm. Lescope, D. « Les moteurs de recherches et la concurrence : faut‐il réguler Google ? », Concurrences, N° 2‐2010, n°30845, pp. 44‐49 Lévêque, F. « Publicité en ligne : Google double clique et gagne », Revue Lamy de la Concurrence – 2009, p.18. Levy, P. « Au‐delà de Google », Multitudes 1/2009 (n° 36), p. 45‐52, www.cairn.info/revue‐multitudes‐2009‐1‐page‐45.htm. Moulier‐Boutantg, Y. et Rebiscoul, A. « Peut‐on faire l'économie de Google ? », Multitudes 1/2009 (n° 36), p. 83‐93, www.cairn.info/revue‐multitudes‐2009‐1‐page‐83.htm. Multitudes, « Google et au‐delà », Une bibliographie commentée et quelques liens..., Multitudes 1/2009 (n° 36), p. 114‐117, www.cairn.info/revue‐multitudes‐2009‐1‐page‐114.htm. Rebillard F., Smyrnaios N., 2010, « Les infomédiaires, au coeur de la filière de l’information d’actualité en ligne. Les cas de Google, Wikio et Paperblog », Réseaux, La Découverte, n° 160‐161, pp. 164‐194. Russel, G. “Google, ou comment s'imposer comme un point de passage oblige”, Conférence DocSoc 2006 Semaine du document numérique, Fribourg (Suisse) : (2006), http://archivesic.ccsd.cnrs.fr/sic_00110306/en/
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
123
Le grand défi des professionnels de l’information : un défi technologique ou humain ?
LouisRené Dessureault65
Vice‐président Ventes et marketing Canada et Services conseils‐ Amériques, CEDROM‐SNi, Montréal, Québec, Canada
Résumé : Le rôle des spécialistes de l’information, des bibliothécaires et des documentalistes est en constante évolution voire en révolution depuis quelques années. Pas surprenant dans un monde où les organisations elles‐mêmes sont en constante mutation, où les affaires se font à la vitesse de la lumière, où les frontières n’en sont plus et où les TIC sont omniprésentes et de plus en plus conviviales. Actif dans le domaine de la gestion de l’information dans les organisations de toutes sortes, CEDROM‐SNi se penche depuis plus de 22 ans sur le rôle des professionnels afin de développer des outils performants visant à faciliter l’accès à la bonne information, celle qui fera la différence au moment de la prise de décision. L’atelier/conférence proposé se présente comme un partage de l’expérience, de l’expertise et de la vision du management de l’information d’actualité et d’affaires. Au fil du temps et au contact de plus de 500 clients actifs, nous avons appris et développé des approches et méthodologies qui permettent aux organisations de mieux documenter les processus d’affaires stratégiques sur lesquels repose le succès de leur mission. Le nouveau concept d’« Embedded Librarian » fait son chemin dans les organisations modernes et apprenantes. En ce sens, de pourvoyeurs d’information et de ressources documentaires, les spécialistes de l’information deviennent de plus en plus des ressources stratégiques déployées dans leurs organisations. Comment ceux‐ci doivent‐ils modifier leur rôle, leur prestation afin de
65 M. Dessureault, Vice‐président Ventes et marketing Canada et Services conseils‐ Amériques s’est joint à CEDROM‐SNi en 2005, faisant bénéficier l’équipe d’une expérience de plus de 20 années dans le développement et l’implantation de systèmes d’information stratégique, tant pour des organisations privées que publiques, plus spécifiquement destinés à la haute direction. Titulaire d’une maîtrise en bibliothéconomie et des sciences de l’information, il a occupé différentes positions stratégiques dans des entreprises d’envergure, telles que : Sirsi Canada, Deloitte & Touche, où il a notamment été président du « Global Knowlegde and Intelligence Practice » et où il a établi et publié une méthodologie d’audit informationnel, ainsi que chez Téléglobe où il implanta le premier service de veille concurrentielle. Tout au long de sa carrière, M. Dessureault a été impliqué dans le déploiement de services d’information stratégique pour ses clients. Ainsi, il a complété plusieurs mandats de recherches, d’analyses de marché et de concurrence, d’audit informationnel et d’implantation de systèmes pour une gamme étendue de clients. Bien impliqué dans le milieu professionnel et universitaire, il a prononcé plusieurs conférences des deux cotés de l’océan et aux États‐Unis sur la gestion globale de l’information, la veille informationnelle, concurrentielle et technologique, l’utilisation de l’information d’actualité en organisation, l’importance de l’audit informationnel pour les services d’information et sur l’évolution du rôle des professionnels de l’information dans les organisations.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
124
soutenir pleinement l’organisation en se positionnant au centre de la gestion de l’information stratégique ? Motsclés : gestion de l’information, veille stratégique, planification stratégique mutation, professionnel de l’information
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
125
Communication stratégique et blogs durant la guerre de Gaza (20082009) : l’Etat israélien et l’enjeu de l’information
Isabelle Hare66
Maître de Conférences en Sciences de l’Information et de la Communication, Icomtec / Université de Poitiers (France)
Membre du laboratoire ELICO –Université de Lyon (France)
Mahsa Yousefi Darani67 Étudiante en Master 2 Intelligence économique et communication stratégique,
Icomtec / Université de Poitiers (France)
Résumé : L’offensive de l’armée israélienne à Gaza en 2008 constitue une sorte de paroxysme médiatique. La couverture de l’événement est mondiale et déploie deux types deux discours : celui des médias traditionnels et celui des médias numériques. Sur le plan militaire, l’incursion israélienne à Gaza est une réussite, mais c’est un échec sur le plan médiatique. Cette communication se propose d’étudier l’évolution de la stratégie de communication de l’Etat hébreu au regard de la généralisation des NTIC, et d’analyser les conséquences que leur gestion a pu avoir sur les représentations d’un conflit et sur l’image d’Israël dans les médias. Motsclés : Conflit, Gaza, Israël‐Palestine, médias, supports numériques, stratégie de communication.
Introduction
Le conflit israélo‐palestinien est riche en rebondissements (guerres, processus de paix avortés) et il est surtout riches d’images. Celles‐ci et l’information médiatique sont devenues un enjeu crucial pour l’Etat d’Israël souvent perdant dans la confrontation médiatique face
66 Intervenante à l’Institut d’Etudes Politiques de Lyon. Membre du Laboratoire de recherche ELICO – EA 4147 / Université de Lyon (France). Matières enseignées : sémiotique, analyse et histoire des médias, audit de site internet, éthique et philosophie de l’information et de la communication, théories de la communication, séminaire de recherche violence et médias. Thématiques de recherche : discours des acteurs politiques sur internet dans les situations de crise et de conflit. Analyse des discours en ligne, rhétorique électronique. Modalisation de la figure des acteurs de la société en fonction de deux paramètres : représentations médiatiques, et re‐présentation dans les pages des sites web. Objets étudiés : période conflictuelle et post‐conflictuelle en Irlande du Nord ; conflit israélo‐palestinien ; violences faites aux femmes en France ; femmes et médias ; NTIC et révolte iranienne en 2009, métadiscours journalistique et éthique de l’information. 67 Etudiante Iranienne en master 2. Licence information et communication des entreprises (ICE) à l’Université de Poitiers, ICOMTEC. Licence en Comptabilité en Iran. Matières étudiées : Management de la connaissance, Influence et lobbying, Stratégies de contre‐information, Logiciels de veille et de gestion des connaissances, Intelligence économique et stratégie des entreprises, Veille et prospective, NTIC et innovation. Thématiques de recherche : E‐réputation, Knowledge Management dans les entreprises, la place des stratégies de l’information au sein des Etats. Objets étudiés : NTIC et révolte iranienne en 2009, Images et événements.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
126
aux Palestiniens. Pourquoi ? Nous voulons ici tenter de comprendre comment, depuis dix ans, l’Etat hébreu a perdu de façon presque systématique cette « guerre des images ». Un élément clef de l’analyse de ce processus informationnel est la généralisation, entre 2000 et 2010, des Nouvelles Technologies de l’Information et de la Communication. Le gouvernement israélien a dû prendre en compte cette évolution dans sa gestion de l’information, et l’équation informationnelle s’est complexifiée avec l’apparition des téléphones portables, des appareils photos et des caméras numériques, ainsi que des nouveaux dispositifs d’écriture individuels (blogs) et communautaires (forums, réseaux sociaux, micro‐bloggings) sur internet. Israël fait donc désormais face à plusieurs fronts : politique et militaire, médiatique et numérique. L’information a toujours été un enjeu vital en temps de guerre ; la stratégie militaire se basant sur la stratégie de l’information, et inversement. Avec la multiplication des sources de production et de re‐production de l’information, il est devenu presque impossible d’identifier l’origine d’une information et donc de la contrôler. La guerre de Gaza, survenue entre décembre 2008 et janvier 2009 est, à cet égard, exemplaire car les différents modèles informationnels (production, reproduction‐médiatisation, contrôle) inhérents à tous conflits modernes sont reproduits en un temps très court. Nous faisons l’hypothèse que pour Israël, durant la guerre de Gaza, l’enjeu d’une gestion stratégique de l’information s’est situé à trois niveaux : ‐ dispositif par la connaissance et le contrôle des supports de l’information (médias, sites internet et blogs, réseaux sociaux, plateformes de micro‐blogging) ; ‐ discursif par la connaissance et le contrôle des discours et des images véhiculés sur ces différents médias ; ‐ sociologique par la connaissance des usagers de ces médias (producteurs, lecteurs et passeurs de l’information). Chacun de ces niveaux doit être appréhendé selon des temporalités différentes entre le moment de l’événement et celui de sa représentation ; le temps de la médiation ayant été fortement raccourci avec le développement des NTIC. Quel impact a eu la généralisation de l’usage des NTIC dans les conflits ? Répondre à cette question nous permettra de développer le thème de la gestion stratégique de l’information par l’Etat hébreu dans le conflit israélo‐palestinien depuis dix ans. Nous verrons ensuite dans quelle mesure Gaza constitue un exemple des nouveaux mécanismes de gestion de l’information par Israël. Comment ceux‐ci ont‐ils évolué depuis 2008, et en quoi leur maîtrise risque de conditionner l’image d’Israël au Proche‐Orient et en Occident ?
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
127
I Généralisation de l’usage des NTIC dans les conflits armés (20002010) La généralisation de l’usage des NTIC a provoqué deux effets dans la gestion de l’information, induisant avantages et inconvénients aussi bien pour les producteurs de l’information (les Etats par exemple) et que pour ceux qui la reçoivent (le public). La conjonction de ces moments médiatiques classiques et multimédiatés dans les conflits est assez nouvelle, même si elle n’est pas spécifique à Gaza et au conflit israélien. En effet, depuis 2003 et le début de la guerre d’Irak, les Etats‐Unis ont dû affronter le même type de phénomène. Le scandale de la prison d’Abou Ghraib en est la première illustration et l’affaire Jessica Lynch l’acmé médiatique. Depuis la première guerre du Golfe, le gouvernement nord‐américain sait gérer l’information médiatique mais il n’a pas vu venir la menace des bloggeurs et des NTIC. L’information désormais se partage entre individus (blogs, réseaux sociaux, forums) avant même d’être médiatisée. 1 Les Etats et l’information L’information est une donnée nécessaire à la gestion d’un Etat et d’une société. La communication et la circulation de l’information vis‐à‐vis du public et des médias ont toujours constitué un enjeu de la gestion politique, économique et sociale d’un Etat. Mais ce qui est nouveau, c’est la façon dont cette gestion est bousculée par l’irruption des nouveaux médias (réseaux sociaux, blogs, plateformes de micro‐blogging) dans la sphère étatique de la régie stratégique de l’information. 11 Les nouvelles règles en matière d’information Trois facteurs ont modifié les équilibres géopolitiques et géoéconomiques et les ont fragilisés : la fin de la guerre froide et de l’opposition des deux blocs Est/Ouest, les attentats du 11 septembre 2001 et le redécoupage Orient/Occident consécutif ainsi que la mondialisation des réseaux du fait des NTIC. Les conséquences de ces phénomènes sont de divers ordres comme l’indique Daniel Ventre dans son ouvrage, Cyberguerre et guerre de l’information : « l’apparition de menaces nouvelles (terrorisme, […] attaques contre les systèmes d’information, la disparition progressive de la distinction entre sécurité intérieure et extérieure, […] un système de sécurité collective fragile ». Cela implique d’établir de nouvelles règles en matière de gestion stratégique de l’information. Protéger l’information (sécurité) La sécurité des systèmes d’information (SSI) des Etats, des entreprises et des particuliers est désormais une problématique incontournable. Les menaces de cyber‐attaque se sont
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
128
multipliées par la généralisation de l’accès à internet ; les Etats sont les premiers concernés. En effet, hors l’enjeu technique de sécurisation informationnelle, les risques de violation des systèmes d’information questionnent la souveraineté des Etats. Internet a déterritorialisé l’information et sa gouvernance, il s’est ouvert à la société civile mais aussi aux hackers. D. Ventre fait la synthèse des faiblesses communes aux Etats modernes : « l’interconnexion des systèmes, leur relation à l’Internet, le caractère contaminant de l’Internet, dépendance de la société aux systèmes d’information, perméabilité de l’espace informationnel en raison des équipements mobiles, faiblesses du protocole internet, utilisation d’application qui ajoutent à la complexité et aux failles de sécurité ». Les Etats sont contraints de mettre en place de nouvelles règles de sécurité. Sans faire le catalogue des mesures technologiques de sécurisation de l’espace informationnel, il faut préciser que la sécurisation de l’environnement informationnel renvoie à des stratégies d’influence nouvelles par leur formalisation (réseaux sociaux, blogs, etc.) mais traditionnelles par leur contenu (donner sa vision du monde et la faire accepter). Paradoxalement, des réseaux sociaux comme Facebook, Twitter, Friendfeed offrent un exemple de sécurisation d’information par l’influence. Ce sont de véritables systèmes de sécurité d’information, parce que sur cette toile de communicateurs, les adhérents ou sympathisants à des groupes idéologiques (politiques, religieux, etc.) s’expriment facilement soit sous leur véritable identité, soit de façon anonyme ou pseudonyme. Ces réseaux sociaux sont contrôlés par des agents‐veilleurs qui relèvent les tags ou les tweets dangereux et les signalent à la police nationale ou internationale (Interpol), ou encore au Service d’Information du gouvernement (SIG en France). Loin d’être de simples plateformes d’échanges démocratiques, les réseaux sociaux constituent aussi des sources d’information précieuses pour les Etats. Derrière le rideau d’une parole sans censure, se cache également un système de sécurité et de surveillance d’information. Contrôler l’information (censure) Avec Internet, le volume d’information s’est multiplié de façon exponentielle ; cela pose la question de l’analyse et du contrôle de ces données par les Etats, et d’une menace de probable cyberguerre. Ainsi, après le second tour des élections présidentielles iraniennes en 2009, l’Etat iranien a mis en place un groupe d’intervention sur internet, une sorte de cyber‐police, afin d’avoir un regard sur les informations circulant entre les différents groupes religieux et politiques de la société, et de limiter ainsi les actions jugées dangereuses ou menaçantes. De son côté, la Chine a mis en place un système de canalisation de l’information (plusieurs
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
129
entrées, une seule sortie) et a instauré la censure des informations de certains méta‐moteurs de recherche. Dans son ouvrage La cyberguerre, Nicolas Arpagian relate l’histoire du journal Libération qui a interrogé à dessein deux versions du moteur de recherche google avec le mot‐clé “Tiananmen”. Le résultat est révélateur : google.fr liste principalement des événements référant aux manifestations pour la démocratie de la place Tiananmen en 1989, alors que google.cn renvoie à des portraits de Mao ainsi qu’aux festivités se déroulant sur cette même place. Cela montre la capacité technologique d’un Etat à contrôler et moduler la diffusion d’une information. L’aspect sécuritaire des réseaux sociaux n’est pas leur seule caractéristique, puisqu’ils permettent de fait le contrôle de l’information. Si un individu menaçait, sur Facebook, de poser une bombe le 9 juin 2011 lors de la conférence du COSSI au Canada, il serait immédiatement suivi par des trackers informatiques reliés à l’administrateur du réseau social qui alerterait les services de sécurité nationaux ; son compte serait bloqué afin d’éviter la propagation de l’information sur le Web et une peur collective. Les Etats se soucient de la multiplication des canaux numériques et s’emploient à les surveiller. Ils mènent ainsi des opérations de veille sur le traitement de l’actualité gouvernementale par les médias classiques mais aussi par les blogs, les réseaux sociaux. Surveiller est devenu aujourd’hui plus encore qu’hier l’une des activités principales des Etats en matière de contrôle de l’information. A côté de ces réseaux de surveillance étatique du net se mettent en place de véritables collectifs de contournement de ces contrôles. C’est le cas de l’association Global Voices, regroupant des bloggeurs du monde entier, qui diffuse des boîtes à outils informatiques pour lutter contre la surveillance des réseaux et contre la censure. Diffuser l’information (propagande et contrepropagande) Associés aux médias traditionnels (presse écrite et audiovisuelle), les nouveaux médias constituent désormais un arsenal de propagande puissant, qui combine médiations de masse (one to many) et médiations « de masse individuels » ‐ via les sites internet (one to one) et les blogs, wiki et réseaux sociaux (many to many) dans lesquels plusieurs personnes contribuent à la construction d’un contenu. Ces nouveaux paramètres complexifient la tâche du diffuseur ou du censeur de l’information ; les cibles étant multiples, mouvantes, déterritorialisées et interconnectées. Les technologies de l’information sont « des moyens d’étendre et d’amplifier des conflits initialement de faible dimension, soit parce qu’ils étaient limités à une zone géographique, soit parce qu’ils impliquaient un nombre restreint d’individus ». La règle en matière de
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
130
propagande serait qu’il n’y a plus de règles. Les supports de communication sont multiples et chaque nouvel outil rend plus utopique la gouvernance d’internet par les Etats. Comment un Etat, engagé dans une action militaire, peut‐il se prémunir des publications diffusées sur les warblogs ou les milblogs ? Ces blogs et les téléphones portables des soldats inquiètent les états‐majors des armées, dans la mesure où les messages diffusés arrivent directement aux familles ou aux visiteurs des sites, sans avoir été filtrés et expurgés d’informations « gênantes ». La généralisation des technologies de l’information dans la production d’idéologies nécessite donc de repenser la propagande. Caroline Ollivier‐Yaniv propose une vision intéressante de l’opposition entre propagande et communication publique, et montre un glissement terminologique de la notion de propagande vers celle de communication publique. Nous pensons que celui‐ci est d’abord la conséquence d’un glissement technologique. Pourquoi ? Comme l’indique C. Ollivier‐Yaniv, il y a une « transformation démocratiquement correcte de la propagande à la communication publique », mais celle‐ci serait‐elle possible sans la généralisation de l’usage des NTIC et l’ouverture technologique (via les sites webs des ministères, les courriels au maire par exemple) aux informations publiques, la concrétisation technologique de la transparence informationnelle ? Elle affirme ensuite que la communication publique a permis de lever « deux interdits liés à la propagande dans un cadre démocratique […] le contrôle des médias de manière directe et autoritaire » ainsi que « la mise en visibilité sélective de l’information », par l’adresse directe des représentants du pouvoir au public et par la transparence de l’action publique. Cela nous amène à penser que ce travestissement de la propagande incite les opposants aux Etats à multiplier les attaques afin de proposer un contre‐discours au discours officiel, susceptible de dévoiler la « supercherie ». Cette opposition systématique de discours en ligne en temps de crise serait devenue « un impensé normatif de la communication dans l’espace public ». 12 Repenser la communication stratégique étatique : vers une cyberguerre ? La guerre a changé de visage et s’est aujourd’hui élargie au cyberespace. Avec les technologies du Web 2.0, le champ de bataille est désormais aussi numérique et Internet y joue un rôle primordial. En 2011, les Etats combinent de façon presque systématique les opérations classiques de désinformation et de propagande, associées à des supports de diffusion très contemporains comme les blogs et YouTube ; les opposants et les sympathisants des deux camps accréditent ou discréditent en ligne le dire et l’agir. Les forums et les blogs communautaires s’activent au fil des événements. Désormais, gérer la guerre et la crise civile avec elle nécessite une « cybercompétence » de la part des Etats.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
131
Cyberguerre ou netguerre ? Comment nommer ces nouveaux territoires guerriers ? La cyberguerre (warfare) est un terme militaire renvoyant aux opérations de destruction ou de détournement des canaux d’information de l’adversaire. C’est le cas lorsque le gouvernement iranien brouille certaines chaines de télévision sur le satellite créées par la diaspora iranienne un mois avant et après les élections présidentielles de 2009. Adi Kuntsman et Rebecca L. Stein citent un autre exemple : « pendant le bombardement de Gaza à l’été 2006, des cyber‐guérilléros basés au Maroc avaient désactivé les réseaux Internet israéliens et laissé le message : " Vous tuez les Palestiniens, nous tuons les serveurs israéliens". » La netguerre (netwar) correspond à un conflit opposant notamment des nations dont la finalité est la subversion de l’environnement informationnel d’une population ciblée. Les attaques de défaçage participent de la netguerre ; elles consistent à superposer « au contenu des sites web adverses des sarcasmes patriotiques, des discours de haine ou même de la pornographie ». Ainsi, au moment de la guerre de Gaza en janvier 2009, les hackers marocains du "Team Evil" ont mené une opération de défaçage sur la version en ligne du quotidien israélien Yédiot Aaronot, Ynet (02 janvier 2009). Il semblerait que les deux types de cyber‐confrontation se retrouvent dans le conflit israélo‐palestinien. Dans le cas précis de Gaza, il y aurait même une guerre contre, pour et par l’information. L’art de la guerre sur internet : une compétence nécessaire de l’Etat au XXIème siècle L’un des intérêts d’une cyberguerre est d’économiser du temps, des moyens matériels et des vies. De plus, sa puissance en matière d’influence de l’opinion publique est immense, car l’ère du web 2.0 a interconnecté le monde entier. C’est pourquoi, les Etats tentent d’acquérir des compétences en matière de hacking, veille, méthodologie des stratégies d’information, maîtrise des logiciels, etc. Le développement des NTIC génère des avantages et des inconvénients pour les Etats dans la gestion stratégique de l’information contre l’adversaire. Il facilite entre autres la visibilité de l’information mais il implique également l’établissement de nouvelles règles en matière de sécurité, censure et propagande. Par ailleurs, l’ambivalence des NTIC réside dans le fait qu’elles sont productrices d’une pluralité informationnelle – synonyme d’un accès théoriquement plus libre aux
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
132
représentations du monde – mais également génératrices de bruits informationnels et d’une forte entropie rendant difficile la gestion de l’image, notamment des Etats et des individus. C’est ce second point qui nous intéresse ici, car Israël, Etat aguerri en termes de renseignements et de protection de l’information, a été piégé par les NTIC. II Les nouveaux mécanismes de gestion de l’information mis en place par Israël depuis 2008 : l’épisode de la Guerre de Gaza Israël, comme n’importe quel autre Etat, doit gérer sa communication dans son espace public et à l’extérieur de celui‐ci. La Hasbara israélienne est néanmoins confrontée à une difficulté particulière, celle de son exposition sur le plan international du fait de deux éléments : l’histoire de la création d’Israël et le conflit israélo‐palestinien. Un aspect spécifique a fortement pesé sur l’orientation de la communication stratégique d’Israël : la guerre des images que se sont livrées les deux parties. 1 Guerre des images/ guerre de l’information Le terme de « guerre des images » utilisé pour le conflit israélo‐palestinien vient du discours médiatique ; car s’il est indéniable que l’événement aujourd’hui se représente avant tout par l’image, c’est encore plus vrai au sujet du conflit israélo‐palestinien. 11 Une invention médiatique ? L’expression « guerre des images » émerge dans la presse occidentale couvrant le conflit israélo‐palestinien dès la première Intifada (1987‐1993). Les images diffusées à l’époque véhiculent une représentation qui accompagnera, elle aussi, tous les cadres d’interprétation du conflit, comme celui de la métaphore biblique de David (les Palestiniens) contre Goliath (les Israéliens). Beaucoup d’images circulent. L’une des plus marquantes est la diffusion d’un court reportage montrant des soldats israéliens rouant de coup deux Palestiniens au sol. Le terme « guerre des images » serait donc plus une intention qu’une invention médiatique, dans la mesure où c’est la présence croissante des caméras et des appareils photographiques sur le terrain proche‐oriental qui a progressivement contraint les belligérants à adopter des stratégies de communication axée davantage sur le contrôle de l’image. Nous pouvons donc affirmer que, depuis 1987, la confrontation se joue véritablement sur deux fronts au Proche‐Orient : sur le « front militaire » et dans les médias. L’enjeu est d’ailleurs au départ celui d’une représentation, d’un récit : celui du conflit israélo‐palestinien. La controverse et la polémique ont progressivement glissé de la praxis (l’action sur le champ de bataille) à la diégèse (le récit de cette bataille), pour buter finalement aujourd’hui sur le logos autour de l’image (le discours et la rhétorique de
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
133
l’image). 1 2 Trois des principales batailles de l’image Cette guerre des images prend une ampleur inédite et non démentie depuis, durant les trois premiers mois de l’Intifada en 2000. Depuis, Israël a mené plusieurs batailles successives qui permettent de mieux comprendre pourquoi le gouvernement israélien déploie désormais un cyberarsenal en matière de communication. Trois événements médiatico‐militaires ont mis en avant les défaillances de la communication israélienne. Le début de la 2nde Intifada (septembre 2000‐décembre 2001) marque un hiatus fort entre le registre de production de l’information du gouvernement de Sharon (celui de la stratégie militaire) et le registre d’attente du public (celui de l’émotion), qui a donné d’Israël l’image d’un Etat froid et calculateur. En avril 2002, le gouvernement israélien décide de mener une opération militaire (« Opération Remparts ») à Jénine (Cisjordanie) en représailles à une série d’attentats survenus sur le sol israélien. Pendant une semaine personne n’a connaissance des événements se déroulant à Jénine, car les journalistes ne peuvent y accéder. Il y a un vacuum interprétatif dans la représentation du conflit. Après une semaine de combat et la victoire d’Israël, les accès sont enfin ouverts aux journalistes. Entre‐temps, les rumeurs ont circulé : les médias occidentaux parlent du « massacre de Jénine ». Après le début de la 2nd Intifada, et l’échec de la stratégie de communication israélienne à l’international, l’Etat hébreu a pris conscience que laisser circuler librement les journalistes sur le terrain militaire était une erreur et pouvait nuire gravement à l’image d’Israël. Au final, l’ « Opération Remparts » à Jénine est un semi‐échec pour Israël qui a opté pour une stratégie de communication bivalente (la censure et la parole contrôlée). Le conflit israélo‐libanais (juillet ‐ août 2006) est aussi un échec sur les plans militaire et communicationnel. L’un des reproches fait au gouvernement israélien est d’avoir négligé Internet, fort de l’expérience de la 2nde Intifada, et de s’être concentré sur les seuls outils traditionnels de propagande et de guerre psychologique (largage de tracts et brouillage des émissions sur les réseaux de télécommunication). La guerre du Liban constitue le second moment, depuis le début de la 2nde Intifada, où conflits en ligne et sur le terrain sont étroitement mêlés. Les prémisses de cette cyberguerre israélo‐palestienne remontent donc à l’automne 2000, au début de la deuxième intifada ; les épisodes suivants ont été la confirmation du développement de ce nouveau type de combats.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
134
2 L’ « Offensive Plomb Durci » à Gaza La guerre de Gaza est une offensive terrestre de Tsahal dans le territoire palestinien de Gaza, baptisée « Plomb Durci », débutée le 27 décembre 2008 et achevée le 17 janvier 2009. La guerre de Gaza est intéressante du point de vue de la communication stratégique, dans la mesure où Israël a mis en place des moyens classiques de contrôle de l’information (pool press, pas d’accès aux terrains de combats, action de censure préventive), et a inventé des moyens adaptés aux NTIC. Des bloggeurs bilingues ont été déployés sur la toile internationale avec un double objectif de veille et de contre‐propagande au moment et après la guerre de Gaza. Le Major Avital Leibovitch, du service de presse étrangère de l’armée israélienne, affirmait ainsi que « La blogosphère et les nouveaux médias sont une autre zone de guerre. Nous devons nous y intéresser. » 21 Acter les erreurs du passé à Gaza La guerre du Liban (2006) a été perçue comme un revers significatif en Israël, notamment dans la médiatisation de l’événement à l’étranger. A la suite du conflit libanais, la population et les médias israéliens – y compris les plus proches du gouvernement d’Ehud Olmert, comme Yédiot Aaronot ou The Jerusalem Post ont demandé des comptes. Avant l’ « Opération Plomb Durci » : préparer le terrain médiatique Deux mois avant le commencement de l’ « Opération Plomb Durci », l’Etat hébreu ferme deux passages (check point de Kerem Shalom et Karmi) obligatoires pour aller dans la bande de Gaza. De ce fait, plus aucun média ne peut accéder à Gaza en décembre 2008, ce qui provoque d’ailleurs la polémique. Le Foreign Associated Press réagit immédiatement à ce qu’il considère comme un acte avéré de censure. L’affaire est portée devant la Cour suprême de l’association de la presse étrangère mais sans succès, sinon quelques concessions : le gouvernement israélien autorise ainsi un groupe de douze journalistes à entrer dans la zone de Gaza lorsque l’un des deux points de passage est ouvert pour raisons humanitaires. 22 L’offensive israélienne à Gaza : stratégie de communication d’Israël La communication stratégique d’Israël durant Gaza combine moyens traditionnels et techniques nouvelles en matière de diffusion de l’information. Il s’agit avant tout de « contrôler l’image‐émotion » car celui‐ci assure, comme l’explique D. Ventre , le « succès partiel de la communication ».
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
135
Des moyens classiques de canalisation de l’information : les Pool Press et le brouillage des télécommunications Les Pool Press : une fois l’offensive à Gaza commencée, les journalistes peuvent se rendre soit à proximité de la frontière soit à Jérusalem, où se trouvent des pool press coordonnés par l’Etat major de l’armée, afin d’obtenir des informations sur les combats. Il s’agit de rendre inutile l’accès des journalistes au champ de bataille. Les télécommunications : les téléphones portables jouent un rôle important durant l’« Opération Plomb Durci ». Côté israélien, il est demandé aux militaires de Tsahal de rendre leurs téléphones portables avant d’entrer dans la Bande de Gaza, afin d’éviter que ne se reproduisent les fuites d’information survenues au Liban en 2006 : appels, tweets, photos ou vidéos prises depuis le téléphone portable. Stratégie plus classique en temps de guerre, le brouillage des lignes téléphoniques des habitants de Gaza est mise en œuvre afin d’empêcher toute communication. Une mesure inédite en termes de gestion des télécommunications est mise en place. Il s’agit de ce que A. Kuntsman et R. L. Stein nomment « le "coup sur le toit" des maisons des Gazaouis, où du personnel militaire arabophone téléphonait aux habitants (en utilisant leur ligne fixe) avec des messages directs ou enregistrés les avertissant que leurs maisons allaient être démolies ». Cette initiative de l’armée israélienne a un double but : épargner la vie de civils et donner « la preuve de la moralité d’Israël en temps de péril mortel ». Aux nouveaux moyens de communication : You Tube et les réseaux sociaux Les sites de partage vidéo : le gouvernement israélien met en place une série d’actions de communication tournées vers les nouveaux médias. Dès le 29 décembre 2008, les Forces de Défenses d’Israël (FDI) lancent leur chaîne sur YouTube. Les clips vidéo montrent des prises de vues aériennes des attaques israéliennes sur Gaza et les explications de porte‐paroles de l’armée. Le succès de cette chaîne ne se dément pas jusqu’à la fin de la guerre puisqu’au terme de l’offensive, certaines vidéos auront été visionnées deux millions de fois. Les réseaux sociaux ont également une place dans la stratégie de communication israélienne durant Gaza. Israël utilise des fonctionnaires pour investir ces réseaux afin d’influencer l’opinion publique internationale et de la convaincre du bien‐fondé de l’opération « Plomb Durci ». Beaucoup d’Israéliens ont exprimé sur Facebook leur soutien aux actions du gouvernement israélien, au nom de la sécurité intérieure du pays. De la même manière, Twitter, est fortement sollicité pendant la guerre de Gaza, puisque le ‘hashtag #gaza’ a jusqu’à six nouveaux posts à la minute. Le consulat israélien à New‐York
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
136
ouvre un compte Twitter afin de soutenir la politique d’Israël à l’étranger. La plateforme de micro‐blogging contribue à « révolutionner la diplomatie israélienne » comme l’indique le quotidien israélien Haaretz. Une « armée » de bloggeurs sur la Toile En 2008, Israël a créé la Direction Nationale de l’Information (Ministère des Affaires Etrangères) pour corriger les faiblesses de l’Etat hébreu en matière de gestion du cyberespace, et « synchroniser le contenu et le ton du message d’Israël ». Cette entité gouvernementale est à l’initiative de la création d’un instrument de contre‐propagande assez particulier : une « armée » de bloggeurs bilingues, parlant Hébreu et une autre langue (français, espagnol, etc.), ayant pour mission de vérifier l’information sur Israël dans les blogs et les forums en Europe essentiellement, et de produire de la contre‐information. A. Kuntsman et R. L. Stein indiquent que « ce projet a été officiellement ajouté au budget de l’Etat en 2009 sous la rubrique : "Equipe de guerre Internet" ». Enfin, à la fin de l’offensive, Israël met en place une opération de communication particulière, répondant à une rhétorique de l’« effet spectacle ». Celle‐ci vise à rectifier son image négative auprès de l’opinion publique internationale et consiste à installer des caméras au check point de Kerem Shalom afin de diffuser en direct et en ligne les images des convois d’aide humanitaire à l’initiative de l’Etat hébreu. En dépit des efforts du gouvernement Israélien, il y a quand même eu à Gaza une large part d’information non maîtrisée. Des journalistes ont contourné la censure en contactant les Palestiniens reclus à Gaza, certains étant des correspondants locaux réguliers des reporters, d’autres des citoyens lambda. Ceux‐ci ont pris des photos avec leur téléphone portable et les ont diffusées auprès des médias ou envoyées à des contacts extérieurs (blogs, partage de fichiers, etc.). Par ailleurs, les médias du Hamas ont largement contribué à la diffusion d’images‐chocs, notamment via la chaîne de télévision qatarie Aljazeera. Une fois encore, Israël n’a pas pu contrôler complètement l’information ni son image. 3 Gestion stratégique des NTIC depuis Gaza : repenser les modalités informationnelles dans le conflit israéloPalestinien Denis Sieffert dit du conflit israélo‐palestinien qu’il est une guerre essentiellement vécue en Occident par « médias interposés ». Cela traduit l’enjeu sous‐jacent à la représentation d’un conflit dans les médias pour tout Etat et l’importance de la stratégie de communication gouvernementale à l’intérieur et à l’extérieur du pays. Nous distinguons trois axes dans la modalisation de la communication israélienne.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
137
31 L’axe du dispositif La connaissance et le contrôle des supports de l’information (médias, sites internet et blogs, réseaux sociaux, plateformes de micro‐blogging) sont essentiels à la préparation de l’action stratégique. L’échec de la communication israélienne au Liban a obligé l’Etat hébreu à repenser, non pas son discours sur l’événement, mais les modalités de diffusion de celui‐ci. Aucune communication stratégique ne peut donc ignorer la prévalence du numérique dans les conflits et dans leur représentation. La promesse d’une démocratie numérique sur internet est mise à mal au regard des actions menées par des cyber‐activistes (défaçage, rumeur) pendant et après Gaza ; celles‐ci ressortent en effet davantage de la propagande totalitaire que de la parole démocratique. Depuis 2009, Israël a mobilisé plusieurs dispositifs sur internet afin de corriger son image. Il a joué à la fois sur les contenus en qualité (donnant une « vision positive d’Israël » selon les dires du Consul israélien à New‐York) et en volume (saturation d’images). Cela a eu comme conséquence de modifier les résultats de recherche pour les requêtes avec le mot‐clé « Israël » et a permis de faire remonter à la première page des résultats sur Google ou Yahoo les sites produisant des images favorables à Israël. La nature du conflit israélo‐palestinien a été transformée par les attaques des hackers, les débats sur des forums ou sur Facebook, qui sont une forme de guerre numérique et la continuation de l’offensive sur le terrain. Les médias numériques ont été progressivement investis par la stratégie de communication israélienne, mais également par leurs opposants. Le web 2.0 doit être envisagé comme un dispositif de contrôle de l’information (chez l’ennemi et dans son propre camp) et de soutien d’une action militaire ou militante. En temps de guerre, il devient surtout le dispositif du dévoilement (de la vérité, du mensonge) et du renseignement. Face à la rapidité de l’évolution technologique de ces outils, Israël – et les Palestiniens – ont dû adapter constamment leur discours et former leur personnel. Ce n’est plus tant la guerre qui fait le dispositif, mais le dispositif qui fait la guerre. Le dernier des instruments de propagande dans le conflit israélo‐palestinien est Wikipedia. Le voir apparaître ainsi aux côtés de Facebook et Twitter (plus interactifs) peut surprendre, dans la mesure où sa fonction originelle ressort davantage de l’activité de partage encyclopédique que du tract militant. A. Kuntsman et R. L. Stein donnent ainsi l’exemple du «
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
138
Conseil Yesha, représentant les colons juifs en Cisjordanie (qui) a répondu à la crise des relations publiques israéliennes en parrainant un cours sur « la rédaction sioniste » de l’omniprésent site web d’information. » Selon les auteurs, les Palestiniens ne seraient pas en reste puisque « l’Association des Journalistes palestiniens a appelé les institutions palestiniennes à rédiger des entrées Wikipedia […] pointant la nécessité de répondre sur le web à la dernière phase de la « guerre de relations publiques » d’Israël ». 32 L’axe discursif La connaissance, le contrôle des discours et des images véhiculés sur ces différents médias est un aspect primordial dans la lutte pour la détermination symbolique de qui dirige le conflit en termes de narration. Dan Guillerman, coordinateur de la communication du gouvernement israélien en 2008, déclare que l’essentiel est de parvenir à faire passer le message. Mais quel message ? Selon D. Sieffert, il se serait agi, pour l’Etat d’Israël, de proposer un récit à deux niveaux : « un, le Hamas est l’agresseur, et Israël la victime qui ne fait que se défendre ; deux, il s’agit de l’une des batailles du grand "choc des civilisations" car, derrière le Hamas, il y a l’Iran et l’islamisme radical et, derrière Israël, il doit y avoir tout le monde occidental. » Cette affirmation est intéressante car elle souligne l’importance de ce que Benoît Salmon appelle le « storytelling » dans la gestion symbolique d’un conflit. L’épicentre du récit sur Gaza réside dans la question suivante : « qui a rompu la trêve » ? Désigner un coupable c’est rejeter la faute sur l’autre et par conséquent la responsabilité politique, économique et sociale du « désastre », et cela permet également de légitimer la réparation du préjudice subi aux yeux de l’opinion publique internationale. D. Sieffert affirme que concentrer l’attention des médias et du public sur le responsable de la rupture de la trêve évite de poser la question du « pourquoi ». Dans le conflit israélo‐palestinien, contrôler le discours sur l’événement, c’est contrôler l’événement. Israël a échoué en 2006 et en 2008, pour des raisons différentes, mais semble désormais avoir pris la mesure de l’importance des réseaux sociaux et d’internet dans la gestion stratégique de la communication de crise. Néanmoins, et l’épisode de l’arraisonnage du paquebot humanitaire Mavi Marmara par l’armée israélienne en 2010 le montre, cela ne suffit pas à imposer un discours dominant. Il faudrait pour cela contourner deux facteurs d’entropie : d’une part, maîtriser ‐ mais c’est impossible ‐ le discours communautaire et diasporique et, d’autre part, empêcher la diffusion d’images (le faire politique et militaire) allant à l’encontre de la communication officielle d’Israël (le dire militaire et citoyen). Pour comprendre la difficulté et l’impossibilité
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
139
de cette tâche, il suffit de prendre l’exemple de la diffusion sur les réseaux sociaux, dont Facebook, d’images représentant une jeune soldate israélienne souriante avec, devant elle, des Palestiniens les yeux bandés. La polémique a été d’autant plus forte qu’un précédent avait déjà eu lieu en Irak, en 2004, avec la diffusion de photographies montrant des détenus irakiens à Abou Ghraib humiliés par des militaires américains. 33 L’axe sociologique La connaissance des usagers des médias numériques (producteurs, lecteurs et passeurs de l’information) est un paramètre essentiel dans la gestion stratégique de l’information numérique. Qui écrit ? Citoyens israéliens et palestiniens, diaspora, partisans pro‐israéliens et pro‐palestiniens, militaires, journalistes, etc. Les voix du discours se sont multipliées avec les dispositifs. Il n’y a donc plus de frontières entre acteurs officiels et officieux du discours. La déterritorialisation du conflit s’est non seulement effectuée par la consécration du cyberespace comme champ de bataille alternatif, mais également par la démocratisation et la désacralisation de la parole politique et du discours d’autorité. Désormais, le public/récepteur est aussi acteur/producteur de l’information, ce qui oblige les Etats à prendre en considération cette dualité ontologique ‐ et nouvelle ‐ dans leur communication stratégique, et à ne plus faire des seuls médias classiques leur cible privilégiée. La pluralité informationnelle à laquelle est aujourd’hui confrontée le public et les Etats, rend les premiers plus méfiants vis‐à‐vis d’un discours univoque et oblige les seconds à penser des stratégies de communication équivoques. La communication stratégique israélienne a donc dû apprendre à s’adapter à cette course en matière de technologies numériques et elle doit prendre en compte le caractère humain de ces dispositifs techniques. Le public est désormais un acteur à part entière dans la gestion de l’information circulant autour du conflit israélo‐palestinien. L’« Offensive Plomb Durci » a été un échec médiatique pour Israël, car même s’il a pris en compte la pluralité des dispositifs informationnels (supports, discours, acteurs), il n’a pas pris la mesure de l’émotion. En effet, les images ou les non‐images de Gaza ont généré un discours du pathos très fort sur les supports numériques. Nous évoquions en introduction la présence dans le conflit israélo‐palestinien de trois fronts : politique et militaire, médiatique, et enfin numérique. Ce dernier constitue la base de la nouvelle stratégie de communication d’Israël puisque le développement des NTIC questionne constamment la sécurité de l’information, et qu’il devient impossible de contrôler les données sortantes et/ou entrantes. Afin de continuer à préserver l’intégrité de certaines informations, les Etats doivent se doter de compétences et de savoirs nouveaux,
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
140
quitte à mettre en place des moyens inédits d’influence et de contre‐influence, comme ce fut le cas avec l’armée de bloggeurs israéliens durant Gaza. Avec les NTIC, la censure a vécu ; en revanche, le jeu de l’influence virtuelle (en ligne) constitue sans aucun doute l’un des piliers de la propagande moderne. Le conflit israélo‐palestinien est aussi, au même titre que la guerre en Irak, une cyberguerre. En ce sens, contrairement à l’offensive sur le terrain militaire, elle n’a réellement ni de début ni de fin. La mémoire virtuelle et l’intemporalité du discours sur internet (quelle que soit sa forme) est probablement le plus grand danger que devra affronter l’Etat israélien. En effet, les médias classiques ont tendance à raccourcir le temps de l’événement et à s’intéresser à des actions qui ont un début et une fin, comme le dit fort justement D. Sieffert. Les réseaux sociaux, les blogs, les forums prolongent indéfiniment ou presque l’événement ; nous pouvons aujourd’hui encore visionner les images de la mort du petit Mohamed Al Durra survenu en 2000 et consulter certaines pages web publiées à l’époque. L’Etat hébreu et la Direction de l’information israélienne doivent donc prendre en compte ces paramètres spécifiques aux dispositifs numériques. En 2011, une guerre se gagne peut‐être davantage par une stratégie de communication que par une communication stratégique, dans le sens où l’écho social sur l’événement a supplanté l’action militaire. Bibliographie Arpagian, Nicolas, La cyberguerre, Paris, Vuibert, 2009. Bourdon, Jérôme, Le récit impossible. Le conflit israélo‐palestinien et les médias, Bruxelles, De Boeck/INA, 2009. Dray, Joss et Sieffert, Denis, La guerre israélienne de l’information, Paris, La Découverte, 2002. Ellul, Jacques, Propagandes, Paris: Economica, 1990. Ferro, Marc, L’information en uniforme : propagande, désinformation, censure et manipulation, Paris, Ramsay, 1991. Huygues, François‐Bernard, Ecran / Ennemi. Terrorismes et guerres de l'information, Paris : 0h00.com, 2002. Ollivier‐Yaniv, Caroline, « De l’opposition entre "propagande" et "communication publique"
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
141
à la définition de la politique du discours : proposition d’une catégorie analytique. », in Propagandes en démocratie, Taïeb, Emannuel (dir), Quaderni, n°72, Printemps 2010. Salmon, Christian, Storytelling, Paris, La découverte, 2007. Sieffert, Denis, La nouvelle guerre médiatique israélienne, Paris, La Découverte, 2009. Taïeb, Emmanuel (dir.), Propagandes en démocratie, Quaderni, n°72, Printemps 2010. Ventre, Daniel (dir.), Cyberguerre et guerre de l’information, Paris, Hermès, 2010. Webographie Castells, Manuel, “Emergence des médias individuels », Le monde diplomatique, août 2006. http://www.monde‐diplomatique.fr/2006/08/CASTELLS/13744. Kuntsman, Adi et Stein, Rebecca L., « Une autre zone de guerre : les réseaux sociaux dans le conflit israélo‐palestinien », septembre 2010. http://www.ism‐france.org/analyses/Une‐autre‐zone‐de‐guerre‐les‐reseaux‐sociaux‐dans‐le‐conflit‐israelo‐palestinien‐article‐14422.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
142
La cartographie des connaissances pour la modélisation opérationnelle d’un outil de planification pédagogique transdisciplinaire – phases I et II
Monica Mallowan68
Professeure adjointe en sciences de l’information Secteur Sciences
Université de Moncton, Campus de Shippagan
Yves de Champlain69 Professeur adjoint en éducation
Secteur Administration, arts et sciences humaines Université de Moncton, Campus de Shippagan
Résumé : Dans le contexte de la complexité croissante des sociétés modernes, le défi des programmes en éducation représente un défi de gestion de la multitude des savoirs inclus directement dans les programmes de formation, des connaissances liées au contexte local de chaque école et, surtout, un défi de construction commune, par les acteurs du système scolaire, d'une approche cohérente dans l'exploitation de ces multiples savoirs et connaissances pratiques, pour le bien de toutes les personnes impliquées dans ce processus. A cet égard, nous sommes engagés, depuis l'automne 2010, dans une recherche à deux axes, soit l'analyse et le développement d'une démarche ainsi que d'un outil visant à
68 Monica Mallowan est professeure en Sciences de l’information au Campus de Shippagan de l’Université de Moncton (UMCS), Mme Mallowan aborde, dans les cours qu’elle enseigne au Baccalauréat en gestion de l’information (BGI), les questions reliées à la place de l’information dans la capacité compétitive des organisations par l’intermédiaire des démarches de veille stratégique, de gestion des connaissances et d’intelligence économique. Détentrice d’un Master en Intelligence Économique de l’Institut de la Communication et des Technologies Numériques (ICOMTEC, France), ainsi que d’une Maîtrise en Sciences de l’Information de l’Université de Montréal (EBSI, Québec), Mme Mallowan entreprend un doctorat au Centre de Recherche en Gestion (CEREGE) de l’Université de Poitiers (France), avec une thèse portant sur l’information stratégique. Elle se concentre, dans ses publications, communications et projets de recherche, sur le rôle des nouvelles stratégies d’information pour la compétitivité organisationnelle, dans le contexte de la société de l’information, qu’elle étudie en analysant le lien entre l’économie et la circulation du savoir, le comportement informationnel, ainsi que l’application d’approches d’intelligence informationnelle et stratégique. Responsable de l’Observatoire de Prospective et Veille Informationnelle et Scientifique (PROVIS) de l’UMCS, Mme Mallowan est aussi la fondatrice et présidente du Colloque Spécialisé en Sciences de l’Information (COSSI), première manifestation dédiée à ce champ d’études et de pratiques dans la Francophonie de l’Est du Canada. 69 M. Yves de Champlain a d’abord été enseignant de musique au primaire pendant douze ans, puis il a obtenu une maîtrise et un doctorat dans le champ de l’étude des pratiques pédagogiques, s’intéressant particulièrement au processus de prise de conscience, aux approches de recherche en première personne et à la place de la subjectivité dans les pratiques pédagogiques. Il est aujourd’hui professeur en éducation à l’Université de Moncton, Campus de Shippagan. Il est engagé dans un programme de recherche collaborative visant à soutenir l’innovation pédagogique aux niveaux primaire et universitaire.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
143
relever ces multiples défis. Nous proposons d'abord de réaliser des prototypes numériques d’un outil de planification des enseignements selon une approche cartographique, en fonction des pratiques en cours et des besoins d'une équipe d'enseignants d'une école primaire : La Cité de l'Amitié de Bathurst. Ensuite, nous accompagnerons cette communauté de pratique, grâce aux outils du Web 2.0 et des réseaux sociaux, afin d'évaluer l'appropriation de la solution adoptée ainsi que ses impacts sur les résultats du processus de planification et sur la progression des apprentissages. Motsclés : Apprentissage, approche cartographique, communauté de pratique, connaissances, intégration des savoirs, planification pédagogique, prototype numérique Problématique Dans le contexte de la complexité croissante des sociétés modernes, l’éducation fait face à un double enjeu qui peut paraître paradoxal, qui est celui du glocal : d’une part, former des élèves dans une perspective globale et planétaire (Morin, 1999), d’autre part, être en mesure de répondre à des situations locales et des cas d’élèves très spécifiques (Meirieu, 1989 ; Perrenoud, 1995). Pour répondre à cet enjeu, un mouvement conséquent a été engagé dans différents systèmes scolaires, qui cherche à inclure, dans les programmes de formation scolaire, des processus d’acquisition, de traitement et d’utilisation de l’information de plus en plus complexes, tout en encourageant les écoles à tisser des liens avec leur communauté. Mais chacun de ces deux mouvements demande beaucoup de temps, puisqu’il s’agit là non seulement de savoirs théoriques à acquérir mais aussi de connaissances, de savoirs pratiques, à développer. De ce point de vue, le défi des programmes en éducation est également un défi portant sur la manière d’aborder l'information et de la gérer. Il représente même un défi de gestion de la multitude des savoirs inclus directement dans les programmes de formation, des connaissances liées au contexte local de chaque école et, surtout, un défi de construction commune, par les acteurs du système scolaire, d’une approche cohérente dans l’exploitation de ces multiples savoirs et connaissances pratiques, pour le bien de tous ceux qui sont impliqués dans ce processus, dont les enseignants et leurs élèves, dans le cas présenté ici, ainsi que les chercheurs qui les accompagnent dans le projet. L’intégration de ces savoirs constitue un aspect fondamental de cette problématique : vue comme une démarche multi‐ et transdisciplinaire dans une logique verticale de mise en réseau des savoirs, elle doit être abordée à court, moyen et long terme, et ce dans une logique longitudinale de progression en termes d’années et de cycles. Nous considérons que ce projet permettra de mieux documenter, modéliser et comprendre les processus et les connaissances impliquées dans ce travail de double intégration pédagogique, vertical et longitudinal. Il mènera aussi à une version plus achevée de l’outil de planification en version numérique qui pourra aussi être déployé d’abord dans d’autres écoles du Nouveau‐Brunswick, mais aussi dans toute école et / ou organisation à la recherche d’un outil d’intégration des savoirs, de renforcement de l’esprit d’équipe et
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
144
finalement d’édification de l’intelligence sociale et collective (Dedijer, 2003; Levy, 1994 ; Handbook of Collective Intelligence, 2010). Cadre théorique En tant qu’auteurs de cette proposition, nous sommes engagés, depuis l’automne 2010, dans une recherche à deux axes, soit l’analyse et le développement d’une démarche ainsi que d’un outil visant cette double intégration. Se guidant selon des théories à l’œuvre dans le champ de l’éducation (réflexivité et temporalités en formation) ainsi que dans celui des sciences de l’information (théorie de l’information et de la connaissance), cette démarche cible, d’abord, la constitution d’une communauté d’intérêt et de pratique (Wenger, McDermott, Snyder, 2002 ; Legault, 2005, 2006) ainsi que l’assimilation du concept de pensée systémique et d’intelligence complexe (Bertalanffy, 1993 ; Morin, 1999 ; Pineau, 2000) afin de faciliter la mise en perspective du processus d’enseignement dans son ensemble, ainsi que l’adoption de stratégies de planification et de suivi des objectifs plus efficaces. Information et connaissance À l’ère de la révolution post‐industrielle, l’information est considérée comme étant la ressource première qui permet de bâtir, grâce à l’avancement des technologies dédiées, de nouveaux modèles d’accès au contenu et à la communauté restreinte ou élargie. Ce qui est de manière générique désigné par « information » se décline toutefois sur un continuum : ainsi, les données constituent des éléments bruts, objectifs, qui, une fois contextualisés se transforment en information, qui devient, à son tour, connaissance, par formalisation (images du monde qu’il est possible de conserver et / ou transmettre) ou mise en pratique (savoirfaire propres à la personne et donc difficiles à partager), entre autres (Blair, 2002; Le Coadic, 2004). Plusieurs théories s’appliquent à analyser la nature, les formes ou le fonctionnement de l’information : ainsi, la théorie mathématique de l’information, qui se penche sur la transmission électrique d’un signal – message entre émetteur et récepteur par l’intermédiaire d’un canal (Shannon, Weaver, 1949). L’indifférence que le modèle de Shannon manifeste à la signification du message est contrecarrée par la théorie de la communication / processus des mass media – selon laquelle l’information devient spectacle et donne naissance à l’industrie de la culture et où l’influence des masses passe par le rôle des leaders d’opinion (Katz, Lazarfeld, 1955). A cela s’ajoute la théorie de la communication interactive – constructiviste (Watzlawick, 1976), où l’échange d’information entre deux ou plusieurs personnes résulte de leur interaction et du contexte et où les connaissances ne sont pas le reflet de la réalité, mais plutôt le résultat d’une construction personnelle. D’autre part, la connaissance est catégorisée, selon le degré de transmission qu’on peut lui attribuer, en connaissance formalisée, consignée, facilement transmissible sous forme de texte, documents, ouvrages, etc., à un grand nombre de destinataires, et, d’autre part, en connaissance difficilement transmissible, en tant que savoir‐faire expérientiel issu d’une longue pratique et qui constitue, entre autres, le cœur d’un champ d’études qui est celui de la gestion des connaissances70, (Prax, 2003 ; Dalkir, 2011). Dans un contexte de partage 70 En anglais, knowledge management.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
145
d’expériences et de création de nouvelles connaissances / innovation, la gestion des connaissances se révèle être d’un grand intérêt pour de nombreux domaines d’activités71 et elle s’occupe, entre autres, d’analyser le fonctionnement des communautés d’intérêt, des regroupements de personnes autour d’un intérêt, projet, mission, et qui peuvent fonctionner comme des structures de solution de problèmes, de dialogue, entraide et valorisation (Wenger, McDermott, Snyder, 2002). Gestion des connaissances Définies comme « [L’] Ensemble des notions et des principes qu'une personne acquiert par l'étude, l'observation ou l'expérience et qu'elle peut intégrer à des habiletés »72, les connaissances sont donc explicites et gérables ou transmissibles, par voie écrite ou verbalement, tandis que les connaissances tacites, elles, constituent des automatismes qui doivent être captés et formalisés afin d’être mis ensuite en circulation (Prax, op.cit.). Il existe une multitude de méthodes et d’outils servant à ces fins, dont certains ont accompagné les humains depuis des millénaires, et on peut citer ici le récit, l’image, le dessin ou bien l’imitation du geste. L’adage « Une image vaut mille mots » se retrouve, d’une certaine manière, au cœur de la représentation cartographique – qui cherche à reproduire un espace réel sur un support réduit, afin de faciliter la transmission de l’information géographique aux utilisateurs. Et, de la carte géographique, il n’y a qu’un pas à faire pour adapter le principe – et l’adopter ! – aux cartes mentales – qui sont des cartes d’idées ou de concepts organisés hiérarchiquement. Cette approche présente en premier l’avantage de faciliter la vision d’ensemble d’une grande quantité de données – d’informations, en plus d’une lecture rapide et d’un accès aisé au contenu représenté, donc un appel à la capacité de synthèse et d’analyse des éléments représentés. Intelligence sociale L’intelligence sociale se définit par “l’habileté de l’individu ou de l’organisation ou du pays à interpréter efficacement l’environnement pour s’y adapter”, grâce à trois facteurs : l’information, la connaissance, la technologie (Dedijer, 2003). Le concept de l’intelligence sociale se retrouve à la confluence de la cognition, de l’éducation, des sciences de l’information, de l’économie, du management, du comportement, de la technologie. Face aux turbulences multiformes du 3e millénaire, il rapproche l’humain d’une posture transdisciplinaire qui peut s’avérer la seule voie apte à l’aider dans ses efforts d’appréhender le changement permanent, cet état chargé de tous les défis et de tous les possibles. En cela, l’application des mécanismes de la « pensée complexe » et l’assimilation des grands principes de « l’éducation pour le futur » tels que formulés par Morin (1990) 71 Selon les résultats d’une étude bibliométrique réalisée en 2005 sur un corpus de 650 articles scientifiques à pertinence maximale, la gestion des connaissances intéressait déjà, en ordre d’importance les domaines suivants : gestion, information, technologie, informatique, économie, génie, industrie, formation, méthodologie, éducation, communication, droit, tourisme, travail (Moldovan, « Gestion des connaissances : préambule à un portrait ». Revue de l’Université de Moncton, 36, 2, 2005). 72 Grand dictionnaire terminologique.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
146
invitent à adopter un regard écologique, où l’écologie est vue comme la « compréhension des conséquences et de leurs ramifications» (Sears, 1988). Cette manière de penser arborescente prépare à la vision et à la compréhension de grands ensembles complexes où de très nombreux éléments sont agrégés afin de construire des corpus de connaissances inédits. Le processus de construction de ces bases de connaissances est essentiellement fondé sur la mise en commun des savoir‐faire des membres de la communauté qui, au‐delà de leur intérêt personnel, acceptent de collaborer à la réalisation d’un projet commun qui dépassera la somme de leurs contributions personnelles, en devenant une manifestation d’intelligence collective. Intelligence collective Phénomène lié de manière intrinsèque à l’histoire de l’humanité, l’intelligence collective se manifeste dans des regroupements d’individus qui font ensemble appel à des connaissances pour s’adapter à un environnement en mutation (MIT, 2010). Les nouvelles technologies de l’information ont engendré toutefois de nouvelles formes de mise en commun des connaissances dans le but de parvenir à cet objectif, qui est celui de faire face au changement de plus en plus rapide et complexe. L’intelligence collective se manifeste dans les projets créatifs, collaboratifs et communicationnels, dans le monde des affaires, dans les réseaux sociaux physiques ou virtuels, dans le monde associatifs, dans l’éducation, etc. Sous l’influence de plusieurs facteurs, dont le type de tâche, la cohésion, le leadership, la formation, le brainstorming ou les différences culturelles, l’intelligence collective est facilitée par la diversité, la structure – formelle ou informelle, les incitatifs, l’existence d’un langage commun ainsi que d’une infrastructure permettant l’émergence de la dynamique de groupe soudé et de l’atteinte des objectifs communs. Cette dynamique mènera au dépassement du stade de freerider des membres de la communauté et servira de catalyseur aux réflexions synergiques porteuses des projets collectifs. Intégration et temporalité Lors des entretiens menés dans le cadre de la phase I, le premier avantage de l’intégration des matières que les enseignants ont évoqué était celui de « sauver du temps ». En effet, les enseignants semblent tous partager des rapports au temps très tendus, cet aspect de leur travail étant souvent évoqué comme une des ressources dont ils manquent le plus (Perrenoud, 1996). Quoi qu’il en soit, cette difficulté dans le rapport au temps n’est pas spécifique à l’enseignement. Ces rapports conflictuels entre les divers rythmes qui ponctuent notre existence, institutionnels, informationnels, biologiques, saisonniers, cosmiques et autres, participent à la complexité de cette problématique (Pineau, 2000) et constituent de ce fait une facette du glocal. L’intégration des matières, de ce fait, agit comme un « synchroniseur » (Pineau, 2000). Si cette synchronisation semble s’adresser à un seul niveau, celui du découpage temporel des matières dans la grille horaire, les entretiens menés lors de la phase I suggèrent que cette synchronisation peut prendre de l’ampleur en permettant aux élèves d’investir du temps dans certains aspects qui les touchent et les intéressent le plus. Quoi qu’il en soit, et même si nous saluons avec enthousiasme l’intelligence mise en œuvre et les résultats accomplis en
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
147
ce sens, la question de la temporalité doit être développée pour inclure plusieurs niveaux qui incluent celles de l’élève d’une façon plus systématique. Sans une élaboration de synchroniseurs à plusieurs niveaux, la prise en compte des rythmes d’apprentissage est vouée à l’échec (Perrenoud, 2003). Une telle élaboration sur plusieurs niveaux appelle nécessairement une approche transdisciplinaire ainsi qu’une exigence de démarche planificatoire renouvelée vu les défis croissants de l’acte d’enseignement dans ce nouvel environnement informationnel à évolution multiforme accélérée (Handbook, op. cit.). Transdisciplinarité et pédagogie Face à la complexité croissante des enjeux de l’éducation (Morin, 1999), à la nécessité de prendre en compte les différences individuelles (Meirieu, 1989 ; Perrenoud, 1995) et face aussi à la mutation des rapports à la connaissance et au savoir (Blais et al., 2008), les systèmes d’éducation ont intégré dans leurs programmes des « compétences transversales » (MEQ, 2001) ou des « résultats d’apprentissage transdisciplinaires » (MENB, 2011). Dans les deux cas, cet ajout vise à mettre en relief et ainsi mieux cibler les savoir‐faire et savoir‐être nécessaires à la réussite scolaire et qui sont communes à l’ensemble des matières. Ces ajouts connaissent plusieurs problèmes d’opérationnalisation, justement parce qu’ils sont considérés comme tels. Du côté du Québec, l’évaluation des compétences transversales a été la source de nombreux malentendus, au point où elle a été mise de côté quelques années jusqu’à l’année scolaire 2008‐2009 alors que le Ministère a décrété que les élèves devraient être évalués sur une compétence à la fin de l’année. Du côté du Nouveau‐Brunswick, la situation ne semble pas créer de telles controverses mais, lors d’entretiens menés dans le cadre de la phase I du projet, une enseignante questionnée sur les résultats d’apprentissage transdisciplinaires ne semblait avoir jamais entendu parler de ce terme qui figure pourtant dans les programmes de toutes les matières à enseigner. Pourtant, la transdisciplinarité implique un profond changement de paradigme. Suite à l’explosion disciplinaire de ce siècle, le besoin de créer des liens entre disciplines et champs d’études a pris plusieurs formes. La pluridisciplinarité, ou multidisciplinarité, consiste à étudier l’objet d’une seule discipline par plusieurs disciplines à la fois, sans qu’aucune discipline n’ait à modifier sa vision des choses. L’interdisciplinarité consiste plutôt à transférer les méthodes d’une discipline à une autre selon trois degrés possibles : un degré d’application, un degré épistémologique et un degré d’engendrement de nouvelles disciplines.
L’interdisciplinarité devrait ultimement ouvrir sur un formalisme qui permette d’exprimer les concepts et enjeux de plusieurs disciplines dans un langage commun. La transdisciplinarité concerne « [...] ce qui est à la fois entre les disciplines, à travers les différentes disciplines et audelà de toute discipline. Sa finalité est la compréhension du monde présent, dont un des impératifs est l’unité de la connaissance. » (Nicolescu, 1996, p. 66).
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
148
La transdisciplinarité est la réponse à des ruptures épistémologiques majeures qu’il est important de saisir pour vraiment comprendre de quoi il retourne. Nicolescu, qui en a écrit le manifeste (1996) a effectivement, en tant que physicien, vécu cette rupture de l’intérieur. La logique classique est fondée sur trois axiomes : l’axiome d’identité (A est A), l’axiome de non‐contradiction (A n’est pas non‐A) et l’axiome du tiers exclus (il n’existe pas de troisième terme T qui est à la fois A et non‐A). Or, la mécanique quantique a révélé que cette logique est vraie à l’intérieur d’un seul niveau de réalité, puisque le changement de niveau apporte l’existence du tiers inclus. La recherche transdisciplinaire s’intéresse donc, en tenant compte de la nature discontinue des niveaux de Réalité, à « [...] la dynamique engendrée par l’action de plusieurs niveaux de Réalité à la fois. » (Op. Cit. p. 67) Finalement, la transdisciplinarité se situe de plain pied dans la complexité, à l’intérieur d’une structure ouverte, en accord avec le théorème de Gödel (1931) qui stipule que, même en logique et en arithmétique, un système d’axiomes suffisamment riche conduit inévitablement à des résultats soit indécidables, soit contradictoires. Or, si on peut concevoir la réalité comme ce qui résiste, à nos expériences, à nos perceptions, à nos conceptions, l’ensemble des niveaux de réalité se prolonge par une zone de nonrésistance, qui correspond au sacré, à ce qui ne peut être rationalisé. « L’ensemble des niveaux de Réalité et sa zone complémentaire de non‐résistance constitue l’Objet transdisciplinaire. » (Op. Cit. p. 80) Le Sujet transdisciplinaire correspond aux niveaux de perceptions, en adéquation avec l’objet, avec eux‐aussi leur zone de non‐résistance. Il n’existe pas de lieu privilégié, l’approche est relative et multiréférentielle.
Le langage transdisciplinaire est fondé sur l’inclusion du tiers, qui se trouve toujours entre le « pourquoi » et le « comment », entre le « Qui ? » et le « Quoi ? ». [...] La triple orientation [...] assure la qualité de présence de celui ou celle qui emploi le langage transdisciplinaire. Nicolescu, 1995, pp 176‐177
Comme on le voit, l’intégration des matières doit constituer un premier pas vers une transdisciplinarité, sinon l’école ne se trouvera jamais en mesure de remplir sa mission de plus en plus complexe. Méthodologie Tel que mentionné précédemment, notre recherche, une étude de cas faisant appel à une combinaison d’approches empirique (par le volet prototypes et solution numériques) et quantitative – qualitative (par le volet analyse des besoins et suivi de la démarche implantée) ‐ et est en cours depuis l’automne 2010. Son point de départ est La roue de planification, un outil de planification développée par les enseignants d’une école primaire de la région :
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
149
Figure 1 : La roue de planification Les enseignants en question ont fait appel aux auteurs de ce papier puisqu’ils avaient entamé une réflexion ayant mené à un outil fonctionnel à petite échelle, mais beaucoup de travail demeurait à faire pour en achever le développement et l’opérationnaliser à plus grande échelle et à plus long terme. Comme on le constate, la roue a le mérite de présenter l’année en un coup d’œil et de planifier les objectifs de différentes matières de façon intégrée. Néanmoins, son format statique de même que sa façon cryptée de présenter les objectifs sont des facteurs très limitatifs. Cet outil nous semble néanmoins une innovation extrêmement intéressante pour développer de façon opératoire les défis transdisciplinaires qui nous intéressent. Nous avons donc débuté nos travaux autour de la roue de planification cet automne selon deux axes : celui de la démarche d’intégration transdisciplinaire et celui de l’outil permettant
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
150
cette intégration. Les travaux déjà réalisés correspondent à la phase I, les travaux à venir à la phase II. Phase I, Axe I Nous nous sommes donc interrogés sur la démarche qu’ont suivie les divers enseignants pour élaborer la roue de planification. Nous avons donc mené des entretiens d’explicitation (Vermersch, 2003) auprès des enseignants sur leur travail d’élaboration de la roue de même que sur leur façon de l’utiliser par la suite. Nous avons mené un entretien auprès du directeur d’école qui a été à l’origine de ce travail. Nous avons également mené des entretiens auprès de 2 élèves de 5e année pour voir de quelle façon ils pouvaient percevoir les situations d’apprentissage basés sur la roue. Nous avons également administré un questionnaire à l’ensemble des 22 enseignants de l’école pour mieux documenter leur utilisation et leur manière d’appréhender cet outil. Phase I, axe II De façon parallèle, nous avons présenté la roue de planification à des étudiants en science de l’information et leur avons proposé d’en réaliser 2 prototypes informatisés dans le cadre du cours Gestion des connaissances. Ce travail comportait deux contraintes majeures : représenter fidèlement la roue de planification dans son état actuel et ouvrir la possibilité pour son développement futur, en plus de l’exigence reliée à la nécessaire convivialité et simplicité de la solution en vue de répondre au défi du temps évoqué par les enseignants impliqués dans le projet. Il a ainsi été développée une version sous forme de base de données relationnelle et une version cartographique. Dans le cas faisant l’objet de notre projet, l’approche cartographique de représentation des connaissances – carte mentale représente l’avantage de la familiarité pour les utilisateurs de la solution, tandis que l’approche dépôt de données peut s’avérer intéressant pour sa capacité relationnelle.
Figure 2. Solution de type base de données relationnelles.
Colloque
Université
Phase II Pour la prototypapprochela phase de l’annéd’évaluerprocessu Conclus En étudides memvision susavoirs uservirond’innovaconnaissde la plagestion
Spécialisé en
é de Moncton
suite, nouses numériqe cartograpI. Ensuite, née scolaire r l’approprius de planifi
ion
ant sur le lmbres de laubséquenteuniversitairt de suppoation. De plusance, ce proanification sdes projet
Sciences de
n, Campus de
Figure
s nous proques (axe IIhique, en fonous accomp2010‐2011iation de laication et su
ong terme a communae, nous allores et profeort au projus, dans le cojet permetstratégique ts, et don
l’information
Shippagan, N
e 3. Solution
oposons, d’aI) de l’outilonction des pagnerons c1, grâce aux solution adur la progre
(de 2011 à uté d’intérêons mieux ssionnels àet, source contexte dettra d’améldans une pc de mett
n (COSSI)
Nouveau-Brun
n de type c
abord, de rl de planificonclusionscette commx outils du doptée ainsssion des ap
2012 et poêt et de pracomprendrà l’œuvre dade nouvell la société diorer l’applperspectivetre sur pie
nswick, Cana
carte menta
réaliser, à ication dess de l’étudeunauté de pWeb 2.0 esi que ses impprentissag
ossiblementatique d’abre les mécaans les disples connaisde l’informaication des e de penséeed un ser
ada, 8-9 juin 2
ale.
l’été 2011, enseigneme des besoinpratique (axt des réseampacts sur ges.
t jusqu’en 2order l’outanismes d’hpositifs infosances et cation et de mécanismee globale indvice de fo
2011
, trois difféments selonns menée loxe I) tout auaux sociauxles résulta
013) la mail proposé hybridationormationnelconséqueml’économie es de concepdispensableormation e
151
érents n une ors de u long , afin ts du
nière et sa n des ls qui ment de la ption e à la et de
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
152
perfectionnement professionnel qui sera offert dans les milieux éducatif, institutionnel et corporatif. Bibliographie Barbier, R. La recherche action. Paris : Anthropos, 1996. Barbier, R. L’approche transversale : l’écoute sensible en sciences humaines. Paris : Anthropos, 1997. Bertalanffy, L. von. Théorie générale des systèmes. Paris : Dunod, 1993. Blackwell, A. F. et al. Radical innovation: crossing knowledge boundaries with interdisciplinary teams. University of Cambridge, 2009. Blair, D. “Knowledge Management : hype, hope or help?” Journal of the American Society for Information Science and Technology, 53, 12, 2002. Blais, M.‐C., Gauchet, M. et Ottavi, D. Les conditions de l’éducation. Paris : Stock, 2008. Dalkir, K. Knowledge Management in Theory and Practice. Cambridge, Massachussets : the MIT Press, 2011. Dedijer, S. “Development & Intelligence: 2003‐2053”. Infoforum Business Intelligence Conference, Zagreb, 2003. Katz, E.; Lazarsfeld, P. Personal Influence: the Part Played by People in the Flow of Mass Communications. New York : The Free Press, 1955. Le Coadic, Y.‐F. La science de l’information. Paris : Presses Universitaires de France, 2004. Le développement de l’intelligence informationnelle : les acteurs, les défis et la quête de sens. Sous la dir. de Boisvert, D. Montréal : ASTED, 2010.
Legault, M. “La symbolique en analyse de pratique Pour une pratique de la présence au vécu de l’action et au vécu de la réflexion (1ere partie)”. Expliciter (62) 35‐44, 2005. Legault, M. “La symbolique en analyse de pratique Pour une pratique de la présence au vécu de l’action et au vécu de la réflexion (2e partie)”. Expliciter (64) 1‐7, 2006. Legault, M. Paré, A. “Analyse réflexive, transformations intérieures et pratiques professionnelles”. Cahiers de la recherche en éducation, 2(1), 123‐164, 1995. Levy, P. L'intelligence collective : pour une anthropologie du cyberespace. Paris : La Découverte, 1994.
Colloque Spécialisé en Sciences de l’information (COSSI)
Université de Moncton, Campus de Shippagan, Nouveau-Brunswick, Canada, 8-9 juin 2011
153
Meirieu, P. L'école mode d'emploi : des « méthodes actives » à la pédagogie différenciée. Paris : ESF, 1989. Ministère de l’éducation du Nouveau‐Brunswick (MENB). Programmes d’étude au primaire. http://www.gnb.ca/0000/francophone‐f.asp, 2011. Ministère de l'Éducation du Québec (MEQ). Programme de formation de l'école québécoise : Éducation préscolaire Enseignement primaire. Québec, 2001. MIT Centre for Collective Intelligence. Handbook of Collective Intelligence. http://scripts.mit.edu/~cci/HCI/index.php?title=Main_Page, 2010. Morin, E. Les sept savoirs nécessaires à l’éducation du futur. Paris : Unesco, 1999. Nicolescu, B. La transdisciplinarité : manifeste. Monaco : Éditions du Rocher, 1996. Perrenoud, P. La pédagogie à l'école des différences : fragments d'une sociologie de l'échec. Paris : ESF, 1995. Perrenoud, P. Enseigner : agir dans l'urgence, décider dans l'incertitude : savoirs et compétences dans un métier complexe. Paris : ESF, 1996. Perrenoud, P. « À chacun son rythme » : Une idée fausse sur les cycles, mais qui a la vie dure! Dans Bulletin du GAPP (94) 7‐8, 2003. Pineau, G. Temporalités en formation : vers de nouveaux synchroniseurs. Paris : Anthropos, 2000. Prax, J.‐Y. Le manuel du Knowledge Management : une approche de 2e génération. Paris : Dunod, 2003. Sears, P. Deserts on the March. Norman, Oklahoma : University of Oklahoma Press, 1988. Shannon, C.E.; Weaver, W. The mathematical Theory of communication. Urbana : University of Illinois Press, Urbana III, 1949. Vermersch, Pierre (2003). L'entretien d'explicitation. (Quatrième édition enrichie d'un glossaire) Issy‐les‐Moulineaux : ESF Éditeur. Watzlawick, P. How Real is Real. New York : Random House, 1976. Wenger, É.; McDermott, R.; Snyder, W. Cultivating communities of practice. Boston : Harvard Business School Press, 2002.