Loading...

Edito:L'oeuvre

De Archi-Wiki

29/07/2019


travail d'élèves de l'école Saint-Jean

Fin juin se déroulait la kermesse de l'école Saint-Jean. J'étais présent en qualité de parent d'élève. Cette édition de fin d'année scolaire était un peu spéciale puisque c'était aussi les 50 ans de l'école. A cette occasion, diverses animations étaient proposées comme des témoignages, dessins et recherches sur l'école effectués par les élèves et leurs professeurs. Un travail de recherche sur l'école a également été effectué par Yannick Muller, historien et directeur de l'école maternelle Saint-Jean1.

Si je parle ici de cette kermesse, c'est en pensant au travail des élèves de l'école élémentaire qui ont utilisé Archi-Wiki (texte et photos) pour leur recherche. Quoi de plus simple que de tomber sur notre travail depuis un moteur de recherche ?

D'autre part, nous encouragerons la réutilisation - et ça marche, la preuve. Dans leurs recherches, les élèves avaient récupéré des informations sur les pages de l'école Saint-Jean rue des Bonnes gens, sur la rue des Bonnes gens et sur l'ancienne école Saint-Jean.

Autre exemple de réutilisation: récemment, j'ai été sollicité à propos de "l'hôpital militaire sous la place des Halles" qui fait régulièrement l'objet de fantasmes. L'auteur d'un article sur pokaa [archive] a eu l'honnêteté de citer ses sources.

Les contributeurs d'Archi-Wiki ont pris l'habitude de voir leur travail réutilisé dans des articles de presse ou dans des travaux d'étudiants (à des niveaux d'études et de spécialités très larges).

Si je m’interroge dans cet éditorial, c'est parce que l'on rencontrera de plus en plus souvent des enfants de 10 ans qui utiliseront internet pour leurs recherches scolaires.

Cela nous amène à nous demander comment produit-on une oeuvre, c'est à dire, crée-t-on un contenu en 2019 ?

D'abord et surtout en faisant ses recherches sur internet.

Cela nous donne une immense responsabilité quant à la qualité du contenu. Si un journaliste ou un étudiant est à même de critiquer, croiser ou approfondir ses recherches, un enfant lui ne le fait pas (encore).

La quête de la vérité est une tâche infinie, c'est au contributeur d'être intègre dans ses recherches et de dire là où commence le doute ou l'hypothèse.

Nous verrons, dans cet article, que le rôle de l'éditeur est en train d'être remplacé par d'autres outils comme les algorithmes et les réseaux sociaux. Dans la deuxième partie, nous verrons que cette tendance ne concerne pas que l'auto-édition ou les blogs mais aussi de plus en plus les professionnels, dont le contenu est davantage exclusivement en ligne. Enfin nous verrons pourquoi la mise en ligne d'un contenu, de plus en plus important, "d'oeuvres", est une bonne chose, tant pour l'internaute que pour le rédacteur, à condition d'être vigilant.

de l’Éditeur à l'algorithme

De plus en plus les sources internet vont être fréquentes au détriment des sources "physiques" conventionnelles (ouvrages, Archives, Inventaire du Patrimoine, média traditionnel etc). En soi, ce n'est pas un problème, à condition que la qualité des sources soit au rendez-vous. C'est le travail de l'éditeur papier dont le poids diminue au profit de l'auto-édition qui explose2, des blogs et autres sites d'avis.

Dans de nombreux domaines, c'est de moins en moins les critiques des professionnels qui sont consultées mais celle des particuliers / amateurs / passionnés / blogueurs. On le voit pour le cinéma, les restaurants, les voyages, les jeux vidéos, etc. Les sites d'avis en tout genre pullulent. Les frontières entre travail et loisir, entre la vie professionnelle et vie privée, sont de plus en plus floues, certains auteurs y voient les signes de la fin du travail3.

Dans les domaine de la culture et du patrimoine qui nous concernent, la tendance est la même. Demain, l'information sera de plus en plus sur internet (que ce soit sur Archi-Wiki ou ailleurs). Le rôle de l'éditeur traditionnel tend à être remplacé par :

  • la critique (avis) d'un grand nombre d'acteurs (comme c'est le cas par exemple sur allo-ciné, sens-critique, babelio, tripadvisor etc). C'est la somme des critiques ou des avis sur une oeuvre qui en légitime la valeur. En étant d'accord ou pas avec une critique, on influence sa légitimité (c'est le principe des "j'aime" / "je n'aime pas" ou dit autrement "je suis d'accord" / "je ne suis pas d'accord") avec une critique.
  • le nombre d'engagements c'est-à-dire de "like" "j'aime" ou "je n'aime pas une information", "partage". C'est le cas de sites comme Youtube, facebook, tweeter, etc
  • les wiki dont le contenu tend à s'améliorer avec le nombre d'éditions (modifications) et le nombre de contributeurs (qu'on pense à Wikipédia il y a 15 ans par rapport à aujourd'hui)

Finalement, c'est un algorithme qui va faire qu'en analysant les avis, critiques, le nombre de consultations, de pages vues, partagées, etc (les critères peuvent être infinis,) qu'une oeuvre va être légitimée et mise en avant.

C'est de moins en moins la pertinence d'un avis unique sur une oeuvre qui est la règle mais la multiplicité des avis. Le support numérique permet le passage de l'un au multiple, d'une voix unique (qui joue le rôle de censeur et fait la pluie et le beau temps) à l'intelligence collective.

L'algorithme c'est le robot industriel, celui qui automatise, facilite le travail, traite un grand volume de données, sans effort. L'algorithme peut être bien sûr celui, interne, aux sites déjà cités (Youtube, Allociné etc) ou celui de Google et d'autres moteurs de recherche dont la finalité est d'afficher l'information la plus pertinente.

Il y a autant d'algorithmes que de concepteurs de robots. Derrière l'algorithme, il y a toujours un humain ou, le plus souvent, des équipes de concepteurs. L'enjeu pour les concepteurs, c'est que ce soit l'information la plus fiable qui ressorte. Qui irait consulter un site dont l'information n'est pas crédible ? Laissons ici de côté les sites dont l'humour, le cynisme ou la désinformation est le fonds de commerce.

Pour simplifier aussi notre propos, nous laissons de côté l'aspect commercial et publicitaire des sites qui influencent l'affichage d'un contenu plutôt qu'un autre.

Paradoxe du savoir et de sa diffusion

Mais alors quel est l'avenir du savoir, de l'éducation et des diplômes, si c'est, de plus en plus, les blogs qui servent de référence pour créer de l'information, des connaissances et plus généralement du contenu ?

Paradoxalement, même si les sources conventionnelles sont de moins en moins consultées en volume (parce que les sites privés, l'autoédition, les blogs et réseaux sociaux ont explosés) la formation, l'érudition, le savoir, le sens critique, sont plus que jamais nécessaires.

Sur internet, on trouve tous types de contenus et bien souvent le pire. Les algorithmes ne sont qu'un moyen de palier le fait que tout le monde peut écrire tout et n'importe quoi sur un blog ou un réseau social. Lorsqu'il n'y a plus le filtre de l'éditeur, du rédacteur en chef ou d'un correcteur, il faut d'autant plus se méfier de ce qu'on lit.

C'est bien d'ailleurs pourquoi les sites de qualité font appel au savoir des professionnels et au contenu conventionnel, situé dans les ouvrages, aux archives ou sur les sites de l'inventaire du patrimoine (Mérimée, Gertrude, DRAC etc).

Support internet ou pas, la production d'une oeuvre n'est pas le fruit du hasard, elle fait l'objet d'une méthodologie, d'un plan et de recherches en croisant les sources fiables.

Finalement c'est la façon de créer de la connaissance qui se modifie. Elle dépend moins d'un petit nombre d'acteurs que d'un grand nombre de personnes dont chacun a son mot à dire (à tort ou à raison). Ce n'est pas tant la formation et les diplômes qui sont remis en cause, mais la façon dont le contenu est produit - de plus en plus informelle.

D'un autre côté, les contenus des sources officielles (institutionnels ou professionnels) sont de plus en plus en ligne (et ils le seront de plus en plus, uniquement de façon immatérielle), signe que la dématérialisation est un mouvement bilatéral.

Ainsi les contenus en ligne des Archives, Inventaire du Patrimoine, Mérimée, BNU, Persée, Openedition, mais aussi des médias comme les DNA augmentent de jour en jour et permettent aux utilisateurs d'être plus facilement informés et aux créateurs de contenu non-professionnel (blogueur, wiki, site d'avis etc), d'accéder à un contenu de qualité sans quitter leur ordinateur.

La dématérialisation des savoirs les rend de plus en plus accessibles, au plus grand nombre, car le faible coût du support permet d'en assurer la diffusion de plus en plus gratuitement4. Pour un éditeur, promouvoir un livre et en assurer son impression ont un coût très important, ce qui n'est pas le cas d'internet où la publication est quasi gratuite ainsi que la diffusion (réseaux sociaux etc).

Ainsi internet change complètement le paradigme de publication d'une oeuvre et élargit considérablement la démocratisation du savoir et favorise la société des connaissances.

Exemple

Prenons un exemple:
Si quelqu'un cherche des informations sur le 19 Avenue de la Paix à Strasbourg, il y a de fortes chances qu'il fasse sa recherche dans Google et tombe dans ce cas précis sur Archi-Wiki.

Lancer la recherche sur Google pour voir [archive].

C'est donc l'algorithme de Google (en tant que moteur de recherche) qui donne accès à ce résultat, car il est le plus pertinent.

Malgré le fait qu'Archi-Wiki soit un site non-professionnel, c'est en utilisant des sources variées, dûment citées et de qualité (Ouvrages, Archives et conférence de l'inventaire du Patrimoine dans cet exemple) que le site parvient à être crédible. Ainsi son contenu est réutilisé; ce sont les deux exemples de réutilisation que j'ai donnés en introduction (recherche scolaire et blog).

Créer une oeuvre qui se reproduise

Le partage du contenu et plus largement des connaissances est un acte vertueux qui profite à tout le monde, tant aux utilisateurs qu'aux professionnels.

Internet offre la possibilité à chacun d'être son propre éditeur (un clic suffit pour publier).

Nous l'avons vu, ce sont les algorithmes qui servent de filtre pour afficher l'information la plus pertinente.

L'information sur internet a une forte tendance à être diluée, car on ne sait plus très bien si il s'agit d'un site de qualité ou non, ou d'une information professionnelle ou non. La mise en page dynamique rend l'information plus complexe à analyser (à la différence d'un livre dont l'information est statique).

Dans le monde physique, quand on doit se déplacer, on fait tout de suite la différence entre le contenu d'un ouvrage, un bâtiment d'archives, une institution et une page web. On sait d'où vient l'information et quelle valeur en attendre. Le monde physique implique une matérialité qui a un coût en terme de ressources naturelles et financières, ce qui fait qu'on ne publie pas et que l'on ne stocke pas n'importe quoi. Sur internet ce coût existe aussi, mais le coût marginal tend vers zéro5 (ex: coût par nombre de consultation etc), il est donc, quand il est bien utilisé, infiniment moins coûteux que le monde matériel.

Quand on accède à un contenu sur internet, il est beaucoup plus difficile de différencier ce qui provient d'une source sérieuse, professionnelle et crédible ou d'un canular / désinformation / source douteuse. C'est pourquoi de nombreuses personnes se font avoir (pas seulement les enfants), surtout si elles n'ont pas de connaissances particulières dans le domaine où elles font leur recherche.

Quand la matérialité du contenu n'existe plus ou si peu (l'ouvrage est remplacé par l'habillage du site, c'est à dire sa forme) il est facile de tromper l'utilisateur. Un site web mal intentionné peut imiter la forme d'un site professionnel.

Le contenu (le fonds) sur internet n'est, de loin, pas toujours un chef d'oeuvre... Il faut en permanence avoir l'esprit critique, croiser ses sources et les vérifier.

Si internet permet à chacun - et tant mieux - de créer son oeuvre, il faut être extrêmement vigilant sur ce qu'on y lit.

L’imprimerie au XVème siècle aura permis la diffusion progressive du savoir. Avec internet à la fin du XXème siècle, tous ceux qui étaient connectés pouvaient écrire et publier. Le véritable enjeu aujourd'hui, c'est d'être crédible et réutilisable. Aussi élaborés que soient les algorithmes, aussi nombreux qu'en soient les critères, ils ne remplacent pas la conscience du lecteur, sa perspicacité et son esprit critique.

Les bibliothèques et les institutions ont encore de nombreux contenus qui ne sont pas en ligne. Cela prendra encore plusieurs décennies avant que l'on ne trouve l'ensemble des contenus physiques en ligne. Au delà des coûts de numérisation, ce sont les barrières psychologiques ou universitaires (partager l'information, la rendre moins élitiste) qu'il faut dépasser. Même si la tendance d'une dématérialisation est forte, la vigilance doit l'être tout autant.

Oui à la création de contenus et d'oeuvres sur internet, mais en se basant sur des sources fiables et en les citant pour que le contenu soit réutilisable, comme c'est le cas pour les oeuvres papier. Le pouvoir de reproduction (et sa transcendance), qu'il soit matériel ou immatériel, assure la pérennité de l'oeuvre et son universalité.

Fabien Romary
Fondateur d'Archi-Wiki

Références

  1. http://unistra.academia.edu/YannickMuller/CurriculumVitae [archive] consulté le 24/07/2019
  2. https://www.librinova.com/blog/2018/07/05/les-chiffres-cles-de-lautoedition/ [archive] consulté le 24/07/2019
  3. Voir par exemple l'ouvrage suivant : La fin du travail, Jeremy Rifkin, 1995
  4. Parfois sur le modèle du freemium, voir l'ouvrage: Free ! - Entrez dans l'économie du gratuit, Chris Anderson, 2009
  5. Voir : La nouvelle société du coût marginal zéro, Jeremy Rifkin, 2016