Loading...

Edito:Manifeste pour une nouvelle taxinomie des données

De Archi-Wiki

26/07/2022


Comment créer des contenus plus éthiques, plus écologiques ?


Un cas pratique : les données architecturales


Otto Freundlich, Composition (1911)

Au 19ème siècle, Darwin a révolutionné nos connaissances sur l'évolution naturelle par sa classification. La taxinomie est une science qui classe et met de l'ordre parmi les choses.

Qu'est ce que c'est qu’une nouvelle taxinomie ? C'est une nouvelle façon de classer les choses, une nouvelle représentation, en vue de leur réutilisation pour la production d’ouvrages, articles, thèses ou tout autre documentation sous forme papier ou numérique.

A l’heure d’internet, des bases de données et de l’intelligence collective, la classification ne peut plus s’appréhender de la même façon qu’au XIXe siècle. Pour écrire des ouvrages scientifiques, les auteurs s’appuient sur des archives, ouvrages, articles, données en ligne etc.

En parallèle du savoir institutionnel ou scientifique, les réseaux sociaux – et plus généralement les sites web - produisent une masse considérable de données, on parle de big data. Certaines données sont utiles mais l’ensemble est détourné par les algorithmes à des fins mercantiles, sans parler du coût écologique. Les outils proposés aux annonceurs par les réseaux sociaux permettent une analyse sociologique et individuelle du profil des utilisateurs avec une valorisation publicitaire optimale. Pourtant, au milieu de cette masse de données, il y a des trésors qu’il faudrait valoriser autrement. L’économie collaborative pourrait être une alternative si sa finalité n’était pas corrompue par une vision trop marchande (publicité) et une tendance à l’ubérisation (exploitation des travailleurs/utilisateurs).

Transcendant les classifications existantes, celles des institutions ou des sociétés marchandes sur internet, c’est une nouvelle façon de classer les données, en ligne, accessible, collaborative, que nous proposons.

Cette troisième voie est en cours, orientée métier, collaborative, avec des données qui ont du sens. Nous tenterons dans ce document de définir les caractéristiques de cette nouvelle taxinomie. Se réapproprier les données sur le web, c’est éviter un web hégémonique avec seulement quelques acteurs type GAFAM1.

Finalement quel est l’intérêt d’avoir des données si ce n’est de pouvoir faire de l’analytique, c’est à dire produire du savoir à travers ces données. La nouvelle taxinomie doit permettre d’élaborer de nouvelles classifications scientifiques, faciliter la recherche, l’élaboration de nouveaux ouvrages, donner de nouvelles représentations de notre monde.

Ce manifeste « pour une nouvelle taxinomie », plaidoyer pour l’intelligence collective, est valable pour tous les domaines de la connaissance, partout où il y a de la richesse en terme de données. Nous le déclinons dans ce texte à un exemple, un cas, celui que je connais le mieux, les données architecturales, pour montrer à quoi ressemblerait une nouvelle taxinomie et ce qu’elle permettrait de créer. La donnée c’est un peu la cellule du corps humain, bien utilisée elle donne corps à de nouvelles représentations, de nouveaux contenus que l’on n’imaginait pas avant.

Dans tout ce document, nous employons le mot « donnée » au sens large, que se soit dans son affirmation unitaire ou dans son affirmation générale de « contenu ». Une donnée n’a pas forcément de sens alors qu’un contenu est supposé en avoir un. Nous avons préféré utiliser le mot « donnée » car il a une connotation numérique qui est le support de la nouvelle taxinomie que nous allons tenter d’esquisser.

Chapitre 1 : État des lieux de l’existant

Pour simplifier notre propos et être le plus didactique possible, nous allons présenter les données existantes sous deux aspects : celles que l’on trouve brut à disposition du public ou des chercheurs, et les ouvrages où des données sont présentes mais sous forme analytique. Bien entendu dans la réalité,les données peuvent être présentées sous forme hybride, c’est à dire que dans un ouvrage, on peut aussi trouver des tableaux, des annexes avec des données permettant d’aboutir au résultat que l’on souhaite démontrer.

1. Les données brutes

Dans le domaine que nous avons décidé de traiter, les données architecturales, nous allons voir quelles sont les données existantes. Le but n’est pas ici de recenser l’ensemble des données, mais plutôt de donner des exemples et valoriser celles qui sont accessibles au grand public.

Voici quelques classifications que nous avons identifiées, par ordre chronologique de leur création :

  • Prosper Mérimée a établi dès 1834 une liste des monuments historiques et remarquables.
  • André Malraux a fondé en 1964, l'Inventaire général du patrimoine culturel qui « recense, étudie et fait connaître les éléments du patrimoine qui présentent un intérêt culturel, historique ou scientifique »2
  • Liste du patrimoine mondiale de l’Humanité, créer par l’UNESCO en 1972
  • en 1999 le ministère de la Culture a créé le label « Patrimoine du XXe siècle »3, devenu Architecture Contemporaine Remarquable en 2017

Ces classifications ont l’avantage d’être facilement accessible en ligne de nos jours. Nous n’abordons pas les données qui ont un caractère « privé » c’est à dire accessibles uniquement à certains publics (chercheurs, Université...).

L’essentiel des données brutes se trouve à l’échelon local. On trouve des données architecturales en Opendata sur les sites des municipalités4 ou de l’État5. Les archives municipales ou départementales fournissent également des index et moteurs de recherche, riches de contenus. Parfois, au-delà de l’index, les contenus sont accessibles en ligne, c’est à dire que l’archive elle-même a été numérisée.

Les données brutes sont nombreuses au sein des institutions, ce sont même de véritables trésors pour les chercheurs, qui vont à la source. Chaque bâtiment physique possède son site web avec son index de données. Il manque une agrégation au niveau national de ces données. Par exemple, l’ensemble des données des Inventaires régionaux, l’ensemble des données des archives municipales, départementales, etc. Les raisons sont sans doute liées à la décentralisation des services publics, avec le choix de prestataires différents et non concertés pour la création de ces bases de données. Le problème n’est pas la décentralisation, ni la présence locale des institutions, bien au contraire, mais l’absence de vision globale qui manque aux chercheurs, français, mais sans doute encore plus, étrangers, qui méconnaissent le fonctionnement de nos institutions. Nous verrons plus loin en quoi la nouvelle taxinomie peut apporter des réponses.

2. Données analytiques : le cas des ouvrages

Pour le type de données qui nous intéresse, on trouve trois grands grands types d’ouvrages sur l’architecture : les ouvrages scientifiques qui procèdent de l’analytique sur différents sujets/périodes/localisations, les monographies qui traitent d’un sujet en particulier, l’oeuvre d’un architecte ou un édifice, et les guides à vocation touristique.

Dans les ouvrages, le traitement des données n’est pas aisé car le plus souvent il s’agit de données analytiques, c’est à dire que les données brutes ont fait l’objet d’un traitement, d’une analyse par les auteurs. On trouve parfois en annexe ou en note des tableaux, mais ces données sont le plus souvent incomplètes. Lire un ouvrage pour en exploiter les données, c’est réaliser un travail de « reverse engineering », c’est à dire se poser la question de savoir comment l’auteur en est arrivé à cette analyse ou cette conclusion.

Dans un ouvrage, on ne peut pas mettre l’ensemble des données qui ont été analysées par l’auteur, sinon le contenu serait indigeste ou les annexes plus importantes que l’ouvrage lui-même. C’est au lecteur de creuser, lire la bibliographie s’il souhaite approfondir. Autre limite d’un ouvrage, il est impossible d’illustrer tous les bâtiments étudiés ou de façon très limitée. Le nom de l’architecte, la rue ou l’année de construction n’est pas toujours précisé. C’est au lecteur d’aller plus loin en consultant parfois internet pour visualiser l’édifice dont parle l’auteur.

Exemple d’ouvrage : « Paris XIXe siècle, L’immeuble et la rue », François Loyer, édition Hazan, 1987

Afin de procéder à une analyse sur la typologie des immeubles parisiens du XIXe et XXe siècle, François Loyer, historien de l’architecture, a d’abord procédé à un recensement des immeubles de cette période. De ce recensement, il a établi des listes, croisé les données, et c’est de ces analyses qu’il a pu écrire et publier « Paris XIXe, l’immeuble et la rue ». Nous donnons cet exemple – parmi d’autres - car l’auteur précise sa démarche dans son avant-propos.


Dans un guide d’architecture, la donnée est plus structurée, ressemblant davantage à une liste, mais l’auteur fait néanmoins une sélection car le support ne permet pas l’exhaustivité. Le contenu doit également être digeste puisqu’il est destiné à être lu ou consulté lors d’une visite. L’auteur procède donc également à une démarche d’analyse et de choix, retenant par exemple uniquement les bâtiments représentatifs d’une période.

Exemple de guide : « Architecture Moderne, 1918-1940, Paris et environs », 100 bâtiments remarquables, Gilles Ragot, Parigramme, 2021

Dans ce guide, l’auteur a retenu 100 édifices caractéristiques de cette période, sur probablement des milliers qu’il a étudiés ou passés en revue. Le choix procède donc d’une analyse pour illustrer au mieux son propos.

3. Autres sources disponibles

Sans objectif d’être exhaustif, nous proposons également d’autres sources facilement accessibles en ligne. La Cité de l’architecture et du patrimoine (Palais de Chaillot) propose de nombreux ouvrages et revues numérisées. accessible6. Enfin nous citerons également les nombreux articles publiés sur les sites « Hypotheses » et « Openedition » qui rassemblent des contributions de chercheurs sous une forme ouverte et libre.

Par rapport aux ouvrages papier traditionnels, les documents en ligne ont l’avantage de pouvoir faire des recherches par mots clés.

Chapitre 2 : Les contenus et sources informelles : le cas d’internet

Par source et contenu « informel », nous entendons par la, « non officiel », c’est à dire des documents ou archives qui ne sont pas accessibles via les institutions ou signés par des auteurs professionnels.

A côté de l’existant, vu au premier chapitre, on trouve tous les contenus en devenir qui serviront de source pour la production de données puis d’ouvrage. Les sources sont nombreuses et presque infinies.

Dans le domaine qui nous intéresse, l’architecture, le patrimoine, chaque maison, chaque bâtiment est une source en soi. Les chercheurs pratiquent donc le terrain, objet de leurs recherches.

Parmi les autres sources, on trouve aussi les témoignages, archives privées, entretien avec les descendants et famille des architectes.

Nous ne passerons pas en revue ici la multitude des sources qu’il est possible d’exploiter pour un chercheur, mais nous intéresserons plus particulièrement à l’une d’entre elles : le gisement des données sur internet. Nous nous intéresserons plus particulièrement aux réseaux sociaux « marchands », aux sites internets/blogs dont le contenu est majoritairement visible via les moteurs de recherche et à l’ubérisation croissante des services et production de contenus.

1. Les réseaux sociaux « marchands »

D’abord une définition, par réseaux sociaux « marchands » on entend les modèles type « Facebook » orientés exploitation des données personnelles en masse (pour l’affichage de publicité), création de profit vertigineux et polarisation des données (big data). On devrait donc dire « super marchands » mais pour simplifier je préfère écrire « marchands » car on comprend bien que tout le monde a besoin de trouver un équilibre pour son business. Dans le cas des réseaux sociaux « marchands » il y a comme un trop-plein, une démesure.

Dans les réseaux sociaux « marchands », se trouve une gigantesque manne d’informations. En terme de contenu, le pire y côtoie le meilleur, on y trouve parfois des documents originaux issus d’archives familiales. Les points forts des réseaux sociaux c’est la facilité d’y intégrer de nouvelles informations, mais aussi de communiquer sans frontières. Ce modèle est à la base des réseaux sociaux et a fait leur succès.

Pourtant ces avantages sont considérablement atténués par le fonctionnement intrinsèque des réseaux sociaux « marchands » :

  • une approche « big data » avec un volume de données vertigineux dont le stockage et le coût écologique interrogent, Les internautes sont invités à interagir – produire des données - et à rester le plus longtemps possible sur le réseau social.
  • les algorithmes affichent les informations de façon partiale : certains contenus sont affichés, pas d’autres, on reste dans sa « bulle de filtre » selon ses « like », amis, etc. Plus généralement, tout le contenu n’est pas visible sur un réseau social, c’est un système davantage fermé qu’ouvert (selon les amis, groupes etc). A travers les algorithmes, on assiste impuissant et sans en être conscient à une recomposition de réalité. Le « metavers » c’est à dire un monde virtuel, double numérique de la réalité, que prônent les géants du numérique ne fera qu’accentuer cette impression.
  • présence de publicité via l’exploitation des données personnelles. On notera que ces publicités sont présentes partout sur le web, Google et Facebook sont devenus de gigantesques régies publicitaires, source principale de leurs immenses revenus
  • s’il existe bien des API (interface de programmation d’application) pour extraire des données des réseaux sociaux, celles-ci sont réservées aux informaticiens et ont davantage un objectif marketing ou sociologique qu’une utilité directe pour les chercheurs en architecture. L’hétérogénéité des données en rend difficile l’exploitation et la raison de la non spécialisation du contenu.
  • enfin, les informations publiées ne sont, par leur fonctionnement même, pas vérifiées, fiables, il y a donc un gros travail de vérification à faire si on veut les exploiter.

Les réseaux sociaux possèdent une quantité d’informations phénoménale en raison d’une part de leur facilité pour poster des informations et d’autre part de la gratification qui en découle. Tout le modèle des réseaux sociaux est construit sur le fait de publier des données et de revenir suivre ses publications. Les « like » des « amis » alimentent rapidement la gratification de l’utilisateur via la dopamine, ce qui donne envie de se connecter régulièrement pour suivre l’évolution de ses posts (articles/commentaires etc)7. Le modèle des réseaux sociaux ressemble étrangement à celui du modèle marchand télévisuel vendant du « temps de cerveau humain disponible »8.

Pour le type de données qui nous intéresse, l’architecture, on constatera la puissance de la nostalgie et du collectif sur les réseaux sociaux. La moindre publication d’une photo, dans les groupes dédiés, est suivi d’une centaine de « like » ou « commentaires ». De même lorsqu’on recherche une information sur un document (une date, le nom d’une personne, etc) beaucoup d’internautes sont prêts à vous aider.

Exemples :

  • le groupe Facebook « Souvenirs du quartier Neudorf (Strasbourg) » dispose de plus de 4000 membres.

https://www.facebook.com/groups/266268916891890 [archive]

  • le groupe Facebook « Strasbourg d'hier et d'avant-hier » comporte plus de 24000 membres et des milliers de documents d’archives (souvent sans que la source ne soit indiquée) :

https://www.facebook.com/groups/977396672414394 [archive]

Il existe probablement une centaine de groupes sur le patrimoine strasbourgeois rien que sur Facebook. Le volume de données est vertigineux.

La force du collaboratif est puissante dans les réseaux sociaux.

Le problème c’est que cette force de travail gratuite profite à la société qui édite le réseau social. Le semblant d’intérêt général de la contribution est annihilé par un capitalisme mortifère. Le coût énergétique du web ne cesse d’augmenter. Le coût énergétique du numérique représente plus de 2 fois celui du transport aérien9. La masse de données des réseaux sociaux nécessite de gigantesques data centers. En 2020 les data centers représentaient 2 % de l’électricité mondiale10. En Laponie, pour son data center européen, Facebook a construit une ferme de serveur d’une superficie de 320 mètres de long, 100 mètres de large pour 30 mètres de haut11. Parmi ces données beaucoup d’informations stockées sont redondantes (« vidéos de chats », photos de la tour Eiffel…) ou futiles. Ces données alimentent un jeu de dupe mercantile savamment construit par les géants américains.

Ni le RSE (Responsabilité Sociétale des Entreprises), ni les fondations d’entreprise, ni le « verdissement » des sièges sociaux des GAFAM ou la production d’énergie, prétendue verte, de leurs data centers, ne suffiront à rendre crédibles socialement ces entreprises. Sous couvert de gratuité, le modèle des réseaux sociaux accentue les inégalités en créant d’immenses fortunes pour leurs dirigeants, actionnaires et les cadres les mieux payés.

En raison des problèmes écologiques et des inégalités sociales qu’ils engendrent, les modèles de création de données ou de consommation type GAFAM ne sont pas pertinents. C’est un changement de modèle dans l’élaboration des données qui est nécessaire.

On peut faire de la résistance en créant des blogs ou des sites web mais ces données n’ont pas la même visibilité. C’est pourquoi leurs utilisateurs font aussi souvent usage des réseaux sociaux pour assurer la promotion de leur site.

2. Blogs et site web

Les blogs et sites web constituent d’excellentes sources pour les chercheurs. Il peut s’agir par exemple d’un site sur un patrimoine précis ou un sujet d’architecture, par exemple « l’Art Déco », « l’Art-Nouveau », « Le Corbusier ». A côté des blogs mis à jour par des particuliers, on trouve aussi les sites institutionnels des agences d’architectes ou encore des entreprises qui racontent leur histoire (onglet « historique » par exemple).

Contrairement aux réseaux sociaux, l’information est disséminée aux quatre coins du web, ce qui ne facilite pas la recherche. On utilisera donc un moteur de recherche pour y accéder. Ensuite au chercheur de faire le lien entre toute ces informations non structurées.

Le moteur de recherche le plus célèbre et le plus utilisé, Google, structure l’information pour qu’elle soit facilement accessible. Ce modèle fonctionne mais au prix d’une exploitation des données personnelles et de publicité visible un peu partout sur le web. Comme pour les réseaux sociaux, ce modèle créé d’immenses fortunes et accentue les inégalités. Gratuité et publicité pour l’internaute et grosse fortune pour les dirigeants, le jeu n’est donc pas égal.

Les moteurs de recherche alternatifs, comme « Lilo », « Duckduckgo », « Qwant » s’ils sont plus vertueux que Google, sont en réalité des métamoteurs c’est à dire qu’ils utilisent les services tiers d’un autre moteur de recherche pour afficher leurs résultats. Ces deux moteurs de recherche reposent sur Bing de Microsoft.

On le voit, l’information sur le web, non structurée, repose, comme pour les réseaux sociaux majeurs,sur le domaine marchand pour afficher une information intelligible. Une nouvelle taxinomie, plus juste, plus équitable est donc nécessaire.

Google a beau affirmer qu’il est neutre en carbone depuis 2007, l’entreprise peut bien se le permettre vu les profits qu’ils engendrent. C’est un cas flagrant de greenwashing, tout beau à l’extérieur mais en réalité basé sur un système socialement et écologiquement problématique. Ce type d’entreprise peut largement se permettre d’acheter de l’énergie renouvelable, le problème c’est que l’hyper-concentration des données aux mains de quelques uns, et donc la production d’énergie nécessaire, se fait au détriment de la consommation du plus grand nombre : la production d’énergie verte n’est pas infinie. En Europe de gigantesques datacenters se trouvent en Scandinavie car la production d’« électricité verte » y est meilleur marché, au travers des barrages hydroélectriques. Or la mise en place de ces barrages s’est fait au détriment de la nature et de la biodiversité12. C’est donc bien un appel vers la sobriété – produire moins de données – .

3. L’économie collaborative serait-elle la solution ?

A ses débuts, l’économie collaborative présentait une belle alternative pour lutter contre le tropisme des données et l’hégémonie des GAFAM. En permettant de créer des bases de données alternatives, l’économie du partage (son autre nom) donnait l’impression de pouvoir faire contre-poids. L’un des premiers sites à utiliser ce modèle économique, c’est Ebay dès 1995.

L’un des dangers de l’économie collaborative, c’est sa tendance à l’Ubérisation ou à son rachat par de grands groupes aux vocations hautement publicitaires et commerciales. L’Ubérisation (du nom de la société « Uber ») dans son sens originel consistait à proposer un service 100 % en ligne en concurrence d’une activité historique dont la présence sur internet est faible ou mal exploitée. En résumé, rendre obsolète un modèle économique existant.

Si l’Ubérisation de notre société est surtout connu dans le domaine des services, elle est amenée à prendre une part de plus en plus importante dans la production de données. L’« économie collaborative » est elle aussi en voie d’Ubérisation c’est à dire de prédation des données.

Quelques exemples connus de services physiques Ubérisés :

  • Uber, services de taxi
  • Airbnb, location de logement
  • Deliveroo, UberEats, livraison de repas
  • Amazon, vente en ligne géante
  • Netflix, vidéo à la demande
  • LeBonCoin, petites annonces
  • BlaBlacar, plateforme de covoiturage
  • Ulule, financement participatif

Une tendance de fond se dessine, le rachat de sites reposant sur l’économie collaborative par de grand groupe. Quelques exemples :

  • Imdb, Base de données sur les films, rachetée par Amazon dès 1998
  • Marmiton, partage de recettes, racheté par « AuFeminin » (groupe TF1) en 2019

Certains de ces services reposent sur l’économie collaborative (dite aussi « économie du partage »), c’est à dire que l’internaute alimente lui-même la base de donnée. C’est le cas par exemple d’Airbnb, Amazon, LeBoncoin, Marmiton. Dans le cas d’Uber ou de Deliveroo, c’est l’internaute lui même qui propose ses services.

Parfois, il existe une porosité entre « réseaux sociaux » et « service Ubérisés », on peut penser par exemple à « Youtube », service en ligne de vidéo à la demande. Si l’Ubérisation, comme les réseaux sociaux apportent bien des services utiles à nos sociétés, car elles répondent à des demandes des citoyens, elles ont aussi de gros défauts et dangers qu’il convient ici de souligner.

Le problème de cette Ubérisation croissante de notre économie, c’est que les enjeux ne sont pas la création de « biens communs » mais plutôt l'offre de services numériques qui s’inscrivent dans la société de consommation, avec tous ses effets délétères (inégalités, statut social précaire, concentration des pouvoirs à travers la polarisation des contenus, publicité…). Ce type d’économie collaborative est capitalistique, elle concentre les données aux mains de quelques uns13. Enfin l’effet rebond est à prendre en compte au niveau écologique, car les gains de la dématérialisation de l’économie sont annulés par la multiplication des usages (on passe plus de temps à regarder des films en streaming, à écouter de la musique, à se faire livrer, à faire de l’auto-partage etc).

Dans le domaine qui nous intéresse et que nous avons choisi d’étudier en exemple, l’architecture, on peut citer le site « Tripadvisor » qui recense nombre de site patrimoniaux, mais il s’agit d’une caricature des effets pervers de l’Ubérisation, avec une multitude de services autour de ce patrimoine : hôtels, restaurants, « attractions »… le modèle marchand fait parfaitement son œuvre, même si encore une fois ce type de site rend de multiples services à ses utilisateurs. Sans éthique dans la façon dont les données sont exploitées et dans la finalité des dirigeants de ces entreprises, l’économie collaborative n’est pas la solution.

Le vrai danger à venir est une Ubérisation des connaissances ou de l’éducation, avec des professeurs « Ubérisés ». Des cours en ligne de ce type existent déjà, participant, encore une fois aux inégalités. Des cours gratuits et de qualité devraient exister, c’est la promesse des MOOC14, dont l’accès et l’offre restent à simplifier et à étoffer.

Chapitre 3 : Pour une nouvelle taxinomie

Dans ce chapitre nous allons voir ce que serait une « nouvelle taxinomie ». En réalité cette nouvelle taxinomie existe déjà, elle représente seulement une fraction du web, un web minoritaire, proche des idéaux originaux des fondateurs : un « paléoweb » basé sur le partage et la création de biens communs, essence des origines de la toile.

1. Que serait une nouvelle taxinomie « idéale » ?

Nous allons tenter de définir dans cette partie ce que serait une nouvelle taxinomie « idéale ». Une nouvelle taxinomie implique la création d’une base de données reposant sur un support numérique. Elle est à l’opposé du principe des « réseaux sociaux » et du big data qui, nous l’avons vu, sont néfastes pour l’environnement (écologie) et créent d’immenses inégalités. Elle s’éloigne également de l’Ubérisation dans le sens où celui-ci est une forme de prédation de l’économie contributive en aliénant au profit de quelques uns la masse de travail des contributeurs parfois auto-entrepreneurs.

Une nouvelle taxinomie doit donc être quelque chose de plus juste socialement et plus ouvert que ce qui existe aujourd’hui en grande partie sur le web

Les caractéristiques principales, et, rappelons-le, idéales, seraient :

  • données publiques libres (licence libre, réutilisables, domaine publique), de type bien commun
  • données « métier », c’est à dire orientées dans un domaine en particulier, tout en étant pluridisciplinaire dans leur approche
  • données stockées de façon décentralisée (plusieurs lieux géographiques) à partir d'un certain volume et selon l'origine géographique des contributions permettant aussi une personnalisation culturelle en dehors de la langue (par ex. l'affichage pour un indien serait différent d'un allemand)
  • qui tend à être le plus exhaustif possible
  • qualité de la donnée (fiable, sourcée) plutôt que quantité
  • absence de publicités
  • gratuité du site
  • collaboratif : contribution par des professionnels et des non-professionnels
  • outil transdisciplinaire où le savoir serait transversal c’est à dire ouvert aux autres disciplines (exemple : pont entre architecture, patrimoine, histoire, histoire de l’art, archéologie, sociologie, ingénierie etc).
  • possibilité de commenter les données (commentaire, exégèse, etc)
  • possibilité d’ « apprécier » une donnée (principe du « like » mais utilisé de façon plus vertueuse), pour valider sa pertinence
  • facilité de mise à jour, sans validation (comme les réseaux sociaux), tout en étant rigoureux sur les sources et/ou l’identification de l’auteur (selon sa formation, ses compétences, le niveau de confiance de ses contributions etc.)
  • affichage des données sous forme de liste / carte
  • export des données possible pour une exploitation sous forme analytique (ouvrage, article etc).
  • une économie du partage raisonnée avec des dirigeants éthiques qui font le choix du bien commun et du développement raisonné plutôt que la recherche de profit (pour revendre des millions leur entreprise)

Il ne s’agit pas de créer un nouveau Léviathan, c’est à dire une base de données gigantesque mais plutôt de créer une multitude de bases de données (et donc de sites) sur des sujets différents, voire les mêmes sujets mais présentés différemment. Par exemple on peut voir l’architecture sous différents aspects : patrimonial, contemporain, artistique, géographique, photographique etc.

Dans l’idéal il faudrait qu’il soit aussi simple de créer une page Facebook qu' un blog ou une nouvelle base de données (nouvelle taxinomie).

En créant des bases de données les plus complètes possibles sur des sujets donnés, on évite une dislocation du web qui se fait au profit de géants comme Google. A l’inverse les réseaux sociaux créent des silos de données au profit de Facebook et assimilés.

Une nouvelle taxinomie c’est donc davantage de données au même endroit. Un compromis est à trouver entre un site web/blog alimenté par une seule personne et les monopoles/silo de données type GAFAM. La nouvelle taxinomie s’apparente davantage à l’économie collaborative mais avec une forte connotation éthique : des données qui font sens.

2. Structuration des données

Dans le domaine qui nous intéresse, l’architecture, il s’agit de définir quelles sont les données importantes que nous souhaitons structurer. Il peut s’agir, par exemple :

  • nom du bâtiment
  • adresse / coordonnées
  • année de construction
  • style
  • architecte
  • historique
  • descriptif
  • photos, documents d’archives
  • etc...

Il ne s’agit pas ici d’établir un cahier des charges pour créer un nouveau site, mais de comprendre comment sont structurées les données pour qu'elles soient ensuite exploitables d’une autre façon.

La structuration des données évite une multiplication des mêmes informations, par exemple des millions de « vidéos de chat » ou de « tour Eiffel » sur les réseaux sociaux. L’organisation implique une « écologie des données ». La même information ne se retrouve pas deux fois dans la base de données, il y a une sélection vers les données les plus pertinentes ou les plus crédibles. Cette sélection peut se faire dans un cadre collaboratif.

3. Les avantages d’une nouvelle structuration des données

Créer une nouvelle taxinomie c’est aller au-delà des sources, les transcender. Il ne s’agit pas d’être simplement servile en recopiant ou amendant ce qui existe, mais de créer de nouveaux contenus. Cela peut être des documents inédits, photos prises par l’utilisateur ou des informations issues de sources privées ou familiales. Cela peut être aussi, bien sur, des productions originales.

En plus d’une moindre dépendance aux GAFAM la nouvelle taxinomie des données permettrait davantage de sources pour les chercheurs pour faire de l’analytique, c’est à dire de l’exploitation sur des données structurées.

A terme si on ne propose pas des outils pour créer des données structurées en ligne, par métier, le risque c’est qu’on assiste de plus en plus à une polarisation des données au profit de quelques acteurs. Les données d’internet appartiennent déjà fortement à des sociétés privées, à l’opposée des idéaux de partage à l’origine du web. D’un point de vue écologique, la nouvelle taxinomie permet d’organiser les choses d’une façon plus rationnelle que sur un réseaux social. Si on permet aux internautes d’organiser les informations sur un sujet précis, en les valorisant, gageons qu’ils préféreront contribuer sur ce type de site. C’est ce qui a fait le succès de l’économie collaborative et des sites comme « senscritique », « babelio », « allociné », etc. Un lien web, c’est l’essence même d’internet et beaucoup moins lourd qu’une information abondante et redondante sur un réseau social. Donner aux internautes les moyens éthiques d’organiser leur données, c’est faire contrepoids aux GAFAM et c’est bien meilleur pour l’environnement. L’écologie des données c’est aussi moins de données dans les tuyaux en fibre optique ou de cuivre et donc de fortes économies d’énergie si tout le monde s’y met. Il ne s’agit pas de supprimer les réseaux sociaux marchands et les avantages qu’ils offrent, mais de réduire leur situation hégémonique.

Une nouvelle taxinomie c’est une nouvelle représentation selon l’approche retenue lors de la création de la structure de données. Un informaticien va peut être structurer la donnée de façon à être affichée sous forme de tableau sur son écran tandis qu’un artiste va peut être afficher les données pour une approche plus artistique. Un chercheur quand à lui affichera peut être la donnée sous forme statistique ou géographique15. En résumé, strictement les mêmes données peuvent donner des résultats différents en terme d’affichage ou d’exploitation. C’est pourquoi la nouvelle taxinomie des données doit permettre une réutilisation de ces données, sous forme d’export, et pas simplement un affichage figé.

Le support numérique permet un coût faible par utilisateur, ce qui permet un accès au plus grand nombre. Certains ouvrages sont difficiles à trouver, ne sont souvent plus réédités et pas forcément accessibles en bibliothèque, même universitaire. Le fait d’avoir les références d’un ouvrage dans une base de données ne permet pas forcément l’accès à la source mais donne un minimum d’information permettant sa réutilisation ou assurant sa crédibilité.

La nouvelle taxinomie permet une boucle rétroactive vertueuse : les chercheurs exploitent ces bases de données « ouvertes » pour écrire de nouveaux ouvrages ou articles que ce soit dans des revues ou en ligne. Ces nouvelles sources « analytiques » seront elles mêmes exploitées par l’intelligence collective sur des sites métiers de type nouvelle taxinomie.

4. Exemple de sites s’inscrivant dans une nouvelle taxinomie

Nous insistons bien sur le fait que les sites proposés ci-dessous s’inscrivent dans la nouvelle taxinomie, ils n’ont pas toutes les qualités d’une taxinomie « idéale » mais n’ont pas succombé aux excès représentés par l’Ubérisation et les dérives de l’économie collaborative lorsqu’elle n’a pour seul fin le profit généré par l’audience, la publicité ou le nombre d’abonnés. Le réalisme économique impose des compromis, ces sites ont trouvé un « équilibre ».

Babelio https://www.babelio.com [archive] Base de données sur les ouvrages
Geneanet https://www.geneanet.org [archive] Base de données généalogiques
Senscritique https://www.senscritique.com [archive] Base de données sur les films, ouvrages, jeux vidéos...
Wikipédia https://fr.wikipedia.org [archive] Encyclopédie généraliste dont les données sont réutilisables.
Donnons.org https://donnons.org [archive] C’est le leboncoin du don avec un modèle communautaire porté par une association
Openstreetmap https://www.openstreetmap.org [archive] Cartographie libre et collaborative
Pl@ntNet https://plantnet.org [archive] Site collaboratif d'identification des plantes à partir de photographies par apprentissage automatique

On notera que Wikipédia est bien considéré comme une base de données car le contenu y est en grande partie structuré, notamment via « wikidata » et un panel d’outils permettant d’en réutiliser le contenu. D’une façon générale, sans rentrer dans des détails techniques, les wiki reposent sur des données structurées.

Dans le domaine qui nous intéresse, l’architecture, voici quelques exemples de sites s’inscrivant dans une nouvelle taxinomie. Nous avons recensé uniquement des sites reposant sur une base de données, pas ceux affichant de simples pages web (donc avec uniquement du texte, sans structuration de la donnée).

Monumentum https://monumentum.fr/ [archive] Carte des Monuments Historiques français. Réutilise les données ouvertes open-data, mais affiche beaucoup trop de publicité...
Archi-Wiki http://www.archi-wiki.org [archive] Wiki avec notices de bâtiments et architectes en Alsace principalement
PSS Archi https://www.pss-archi.eu/ [archive] Base de données de bâtiments en majorité en France, Belgique, Suisse
Wikiarquitectura https://fr.wikiarquitectura.com/ [archive] Wiki avec notices d’architecture contemporaine en France et Espagne principalement

Ces projets ne se font pas concurrence, bien au contraire, chacun possède sa communauté d’utilisateurs et surtout sa façon de présenter les choses. L’équilibre sur un même sujet se fera naturellement s’il devait y avoir trop de sites (on peut imaginer des fusions si le but du site est le même).

Le danger pour les sites s’inscrivant dans la nouvelle taxinomie c’est qu’ils se fassent racheter ou Ubériser. C’est pourquoi il est important de vérifier les statuts des structures (associatif, SARL) et de bien lire les intentions des créateurs de ces plateformes. L’exemple du site « Marmiton » que nous citons au chapitre 2 « rubrique Ubérisation » est un intéressant car à l’origine ce type de site s’inscrivait dans la nouvelle taxinomie, or le site a été racheté par « AuFeminin » (groupe TF1) (2019) avec des objectifs en terme de revenus publicitaires, exploitation des données personnelles, profit pour les actionnaires etc.

Il semblerait que lorsque qu’un site métier s’inscrivant dans la « nouvelle taxinomie » se créé ses fondateurs aient en objectif le partage et une certaine mesure en terme de profit ou d’exploitation des données. C’est lors de la phase de rachat par un grand groupe que les principes fondateurs semblent se perdre.

5. Un modèle économique à trouver

Le danger pour la nouvelle taxinomie c’est de se faire Ubériser. Créer un site du type « nouvelle taxinomie » est un choix éthique mais encore faut-il qu’il soit financé et durable… On doit aller plus loin que l’économie collaborative en y ajoutant une éthique en terme de mission et de rémunération.

La compréhension du web actuel est difficile car certains pourraient y voir une solution à nos problèmes de société, voir aux problèmes climatiques. Mais ce n’est qu’une illusion car le web est en grande partie un web marchand, miroir de notre société, il n’est que le prolongement de la société de consommation.

Il est bien sur préférable de faire une visio plutôt que de prendre l’avion pour une réunion, mais le problème c’est « l’effet rebond » c’est à dire la multiplication des activités. Airbnb permet de multiplier les séjours. Blablacar permet de multiplier les expériences de covoiturage. Youtube permet de regarder des milliers d’heures de vidéo en streaming au format 4K voir 8K16 !

La nouvelle taxinomie s’inscrit dans un choix de sobriété. Pourtant elle a aussi besoin de financement pour assurer son existence, sa pérennité et ses développements. A t-on beaucoup de marge de manœuvre entre afficher de la publicité et faire payer un abonnement ? Le financement pourrait donc s’imaginer par le principe du don mais aussi par le financement public dès lors qu’il s’agit d’une association d’intérêt général. Le mécénat est également possible sous réserve qu’il n’interfère pas avec les choix de production de contenu.

La publicité est à éviter car elle décrédibilise souvent le contenu. Une solution intermédiaire pourrait être de la publicité ciblée sur des événements culturels ou en lien direct avec l’activité. Exemple : publicité pour un salon, festival, date de concert/cinéma etc. Ce sont les choix fait par Babelio et Senscritique même si ce dernier à tendance à afficher beaucoup de publicité sur mobile.

L’idée c’est que les sites s’inscrivant dans la nouvelle taxinomie s’insèrent dans une œuvre « d’utilité publique », écologique (écologie des données), qui aille beaucoup plus loin que la « Responsabilité sociale des entreprises » (RSE). Ceci implique de ne pas chercher à maximiser le profit mais à créer un autre modèle de société, d’autres valeurs plus juste… Les enjeux écologiques nous invitent à créer une « nouvelle civilisation » celle-ci ne viendra pas toute seule, nous pensons que les citoyens peuvent la faire advenir, les États et les lois ont toujours du retard. Il est tentant de citer Ghandi : « Soyez le changement que vous voulez voir dans le monde! ».

Idéalement les organisations porteuses de projets s’inscrivant dans la nouvelle taxinomie devraient avoir un statut associatif ou d’entreprise inscrite dans l’économie sociale et solidaire (ESS) ou encore d’entreprises dites « à mission », ayant une finalité d’ordre social et environnement en plus du but lucratif17. Par exemple cela pourrait être une SARL dont la recherche de profit n’est pas le premier objectif, mais la création de contenu d’intérêt général. Des acteurs portent des projets pour redonner à l’économie du sens, c’est à dire créer des échanges et du lien, c’est le cas par exemple de « The other economy » initié par Alain Grandjean et Marion Cohen18. La nouvelle taxinomie c’est une éthique en terme social, économique et écologique, elle s’inscrit donc dans ce mouvement initié par « The other economy ».

Le projet « Pl@ntNet », site collaboratif d’identification des plantes, a été initié par des scientifiques issus d’un consortium regroupant des instituts de recherche, on voit donc également que du côté des services publics une volonté de dépasser les limites des collectivités existe. La même chose pourrait exister au niveau des données architecturales en dépassant les clivages architecture – patrimoine, avec un service réellement orienté usager.

6. L’ordre et le chaos

Des données structurées, c’est à dire accessibles sous forme de « sites métiers », cela va un peu à l’encontre de la tendance du web, du moins de ces gros acteurs généralistes « meta », « alphabet », respectivement les  nouveaux noms de Facebook et Google. Ce ne sont pas les données en soi le problème, mais l’hubris dataïste lorsque celle-ci tend à la démesure, au « non-sens ». Lorsque la donnée (ou le contenu) n’a plus de finalité pour elle-même mais devient un prétexte pour afficher de la publicité, générer du profit, elle devient absurde.

L’idée derrière ces sites métiers que nous proposons n’est pas de créer un nouveau Léviathan mais au contraire de permettre à ces données d’être désordonnées et exploitées de façon hétérogène pour un autre usage. C’est tout le rôle de l’opendata (données ouvertes). Des données d’architecture pourraient intéresser aussi bien des chercheurs en sciences humaines, des géographes/urbanistes, journalistes, étudiants, touristes, artistes. On pourrait imaginer que ces données soient exploitables sous forme de « datathèque » qui pourrait concrètement prendre la forme d’un « wikidata ». Ce système existe déjà sur Wikipédia. Ce type d’export peut être imaginé pour n’importe quel site aux données ouvertes (opendata).

Derrière la nouvelle taxinomie il y a cette idée ou plutôt cette volonté de transformation et de métamorphose. Dans la littérature, « Gregor » le personnage de Kafka dans « La Métamorphose » se transforme en insecte. Un vilain cafard fruit de l’imagination fertile de son auteur et symbole de la liberté romanesque où tout peut être transformé, subjugué, magnifié. Cette idée de métamorphose est au coeur du processus de création, que ce soit en littérature, cinéma, théâtre, danse, musique, architecture, mais aussi dans le cas des données.

A partir d’un texte ou un scénario, chaque individu propose une interprétation différente, une nouvelle mise en scène.

Si nos données ne sont plus libres, qu’on ne peut plus les partager parce qu’elles sont privatisées, comme enfermées dans un processus propriétaire, où est la liberté ? Le désir de création est-il encore libre ? C’est bien là tout l’enjeu de favoriser la création de donnée libre pour donner libre cours à d’autres types de création.

Conclusion

Dans cet article, nous avons vu que la nouvelle taxinomie permettrait une plus grande visibilité aux données produites par les institutions et les professionnels (Chapitre 1) et donnerait une alternative aux données produites par les GAFAM soit sous forme de silo de données (modèle Facebook) soit atomisées sur des sites de type blog/web différents, puis agrégées par les moteurs de recherches (modèle Google) ou encore lutter contre l’ubérisation tant en terme de services que de production de contenus (Chapitre 2).

Un troisième type de production de données existe sur le web, elle nécessite une éthique de la part des fondateurs : le choix d’un modèle s’inscrivant dans une démarche socialement responsable.

Vaste chantier, qui n’aboutira probablement qu’en légiférant davantage l’économie et la redistribution des revenus. La théorie du ruissellement, où les plus riches donneraient de façon équitable aux plus pauvres a fait long feux. Soixante trois milliardaires français polluent autant que la moitié de la population française !19. On croit bien faire en « contribuant » sur Facebook ou Google Maps (ajout d’avis, point d’intérêt etc), mais il s’agit surtout de travail gratuit. Dans une entreprise on parlerait de travail dissimulé20 (contribution gratuite sur une plateforme lucratif) et de détournement fiscal (optimisation fiscale aboutissant à un faible taux d’imposition dans le pays où est exercé l’activité). Moralement c’est insoutenable.

Malgré les services rendus grâce aux innovations technologiques, les problèmes engendrés par les outils type GAFAM sont trop nombreux. D’une part ils créent de fortes inégalités au sein de nos sociétés : ils enrichissent une minorité sur le travail gratuit d’une majorité. D’autre part ils manipulent nos données (publicité, biais d’affichage via les algorithmes, etc). La responsabilité sociale des entreprises (RSE) ne résoudra pas ces problèmes de fond, ni un impôt « universel ». Enfin le troisième problème tient au poids croissant des data centers au niveau du coût énergétique. L’empreinte environnementale du numérique est en forte croissance21 c’est pourquoi il est nécessaire d’agir pour produire des données plus vertueuses.

Sans qu’on en ait encore pleinement pris conscience, le débat publique s’est déplacé à partir des années 2010 en grande partie sur les réseaux sociaux, corrompant les messages publiques à travers la publicité et les algorithmes qui altèrent notre vision de la réalité. La réalité sociale des salles de conférences, des cafés, des « forums », « table-ronde » est en voie d’être privatisée par le numérique avec les effets délétères que l’on connaît : fake news, complotisme, diminution de la qualité des débats, etc. Nos démocraties sont menacées par les réseaux sociaux marchands22.

La meilleure façon de rééquilibrer l’accès aux données, de les rendre libres, plus justes, c’est de donner à la source les moyens aux internautes de produire ce type de données. C’est un vaste chantier avec des moyens très inégaux. Les moyens des GAFAM dépassent les moyens que mettent les États sur la géopolitique d’internet, leur position devient hégémonique23.

L’objectif de la nouvelle taxinomie c’est de participer à résoudre les problèmes sociaux (inégalités tant en terme de richesse que de connaissance, accès à la culture) et écologique de notre époque. Cette nouvelle taxinomie, c’est à dire cette nouvelle façon de penser les choses a un rapport au langage, à nos représentations, notre façon de voir les choses, et pourrait trouver naturellement son prolongement dans d’autres disciplines du réel. Elle est éminemment politique mais les choix individuels permettent de faire des petits pas, chaque contribution alternative est un acte de résistance.

Nous l’avons vu, la nouvelle taxinomie, c’est revenir aux fondamentaux du web, celui d’avant la fin du XXe siècle, synonyme de partage des connaissances. Pour faire une analogie avec le monde réel, c’est revenir à davantage d’artisanat, de métiers, de savoir-faire, plutôt que de technique et de sophistication dans les outils informatiques souvent synonyme d’« obsolescence programmée », d’hubris et d’exploitation des données.

Le « metavers », nouvelle « évolution » des réseaux sociaux, promis par Facebook c’est un double virtuel du monde réel. Une gabegie écologique, prétexte à une consommation accrue. Ce n’est pas un hasard si le monde capitaliste s’y intéresse tant, nouveau hochet après le bitcoin qui n’a qu’un intérêt spéculatif au détriment de l’environnement et du monde réel. Ce « metavers » pour faire une comparaison, me fait penser à un film de John Carpenter, « Invasion Los Angeles » (1988) où le héros trouve des lunettes spéciales pour voir la réalité sous son vrai jour. Le monde n’est alors rempli que de publicité et de monstres qui donnent à voir leur vrai visage... jubilatoire métaphore hallucinée et critique du néolibéralisme.

Aucun des sites cités dans le 3ème chapitre n’est idéal. L’économie collaborative, même éthique, a un coût. Il s’agit de trouver un point d’équilibre entre le coût d’un abonnement, la publicité, la facilité de création des données (ergonomie) et leur crédibilité. Le principe est de créer de nouvelles communautés d’utilisateurs, comme autant de lieux de résistance dans la production de données. La nouvelle taxinomie doit davantage se faire par métier plutôt que de façon géographique. Le découpage institutionnel par région ou département ne correspond pas à l’usage des internautes qui souhaitent avoir d’un seul coup l’ensemble des données métiers (exemple : archives des villes ou départements, inventaire découpé par Région etc). Ces données « locales » peuvent bien sûr exister car les institutions ont un ancrage local avec des bâtiments publics. Mais pour satisfaire aux besoins des utilisateurs et donner une alternative aux données du monde « super-marchand », elles doivent être agrégées dans des outils de type « nouvelle taxinomie », sinon c’est le modèle des GAFAM, centralisé, qui en tire profit, nous en avons expliqué les raisons au Chapitre 2.

Nous avons vu aussi l’étroitesse des frontières entre ubérisation et économie du partage. A partir de quand un site s’inscrivant dans l’économie du partage et donc dans cette nouvelle taxinomie peut-il être taxé d’uberisation ? L’aspect financier rentre ici en jeu. Dès que le dirigeant a pour but principal son portefeuille, son confort, la revente de son entreprise plusieurs millions, alors il ne sert plus le bien commun, mais son intérêt. Il fait le jeu des publicitaires et des banquiers, et s’inscrit en faux ou plutôt dans la société de consommation. Il ne faut rien attendre de ce type de comportement qui favorise le conservatisme, les inégalités et les problèmes climatiques qui vont avec. Pour le dire autrement, la nouvelle taxinomie c’est une économie du partage éthique : socialement responsable, qui sert le bien commun et l’intérêt général. Si on faisait une analogie avec le monde physique, la nouvelle taxinomie s’apparenterait à une bibliothèque, ce serait alors une « data-thèque » que tout le monde pourrait alimenter.

Les États ou les collectivités devraient encourager les productions de données alternatives, mais on voit bien que c’est très compliqué car elles financent déjà directement (sites institutionnels) ou indirectement (ouvrage, articles écrit par des chercheurs) tous les aspects que nous avons vus au Chapitre 1. Y a t-il une place pour financer la nouvelle taxinomie avec de l’argent public ? C’est le choix fait par les acteurs de « Pl@ntNet » qui semble plutôt porter ses fruits.

L’avenir ce sont donc des sites orientés données qui seraient plus écologiques qu’une production de données en masse (big data), technocratiques et exploitant notre humaine recherche de plaisir rapide (dopamine : nombre « d’amis », « like », etc).

Ces sites orientés « nouvelle taxinomie » devraient être encouragés tant par des professionnels que des particuliers dénommés parfois « Citizen Scientist »24. Le professionnel en journée devient un particulier le soir. Inversement un profane sur un sujet est professionnel sur un autre. Sur le site de critique de film de cinéma « senscritique » on trouve des avis de professeurs de littérature au côté d’avis amateurs. Le nombre de réactions sur les critiques fait la différence. C’est dans ce type de cas que le « like » trouve son sens, lorsqu’il est bien utilisé et pas dévoyé à des fins mercantiles.

La tâche est immense, les sujets infinis. Ce type de défi participe à la lutte contre le réchauffement climatique car il est plus juste socialement (réduction des inégalités) et d’un point de vue écologique (qualité des données au détriment de la quantité, diminution de la publicité). Nous devons inventer de nouvelles façons de collaborer pour éviter que nos contributions ne fassent les profits d’une minorité.

Dans son ouvrage La numérisation du monde, le chercheur et philosophe Fabrice Flipo critique à juste titre la numérisation en cours, sous couvert non seulement des capitalistes, mais aussi des États25. En fait, ce n’est pas tant le numérique qu’il critique mais la démesure que nous en avons fait, tant en terme d’équipement, d’obsolescence programmée et de course en avant technocratique. Les besoins humains devraient être au centre des outils que l’on créé, prenant en compte les limites de son environnement, le numérique devrait être un service et pas une fin en soi. Si l’on veut que l’informatique nous soit utile plutôt qu’être un simple divertissement, nous devons créer des outils qui enrichissent nos connaissances plutôt que de nous asservir. La chaîne de l’usine ne doit pas être remplacée par la toile du web.

L’astrophysicien Aurélien Barrau parle lui dans un ouvrage sur l’écologie, d’un « activisme fractal »26, la nouvelle taxinomie que nous proposons s’inscrit dans cet effort pour une autre voie, plus vertueuse. Seule, elle ne résoudra pas les inégalités, ni les problèmes écologiques mais elle est une proposition dans le domaine qui nous concerne, les données numériques en forte croissance27. D’aucuns pensent que le numérique est une solution à nos problèmes environnementaux, mais il fait aussi partie du problème puisque le volume des données croît de façon dangereuse. La nouvelle taxinomie permet de réduire le volume de donnée en évitant la redondance d’information et en allant vers ce qui est le plus utile. Nous l’avons appliqué aux données architecturales pour donner un exemple, mais cela concerne nous l’avons vu toutes les données métiers.

Enfin, les données pour elle-même ne seraient rien si elles n’étaient destinées qu’à être un prétexte pour des publicités, n’oublions pas que leur existence doit permettre de nouvelles créations, être exploitées différemment, par des auteurs, des artistes, des scientifiques. Les structures métiers sont faites pour être déconstruites. Comme pour Darwin, la nouvelle classification des données doit changer nos représentations du monde, des données et des contenus pour créer d’autre contenus, que ce soit en ligne ou d’autres supports. C’est bien pour ces raisons que leur exploitation doit être aussi libre et ouverte que possible.

Fabien Romary
Fondateur d'Archi-Wiki


References

  1. GAFAM : Google, Amazon, Facebook, Apple, Microsoft. Certains auteurs parlent aussi de « Big Tech », c’est à dire le web super marchand
  2. https://www.culture.gouv.fr/Espace-documentation/Inventaire-general-du-patrimoine-culturel [archive]
  3. https://fr.wikipedia.org/wiki/Label_%C2%AB_Patrimoine_du_XXe_si%C3%A8cle_%C2%BB [archive]
  4. Exemple à Strasbourg : https://data.strasbourg.eu/pages/accueil/ [archive]
  5. https://www.data.gouv.fr/fr/ [archive]
  6. https://portaildocumentaire.citedelarchitecture.fr/ [archive]
  7. https://www.ladn.eu/media-mutants/notre-addiction-aux-likes-a-un-nom-dopamine-et-cest-un-peu-comme-de-la-cocaine/ [archive]
  8. Selon la célèbre formule du patron de TF1 Patrick Le Lay https://fr.wikipedia.org/wiki/Temps_de_cerveau_humain_disponible [archive] voir aussi à ce sujet l’ouvrage « Apocalypse cognitive », Gérald Bronner, 2021
  9. Depuis 2007,le numérique a dépassé l’aérien en terme de consommation de CO² selon Fabrice Flipo in « La numérisation du monde », L'échappée, 2021
  10. « Pitron Guillaume, L'enfer du numérique, voyage au bout d'un like », 2021, page 151 et 171
  11. https://www.lemonde.fr/grands-formats/visuel/2016/06/29/dans-le-data-center-de-facebook-aux-abords-du-cercle-polaire_4960471_4497053.html [archive]
  12. Guillaume Pitron in « L’enfer du numérique, voyage au bout d’un like », page 194
  13. Article « Ubérisation : ce que cache le mot qui fait fureur », publié sur Mediapart, 28/01/2016 http://digamo.free.fr/blabuberi.pdf [archive]
  14. Massive Open Online Course, cours gratuit en ligne
  15. Voir par exemple comment ce chercheur exploite des données géographiques pour afficher la datation des bâtiments: https://www.comeetie.fr/galerie/francepixelsbati/#14.63/48.85458/2.34485 [archive]
  16. Résolution des vidéos, plus celle-ci est importante, plus elle est consommatrice de ressources
  17. Sur l’entreprise à mission : https://fr.wikipedia.org/wiki/Entreprise_%C3%A0_mission [archive]
  18. Reconstruire l’économie pour éclairer l’avenir : https://theothereconomy.com/fr/ [archive]
  19. « Les milliardaires font flamber la planète et l’Etat regarde ailleurs », Oxfam, 23 février 2022. cité dans https://www.liberation.fr/idees-et-debats/tribunes/on-peut-faire-mieux-que-lisf-climatique-20220307_3VNQESAD5JGPXMPJBFKXAFZY4I/ [archive]
  20. Comme ce fut le cas pour Deliveroo https://www.francetvinfo.fr/replay-radio/l-interview-eco/deliveroo-condamne-cest-le-modele-qui-est-attaque-estime-le-journaliste-gurvan-kristanadjaja_5062735.html [archive]
  21. https://www.greenit.fr/etude-empreinte-environnementale-du-numerique-mondial/ [archive] consulté le 20/07/2022
  22. Sur ce sujet, voir l’ouvrage Toxic Data, Comment les réseaux manipulent nos opinions, David Chavalarias, 2022
  23. A ce sujet voir le livre prophétique « A nous d'écrire l'Avenir » (The New Digital Age), Eric Schmidt (ancien PDG de Google, président CA) Jared Cohen (directeur IT, ancien diplomate), 2013
  24. https://fr.wikipedia.org/wiki/Sciences_participatives [archive]
  25. « La numérisation du monde », L'échappée, 2021 (déjà cité)
  26. Le plus grand défi de l'humanité, Aurélien Barrau, 2019, page 191
  27. Pour se représenter la croissance du volume de données: https://fr.statista.com/infographie/17800/big-data-evolution-volume-donnees-numeriques-genere-dans-le-monde/ [archive]