Recherche:Imagine un monde/Naissance

Wikimedia Community Logo.svg
La naissance du mouvement Wikimédia
Évolution d'une contre-culture dans l'écoumène numérique
Deuxième chapitre du travail de recherche Imagine un monde

Toute réaction ou commentaire par rapport à ce travail de recherche sont les bienvenus sur cette page de discussion.

Cette page fait partie de l’espace recherche de Wikiversité et dépend de la faculté Socio-anthropologie. Pour plus d'informations, consultez le portail de l'espace recherche ou rendez-vous sur l'index des travaux de recherche par faculté.


Il existe dans l’espace Web, d’innombrables archives à partir desquelles il est possible de revivre les événements qui ont conduit à la naissance du mouvement Wikimédia. Toute cette « préhistoire », je l'ai découverte, pour ma part, dès 2005 et en grande partie grâce au site Framasoft[S 1] qui fut créé par un réseau d’éducation populaire plus ou moins un an avant la version francophone de Wikipédia. En parcourant les pages de ce site web, je partis ainsi à la découverte de tous les épisodes du développement des systèmes informatiques, d’Internet et de leurs applications, qui finirent par constituer aujourd'hui les racines du mouvement Wikimédia. C’était lors de mes premiers pas sur le Net et peu de temps après la démocratisation de l’ADSL dans mon pays. Désireux de découvrir ce nouvel espace qui s'offrait à nous, je venais de faire l’acquisition d’un ordinateur d’occasion équipé d’un microprocesseur Pentium tournant sur le système d’exploitation Windows XP.

Dans ma situation, le site Framasoft avait retenu toute mon attention, puisqu’il répertoriait une liste de logiciels librement et légalement téléchargeables, alors que dans mon entourage mes connaissances utilisaient généralement des versions « craquées » de logiciels commerciaux. Après avoir profité de cette gratuité de manière légitime, je me suis ensuite intéressé à la philosophie de partage qui en était à l’origine. Au fil de mes lectures, j’ai fini par découvrir l’existence du mouvement du logiciel libre, ainsi que la philosophie de Richard Stallman qui en fut l’initiateur. En reprenant des études sur le tard, j'ai ensuite approfondi mes recherches en rédigeant un premier travail sur le management dans la création de produits numériques[M 1]. C'était en première année de bachelier et cinq ans avant que je réalise une ethnographie du projet Wikipédia en français en tant que travail de fin de Master en anthropologie[M 2].

C’est donc sur base de ces premiers travaux de recherche, et bien d’autres réalisés à la suite de mon parcours universitaire[N 1], que repose cette présentation de la préhistoire du mouvement Wikimédia. Au travers de cette petite traversée historique, nous allons découvrir les origines d’une révolution culturelle, ou plutôt « contre-culturelle », puisqu'elle s'oppose à ce que Karl Polaniy[B 1] décrivait déjà en son temps comme un « libéralisme de marché qui subordonne les objectifs humains à la logique d’un mécanisme de marché impersonnel »[T 1]. Ce voyage remonte jusqu'à la contre-culture des années 1960 afin de redécouvrir des évènements souvent oubliés, tels que la naissance du mouvement du logiciel libre, sans lesquels pourtant, le mouvement Wikimédia, qui en est l'héritier direct, n'aurait jamais vu le jour.

L’écoumène numériqueModifier

Toutes les archives numériques consultées pour cet ouvrage font partie d’un espace informatique bien plus vaste qu'il me plaît d'intituler « écoumène numérique ». Je vois cet espace situé à l'intérieur de tout le matériel informatique produit sur terre et dont la croissance est phénoménale, puisqu'à chaque seconde de cette fin d’année 2021, treize nouveaux ordinateurs sont vendus sur le marché mondial[S 2]. Parler d’écoumène numérique, n'est rien d'autre que de faire référence à l'écoumène terrestre ou géographique dans le but de désigner la partie « anthropisée » de l'espace informatique mondial. Un espace numérique dans lequel prirent naissance des interactions entre les êtres humains, mais également, entre les êtres humains et des programmes informatiques[B 2].

Certains voient dans le Système d’information géographique numérique (SIG) une représentation numérique de l’écoumène[B 3]. Mais « l'écoumène numérique » est tout autre, puisqu'il représente un prolongement de l'écoumène terrestre au sein de l'espace informatique. Un espace qui se situe en fin de compte à l’intersection de deux espaces répertoriés par Vladimir Vernadski que sont la noosphère, réputée sphère de la pensée et la technosphère, définie comme sphère résultante des activités humaines. À cela, devrait-on peut-être ajouter l’atmosphère qui est parcourue par des ondes communicationnelles électromagnétiques. Sans oublier non plus que c'est de la lithosphère que proviennent la plupart des matières nécessaires à la fabrication des composants informatiques. Et en gardant aussi à l'esprit qu'avec l'apparition du génie génétique et des sciences qui lui sont apparentées, la frontière qui sépare la biosphère de la technosphère devient de plus en plus ténue.

Jusqu’à ce jour, l’écoumène numérique ne pourrait donc être considéré comme quelque chose de vivant au sens biologique du terme, mais peut l’être pleinement au niveau socio-historique. Comment le voir autrement d’ailleurs, puisque dans ce nouvel écoumène se déroule une part toujours plus grande des activités sociales humaines qui, une fois archivées, se transforment en documents historiques. De plus, l’écoumène numérique est aujourd’hui devenu un lieu privilégié pour le stockage et le partage des anciennes archives, mais également tout type d’artefacts pouvant être numérisés. Ce stockage et ce partage des « traces numériques »[B 4] produites par l’humanité semblent d’ailleurs ne pas avoir de limite théorique.

Selon Arjun Appadurai, pour qui « la mondialisation de la connaissance » appelle à « la connaissance de la mondialisation »[T 2], cette révolution simultanément technique et sociale que constitue l’émergence d’un écoumène numérique, nécessite tout un travail d’analyse et de réflexion[B 5]. Une chose qui me semble déjà avoir été entamée par le géographe Boris Beaude si l’on en juge par cet extrait d’ouvrage[B 6] :

Internet est le seul espace que nous ayons toujours en commun ! Bien qu’il se limite à des relations informationnelles, cette qualité suffit à lui conférer une efficacité considérable. On a longtemps commis l’erreur de ne pas le considérer comme un espace, mais comme une simple technologie de communication. Or, l’espace est une composante fondamentale de notre existence. Il ne sert pas de cadre ou de support à notre relation au Monde, il est notre relation au Monde. Souvent, nous pensons l’espace comme ce qui est là, autour de nous. Mais, ce qui est autour de nous (les objets, les individus, notre environnement biophysique ou social) est situé, tout comme nous. L’espace ne commence pas hors de nous, car nous serions dès lors toujours l’espace de quelqu’un d’autre. L’espace, ce n’est que l’ordre des choses, leurs relations et leur agencement. Internet est un espace en ce sens, le plus fort, le plus puissant, celui qui conditionne notre expérience du Monde, notre capacité à agir. C’est en relation avec ce qui nous entoure que nous existons, que nous nous projetons et que nous vivons. Internet est en cela l’un des plus puissants espaces qui organisent le monde contemporain.

Ceci étant dit, utiliser le terme « Internet » de façon générique pour décrire l’écoumène numérique ne me semblerait pas approprié. Selon ma vision des choses, l’écoumène numérique rassemble tous les systèmes informatiques et non seulement ceux qui sont connectés à Internet. Pourquoi en effet les ordinateurs personnels, smartphones, ou autres types d’ordinateurs ou terminaux non connectés au réseau Internet, ne feraient-ils pas partie de l’écoumène numérique ? Ceci alors que le mot Internet à lui seul, ne désigne qu’un réseau informatique parmi de nombreux autres de type intranet ou même extranet si l’on met à part la partie non publique du réseau Internet. Au même titre que tout autre réseau informatique, Internet ne représente en fait qu'un lieu de transit de l'information, composé uniquement de câbles et d’ondes, d’émetteurs et de récepteurs, de nœuds, de commutateurs, de routeurs, de points d'échange, etc., mais pas réellement selon moi, un espace de vie à proprement parler.

 
Fig. 2.1. Photo prise en mars 1957 au Centre de recherche Langley sur laquelle apparaissent une femme et un homme actifs sur une machine de traitement électronique de données IBM type 704 utilisée dans la recherche aéronautique (Source : https://w.wiki/377h).

Dans les faits, il me semble évident que cette espace de vie se situe au sein de la mémoire de masse informatique composée de tous types de supports dit non volatiles, disques durs internes ou externes, CD et DVD, clefs USB, etc. Il suffit d'ailleurs d'en imaginer une destruction complète pour s'apercevoir à quel point l'écoumène numérique est devenu important de nos jours. Imaginons un instant. Si une immense partie des informations bancaires et administratives disparaissait, combien de défaillances paralyseraient le monde industrialisé ? Comment fonctionneraient les armées, les transports, les industries, la communication et tous les autres secteurs dépendants des systèmes informatiques ?

Ce serait une panne généralisée, un grand vide, et peut-être même, pour les plus nostalgiques d'entre nous, un retour salvateur aux sources, à la simplicité heureuse. Mais pour ceux qui voudraient le reconstruire, il faudrait alors rassembler tout ce qui aurait pu être sauvegardé dans les mémoires humaines et leurs extensions analogiques. Dans une première étape, réécrire tous les codes informatiques qui font tourner le hardware informatique mondial, pour ensuite remettre en place, si cela s'avère possible, tout ce que l'humain y avait sauvegardé.

À l'inverse, la destruction d’un réseau informatique quelconque n’entraînerait aucune perte d’information. Cela créerait juste une interruption du transfert des données, comme cela peut arriver lors d’une panne de courant. Dans ce cas précis et pour tout ordinateur qui fonctionne sans batteries et sans système de sauvegarde automatique, le risque réel de perte d’information se situe alors au niveau de la mémoire vive (RAM). Celle-ci n'a effectivement pas pour but de stocker de l'information à long terme, mais bien de rendre celle-ci plus rapidement accessible et transformable. D'où sa qualification de mémoire volatile.

On comprend donc que l’écoumène numérique s'est progressivement développé à la suite de l'apparition de cette nouvelle forme d'écriture que constitue le code informatique. Ce fut comme un nouveau début d'histoire pour notre humanité, mais dont l'évolution sociale à proprement parler mit du temps à se développer, puisque rappelons-le, les systèmes informatiques étaient initialement conçus pour résoudre des calculs mathématiques de grande envergure. Dans ce cadre, l'activité des informaticiens se limitait donc à communiquer en langage informatique avec les supercalculateurs.

Mais apparurent ensuite les premiers commentaires informatiques en langage naturel placé entre des balises, afin qu’il ne soit pas interprété par les machines. Ils constituèrent sans doute les premiers échanges entre êtres humains au cœur même de l'écoumène numérique. Avec l’arrivée des réseaux et de nouveaux protocoles de communication, l'échange de codes informatiques mais aussi de messages en langages naturels purent alors se faire entre différents postes informatiques situés à distance. C'était la naissance du courrier électronique, qui au niveau de son fonctionnement et en dehors des affichages en HTML et du cryptage, n'aura pas beaucoup évolué jusqu'à ce jour.

Grâce aux premiers logiciels de gestion de versions, sont ensuite apparus dans les entreprises, centres de recherche et universités, des projets collaboratifs entre informaticiens situés au quatre coins du monde. Dans la foulée du Web 2.0, cette pratique s'est alors développée dans des domaines qui n'étaient plus strictement liés à la production de code informatique. Le projet Wikipédia en est sans doute l'exemple le plus connu à ce jour, bien qu'il cohabite avec de nombreux autres projets collaboratifs moins connus. C'était au début des années 2000 et bien avant l'arrivée des réseaux sociaux et autres espaces numériques entièrement dédiés aux activités sociales et commerciales qui monopolisent l'espace Web de nos jours.

 
Fig 2.2. Personne équipée d’un visiocasque, d’un gant de données et d’une manette de jeux (source : https://w.wiki/4k5E).

De manière assez précoce, les jeux prirent une place importante dans l’espace numérique. Les premiers d'entre eux apparurent dans les labos d'informatique pour rejoindre ensuite les chambres d'ados qui avaient découvert cette nouvelle forme de loisir en fréquentant les salles d’arcade[B 7]. Vinrent ensuite les jeux en ligne massivement multijoueurs qui ont apporté une dimension sociale inédite à l'écoumène numérique en y créant des mondes virtuels dans lesquels des groupes d'autochtones digitaux se forment sur simple base d'affinités[B 8]. Plus tard encore arriva la réalité virtuelle, les centres qui lui sont dédiés, et ses mondes en réseaux accessibles et modifiables au départ d'une simple connexion Internet et les communautés qui s'y forment[S 3].

Tout cet univers du jeu fut ainsi particulièrement propice à la transformation de l’écoumène numérique en un espace de vie audiovisuel de plus en plus modulable à la suite de l'apparition de nouvelles interfaces qui rendent la communication entre les êtres humains et les machines informatiques de plus en plus naturelle. La notion même de Métavers finit par voir le jour en tant qu'univers parallèle à l'espace physique[M 3], tandis que le développement de la réalité augmentée laisse présager une frontière sensitive toujours plus ténue entre l'écoumène géographique et l'écoumène terrestre.

Certaines productions cinématographiques ont remarquablement illustré, voire anticipé, l'évolution de l'écoumène numérique. Comme premier exemple, il y a le film Tron, de Steven Lisgerger, qui fut le premier en 1982 à mettre en scène, au sein même du système informatique, des êtres humains en relations sociales avec des programmes informatiques et même, dans sa version de 2011, avec des êtres vivant uniquement au sein de l'écoumène numérique. Dans un autre style bien plus réaliste, le film Ready Player One de Steven Spielberg, illustre quant à lui, un espace de vie en réseau accessible à partir des technologies de réalité virtuelle. Au cœur de ce territoire numérique appelé « Oasis », une grande partie de l'humanité s'y retrouve connectée pour y vivre des expériences fantastiques en se « déconnectant » d'un monde géographique complètement chaotique. Sans compter que dans le registre du social, le cinéma n'aura pas hésité non plus à mettre en scène des sentiments amoureux entre êtres humains et intelligences artificielles dans des films tels que Her ou encore Free Guy.

Malheureusement, la description de l'écoumène numérique, telle qu’elle est offerte par le cinéma, est souvent beaucoup plus proche de l'univers du jeu[B 9] que de nos réalités quotidiennes. L'approche cinématographique n'offre donc pas selon moi une « re-description heuristique de la réalité »[B 10] qui permettrait d'instruire les spectateurs plutôt que de les divertir. Elle ne permet pas non plus d'aider ceux qui n'ont pas assimilé un minimum de jargon informatique, à comprendre l'enjeu que constitue le développement de l'écoumène numérique. Voici donc pourquoi j'ai opté pour ma part de repartir de l'image de la ville comme métaphore de l’écoumène numérique inspiré de l'écoumène géographique dont les enjeux sont mieux connu par le grand public.

Le village et la ville électronumériqueModifier

Dans le but d'aider les gens à mieux comprendre l'espace numérique qu'ils utilisent régulièrement, j’ai un jour eu l’idée de comparer à l'aide d’une « métaphore vive », le fonctionnement de l’informatique mondiale en réseau à une « ville électronumérique ». Cette expression me vint à l'esprit après avoir réalisé qu'il y avait d'importantes similitudes entre les deux concepts. La première d'entre elles est le fait que les deux espaces sont de purs produits de l’imagination humaine. La seconde réside dans cette compression du temps et de l'espace qu'autorise un accès, quasi instantané dans le cas du numérique, aux différents lieux et services. Tandis que la troisième enfin, tient au fait que les deux espaces ne connaissent pas réellement d'autre frontière que celle qui distingue l'espace privé de l'espace public.

Dans l'écoumène numérique, une infrastructure informatique modeste connectée à un réseau privé peut se comparer à un village. Dans celui-ci se retrouve un petit nombre de maisons ou bâtiments (ordinateurs) reliés par un réseau routier (réseaux intranet) fait de routes, chemins, sentiers, etc. (câble Ethernet, Wi-Fi, Bluetooth, etc). Quand certains accès routiers permettent une connexion avec l'extérieur du village (Internet notamment), il est alors bon d'installer un poste de contrôle qui restreindra le transit aux visiteurs de confiance (pare-feu informatique). À l'intérieur d'un village (infrastructure informatique locale d'une entreprise ou autre organisme), tout le monde se connaît et se fait confiance. Toutefois, il est toujours possible de fermer à clef sa propriété (protéger l'accès à son ordinateur par un mot de passe) et même de fermer les rideaux de sa maison (chiffrer le contenu du disque dur). Si quelqu'un vient à forcer la grille d’entrée (forçage d’un mot de passe), il pourrait alors découvrir tout votre intérieur (disque dur) pour y détruire des choses, ou les prendre en photo (suppression ou copie des fichiers informatiques).

Une fois rentrée chez vous, une personne malveillante peut aussi installer certains systèmes discrets, dans le but de détruire vos biens ou d’espionner vos activités (Virus informatique). Il arrive même parfois que ces systèmes se trouvent cachés dans de nouveaux mobiliers (Cheval de Troie) ou qu'ils s'installent grâce à d'autres systèmes qui paralyseront votre système d'alarme (Bombe de décompression). Dans d'autres cas enfin, un système malveillant déjà en place peut aussi ouvrir les portes de chez vous (porte dérobée) pour permettre l'entrée de personnes ou d'autres systèmes malveillants. C'est pour cela que dans les maisons qui possèdent moins de portes munies de serrures (Windows en comparaison à GNU/Linux), il faut prendre le soin de détecter l'arrivée ou la présence de systèmes malveillants afin de les bloquer ou les éliminer (antivirus). Sans cela, et si l'on ne respecte pas certaines pratiques élémentaires de sécurité (Nétiquette), il est alors possible de transmettre ces systèmes malveillants lors de communications avec des voisins de confiance.

Utiliser la métaphore du « village planétaire », comme d'autres l'ont fait avant nous en référence à une certaine « Utopie de la communication »[B 11], permet donc de mieux comprendre le fonctionnement d'un réseau informatique privé. Mais, si l'on change d'échelle au niveau de cette infrastructure informatique mondiale, il devient alors plus pratique de mobiliser la métaphore d'une ville. Celle-ci serait donc une ville électronumérique (Infrastructure informatique mondiale interconnectée), dont l’accès, ne l’oublions pas, doit être négocié au niveau de ceux qui en ouvrent les portes (fournisseur d’accès à Internet). Un espace citadin, dans lequel il est bien sûr impossible de connaître tout le monde et encore moins, tout ce qui s’y passe.

Tout comme au village électronumérique, mais ici à une plus grande échelle, on trouve en ville toute une série d’objets qui communiquent entre eux (Internet des objets). Lorsque ces objets fonctionnent avec des systèmes propriétaires (logiciels propriétaires), il est bien souvent difficile, voire impossible, de connaître les informations qu'ils s'échangent. Mais, il existe aussi des objets qui fonctionnent avec des systèmes transparents (logiciels libres), dont les citadins les plus prudents font usage. Pour le reste, fort heureusement, une grande partie de ce qui se passe dans cette ville est conçu pour être humainement compréhensible (l'espace Web). Ce dernier espace se compose principalement de bâtiments publics (sites Web), composé de locaux divers (pages Web) que l’on peut répartir par étages (répertoires). À l'exception de constructions isolées (serveur domestique), ces bâtiments cohabitent bien souvent dans des rues (serveurs informatiques) regroupées par quartiers (hébergeur web).

Les bâtiments de l'espace public de la ville sont fabriqués grâce à des engins de construction (éditeur HTML). Tous ces travaux doivent être réalisés dans le respect de normes et d'une réglementation (hypertext Transfer Protocol) pour permettre une insertion harmonieuse et produire des adresses, soit en chiffre (adresse IP), soit en lettre (Uniform Resource Locator ou URL). Dans ce second cas de figure, cette adresse (URL absolue) indique la zone de la ville dans laquelle se situe le lieu (nom de domaine de premier niveau), ainsi que le nom du bâtiment (domaine de deuxième niveau). Elle indique ensuite le chemin à suivre (URL relative) pour rejoindre les différentes pièces (page web), en se rappelant que parfois elles peuvent être regroupées par étage (espaces de noms). Pour circuler d'un quartier à l'autre, on utilise un « réseau routier » (Internet) et un « véhicule » (navigateur Web) que l'on peut utiliser avec un assistant de navigation GPS (moteur de recherche). Lorsqu’un bâtiment est inconnu par les GPS, c’est qu’il se situe alors dans un quartier sombre ou profond de la ville (dark Web ou deep Web). Pour le joindre, il faut alors impérativement connaître son adresse exacte (IP ou URL) pour s'y rendre sans l'aide d'un GPS.

 
Fig. 2.3. Paysage urbain nocturne de Taipei, ville intelligente et capitale de Taïwan (source : https://w.wiki/4k5G)

Les GPS (moteurs de recherche), nous indiquent le chemin (nom de domaine) des lieux ou locaux que l’on recherche (sites web ou pages Web). Ils sont comparables à des taxis dont certains dépendent de grandes firmes commerciales (Google, Yahoo !, Microsoft Bing, etc.). Quand tel est le cas, le GPS n’hésite alors pas à diriger les voyageurs vers certains lieux (pages Web) qui appartiennent à des propriétaires qui ont rétribué les compagnies GPS pour qu'elles attirent vers eux la clientèle. Tant qu’à faire, les sociétés de GPS les moins scrupuleuses n’hésitent pas non plus à enregistrer la provenance, la destination et d’autres types d’informations personnelles en provenance de leurs clients. À la suite de quoi elles pourront ensuite vendre ces informations à des personnes ou organismes désireux de les utiliser à des fins commerciales, politiques ou autres.

Grâce à cette métaphore de la ville informatique, on peut aussi mieux comprendre comment certains changements urbanistiques peuvent directement affecter la vie des habitants (internautes). La construction d'une simple barrière fermée à clef (espace informatique privé), ou l'installation d’un Mosquito (contrôle parental) sont deux exemples bien connus. Ce qui l'est moins par contre, c'est l'installation de nombreuses caméras de surveillance dans les espaces publics par des entreprises ou des états (Économie de la surveillance). Pas besoin de se rendre dans une boite de nuit (site de rencontres) ou de fréquenter des réseaux sociaux pour être filmé et enregistré. Les caméras sont partout là où la récolte d'informations peut faire l'objet d'une vente ou d'un intérêt gouvernemental quelconque. Sans compter que dans l'écoumène numérique, au même titre que dans son homologue terrestre, on y parle aussi de cyberterrorisme ou de cyberguerre[B 12], et que cela suscite des mesures mises en place par les autorités telles que la création en France d'une cyber-armée[M 4].

Pendant que la surveillance s'organise discrètement, ce sont les systèmes d'échanges entre citadins qui sont pointés du doigt (Partage de fichiers en pair-à-pair). Échanger des choses entre voisins est évidemment mal vu et même condamnable pour peu qu'elles soient soumises à un copyright qui en interdit la pratique. D'où l'invention de nouveau systèmes qui empêchent l'utilisation de biens par des personnes autres que les acheteurs (Gestion des droits numériques). Pour le reste, il existe ensuite de nombreux services d'entreposage (cloud computing) de biens (fichiers informatiques). Chacun peut aussi disposer d'une boite postale (adresse électronique) que les plus grandes entreprises commerciales de la ville (géants du web) offrent gratuitement. Sauf que cette gratuité a un prix, car tout ce qui transite ou est stocké dans les quartiers et les immeubles de ces entreprises commerciales (serveurs informatiques) est susceptible d'être inspecté selon les conditions générales d'utilisation des services. Ce qui est enregistré lors de ces inspections (traces numériques) peut ensuite être traité de manière « synchronisée »[B 13] par des robots (algorithmes) ou des humains dans le but d'en tirer un profit quelconque.

À l’image du monde géographique, le monde numérique n’est donc pas parfait. Toutefois, il est rassurant de savoir que l'on peut y distinguer certaines zones dont l’indicateur routier (domaine de premier niveau) permet plus ou moins de savoir à quel type de bâtiment on à faire. L’indication « .com » nous informera que l'on se trouve dans une zone plutôt réservée aux bâtiments commerciaux, alors que le « .org » sera plutôt réservé aux organisations et « .info » aux services d’informations. Avec le « .net », toutes ces zones de la cité sont ouvertes à qui veut s’y installer (domaine générique ouvert). À côté d’elles se trouvent par contre d’autres zones soumises à des restrictions d’installation sans pour autant faire l'objet d'une validation d'identité (domaine générique restreint). Parmi ces zones, on retrouve la « .biz » réservée au business, la « .name » réservée aux particuliers et la « .pro » réservée aux professionnels.

D’autres zones enfin, font l'objet d'un contrôle avant installation, comme c'est le cas pour la zone « .edu » réservée à l'éducation, « .gov » aux gouvernements, et « .mil » aux militaires. Ceci sans oublier finalement, les zones les plus connues qui sont aussi liées aux pays d'origine (domaine de premier niveau national), avec pour exemple le « .fr » pour la France, le « .ch » pour la Suisse, etc. À l'intérieur de l'écoumène numérique, ces derniers indicateurs routiers sont en fait les seuls qui permettent de faire référence aux frontières étatiques présentes dans l’écoumène terrestre. Quant aux zones les plus techniques et pseudo-domaines, je préfère ne pas en parler ici pour ne pas compliquer les choses d'avantage.

Il faut ensuite rester conscient que certaines zones, quartiers ou bâtiments de la ville électronumérique peuvent être bloqués à partir des infrastructures terrestres qui constituent le réseau d'accès (Censure d'Internet). Alors que pour rentrer dans certains bâtiments, il faut d'abord s'identifier et fournir un mot de passe (login). Cependant, par-delà ces quelques cas de figure, la ville électronumérique apparait comme un lieu extrêmement cosmopolite et intrinsèquement transnational. C’est d'ailleurs là une des raisons pour lesquelles il n’est pas aisé de situer, au niveau terrestre, le serveur informatique ou le siège social d’une entreprise avec laquelle on traite. De nos jours, il est devenu fréquent de confier son carnet d'adresses électroniques ainsi que ses identifiants, mots de passe ou fichiers divers, sans savoir dans quelle partie du monde ils sont stockés. En cas de litige, il devient donc difficile de savoir à quelle juridiction nationale il faut s'adresser pour déposer une plainte, qui par ailleurs, pourra être traitée très différemment selon les pays concernés.

Audio 2.1. Lecture de l'article 10 trucs que j’ignorais sur Internet et mon ordi (source : https://w.wiki/4eCw)

Voici donc à peu de chose près, comment il est possible de décrire le système informatique en réseau au départ de la métaphore d'une ville. Mais gardons bien à l'esprit toutefois qu'il ne s'agit là que d'une métaphore, car dans la réalité ce n'est pas nous qui allons vers un site web (le bâtiment numérique), mais c'est bien une copie de ce site qui vient à nous pour s'enregistrer sur notre ordinateur et s'afficher au fur et à mesure qu'on le parcourt. Ce qui explique donc pourquoi un site web peut réagir différemment en fonction du navigateur que l'on utilise pour y accéder.

Pour parfaire sa compréhension du réseau Internet et du Web au départ de ce qui vient d'être dit, il est donc intéressant de poursuivre son apprentissage pour arriver finalement à se passer de l'usage de métaphores. Plusieurs associations existent d'ailleurs pour aider les personnes qui veulent se lancer dans cette démarche avec par exemple l'association Framasoft déjà présentée en début de chapitre. En laissant le soin à celle-ci de poursuivre le travail de vulgarisation et de sensibilisation aux enjeux de l'espace numérique (audio 2.1), repartons à présent de la métaphore de l'écoumène numérique pour comprendre les particularités des sites web hébergés par le mouvement Wikimédia. Car comme nous allons le voir, le quartier numérique Wikimédia, a peu de choses comparables aux autres quartiers de tailles similaires.

L'espace numérique WikimédiaModifier

Imaginons seulement un immense quartier (serveurs informatiques de la Fondation Wikimedia[S 4]), dans lequel sont rassemblés près d’un millier de bâtiments (sites web) que l’on peut visiter librement et gratuitement. Et, imaginons ensuite qu’à l’exception de quelques bâtiments administratifs (Wikimedia Foundation Governance Wiki, Wikimedia VRT), on peut aussi modifier tout ce qui se trouve à l'intérieur de chaque pièce de ces bâtiments. On peut soit apporter des choses nouvelles telles que des informations, photos, vidéos, documents sonores, mais également ranger ces choses, de manière plus esthétique ou plus compréhensible. On peut même tout effacer ! À la suite de quoi, par un tour de passe-passe, un robot informatique remettra tout comme avant, en vous demandant poliment, d'éviter ce genre de vandalisme. La prochaine fois peut-être ou dans le cas de dérangements plus subtils, ce sera sans doute un autre visiteur qui aura enrichi la pièce ou participé à son rangement qui pourrait faire la leçon.

Sachant ceci, il est évident que toutes les richesses partagées dans les bâtiments Wikimédia doivent être surveillées et chose des plus surprenantes, tout le monde peut le faire. Il suffit pour cela de rejoindre le mouvement Wikimédia, en créant un compte utilisateur. Grâce à cela, on peut alors s’abonner à un système de notification qui nous envoie un message ou un courriel à chaque fois qu'une des pièces reprises dans notre liste de suivi se trouve modifiée. Pas même besoin de fournir une adresse ou un numéro de téléphone. Les seules informations personnelles récoltées pour permettre le bon fonctionnement du quartier Wikimédia, en dehors de votre adresse de provenance (adresse IP) qui de toute façon devient secrète une fois enregistrée, sont celles affichées publiquement par les bénévoles. Comme elles sont librement accessibles, aucune de ces informations ne peut donc faire l'objet d'une commercialisation quelconque.

Pour les personnes qui ont la chance de pouvoir rejoindre l’écoumène numérique, le quartier Wikimédia apparait donc comme le plus grand des quartiers libres dédié au partage de la connaissance. Sa partie la plus connue aujourd'hui est composée de centaines de bâtiments encyclopédiques répertoriés par langues (Wikipédia). Derrière ceux-ci et toujours classées par langues, se situent ensuite de nombreuses bibliothèques générales (wikilivres et wikisource). D'autres versions linguistiques de bibliothèques thématiques composent ensuite le quartier. Chacune d'entre elles ont leur spécialité : traitement lexical (wiktionnaire), actualité (wikinews), pédagogie et recherche (wikiversité), voyages (wikivoyage), êtres vivants (wikispecies) et citations d'auteurs (wikiquote). Sans oublier non plus, que tous ces bâtiments sont enrichis à partir d'un énorme musée d’archives visuelles et sonores (Wikimedia commons) et d'une immense banque d'informations factuelles (wikidata).

Chose plus exceptionnelle encore, il est permis à chacun, sans même en demander l'autorisation, de passer du statut de lecteur à celui d'auteur. Comme il est de la même manière possible devenir bibliothécaire bénévole. Il suffit pour cela de passer les portes qui mènent aux coulisses et réserves des bâtiments en changeant d'étage (espace de noms) pour découvrir toutes les activités de la communauté bénévoles et y prendre part. Dans d'autres bâtiments, on peut même s'improviser chercheur ou technicien en rejoignant des centres de recherche et de gestion logistique (MediaWiki, Wikitech, Phabricator, etc.). Ou pourquoi pas, rejoindre le centre administratif et de gouvernance du quartier Wikimédia (Meta-Wiki), ou le centre de traitement et de tri postal (Wikimedia VRT), ou même l'espace d'informations pour le recrutement de nouveaux bénévoles (Wikimedia outreach).

Tout ceci explique donc pourquoi le mouvement Wikimédia apparait comme l'une des plus grandes utopies[B 14][B 15] du début du XXIᵉ siècle. Un mouvement social qui a permis la création du plus grand espace libre de la cité électronumérique, sur une base complètement bénévole par rapport à son contenu. Face à ce qui peut être considéré comme l'une des plus grandes organisations mondiales bénévoles et non marchandes, si pas la plus grande, de l'histoire d'Internet, une question qui nous vient tout naturellement à l'esprit. Comment tout cela fut-il rendu possible ?

Les logiciels libresModifier

Les épisodes qui se succédèrent dans le développement de l'écoumène numérique sont complètement passionnants pour peu que l'on se place dans la peau d'une personne qui vivait il y a quarante ans. L'histoire de Wikimédia fait bien sûr partie de ces épisodes, mais avant cela, il y en eut bien d'autres sans lesquels le mouvement n'aurait jamais pu voir le jour. L'un d'entre eux débuta en septembre 1983, lorsqu'un programmeur du Massachsetts Institute of Technology (MIT) appelé Richard Stallman, déposa un message original dans la newsletter net.unix-wizards destinée aux utilisateurs du système d'exploitation Unix. C'était un appel à soutien pour la création d'un nouveau système d'exploitation intitulé GNU qui consistait à produire une suite de programmes à installer sur un ordinateur et dans le but de les offrir, librement et gratuitement, à tous ceux qui voudraient les utiliser[B 16]. Dans son message transmis via ARPANET, le premier réseau informatique de longue distance qui précéda Internet, Stallman mobilise la règle d'or pour décrire sa motivation[M 5]. Il s'exprime en ces termes :

Je considère comme une règle d'or que si j'apprécie un programme je dois le partager avec d'autres personnes qui l'apprécient. Je ne peux pas en bonne conscience signer un accord de non-divulgation ni un accord de licence de logiciel. Afin de pouvoir continuer à utiliser les ordinateurs sans violer mes principes, j'ai décidé de rassembler une quantité suffisante de logiciels libres, de manière à pouvoir m'en tirer sans aucun logiciel qui ne soit pas libre.

Le projet de Stallman, qui reçut rapidement le soutien nécessaire à son accomplissement, était en fait une réaction à l'arrivée des logiciels propriétaires qui, selon le projet GNU[M 6], ne respectaient pas les quatre libertés fondamentales de leurs utilisateurs :

- La liberté d'exécuter le programme, pour tous les usages (liberté 0).

- La liberté d'étudier le fonctionnement du programme, et de l'adapter à vos besoins (liberté 1). Pour ceci l'accès au code source est une condition requise.

- La liberté de redistribuer des copies, donc d'aider votre voisin, (liberté 2).

- La liberté d'améliorer le programme, et de publier vos améliorations, pour en faire profiter toute la communauté (liberté 3). Pour ceci l'accès au code source est une condition requise.

Il faut en effet savoir qu'à cette époque, le marché de l'informatique était en pleine mutation, et que le partage habituel des programmes et codes informatiques entre les rares étudiants ou chercheurs qui bénéficiaient d'un accès à un ordinateur était en train de disparaitre. Cette disparition était liée à la commercialisation croissante des logiciels informatiques couplée à l'apparition de nouveaux brevets, copyright et autres moyens techniques et juridiques destinés à privatiser leurs codes sources. Les clauses de non-divulgation firent alors leur apparition dans les contrats des employés des firmes commerciales et eurent pour effet de remplacer le climat de solidarité et d'entraide qui existait précédemment dans le monde de la recherche en informatique par une nouvelle ambiance faite de concurrence et de compétitivité.

 
Fig. 2.4. Commodore 64 avec disquette et lecteur (Source : https://w.wiki/377 g)

Cette mutation était sans aucun doute liée à l'émergence d'un nouveau marché, créé par l'essor des premiers ordinateurs domestiques. En 1982, le commodore 64, fut et resta le modèle le plus vendu au monde selon le livre Guiness des records, avec plus de 17 millions d'exemplaires[M 7]. Juste avant cela, en 1981, l'IBM Personal computer avait déjà fait son apparition en offrant une architecture ouverte qui servit de modèle pour toute une gamme d'ordinateurs que l'on nomme encore de nos jours PC. Ces nouveaux types d'ordinateurs de taille réduite répondaient au besoin d'embarquer du matériel informatique à l'intérieur des engins de l'industrie aérospatiale. Leur mise au point ne put cependant se faire qu'après l'arrivée des premiers circuits intégrés. Inaccessibles au niveau des particuliers lors de leur apparition en raison de leur prix exhorbitant, leurs coûts se réduisirent progressivement tout au long des années 70, jusqu'à finalement permettre la fabrication d'ordinateurs domestiques en début d'année 80.

Durant l'année 1975, une société répondant au nom de Microsoft fut créée dans une optique diamétralement opposée à celle du projet GNU. Sa recherche obstinée d'un monopole commercial fut identifiée comme « hold-up planétaire » dans un ouvrage rédigé en 1998 dans lequel la journaliste Dominique Nora interroge le maître de conférences en informatique Roberto Di Cosmo. À la lecture de celui-ci, on découvre qu'à cette époque, « 41 % des bénéfices des dix premiers mondiaux du logiciel » étaient réalisés par cette société et que les systèmes d'exploitation de Microsoft équipaient plus de 85 % des micro-ordinateurs de la planète »[B 17]. Plus de 20 ans plus tard, cette situation de quasi-monopole reste toujours d'actualité avec 76.56 % des ordinateurs de bureau fonctionnant sur Windows[M 8] et 70 % de la fréquentation du Web en provenance des systèmes Microsoft[S 5].

Ce monopole fut rendu possible grâce à la signature d'un contrat entre IBM, constructeur des premiers ordinateurs personnels (PC) et la compagnie Microsoft, choisie pour fournir le système d'exploitation nécessaire au fonctionnement de ces ordinateurs. Le programme installé par Microsoft provenait du Q-DOS, un acronyme humoristique de « Quick and Dirty Operating System »[N 2] préalablement racheté à la PME Seattle Computer, pour la somme de 50 000 dollars avant d'être rebaptisé MS-DOS à la suite de quelques modifications qui auront permis d'honorer le contrat avec IBM. Comme l'explique très bien Di Cosmo[B 17] :

IBM n'a jamais pris cette affaire de PC au sérieux : le mammouth n'a pas pris la peine d'acheter MS-DOS, ni même de s'en assurer l'exclusivité. Résultat : Microsoft a ensuite pu vendre MS-DOS – puis son successeur Windows – à tous les concurrents de « Big Blue », comme on surnommait alors IBM. À l'époque, les constructeurs de machines dominaient l'industrie. Personne ne se doutait qu'avec la standardisation autour des produits Intel et Microsoft et l'apparition des cloneurs asiatiques, tous les profits – et le pouvoir – de la micro-informatique se concentreraient dans les puces et les systèmes d'exploitation.

En parlant de puces, Di Cosmo fait ici allusion à un autre monopole, moins connu peut-être, apparu cette fois sur le marché des circuits intégrés. Il s'agit de celui de la société Intel Corporation le premier fabriquant mondial de semi-conducteurs destinés à la production de matériel informatique (microprocesseurs, mémoires flash, etc.). À titre indicatif, cette entreprise a atteint un record de 96.6 % sur le marché des serveurs informatiques en 2015[M 9]. Tout comme celui de Microsoft, ce monopole fera l'objet de contentieux portant sur des pratiques anticoncurrentielles. Une situation face à laquelle Intel n'hésitera pas en 2009, à verser 1.25 milliard de dollars à la société Advenced Micro Devices (AMD) pour qu'elle abandonne ses poursuites[M 10].

Mais, pendant que Microsoft et Intel développaient leurs monopoles économiques, un nouvel évènement majeur allait marquer l'histoire du logiciel libre. Son déclenchement fut à nouveau un appel à contribution, posté cette fois le 25 août 1991 par Linus Torvalds, un jeune étudiant en informatique de 21 ans. Le message fut cette fois envoyé via le système de messagerie Usenet, par la liste de diffusion du système d'exploitation MInix, une sorte de UNIX simplifiée dans un but didactique par Andrew Tanenbaum. Loin d'imaginer que cela ferait de lui une nouvelle célébrité dans le monde du Libre[B 18], Linus avait posté un modeste message qui commençait par le paragraphe suivant[B 19] :

Je fais un système d'exploitation (gratuit) (juste un hobby, ne sera pas grand et professionnel comme gnu) pour les clones 386(486) AT. Ce projet est en cours depuis avril et commence à se préparer. J'aimerais avoir un retour sur ce que les gens aiment ou n'aiment pas dans minix, car mon système d'exploitation lui ressemble un peu (même disposition physique du système de fichiers (pour des raisons pratiques) entre autres choses).[T 3]

 
Fig. 2.5. À gauche la mascotte du projet GNU ; à droite celle du projet Linux, appelée Tux (source : https://w.wiki/377i)

Bien qu'il fût présenté comme un passe-temps, le projet répondant au nom de « Linux », fut rapidement soutenu par des milliers de programmeurs de par le monde, pour devenir bientôt la pièce manquante du projet GNU. Le système d'exploitation développé par Richard Stallman n'avait effectivement pas encore terminé la mise au point de Hurd, son noyau de système d'exploitation. Cette partie du code informatique responsable de la communication entre les logiciels et le matériel informatique fut donc fournie par le projet Linux. La fusion du code produit par le projet GNU et celui du projet Linux permit donc rapidement de mettre au point un système d'exploitation complet, stable et entièrement libre intitulé GNU/Linux.

À partir du code issu de l'union des deux projets, la communauté des développeurs aura ensuite vite fait de personnaliser les choses en créant de nombreuses variantes au système d'exploitation original que l'on appelle communément distributions. L'une de toutes ces distributions s'appelle Debian. Elle est la seule gratuite sans être produite par une entité commerciale[B 20] et elle fut aussi choisie pour activer les serveurs qui hébergent les projets Wikimédia[S 6]. En ayant pris connaissance de tout ceci, on comprend donc mieux comment le mouvement Wikimédia apparait comme héritier direct au niveau logistique et économique de certains produits issus du mouvement des logiciels libres.

Et à ce premier héritage s' en ajoute un autre, méthodologique cette fois, que j'ai découvert en lisant un article intitulé « La Cathédrale et le bazar »[B 21]. Dans cet écrit, Éric S. Raymond compare une organisation du travail telle que celle utilisée lors de la construction d'une « cathédrale », à l'organisation des marchés de type « bazar ». D'un côté se trouve une organisation pyramidale, rigide et statutairement hiérarchisée, comme on la voit souvent apparaître dans les entreprises. De l'autre côté se trouve une organisation horizontale, flexible et peu hiérarchisée statutairement, que Raymond a expérimentée lui-même dans le développement d'un logiciel libre. Dans la description de son expérience, il prétend ainsi s'être rallié au « style de développement de Linus Torvalds – distribuez vite et souvent, déléguez tout ce que vous pouvez déléguer, soyez ouvert jusqu'à la promiscuité »[M 11].

C'est donc ce dernier mode d'organisation qui m'apparut correspondre au mieux à ce que j'avais observé de la communauté des éditeurs actifs sur le projet Wikipédia francophone lors de la réalisation d'un travail de fin de master. Qualifié de « bazar libertaire » par le journal Le Monde durant l'année 2012[M 12], le projet Wikipédia avait donc aussi hérité du mode organisationnel des logiciels libres. L'un des cinq principes fondateurs qui servit de base à la construction de l'encyclopédie semble d'ailleurs témoigner[S 7] en ce sens :

N'hésitez pas à contribuer même si vous ne connaissez pas l'ensemble des règles, et si vous en rencontrez une qui, dans votre situation, semble gêner à l'élaboration de l'encyclopédie, ignorez-la ou, mieux, corrigez-la.

Le mouvement Wikipédia est donc bel et bien l'héritier des valeurs d'universalité, de liberté, de décentralisation, de partage, de collaboration et de mérite décrites par Steven Levy dans son ouvrage L'Éthique des hackers[B 22]. Quant aux liens avec les logiciels libres, la venue de Richard Stallman en qualité d'invité de prestige lors de la première rencontre mondiale du mouvement Wikimédia de 2005, suffît à confirmer le rapprochement identitaire entre le mouvement Wikimédia et celui des logiciels libres. Cependant, les valeurs fondamentales défendues par les hackers et le mouvement des logiciels libres ne pouvaient suffire, techniquement parlant, à la création d'une encyclopédie libre par des millions de contributeurs éparpillés dans le monde. Pour qu'un tel projet puisse voir le jour, il faillait encore attendre qu'un réseau de communication mondial et gratuit d'utilisation se développe de telle sorte à rendre possible à moindres frais, une participation à l'échelle planétaire.

Le réseau mondial InternetModifier

Au départ d'une perspective purement technique, on peut considérer qu'Internet est né avec la suite des protocoles (TCP/IP) mis au point par Bob Kahn et Winton Cerf et dont la première mise en pratique fut réalisée en 1977[B 23], soit près de cinq ans après sa présentation en 1973, lors de la conférence sur les communications informatiques de l'International Network Working Group. Pour la suite, et contrairement à certaines idées reçues, le réseau Internet ne fut donc pas produit par les forces armées américaines, même s'il est vrai que celles-ci ont participé au financement de la Defense Advanced Research Projects Agency (DARPA)[B 23] qui fut à l'origine du réseau ⁣ARPANET, considèré aujourd'hui comme l’ancêtre d'Internet. Mais ce réseau pionnier fonctionnait avec le Network Control Protocol (NCP), un protocole différent de celui utilisé par Internet, qui fut élaboré en décembre 1970 par le Network Working Group, un groupe informel d'universitaires[B 24]. Ceci en soulignant au passage que les acteurs qui développèrent ARPANET, mirent au point une procédure de gestion des décisions intitulée Request For Comments (RFC ou appels à commentaires en français), qui est toujours aujourd'hui utilisée par le mouvement Wikimédia. Il s'agit là, d'un héritage important puisque les RFC représentaient « incontestablement l’un des symboles forts de la « culture technique » de l’Internet, marquée par l’égalitarisme, l’autogestion et la recherche collective de l’efficience. »[B 24]

Pendant que ces universitaires développaient leur propre façon de faire, l'armée américaine pour sa part fit le choix de développer son propre réseau appelé MILNET, en le séparant du réseau ARPANET qui lui restera un « réseau pour la recherche et le développement »[B 25]. Cette séparation s'effectua en 1983, précisément l'année où Richard Stallman lança le projet GNU via ARPANET à l'époque ou le réseau comprenait moins de 600 machines connectées[B 26]. C'est donc par la suite seulement, qu'Internet se sera développé jusqu'à produire ce vaste réseau mondial que l'on connaît aujourd'hui. Une tâche qui aura été accomplie en partie par l'Internet Society, une ONG créée en 1992, dans le but d'assurer l'entretien technique des réseaux informatiques et du respect des valeurs fondamentales du réseau[M 13].

Au vu de l'histoire d'Internet, le logiciel libre est donc apparu avant la naissance du réseau Internet mondial. Passer des centaines d'appareils connectés sur ARPANET aux milliards connectés à Internet à ce jour, ne put être réellement possible que lorsque le réseau mondial devint simultanément neutre, indépendant et ouvert à tout type d'utilisateurs et d'utilisations y compris commerciales. Pour rendre ce rêve possible, il fallut attendre que soient installées, à la fin des années 80, les premières Dorsales Internets transnationales. Celles-ci permirent notamment de franchir les océans pendant que le protocole TCP/IP finissait d'être adopté dans le monde entier. Michel Elie, pionnier de l'informatique et responsable de l'Observatoire des Usages de l'Internet, témoigne de cette époque dans un article intitulé « Quarante ans après : mais qui donc créa l'internet ? »[M 14] dont voici un extrait :

Le succès de l'internet, nous le devons aux bons choix initiaux et à la dynamique qui en est résultée : la collaboration de dizaine de milliers d'étudiants, ou de bénévoles apportant leur expertise, tels par exemple ces centaines de personnes qui enrichissent continuellement des encyclopédies en ligne telles que Wikipédia.

 
Fig. 2.6. Carte partielle d'Internet, créée sur base des données d’opte.org en date du 15 juin 2005 (source : https://w.wiki/377ᵉ)

Cette comparaison entre Internet et le projet Wikipédia est bien sûr très interpellante compte tenu du sujet abordé par cette présente recherche. Elle invite à interroger la manière dont la culture du logiciel libre et des développeurs d'Internet ont influencé le mouvement Wikimédia pour y faire ressurgir une nouvelle forme de la contre-culture des années 60. Ce mouvement social apparu aux États-Unis dans le contexte de la guerre du Viêt Nam, fut défini de la sorte par Théodore Roszak dans son ouvrage[B 27] titré : « Vers une contre-culture : Réflexions sur la société technocratique et l'opposition de la jeunesse »[T 4] :

Le projet essentiel de notre contre-culture : proclamer un nouveau ciel et une nouvelle terre, si vastes, si merveilleux que les prétentions démesurées de la technique soient réduites à n'occuper dans la vie humaine qu'une place inférieure et marginale. Créer et répandre une telle conception de la vie n'implique rien de moins que l'acceptation de nous ouvrir à l'imagination visionnaire. Nous devons être prêts à soutenir ce qu'affirment des personnes telles que Blake, à savoir que certains yeux ne voient pas le monde comme le voient le regard banal ou l'œil scientifique, mais le voient transformer, dans une lumière éclatante et, ce faisant, le voient tel qu'il est vraiment.

À la lecture de ce texte datant de 1970, il est intéressant de constater que cette contre-culture et le mouvement Wikimédia abordent tous deux dans leur vision cette idée d'« imaginer un monde »[S 8]. D'un autre côté, il semble complètement paradoxal qu'une contre-culture qui voit dans la technique une chose « inférieure et marginale » et qui porte sur la science un regard « banal », puisse avoir un quelconque lien avec la création d'Internet.

Pour résoudre ce paradoxe, il faut alors s'intéresser à l'ouvrage intitulé :« Aux sources de l'utopie numérique : De la contre-culture à la cyberculture, Stewart Brand, un homme d'influence »[T 5]. Dans ce livre qui retrace la vie de Steward Brand, on y découvre comment ce designer compréhensif observe les technologies qui se voient développées et converties en outils dédiés au bonheur humain[B 28]. À travers cet exemple, on voit alors comment le mouvement Hippie « utilisera tout ce qui était à sa disposition à l’époque pour parvenir à ses fins : LSD, spiritualités alternatives, mais également objets technologiques les plus en pointe grâce à l’influent Steward Brand, génial créateur d’un catalogue interactif, ancêtre analogique des groupes de discussions numérique qui émergeront des années plus tard. »[M 15]

En complément de cet ouvrage, on peut aussi se référer aux propos de David D. Clark qui, à mon sens, illustrent parfaitement la présence des schèmes de la contre-culture dans les pensées de ceux qui furent les précurseurs d'Internet. Lors d'une plénière de la 24ᵉ réunion du groupe de travail sur l'ingénierie Internet, David Clark prononça effectivement cette phase, qui restera inscrite dans les valeurs techniques et politiques des ingénieurs à qui il s'adressait[B 29] : « Nous récusons rois, présidents et votes. Nous croyons au consensus et aux programmes qui tournent »[T 6]. De ces deux phrases, on peut donc supposer que le mépris de la contre-culture des années 60 envers la technique et la science, se sera transformé en un refus d'autorité.

Il est par la suite évident que cette quête d'indépendance aura été transmise à la communauté Wikimédia qui comme cela a déjà été vu en introduction de ce travail de recherche, n'hésite pas un seul instant à s'opposer aux décisions prises par la Fondation au sujet de son changement de nom. Et alors que certaines associations telle la Quadrature du Net continue de lutter pour conserver la neutralité du réseau Internet, du côté Wikimédia, c'est un autre combat qui se joue pour préserver les projets éditoriaux de toute forme de contrôle élitiste ou gouvernemental. Suite à l'arrivée d'Internet ensuite, et bien avant l'apparition du projet Wikipédia, ce fut aussi au niveau de la création de l'espace Web en tant qu'application reposant sur le réseau Informatique que se déroula une nouvelle quête d'autonomie.

L’espace webModifier

 
Fig. 2.7. Photo de Tim Berners-Lee en 2014 (source : https://w.wiki/4LKE)

Une autre figure importante dans la préhistoire du mouvement Wikimédia est celle de Tim Berners-Lee l'inventeur du World Wide Web que l'on désigne souvent par l'expression « Web » ou « toile » en français. Actif au Conseil Européen pour la Recherche Nucléaire (CERN), ce chercheur eut la bonne idée de créer un espace d'échange public au cœur du réseau Internet. Pour cela, il mit au point un logiciel intitulé « WorldWideWeb » capable comme cela fut déjà décrit précédemment, de produire et de visiter des espaces numériques intitulés sites Web. Composés de pages Web, ces sites Web sont alors hébergés sur des ordinateurs séparés, mais tous reliés entre eux grâce au réseau Internet. Son programme fut rebaptisé Nexus par la suite, pour éviter la confusion avec l'expression World Wide Web[S 9].

Sur le Web et grâce à un système intitulé hypertexte, les pages Web peuvent indexer des informations présentes dans une même page, un même site, mais également sur des pages et des sites sur des ordinateurs distants. Pour permettre ce référencement d'information d'un ordinateur à un autre, Berners-Lee mit au point un protocole appelé Hypertext Transfer Protocol ou HTTP. Ce principe relativement simple en soi, permit ainsi la création de l'espace Web. Soit un espace global et numérique formé par l'ensemble de pages et sites Web interconnectés via le réseau Internet mais localisés sur de multiples ordinateurs répartis dans le monde.

Pour veiller au bon usage de l'espace web et au respect des règles et des protocoles de standardisation qui lui furent dédiés, Berners-Lee fonda alors l'association Internet Society. Celle-ci poursuivit ensuite son rôle de consortium international sous le sigle W3C. Ayant la Fondation Wikimedia parmi ses membres depuis 2019[M 16], cette organisation a pour devise : « un seul Web partout et pour tous »[S 10]. Si celle-ci semble bien naturelle à ce jour, il s'en est cependant fallu de peu pour que le premier éditeur de site WorldWideWeb et par conséquent, l'idée même du World Wide Web, ne devienne un produit commercial. À partir du 30 avril 1993, ce risque était effectivement très élevé, car le logiciel WorldWideWeb se trouvait dans le domaine public suite au dépôt de Robert Cailliau, l'assistant de Berners-Lee dans le développement du Web. Quentin Jardon explique cet épisode critique de la naissance du Web dans son ouvrage intitulé Alexandria et dont je cite l’extrait[B 30] ci-dessous :

Pour François, la philanthropie de Robert, c'est très sympa, mais ça expose le Web à d'horribles dangers. Une entreprise pourrait s'emparer du code source, corriger un minuscule bug, s'approprier le « nouveau » logiciel et enfin faire payer une licence à ses utilisateurs. L'ogre Microsoft, par exemple, serait du genre à flairer le bon plan pour écraser son ennemi Macintosh. Les détenteurs d'un PC devraient alors débourser un certain montant pour profiter des fonctionnalités du Web copyrighté Microsoft. Les détenteurs d'un Macintosh, eux, navigueraient sur un Web de plus en plus éloigné de celui vendu par Bill Gates, d'abord gratuit peut-être, avant d'être soumis lui aussi à une licence. […] En plus de devenir un territoire privé, le Web se balkaniserait entre les géants du secteur. […] Mais le jeune Bill Gates ne croit pas encore à la portée commerciale de ce système. […] Ce dédain provisoire est une bénédiction pour Tim et Robert, car la stratégie de Microsoft, au début des années 1990, obéit à la loi du "embrace, extend and stay at the top"[T 7]

Heureusement, en octobre 1994, François Flückiger eut la présence d'esprit de se rendre à l'Institut fédéral de la propriété intellectuelle suisse pour retirer du domaine public le code de l'éditeur HTML et le placer sous licence libre. Il le fit après avoir repris les responsabilités de Tim Berners-Lee qui avait quitté le CERN[B 31] pour présider le W3C. La licence libre eut ainsi pour effet d'apposer la propriété intellectuelle du CERN et d'interdire de placer sous brevet ou copyright toutes formes dérivées de l'invention de Berners-Lee par des acteurs désireux d'en tirer un profit commercial. De manière récursive et anticipative, ce dépôt sous licence libre du code source aura donc permis à l'espace Web d'éviter la bataille commerciale que l'on a pu observer par la suite au niveau des navigateurs Web.

Les navigateurs webModifier

L'espace Web une fois créé, l'offre sur le marché des navigateurs web s'est ensuite développée avec l'apparition de plusieurs logiciels aux performances diverses. Au départ du code et des fichiers disponibles sur les serveurs informatiques, les navigateurs doivent effectivement restituer les pages web dans leur interface graphique, et ils ne le font pas tous de la même manière, ni avec les mêmes ressources. Ces différences auront donc pour conséquence de créer une compétition entre les producteurs de navigateurs, établie sur la rapidité, la légèreté et la fiabilité de leur produit. Quant aux consommateurs, ils seront toujours à la recherche d'un navigateur capable d'afficher sur l'écran de leurs ordinateurs une page Web respectant le plus possible les désirs de son créateur ou administrateur, et ce, aux moindres frais possibles.

 
Fig. 2.8. Graphique illustrant l'évolution de la popularité d'usage des navigateurs Web de 2009 à 2020 avec en vert le navigateur Chrome, Bleue Microsoft et brune Firefox (source : https://w.wiki/377c)
 
Fig. 2.9. Graphique illustrant l'évolution de la popularité d'usage des navigateurs Web de 1996 à 2009 (sources : https://w.wiki/377b)

Le site 3WSchools chargé de l'étude du marché des navigateurs fournit un classement par pourcentage du nombre d'utilisateurs. Dans celui-ci logiciel Chrome de Google est en première position avec 80.4 %, Firefox de Mozilla en deuxième avec 7.1 %, edge/Internet explorer de Microsoft en troisième avec 5.2 %, Safari de Apple en quatrième avec 3.7 % et Opera de Opera Software en cinquième et dernière position avec 2.1 %[S 11]. Dans le courant du même mois, le site StatCounter[S 12] attribuait pour sa part les pourcentages suivants : 66.12 % à Chrome, 17.24 % à Safari, 3.98 % à Firefox, 3.18 % à Samsung Internet, 2.85 % à Edge et finalement 2.08 % à Opera[N 3]. Au regard de ces deux classements, le navigateur Chrome, malgré les reproches qui peuvent lui être attribués[M 17], apparaît donc finalement comme le logiciel préféré des utilisateurs depuis 2012 (figure 2.8). Ceci alors qu'avant 2010, le marché des navigateurs fut le théâtre d'une « bataille commerciale des navigateurs Web »[M 18] qui opposa l'entreprise Netscape Comunications à la firme Microsoft. Sans entrer dans des détails concernant l'évolution de l'usage des navigateurs Web[S 13], nous retiendrons ici qu'il ne fut pas difficile pour la société Microsoft de conquérir la presque totalité du marché en à peine cinq ans (figure 2.9).

Le processus fut amorcé dès le moment ou Microsoft prit tardivement conscience de l'enjeu commercial que représentait l'espace Web. La position de monopole de la firme, au niveau des systèmes d'exploitation, lui donna évidemment une puissance inégalable tant dans la distribution de son navigateur que dans le financement de son développement. Ce fut d'ailleurs la raison pour laquelle Microsoft fit l'objet d'un verdict de première instance validant le fait qu'elle avait abusé de sa position dominante au niveau des systèmes d'exploitation. Juste un petit obstacle à franchir, pourrions-nous dire, puisque cela n'empêcha pas l'entreprise d'atteindre la barre des 90 % de parts de marché, ni de se voir blanchir de toute accusation à la suite d'un recours en appel[M 19].

Entre-temps et pendant l'année 1998 la société Netscape Communication, reconnaissant sa défaite, avait déposé le code source de son navigateur sous licence libre et permit ainsi la naissance d'un nouveau navigateur intitulé Firefox[M 20]. Soutenu par la communauté libre au niveau de son développement, ce nouveau logiciel reprit petit à petit des parts de marché sur Internet explorer. Cependant, et comme cela fut déjà expliqué, l'arrivée de Google Chrome, un autre logiciel libre développé cette fois par la société commerciale Google, signa la fin d'un nouveau duel entre Firefox et Internet Explorer.

Cet épisode du développement de l'écoumène numérique permet donc de comprendre à quel point le logiciel libre peut être une alternative capable de concurrencer les plus grands acteurs commerciaux. Il permet ensuite de comprendre qu'un projet initialement commercial peut toujours se convertir en projet libre alors qu’inversement, une grande entreprise commerciale telle que Google, peut aussi tirer profit des logiciels libres. Il suffit pour cela effectivement d'abandonner l'idée de vendre des licences d'utilisation pour se concentrer uniquement sur le marché de la publicité et de la vente d'informations traitées et récoltées chez les utilisateurs. En dernier ressort, l'histoire des navigateurs aura enfin prouvé que l'utilisation des licences libres apparait tel un élément décisif sur le marché de l'informatique, tout en jouant un rôle clef au niveau de l'évolution des parts de marché en introduisant une nouvelle forme de compétitivité qui n'est pas soumise aux contraintes des entreprises commerciales.

Les licences libresModifier

L'autobiographie autorisée de Sam Williams intitulée :« Richard Stallman et la révolution du logiciel libre. »[B 32], décrit très bien comment Richard Stallman donna naissance au concept de licence libre. En 1985, et selon les conseils du juriste Mark Fischer, le fondateur du projet GNU trouva effectivement le moyen de protéger son programme d'éditeur de texte intitulé Emacs, en publiant la première version d'une licence libre intitulée Général Public Licence (GPL).

Durant l'année 1989, la firme Microsoft mit en œuvre tous ses moyens pour contrer cette licence. Cependant, grâce à la participation de John Gilmore et d'une grande communauté d'activistes hackers ainsi que de certains juristes tels que Jerry Cohen et Eben Moglen, la licence du logiciel Emacs finit par s'appliquer à tout type de logiciel. C'est donc pour cette raison que l'auteur de la biographie de Richard Stallman affirmera[B 32] avec raison que :

« La GPL apparaît comme l'un des meilleurs hacks de Stallman. Elle a créé un système de propriété collective à l'intérieur même des habituels murs du copyright. Surtout, elle a mis en lumière la possibilité de traiter de façon similaire « code » juridique et code logiciel. »

 
Fig. 2.10. Classification des licences d'exploitation des œuvres de l'esprit. (source : https://w.wiki/377Y).

Il faut de plus souligner le fait que la GPL permit l'apparition d'une composante essentielle sans laquelle la survie des logiciels libres aurait été, à coup sûr, compromise. Il s'agit là d'une clause de reproductibilité qualifiée de virale ou récursive qui sera par la suite baptisée « copyleft », traduite en français par « gauche d'auteur » et représenté graphiquement par un © inversé (ɔ). L'idée selon laquelle tout produit dérivé d'un logiciel libre doit être soumis à la même licence que le code source lui fut transmise par Don Hopkins lors d'échanges de courriers avec Stallman[M 21]. Tout comme l'épisode du « sauvetage » du Web, la clause du copyleft apparaît donc aujourd'hui encore, comme l'un des événements majeurs se rapportant au développement de l'écoumène numérique.

Selon le vœu de Stallman, le copyleft est donc la clause des licences libres qui se rapporte le plus aux questions éthiques et de libertés des utilisateurs[M 22]. En opposition apparut par la suite le concept d'open source popularisé par Éric Raymond, dont la vision porte davantage sur des questions techniques et de transparence du code dans une approche plus pragmatique et entrepreneuriale[M 23]. La différence entre free software et open source deviendra ensuite encore plus floue après l'arrivée de l'expression générique, Free/Libre Open Source Software (FLOSS). Tout un brouillard conceptuel donc, qui aura pour conséquence de détourner l'importance du concept de copyleft qui sans aucun doute doit être perçu comme très dérangeant pour tous ceux qui désirent faire du profit en exploitant le travail d’autrui.

Mais toujours est-il qu'au niveau des termes spécifiques attribués à une licence sous copyright, le copyleft se traduit par l'expression « Share alike », traduite en français par : « partage à l'identique ». Une façon synthétique de dire donc que toute reproduction d'une œuvre ou tout travail construit en partie d'une œuvre couverte par une licence faisant mention d'une clause copyleft devra être soumise à la même licence d'origine. Toute l'importance de cette clause réside donc dans le fait qu'elle est le seul moyen d'offrir un travail à la communauté d'utilisateurs, tout en le protégeant d'un détournement vers un copyright propriétaire et privateur (figure 2.10). En absence de cette clause, une œuvre peut effectivement être récupérée, puis modifiée, même de façon mineure, pour être ensuite soumise à un nouveau copyright qui fera mention de « tous droits réservés »[B 33]. Ce qui implique la plupart du temps un usage restrictif aux seules personnes qui auront rétribué le nouveau propriétaire des droits.

 
Fig. 2.11. Classement des différentes licences, de la plus ouverte à la moins ouverte (source : https://w.wiki/377T).

Afin de rendre les licences libres accessibles et utilisables par tous, une organisation internationale sans but lucratif intitulée Creative Commons, vit le jour le 15 janvier 2001, précisément la même année que le projet Wikipédia. Son but était d'aider au « partage et la réutilisation de la créativité et des connaissances grâce à la fourniture d'outils juridiques gratuits »[S 14]. Pour ce faire, elle entreprit de distinguer toutes les différentes clauses pouvant être reprises par les licences libres, pour en produire un assortiment varié permettant de protéger des œuvres selon les souhaits de chacun (figure 2.11).

Il existe ensuite d'autres licences, telles que celles fournies par la Free Software Foundation, qui sont plus adaptées pour protéger du code informatique. Car contrairement à celles-ci, les licences Creative Commons ont plutôt pour objectif de protéger du texte, des photos, vidéos, musiques, base de données et autres productions de l'esprit apparentées[S 15]. Parmi toutes ces licences, le mouvement Wikimédia choisit d'appliquer la licence CC.BY.SA sur tous ses projets, à la seule exception du contenu de Wikidata, soumis dès le lancement du projet à la licence CC.0 tout comme par la suite, toutes les descriptions apportées aux fichiers téléchargés sur Wikimédia commons.

Lawrence Lessig, l'un des fondateurs de Creative Commons, qui en assure toujours la présidence, est lui aussi, devenu une personnalité marquante de la culture libre. Il fut à ce titre l'auteur d'un livre[B 34] et avant cela d'un célèbre article intitulé :« Code is law »[M 24] dont un extrait repris ci-dessous[M 25] permet de synthétiser en quelques mots la puissance du code informatique en termes d'autorité et de régulation :

Ce code, ou cette architecture, définit la manière dont nous vivons le cyberespace. Il détermine s'il est facile ou non de protéger sa vie privée, ou de censurer la parole. Il détermine si l'accès à l'information est global ou sectorisé. Il a un impact sur qui peut voir quoi, ou sur ce qui est surveillé. Lorsqu'on commence à comprendre la nature de ce code, on se rend compte que, d'une myriade de manières, le code du cyberespace régule.

La protection du code informatique par les licences libres, ainsi que son accès en lecture à titre de contrôle, de correction ou d'amélioration, apparaissent donc comme deux événements majeurs dans la révolution numérique. C'est effectivement grâce à eux qu'il est possible aujourd'hui d'utiliser des logiciels qui ont peu de chance de trahir les intérêts de l'utilisateur pour servir ceux qui les écrivent ou en prennent possession[B 35]. Cependant, ce n'est pas l'adoption des licences libres par le mouvement Wikimédia, qui permit au niveau pratique, d'établir une collaboration simultanée entre des millions de personnes connectées à l'espace Web dans le but de produire des sites de partage de la connaissance. Pour que cela soit possible tout en permettant à chacun d'exercer un contrôle mutuel sur l'ensemble des travaux, il fallut encore attendre l'apparition d'un nouveau type de logiciels d'édition collaborative de sites Web connus sous le nom de moteur de Wiki.

Les WikisModifier

 
Fig. 2.12. Photo de Ward Cunningham en 2011 (source : https://w.wiki/4LJt)

En mars 1995, apparut le premier logiciel Wiki intitulé WikiWikiWeb. Celui-ci fut placé sous licence libre, par son créateur Ward Cunningham, qui de ce fait permit la libre utilisation et réutilisation de son travail. Grâce à cela, de nombreux autres logiciels de type Wiki ont pu voir le jour en copiant ou s'inspirant de ce qui existait déjà. Toujours compte tenu de la clause copyleft apposée sur le travail initial, tous les nouveaux produits dérivés durent donc à leur tour reprendre la licence d'origine.

Parmi les différents logiciels Wiki disponibles, la société Bomis, qui finança le premier projet Wikipédia en anglais, choisit UseModWiki. Ce programme avait pour avantage de répondre à toutes les attentes, puisqu'il était en même temps gratuit, simple d'utilisation et peu gourmand en ressources informatiques. C'était donc somme toute, une véritable aubaine pour cette entreprise qui peu après le lancement d'un projet d'encyclopédie commerciale fut confrontée à de grosses difficultés financières.

Un an plus tard environ, le 25 janvier 2002, UseModWiki fut remplacé par un autre moteur de Wiki sans nom, plus performant et toujours produit sous licence libre[M 26]. Ce dernier fut amélioré par plusieurs programmeurs, dont Brion Vibber, le premier employé de la Fondation Wikimedia. Pour ces raisons sans doute, le logiciel fut finalement baptisé MediaWiki en partant d'un jeu de mots proposé par un contributeur de Wikipédia nommé Daniel Mayer. Par la suite et jusqu'à ce jour, ce fut donc la Fondation qui poursuivit le développement du logiciel avec le concours de nombreux employés, mais également de nombreux bénévoles, tous actifs sur la plate-forme mediawiki.org.

Grâce à ce soutien, des milliers d'autres projets et sites Web[S 16] situés en dehors du mouvement, peuvent ainsi profiter d'un logiciel libre situé en tête de classement des moteurs Wiki les plus utilisés[S 17]. Au vu de ce succès, ce sont d'ailleurs des certains de personnes et de gestionnaires de sites MediaWiki qui se rassemblent chaque année pour discuter de son développement et de ses usages[M 27]. Il existe bien sûr d'autres moteurs Wiki disponibles parmi les logiciels libres, tel que DocuWiki dont l'absence de base de données, la simplicité d'installation et d'usage l'aura rendu populaire pour de petits projets. Mais, dans le contexte du mouvement Wikimédia, les choses se gèrent à une tout autre échelle puisqu'il s'agissait dès le début de créer une encyclopédie libre et universelle.

L’encyclopédie libre et universelleModifier

Toutes ces innovations techniques présentées précédemment ont ainsi permis la création du premier projet Wikipédia en qualité de site Internet. Néanmoins, Wikipédia ne se résume pas à un simple site Web. C'est avant tout un projet, et pas des moindres, puisqu'il consiste à réaliser ce vieux rêve de notre humanité que représente le libre partage de la somme des connaissances humaines[S 18]. Sans entrer dans les détails de l'histoire, je me limiterai ici à rappeler que cette vision fut déjà partagée par Ptolémée Iᵉʳ dans le contexte de la création de la bibliothèque d'Alexandrie (305 – 283 av. J.-C.). Dans l'histoire plus récente il y eut aussi Denis Diderot (1713 – 1784) qui lança aussi l'Encyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers. Puis, plus récemment encore et sans avoir fait les gros titres de l'histoire, Paul Otlet (1868 – 1944) se mit à rêver de répertorier tout le savoir planétaire dans un Mundaneum.

Bien que peu connu, ce Belge était pourtant cocréateur, en 1905, de la classification décimale universelle toujours en usage à ce jour au niveau des bibliothèques. Il rêvait pour le reste de cataloguer le monde. Son but n'était pas moins que de rassembler toutes les connaissances humaines sous la forme d'un gigantesque Répertoire bibliographique Universel[B 36]. À la lecture de son Traité de documentation »[B 37] paru en 1934, on découvre l'étrange songe visionnaire d'un « homme qui voulait classer le monde »[B 38] dont voici l'extrait :

Ici, la Table de Travail n'est plus chargée d'aucun livre. À leur place se dresse un écran et à portée un téléphone. Là-bas, au loin, dans un édifice immense, sont tous les livres et tous les renseignements, avec tout l'espace que requiert leur enregistrement et leur manutention, […] De là, on fait apparaître sur l'écran la page à lire pour connaître la question posée par téléphone avec ou sans fil. Un écran serait double, quadruple ou décuple s'il s'agissait de multiplier les textes et les documents à confronter simultanément ; il y aurait un haut-parleur si la vue devrait être aidée par une audition. Une telle hypothèse, un Wells certes l'aimerait. Utopie aujourd'hui parce qu'elle n'existe encore nulle part, mais elle pourrait devenir la réalité de demain pourvu que se perfectionnent encore nos méthodes et notre instrumentation.

 
Fig. 2.13. Photographie de l'intérieur du Répertoire Bibliographique Universel aux alentours de 1900 (source : https://w.wiki/377k)

Cette utopie telle qu'elle fut décrite par Otlet peut apparaître aujourd'hui quelque peu troublante. Pour la plupart des utilisateurs du réseau Internet de nos jours, trouver une information se résume effectivement à peu de chose près à ce songe visionnaire. Premièrement à allumer un écran d'ordinateur, ensuite poser une question dans un moteur de recherche, puis, se voir rediriger dans près de 88.7 % des cas, vers Wikipédia[S 19]. Au travers de cette méthode, c'est pratiquement tout le monde occidental qui découvrit Wikipédia.

Ce que les gens ignorent souvent par contre, c'est que cinq ans avant la naissance de Wikipédia, Aaron Swartz, à l'âge de douze ans seulement, avait déjà lancé une encyclopédie générée par ses utilisateurs[V 1]. Son site intitulé The Info Network, lui aura même valu la remise du ArsDigita Prize, une récompense pour les jeunes créateurs d'un projet « utiles, éducatifs collaboratifs et non commerciaux »[M 28]. Ce qui fut ensuite également oublié, c'est que l'expression « encyclopédie libre et universelle » fut écrite pour la première fois en 1998 par Richard Stallman dans un essai intitulé The Free Universal Encyclopedia and Learning Resource[M 29]. Près de deux ans avant qu'il ne le partage le 18 décembre 2000 sur la liste de diffusion du projet GNU. Un an avant la naissance de Wikipédia, voici une courte citation[M 30] de la manière dont il décrivait son idée projet :

Le World Wide Web a le potentiel de devenir une encyclopédie universelle couvrant tous les domaines de la connaissance et une bibliothèque complète de cours d'enseignement. Ce résultat pourrait être atteint sans effort particulier, si personne n'intervient. Mais les entreprises se mobilisent aujourd'hui pour orienter l'avenir vers une voie différente, dans laquelle elles contrôlent et limitent l'accès au matériel pédagogique, afin de soutirer de l'argent aux personnes qui veulent apprendre. […] Nous ne pouvons pas empêcher les entreprises de restreindre l'information qu'elles mettent à disposition ; ce que nous pouvons faire, c'est proposer une alternative. Nous devons lancer un mouvement pour développer une encyclopédie libre universelle, tout comme le mouvement des logiciels libres nous a donné le système d'exploitation libre GNU/Linux. L'encyclopédie libre fournira une alternative aux encyclopédies restreintes que les entreprises de médias rédigeront.[T 8]

Lorsque Stallman fait référence à un « mouvement pour développer une encyclopédie libre universelle », il anticipe donc, bien avant l'heure, la venue du mouvement Wikimédia qui ne sera reconnu que bien après la création du projet Wikipédia. Dans la soixantaine de paragraphes qui décrivent son projet, se trouvent ensuite des descriptions très proches des 5 principes fondateurs[S 20] apparus sur Wikipédia en anglais le 10 novembre 2001[S 21]. Le premier de ces principes consiste bien sûr à créer une encyclopédie. Le deuxième fait appel à une recherche de neutralité de point de vue, alors que Stallman stipulait déjà qu'« en cas de controverse, plusieurs points de vue seront représentés ». Le troisième principe garantit pour sa part la publication du contenu sous licence libre, une autre invention de Stallman. Le quatrième, à son tour, fait appel à un projet collaboratif, là où le hacker spécifiait que « tout le monde est le bienvenu pour écrire des articles ». Et, le cinquième, enfin, stipule qu'il n'y a pas d'autres règles fixes, une chose bien connue dans la philosophie des hackers. Ce dernier principe ne fut toutefois pas respecté par la Fondation Wikimedia, qui réfléchit dès 2011 à la mise en place de conditions d'utilisations pour ses projets[S 22]. Du côté des communautés d'éditeurs et de façon variable selon les projets et leurs versions linguistiques, c'est tout un lot de nouvelles règles et recommandations qui firent leur apparition[S 23] pour produire finalement ce qui ressemble fort à une ligne éditoriale.

À sa naissance, le projet Wikipédia ne fut donc pas une idée originale en soit, mais plutôt une opportunité saisie par la firme commerciale Bomis, d'enrichir son encyclopédie en ligne Nupedia. Nupedia fut créée avant Wikipédia et son écriture était assurée par des experts selon un processus éditorial formel[B 39]. En raison de sa lenteur et bien que son employeur Jimmy Wales manquât d'enthousiasme, Larry Sanger, docteur en philosophie et rédacteur en chef de Nupedia, réussit à faire installer un logiciel wiki sur les serveurs de l'entreprise[M 31].

Ainsi donc commença l'histoire de Wikipédia en date du 15 janvier 2001[M 32], précisément durant le même mois où est apparue l'encyclopédie libre universelle de Stallman. Intitulé GNUPedia. Celle-ci fut ensuite rebaptisée « GNE » compte tenu du fait que les noms de domaines gnupedia.com/net/org avaient déjà été achetés par Jimmy Wales[M 33]. Une démarche bien entendu surprenante lorsque l'on sait que Wales affirma un jour[M 34] : « n'avoir eu aucune connaissance directe de l'essai de Stallman lorsqu'il s'est lancé dans son projet d'encyclopédie »[T 9].

 
Fig. 2.14. Larry Sanger (sources : https://w.wiki/4LJJ)
 
Fig. 2.15. Jimmy Wales (sources : https://w.wiki/4LJF
 
Fig 2.16. Évolution du nombre d'articles sur Citizendium (sources : https://w.wiki/3VY8
 
Fig 2.17. Évolution du nombre d'articles sur Wikipédia (source : https://w.wiki/3VYC)

Il est vrai que le site GNE ne se présentait pas comme une encyclopédie, mais plutôt comme un blog collectif[B 40]. Certains qualifieront le projet de base de connaissance[B 41], mais sa page d'accueil stipulait toutefois qu'il s'agissait d'une bibliothèque d'opinions[S 24]. Même si le projet engagea une personne pour assumer sa modération, cette tâche s’avéra très compliquée. Du côté de Wikipédia par contre et très probablement grâce aux spécificités de l’environnement Wiki, une certaine auto-organisation se mit petit à petit en place. Probablement en raison de la concurrence du site GNE, Jimmy Wales décida d'abandonner le copyright que Bomis détenait sur son encyclopédie au travers d'une licence Nupedia Open Content[B 42] en la remplaçant par la licence de documentation libre GNU. Une action stratégique finalement payante, puisque le projet GNE fut finalement suspendu et son contenu transféré au sein de Nupedia, pendant que sur le site de sa fondation, Richard Stallman encourageait les gens à contribuer sur Wikipédia[S 25]. Une deuxième action de Jimmy Wales, très certainement favorable à l’extension du projet Wikipédia, fut ensuite d’ouvrir le projet Wikipédia aux « gens ordinaires »[M 35]. Ce choix s’opposait aux idéaux de Larry Sanger qui préférait le modèle de Nupedia avec sa relecture par un comité d’experts, mais il garantissait à l’homme d’affaires une croissance plus rapide du contenu[M 34].

Par la suite, l’éclatement de la bulle spéculative Internet et des restrictions budgétaires qui suivirent le Krach boursier de 2001-2002, placèrent la société Bomis en incapacité de payer le salaire de Sanger. Après avoir poursuivi pendant un mois de manière bénévole ses activités au sein de Nupedia et Wikipédia, l'ex-employé de la firme décida finalement de démissionner de ses deux postes bénévoles en mars 2002[S 26]. Mais cela n'empêcha pas le projet Wikipédia de poursuivre son développement grâce à sa communauté de contributeurs, elle aussi devenue entièrement bénévole grâce au soutien de Jimmy Wales. En septembre 2003 et faute de productivité, ce fut finalement le projet Nupedia qui finit par transférer ses articles au sein Wikipédia. Trois ans plus tard, en septembre 2006, Larry Sanger n'avait pas dit son dernier mot. Il lança effectivement sur ses fonds propres un projet analogue à Nupedia intitulée Citizendium. Soumis à un système d'expertise et demandant aux contributeurs de s'enregistrer sous leur identité réelle et d'écrire uniquement en anglais, le projet atteignit en 2010 près de 25 000 articles (figure 2.16), alors que le projet Wikipédia en anglais dépassait les 3 millions d'articles à cette même période (figure 2.17).

Jimmy Wales continua ainsi à se consacrer au projet Wikipédia pendant que celui-ci finit par atteindre une taille et une visibilité jamais égalée dans l'histoire des encyclopédies. La naissance de Wikipédia en anglais constitua donc la première pierre de l'édifice Wikimédia. Par la suite, ce sont des centaines de versions linguistiques de l'encyclopédie libre qui prirent naissance les unes après les autres pour dépasser aujourd'hui le nombre de 300. La version francophone apparut pour sa part sous le nom de domaine « french.wikipedia.com » un peu moins de quatre mois après la création du projet en anglais[M 36]. Par la suite, ce sont plus d'une dizaine d'autres projets pédagogiques et collaboratifs en ligne, « les projets frères de Wikipédia » comme on les appelle en français, qui ont vu le jour pour être, eux aussi, déclinés en de nombreuses versions linguistiques.

Les projets frères de WikipédiaModifier

Faisant suite à la naissance de l'encyclopédie Wikipédia, de nouveaux projets éditoriaux collaboratifs verront le jour pour compléter le contenu pédagogique qu'une encyclopédie ne peut fournir. Il est possible de découvrir leurs apparitions ainsi que l'évolution de leurs versions linguistiques dans une page qui en fait le recensement chronologique[S 27]. De manière plus synthétique, une ligne du temps fut aussi réalisée par Guillaume Paumier à l’occasion du dixième anniversaire de Wikipédia (figure 2.18).

Ce document présenté au Capitole du libre de 2011[V 2] fit d'ailleurs l'objet d'une réédition collaborative lors de la rencontre Wikimania 2012[S 28]. Dans sa partie libellée « sister projects », on y découvre que le tout premier projet créé après Wikipédia fut le site Meta-Wiki. Avec l'apparition des nombreuses versions linguistiques de Wikipédia, la nécessité de centraliser les questions communes aux projets devint rapidement une évidence. Aujourd’hui, le site Meta-Wiki, qui ne cesse de se développer, est devenu une véritable plate-forme de coordination et de communication entre les projets pédagogiques, tous les organismes affiliés au mouvement et la Fondation Wikimedia.

 
Fig. 2.18. Chronologie des événements depuis la création de Wikipédia en 2001 jusqu'en 2012 (source : https://w.wiki/55NF)

Pendant que les nouvelles versions linguistiques de Wikipédia ne cessèrent de se joindre au projet initial en anglais, des versions linguistiques de sept autres projets de partage de la connaissance voyaient le jour. Cela se fit systématiquement à l'initiative d'un petit groupe de contributeurs actifs dans un autre projet préexistant. Le projet Wiktionnaire en anglais créé le 12 décembre 2002 fut ainsi le deuxième projet à voir le jour parmi les projets Wikimédia, avec une version francophone apparue deux ans plus tard, en mars 2004[S 29]. Il est intéressant à ce sujet de remarquer que la version francophone du Wiktionnaire n'a pas pris naissance depuis la version anglophone, mais bien depuis le projet Wikipédia en français. Cela débuta avec une poignée de contributeurs qui entamèrent des discussions, dont voici un extrait[S 30] :

En fait, ce qui me peine vraiment avec le projet Wiktionary, c'est que alors qu'on essaie de rassembler les gens (pas facile) pour créer une sorte de tour de Babel de la connaissance (tache bien longue et difficile), ce nouveau projet va disperser les énergies pour une raison qui ne me semble pas valable. C'est la création de Wiktionary qui va créer des redondances. À mon avis il existera rapidement des pages sur le même mot, mais ne contenant pas les mêmes informations. Pour quelle raison ces connaissances devraient-elles être séparées ? Les encyclopédies sur papier devaient faire des choix à cause du manque de place, mais nous, pourquoi le ferions-nous ??? "Wikipédia n'est pas un dictionnaire" n'est pas un argument à mon avis... si vraiment c’était pas un dictionnaire, il faudrait virer tout un tas d'article. Je ne comprends vraiment pas cette volonté de séparer la connaissance entre ce qui est "encyclopédique" et ce qui n'est "qu'une définition".", Aoineko, 3 janvier 2003

Pour moi ce qu'est Wiktionary, c'est une partie de Wikipédia s'intéressant plus particulièrement aux aspects linguistiques des mots. La différence que je verrais entre la partie dictionnaire de Wikipédia et sa partie dite encyclopédique, c'est que la partie dictionnaire s'intéresserait au sens des mots eux-mêmes alors que la partie encyclopédie s'attache plus à faire ressortir un état des connaissances à un moment donné. Le pourquoi de la séparation d'avec la partie encyclopédie tient plus à des raisons techniques qu'à une volonté de monter un projet indépendant, en effet, à mon humble avis, un dictionnaire nécessite une plus grande rigueur (de présentation) qu'une encyclopédie. Ceci entraîne beaucoup de problème et entre autres le choix de la mise en forme des articles du dictionnaire. luna~frwuju.

Dans le cas de figure du projet Wiktionnaire en français, la séparation de Wikipédia fut donc motivée par des besoins techniques, mais également par un désir d'autonomie quant à la manière de concevoir et de présenter des ressources lexicales. Ce désir n'était toutefois pas partagé par tous, notamment compte tenu d'une fatale dispersion des énergies. Créer un nouveau projet, c'est effectivement créer un nouveau site web qui devra faire l'objet d'une nouvelle gestion, tant au niveau des serveurs de la Fondation, qu'au niveau d'une communauté nouvelle et forcément plus modeste. Bien sûr, il est toujours possible d'importer des pages d'autres projets frères ou de traduire celles d'une autre version linguistique, mais cela duplique alors aussi leurs maintenances et leurs mises à jour. Le choix de scinder un projet au profit d'une plus grande liberté a donc un prix. Réfléchissant à la question, un employé de la Fondation présent lors de la rencontre Wikimania de 2019, présenta l'idée de rassembler à l'intérieur d'un seul site web toutes les versions linguistiques des projets. Une idée qui ne fut toutefois pas retenue, en raison sans doute, du challenge que représente la mise en place d'un système de traduction[M 37].

Le 10 juin 2003, ce fut au tour du projet anglophone Wikibooks de faire son apparition, soit près d'un an avant la version francophone. Celle-ci apparut pour sa part le 22 juillet 2004, et fut rebaptisée Wikilivres après avoir été débattue à l'intérieur de Wikipédia en français à nouveau et non dans le projet Wikibooks en anglais. Dans les deux cas de figure, l'objectif était de créer une « bibliothèque de livres pédagogiques libres que chacun peut améliorer »[S 31]. Dans le projet anglophone, vit ensuite le jour en 2004 et dans un espace de noms séparé du projet principal, un sous projet intitulé Wikijunior. Financé par la Beck Foundation, son but initial était de rassembler de la littérature pour des enfants de huit à onze ans[S 32] puis, de zéro à douze ans lorsque le projet passa au niveau francophone[S 33].

Un an plus tard, et à la suite de quelques débats au niveau du projet anglophone[S 34], l'idée d'un nouveau sous-projet intitulé Wikiversity fit son apparition. Son but était cette fois de « créer une communauté de personnes qui se soutiennent mutuellement dans leurs efforts éducatifs »[T 10][S 35]. Cependant, le 12 août 2005, une longue discussion remit en question l’existence de ce projet éducatif. Alors qu'il était question de le supprimer, il fut finalement décidé de transférer son contenu vers le projet Meta-Wiki[S 36]. Après ce transfert de nouvelles discussions aboutirent à l'idée de faire de Wikiversité un nouveau projet indépendant. Elles perdurèrent ainsi jusqu'au 22 août 2006[S 37], quand un vote fut ouvert par la communauté dans l'objectif d'atteindre une majorité des deux tiers en faveur de la création du projet. C'était là une démarche nécessaire avant d'en proposer une période d'essai au Conseil d'Administration de la Fondation Wikimedia[S 38]. Mais, le 13 novembre 2005, la proposition fut rejetée par cinq membres du conseil d'administration. Ceux-ci demandèrent[S 39] effectivement d'exclure du projet « la remise de titre de compétence, la conduite de cours en ligne et de clarifier le concept de plate-forme e-learning »[T 11]. Une décision commentée sur Wikibooks[S 36] de la sorte :

La principale raison pour laquelle la Fondation Wikimedia ne veut pas "lâcher le morceau" est une simple question de bureaucratie et la crainte que le projet ne devienne une autre Wikispecies. Wikispecies est une idée cool, mais les "fondateurs" du projet se sont dégonflés à mi-chemin de la mise en place du contenu et ont décidé de faire une révision majeure qui a pris plus de temps que ce que tout le monde était prêt à mettre. Le même problème s'applique à Wikiversity en ce qui concerne la Fondation, parce que les objectifs et les buts de ce projet ne sont pas clairement définis, et il semble que les participants essaient de mordre plus qu'ils ne peuvent mâcher en proposant une université de recherche multi-collèges entière (avec un statut de recherche et une accréditation Carnegie-Mellon également) à former de toutes pièces plutôt qu'un simple centre d'éducation pour adultes avec quelques classes. Si plus de réflexion est faite sur la façon de "démarrer" ce projet entier, peut-être que quelques pensées sur la façon de convaincre le conseil de la Fondation de laisser un wiki séparé être lâché pour laisser ce projet essayer de se développer par lui-même peuvent être faites.--Rob Horning 11:21, 14 août 2005 (UTC)[T 12]

 
Fig. 2.19. Logo de la Fondation Wikimedia entouré de 15 autres logos de projets actifs en son sein (source : https://w.wiki/4Pzn)

Il fallut donc attendre neuf mois supplémentaires, pour qu'enfin, le 31 juillet 2006, les amendements apportés au projet de départ[S 40] soient finalement acceptés par un comité nouvellement créé sous l’appellation de special projects commitee[S 41]. Suite au feu vert, la création du site Beta-Wikiversity comme espace de lancement des différentes versions linguistiques fut finalement lancée[S 42]. Un transfert du contenu fut alors entamé alors qu'un délai de six mois était fixé pour élaborer les lignes directrices sur d'autres utilisations potentielles du projet Wikiversité dans le contexte d'une recherche collaborative[T 13]. Depuis lors, à chaque fois qu'une nouvelle version linguistique du projet sur Beta-Wikiversity connait plus de 10 modifications par mois et regroupe au moins 3 participants, un nouveau site web est ouvert pour poursuivre son développement.

Avec la plateforme de lancement Wikisource multilingue[S 43], Beta-Wikiversity apparait donc comme une deuxième exception au site Wikimedia Incubator[S 44] créé en 2006 pour le lancement des versions linguistiques des autres projets. Une proposition de transférer des activités de Wikivesity Beta vers Incubator fut discutée à plusieurs reprises en 2008[S 45], 2013-2015[S 46] et 2017[S 47], mais toujours sans succès. Les raisons du refus furent essentiellement le manque d'enthousiasme de la communauté, la quantité de travail nécessaire et la prise en compte des spécificités d'un projet dédié à la production de recherches originales, d'exercices, etc.

Contrairement à la naissance des autres projets Wikimédia, le projet Wikivoyage fit son apparition dans le mouvement d'une manière complètement originale. Ce guide de voyage vit tout d'abord le jour en 2003 dans un Wiki extérieur au mouvement Wikimédia intitulé Wikitravel[M 38]. Comme cela arrive parfois, le projet au départ sans but lucratif fut ensuite racheté par une entreprise commerciale en 2006. Ce changement de gouvernance et l'introduction de publicités provoqua alors une scission de la communauté d'éditeurs. De cette séparation naîtra Wikivoyage, un nouveau projet séparé et autonome de Wikitravel qui reçut en 2007, le Webby Award du meilleur guide de voyage Internet[M 39]. Cinq ans plus tard, soit en 2012, un appel à commentaires rassembla ensuite plus de 540 personnes en faveur de l'intégration de Wikivoyage dans le mouvement à titre de nouveau projet frère[S 48]. Comme cette nouvelle déclencha une migration importante des contributeurs de Wikitravel vers Wikivoyage, une plainte fut alors déposée par sa société commerciale. Elle fut toutefois rejetée par le tribunal en charge, ce qui permit dès lors la création de nouvelles versions linguistiques[M 40].

Pour la suite, il faut encore savoir que d’autres projets sont toujours susceptibles de voir le jour. À ce titre, WikiJournal, un sous-projet de la Wikiversité anglophone récompensée de l'Open Publishing Awards en 2019[S 49], est actuellement en attente du consentement du conseil d'administration de la Fondation pour lancer son propre site[S 50]. Ce sont ainsi des centaines d'autres demandes[S 51] qui doivent ainsi être examinées, avec parfois des refus, comme cela est arrivé au projet WikiLang[S 52] qui avait pour but de lancer un laboratoire linguistique. Bien que cela soit plus rare, un projet peut toutefois être accepté, par exemple Wikifonctions alias Abstract Wikipedia[S 53]. Un projet d'envergure cette fois puisqu'il consiste à produire automatiquement des articles encyclopédiques en langues diverses au départ de la banque de données Wikidata et grâce à des scripts et fonctions informatiques[M 41]. Il faut enfin savoir qu'il existe aussi une liste des projets proposés à la suppression[S 54] reprenant essentiellement des versions linguistiques de projets qui n'ont pas réussi à poursuivre leurs développements.

Voici donc, sans prendre le soin de faire le tour des projets, de quoi se faire une idée sur la manière dont les projets frères du mouvement Wikimédia et leurs versions linguistiques voient le jour. Les quelques exemples repris ci-dessus suffiront pour comprendre les principes généraux qui sous-tendent la création de nouveaux projets. Dans le cas d'un nouveau projet, l'idée apparait tout d'abord dans un autre projet de même langue pour être éventuellement débattue sur la plate-forme Meta-Wiki, avant d'en faire la demande au conseil d'administration de la Fondation. Au niveau des versions linguistiques des projets par contre, cela se passe sur le site Incubator, Beta-Wikiversité ou Wikisource Multilingue, jusqu'à ce qu'ils atteignent un stade de maturité suffisant.

Au niveau chronologique, les premiers projets frères de Wikipédia et certaines variations linguistiques de ceux-ci apparurent donc bien avant que l'on ne commence à parler du mouvement Wikimédia, ceci alors que la Fondation Wikimédia ne vit le jour qu'en date du 20 juin 2003. Ensuite et comme nous l'avons vu, de nouveaux projets pédagogiques ne cessèrent de voir le jour, pendant que les nouvelles versions linguistiques continuaient à se développer ou à disparaître en cas d'inactivité prolongée. Au niveau chronologique, les premiers projets frères de Wikipédia et leurs premières versions linguistiques apparurent donc bien avant que l'on commence à parler du mouvement Wikimédia alors qu'au moment de création de la Fondation Wikimédia le 20 juin 2003[S 55], personne ne parlait d'un mouvement Wikimédia. La naissance du mouvement en ce sens ne fut donc pas un événement ponctuel en soi, mais plutôt un processus qui mis du temps à se mettre en place pour finalement se rendre compte de sa propre existence en cours de développement.

La naissance du mouvement WikimédiaModifier

Une personne qui s'intéresse à la Fondation et au mouvement Wikimédia est en droit de se demander d'où peut bien venir un nom aussi étrange que « Wikimédia. Et puis, est-ce que tout ce qui contient le mot Wiki est en relation avec Wikimédia ? C'est là malheureusement une source de confusion fréquente qui concerne près de 20 000 projets hébergés sur le web qui reposent tous sur une technologie de type wiki[S 56] et utilisent en général le terme wiki dans leur appellation. Parmi tous ces projets pourtant, plus de 95 % n'ont aucun lien avec le mouvement Wikimédia, à l'exception peut-être du fait qu'ils utilisent le même logiciel que celui développé par la Fondation.

WikiLeaks créé par Julian Assange dans le but de publier des documents classifiés provenant de sources anonymes, n'est à ce titre ni un projet Wikimédia, ni un site collaboratif ouvert à tous. À l'inverse du recueil universel et multilingue de guides simples et illustré intitulé WikiHow qui fonctionne, lui aussi, avec le logiciel MediaWiki développé par la Fondation Wikimedia[S 57]. Cependant, son ergonomie radicalement différente de celle des projets Wikimédia permet de comprendre facilement qu'il n'en fait pas partie. Wikimini, autre exemple, est une encyclopédie libre pour les enfants, dont le fondateur Laurent Jauquier m'a confié un jour qu'il aurait aimé voir son projet rejoindre le mouvement Wikimédia, alors que la Fondation s'est avérée très frileuse à l'idée de gérer du contenu pour jeune public. Viennent ensuite les projets WikiTribune et Wikia qui jettent un peu plus le trouble, puisqu'ils furent lancés par Jimmy Wales, le fondateur de Wikipédia et de la Fondation Wikimedia[M 42], mais sans pour autant avoir l'intention de leur faire rejoindre le mouvement.

Au niveau étymologique à présent, retenons que le terme « Wikimédia » est un mot-valise dont le suffixe média fait référence au mot média et le préfixe « wiki » au mot hawaïen « wikiwiki » que l'on peut traduire en français par « vite, vite »[S 58]. Le terme fut récupéré par Ward Cunningham, le créateur du WikiWikiWeb, avant d'être reproduit au niveau de tous les logiciels wiki, dont UseModWiki, utilisé par la firme Bomis pour héberger son projet d'encyclopédie collaborative. Il se retrouva ensuite dans le mot Wikipédia en référence au mot anglais encyclopedia, et par le fait que la nouvelle encyclopédie était fondée sur un Wiki. Par la suite, le mot Wiki devint le préfixe de tous les mots valise qui seront adoptés lors de la création des autres projets Wikimédia.

 
Fig. 2.20. Photo de Florence Devouard prise en 2017 (source : https://w.wiki/4LJc)

Le mot Wikimédia lui-même n'est apparu que le 16 mars 2003, lors d'une discussion concernant la déclinaison possible de l'encyclopédie en d'autres types de projets éditoriaux participatifs. Durant celle-ci, l'écrivain américain Sheldon Rampton eu l'idée d'associer au terme wiki celui de « média » afin de mettre en évidence la variété des médias produits et mobilisés sur toutes les plates-formes wiki (encyclopédie, site d'actualités, musiques, vidéos, etc.)[M 43]. Quelques mois plus tard, le terme fut adopté lors de la création de la Wikimedia Foundation, lorsque Jimmy Wales décida d'y transférer les avoirs de sa firme Bomis que sont les noms de marques, noms de domaines et copyrights[M 44]. Il fallut ensuite attendre le mois de juin 2008, soit cinq années supplémentaires, pour que finalement Florence Devouard, présidente de la Fondation à cette époque, utilise le mot Wikimédia pour désigner le mouvement social qu'elle voyait apparaitre à travers le développement d'une multitude de projets.

Affirmer que ce moment précis coïncide avec la naissance du mouvement serait toutefois arbitraire. Car si l'on peut déterminer plus ou moins facilement l'apparition d'une expression dans les archives numériques, tout le monde sait qu'un mouvement social ne se forme pas en un seul jour. Dans le contexte du mouvement Wikimédia, sa naissance fut effectivement liée à celle du projet Wikipédia, mais également à tout ce qui permit à l'encyclopédie de voir le jour. Dans une autre perspective, la naissance du mouvement pourrait tout aussi bien être associé à celle de la Wikimedia Foundation créée le 20 juin 2003[S 55] ou encore à l'arrivée de la plate-forme Meta-Wiki.

Mais quoi qu'il en soit, la création du « Wikimedia movement », fut bel et bien une initiative de Florence Devouard, formulée en juin 2008 peu de temps avant qu'elle ne quitte son poste de présidente de la Fondation Wikimedia[M 45]. Son idée telle qu'exprimée sur la liste de diffusion de la Fondation[S 59] était d'utiliser le site Wikimedia.org pour en faire la vitrine du mouvement Wikimédia qu'elle prenait la peine de le définir de la sorte :

Le mouvement Wikimédia, comme je l'entends est

- une collection de valeurs partagées par les individus (liberté d'expression, connaissance pour tous, partage communautaire, etc.)

- un ensemble d'activités (conférences, ateliers, wikiacadémies, etc.)

- un ensemble d'organisations (Wikimedia Foundation, Wikimedia Allemagne, Wikimedia Taïwan, etc.), ainsi que quelques électrons libres (individus sans chapitres) et des organisations aux vues similaires[T 14]

Avant cette date clef, toutes les personnes actives dans les projets éditoriaux en ligne ou dans les organismes affiliés, faisaient donc partie de ce que Ralf Dahrendorf appellerait un « quasi-groupe »[B 43]. Ou pour le dire autrement, un ensemble d'individus qui ont un mode de vie semblable, une culture commune, mais dont les points communs ne gravitent pas autour d'une prise de conscience de leur position commune dans la relation d'autorité[B 44].

Constituer un mouvement à partir d'un ensemble de communautés d'éditeurs distribués sur des projets en ligne et hors ligne, eux-mêmes déclinés dans une multitude de langues, aura donc pris plus d'une dizaine d'années. Sans compter qu'aujourd'hui, de nombreuses personnes peu actives sur les sites Wikimédia, les éditent en ignorant toujours qu'ils prennent part aux activités d'un mouvement. Une telle situation sera au contraire très peu probable chez les personnes qui auront participé à l'une des rencontres physiques organisées par la Fondation Wikimedia ou par l'une des associations affiliées. Tous ces organismes ont en ce sens joué un rôle crucial dans la constitution d'un sentiment d'appartenance indispensable au développement de tout mouvement.

La création des organismes affiliésModifier

Comme dit précédemment, au-delà de plus d'un millier de projets et sous-projets hébergés sur plus de 900 sites web, il existe aussi dans la partie hors ligne de Wikimédia tout un ensemble de groupes et d'organismes affilés au mouvement[N 4]. Il s'agit ici de plusieurs centaines d'instances dont il me serait malheureusement difficile de présenter l'histoire aussi facilement que ce que j'ai pu faire au niveau des projets. S’il existe énormément d'archives web concernant la naissance des sites Wikimédia, ce n'est pas le cas pour ces organismes qui se forment et se développent lors de rencontres ou réunions hors ligne. De plus, une bonne part des échanges effectués dans ces associations se font au travers de canaux de communications privées auxquels je n'ai pas eu accès.

Je me limiterai donc ici à parler de l'association Wikimédia Belgique dont j'ai pu être l'un des membres fondateurs. Elle fut fondée le 8 octobre 2014 en tant qu'association sans but lucratif et fut reconnue le 6 août suivant par le conseil d'administration de la Fondation[S 60]. Sous l’impulsion de Maarten Deneckere qui en deviendra le premier président, nous étions 8 personnes à signer la première version des statuts[S 61] dont l'objet social consiste jusqu'à ce jour à « impliquer tout un chacun dans la connaissance libre »[S 62]. Cette association ne connut malheureusement pas l'essor de l'association Wikimédia allemande, la première à voir le jour 13 juin 2004, qui rassemble autour d'elle en mai 2021 plus de 85 000 membres et près de 150 employés[M 46]. De façon beaucoup plus modeste et plus de sept ans après sa création, l'association belge fonctionne toujours pour sa part sans salarié et sera passée de 37 à 115 membres[S 63] au cours de son existence.

Avant d'être reconnues comme telles par la Fondation, toutes les associations locales, dites « chapter » en anglais, doivent actuellement réaliser bon nombre de démarches. Il faut préalablement répondre à tout un ensemble de critères qui ont évolué avec le temps depuis l'apparition d'un comité d'affiliation en avril 2006[S 64]. Ces différents prérequis selon les différentes formes d'affiliations possibles au sein du mouvement, sont repris ci-dessous (tableau 2.1)[S 65]. Ce à quoi il faut encore ajouter ce que les associations doivent faire pour maintenir leur statut et qui sera abordé dans le prochain chapitre.

Tab. 2.1. Comparaison des prérequis par type d’affiliation
Prérequis Organisations Nationales Organisations thématiques Groupes d'utilisateurs
Nombre minimum d’éditeur Wikimédia actif 10 10 3
Nombre minimum de membre suggéré 20 20 10
Objectif Secteur géographique Secteur thématique Tout ce qui fait avancer Wikimédia
Mission conforme à celle de la Fondation Wikimedia      
Respect des lignes directrices de dénomination et de la politique de gestion des marques      
Informations relatives aux publications des groupes au sein de l’infrastructure Wikimédia      
Plans d’activité et actions menées en vue de faire progresser les projets Wikimédia      
Permettre l’adhésion de nouveaux membres      
Désignation de deux référents auprès de la Fondation Wikimedia      
Reconnaissance légale    
Règlement intérieur amendable et approuvé par le comité d’affiliation    
Deux années d’activité antérieures à la demande d’affiliation    
Nécessite l’approbation du comité d’administration de la Fondation Wikimedia    
Comité de direction élu par ses membres, y compris ses nouveaux membres    
Rapports d’activité et rapports financiers régulièrement publiés sur Meta-Wiki    
Capacité à représenter le mouvement Wikimédia dans un domaine d’intervention spécifique    
Délais de développement type 2-3 ans 2-3 ans 1-4 mois
Durée d’exercice soumis à approbation 4-6 mois 4-6 mois 1-3 semaines

L’héritage d’une révolution culturelleModifier

Au terme de ce chapitre, il devient donc évident que la révolution numérique, que l'on considère d'abord comme une révolution technique, fut aussi et peut-être avant tout, une révolution sociale et culturelle propagée au cœur d'un nouvel écoumène numérique. Dans cette période très récente de l'histoire de l'humanité, le mouvement Wikimédia fut ainsi l'héritier d'une contre-culture opposée au monde marchand et à l'oppression étatique. Avec un peu d'imagination, on pourrait déjà dire qu'une telle influence transparaît déjà au niveau du logo de la Fondation qui, une fois renversé, affiche une certaine similarité avec celui du mouvement Hippie.

Mais ceci ne serait que spéculation alors que tout devient évident dès que l'on sait que Richard Stallman, le gourou de la contre-culture hacker[B 45] et père du système d'exploitation hippie[M 47] fut le penseur originel du concept d'encyclopédie libre, universelle, collaborative et neutre. Personne ne s'étonna d'ailleurs de son arrivée triomphante lors de la première conférence internationale Wikimania de 2005 qui deviendra plus tard le grand lieu de rassemblement annuel des membres les plus actifs du mouvement Wikimédia. Pris en photo juste avant son discours, Stallman incarnait alors à lui seul toute l'influence contre-culturelle transmise au mouvement Wikimédia.

Quant aux enjeux que suscite la transmission des valeurs du mouvement des logiciels libres au mouvement Wikimédia, André Gorz, le père de la décroissance[B 46] et le théoricien de l'écologie politique[B 47], nous en offre sa propre synthèse[M 48] :

La lutte engagée entre les "logiciels propriétaires" et les "logiciels libres" […] a été le coup d'envoi du conflit central de l'époque. Il s'étend et se prolonge dans la lutte contre la marchandisation de richesses premières – la terre, les semences, le génome, les biens culturels, les savoirs et compétences communs, constitutifs de la culture du quotidien et qui sont les préalables de l'existence d'une société. De la tournure que prendra cette lutte dépend la forme civilisée ou barbare que prendra la sortie du capitalisme.

 
Fig. 2.21. Photo de Richard Stallman lors du premier rassemblement Wikimania de 2005 (source : https://w.wiki/377f).

En possédant le seul nom de domaine non commercial du top 50 des sites les plus fréquentés du Web[S 66], le mouvement Wikimédia apparaît donc comme l'une des pierres angulaires de cette lutte entre monde libre et monde propriétaire. Après le code informatique, s'il y a une autre marchandise qui circule dans l'écoumène numérique, c'est bien l'information. De là, faut-il encore comprendre que cette marchandise peut facilement être convertie en monnaie et d'autant plus facilement lorsqu'il s'agit d'informations concernant la vie des gens. Pour s'en convaincre, il suffit de se pencher sur quelques ouvrages aux titres éloquents tels que : Bienvenue dans le capitalisme 3.0[B 48], L'âge du capitalisme de surveillance[B 49] et Affaire privée : aux sources du capitalisme de surveillance[B 50].

Cette lutte n'est bien sûr pas des plus faciles à comprendre, du fait de la complexité de l'infrastructure informatique et de l'écoumène numérique qui en émergea d'une part, mais aussi parce que ce combat s'inscrit dans une révolution que Rémy Rieffel décrit à juste titre comme « instable et ambivalente, simultanément porteuse de promesse et lourde de menaces ». Ceci alors qu'elle prend place « dans un contexte où s'affrontent des valeurs d'émancipation et d'ouverture d'un côté et des stratégies de contrôle et de domination de l'autre »[B 51]. En fait d'ambivalence, n'est-il pas surprenant d'apprendre aussi que Jimmy Wales, qui fut à la base du financement du premier projet Wikipédia, est un adepte de l'objectivisme ? Cette philosophie politique dans laquelle le capitalisme est perçu comme la forme idéale d'organisation de la société[B 52] et pour laquelle, l'intention morale de l’existence est la poursuite de l'égoïsme rationnel[B 53].

Au bout du compte, dix ans après les avertissements d'André Gorz, les enjeux soulevés par les logiciels libres au début des années quatre-vingt sont donc toujours au centre des débats. Dans l'espace Web d'un côté, son créateur Tim Berners-Lee ne cesse par exemple d'implorer sa « redécentralisation »[M 49] et à sa « régulation »[M 50], alors qu'à l'inverse, dans le reste de la fréquentation du net, plusieurs milliards d'objets connectés remplissent un marché qui dépasserait déjà les 2.6 milliards d'euros rien qu'en France pour l'année 2020[M 51] et dont l'essor ne fait qu’augmenter avec le développement des technologies 3, 4 et 5G.

Après tous ces aspects économiques, il nous reste encore à tenir compte de la dimension politique de l'héritage contre-culturel transmis par les hackers. Au niveau du mouvement Wikimédia, cela se manifeste par un désir de s'émanciper des contrôles étatiques, qui sera amplement illustré dans la suite de cet ouvrage. Pour l'heure, on se limitera à constater que la position du mouvement ne plaît pas à tout le monde et qu'elle fut ainsi à l'origine de diverses censures des projets Wikimédia réalisés par plusieurs pays tels que la Turquie, la Russie, l'Iran, le Royaume-Uni et même, de manière permanente jusqu'à ce jour, en Chine[M 52]. Certaines procédures juridiques auront même été lancées à l'encontre de certaines instances du mouvement, comme ce fut le cas en France, dans le cadre d'une affaire liée à un article Wikipédia portant sur une station militaire[M 53].

Ce qui s'observe donc tout au long de la préhistoire du mouvement Wikimédia n'est autre qu'une éternelle tension entre d'une part, la recherche d'un pouvoir économique et politique centralisé, et d'autre part un désir d'autonomie et de partage. Cette opposition, comme nous avons pu le constater, n'est pas manichéenne en ce sens qu'un projet de partage visant l'autonomie, tel que l'espace Web par exemple, peut très bien se voir dominer par des projets à but lucratif de type monopolistiques. Je pense ici bien entendu aux géants du web que l'on nomme big tech en anglais et qui sont souvent critiqués pour leurs abus de position dominante. Une bonne part de ces entreprises commerciales sont d'ailleurs à la fois regroupées et cataloguées dans divers acronymes tels que GAFAM, BATX, NATU, etc.

 
Fig. 2.22. Sculpture en bronze de Davide Dormino appelé Anything to say? à l'honneur de trois lanceurs d’alertes (source : https://w.wiki/4UXx).

Ceci alors que dans un mouvement inverse, mais toujours suite à un échec économique semble-t-il, des projets qui au départ avaient des prétentions commerciales, finirent par se recycler en projets de partage autonomes. Rappelons-nous en effet brièvement que l'entreprise Netscape donna naissance au logiciel open source Firefox et que le développement de l'encyclopédie commerciale Nupedia aboutit à la création de la plus grande entreprise de partage que constitue l'encyclopédie libre Wikipédia.

Ensuite, nous pouvons également relever que certains succès commerciaux, comme en son temps celui de la messagerie instantanée MSN Messenger, peuvent aussi permettre l'apparition d'autres succès commerciaux, tels que les nombreux réseaux sociaux qui ont fleuri sur le web. Alors que dans la sphère du partage, le succès non commercial de Wikipédia aura pour sa part inspiré la création d'autres projets collaboratifs financés par des fondations, projets parmi lesquels figure par exemple le projet OpenStreetMap dédié à la cartographie du monde sous licence libre.

Voici donc quelques analyses premières qu'il est possible de produire suite à l'étude de la naissance du mouvement Wikimédia. Cette préhistoire du mouvement met en effet en évidence certaines idéologiques peu connues et qui eurent pourtant une influence considérable sur la façon dont s'est construit l'espace informatique mondial à ce jour, tout en mettant en évidence l'ambivalence et la versatilité de ce qui se passe au cœur de l'écoumène numérique dont il permit la naissance. Ce simple détour dans l'histoire permit enfin de mettre en évidence la permanence d'un contre-pouvoir au sein de nos sociétés, dont l'une des figures emblématiques, au-delà de toutes celles déjà présentées, restera certainement celle du lanceur d'alerte. Car tout comme certains membres du mouvement Wikimédia peuvent lancer des actions de protestation, dans le reste du monde des personnes tel que Aaron Swartz, Bassel Khartabil, Julian Assange, Edward Snowden Chelsea Manning, apparaissent quant à eux tels des héros de cette contre-culture de l'autonomie, de la liberté, et de l'indépendance. Sans eux, il est bien évident que de nombreux travers d'une nouvelle hégémonie culturelle[B 54] en tant que « mère de toutes les batailles politique »[M 54], n'auraient jamais pu être dénoncés.

Notes et référencesModifier

[N]otesModifier

  1. Il est possible de retrouver l’ensemble de mes travaux universitaires sur le site Wikiversité et au départ de ma page utilisateur au sein des projets Wikimédia : https://meta.wikimedia.org/wiki/User:Lionel_Scheepmans
  2. Un système d'opération sale et vite fait
  3. Cette comparaison m'aura permis de réaliser à quel point les statistiques au sujet de l'espace Web sont à prendre avec beaucoup de recul.
  4. Pour plus de détails sur ces projets, groupes et organisations sont disponibles dans la section 11 et la section 13 du chapitre 2 de ce travail de recherche.

[T]extes originauxModifier

  1. For Polanyi the deepest flaw in market liberalism is that it subordinates human purposes to the logic of an impersonal market mechanism.
  2. Globalization of knowledge and knowledge of globalisation
  3. I'm doing a (free) operating system (just a hobby, won't be big and professional like gnu) for 386(486) AT clones. This has been brewing since april, and is starting to get ready. I'd like any feedback on things people like/dislike in minix, as my OS resembles it somewhat (same physical layout of the file-system (due to practical reasons)among other things).
  4. The Making of a Counter Culture: Reflections on the Technocratic Society and Its Youthful Opposition
  5. From Counterculture to Cyberculture: Stewart Brand, the Whole Earth Network, and the Rise of Digital Utopianism
  6. We reject kings, presidents and voting. We believe in rough consensus and running code
  7. En français : embrasser, étendre et rester au sommet.
  8. The World Wide Web has the potential to develop into a universal encyclopedia covering all areas of knowledge, and a complete library of instructional courses. This outcome could happen without any special effort, if no one interferes. But corporations are mobilizing now to direct the future down a different track--one in which they control and restrict access to learning materials, so as to extract money from people who want to learn. […] We cannot stop business from restricting the information it makes available ; what we can do is provide an alternative. We need to launch a movement to develop a universal free encyclopedia, much as the Free Software movement gave us the free software operating system GNU/Linux. The free encyclopedia will provide an alternative to the restricted ones that media corporations will write.
  9. had no direct knowledge of Stallman’s essay when he embarked on his encyclopedia project
  10. create a community of people who support each other in their educational endeavors
  11. exclude credentials, exclude online-courses and clarify the concept of elearning platform
  12. The main reason why the Wikimedia Foundation doesn't want to "turn it loose" is pure bureaucratic BS and a fear that it will turn into another Wikispecies. Wikispecies is a cool idea, but the "founders" of the project got cold feet part-way into putting in content and decided to do a major revision that took more time than anybody was willing to put into it. The same issue applies to Wikiversity so far as the Foundation is concerned, because the goals and purposes of this project are not clearly defined, and it seems like the participants are trying to bite off more than they can chew by proposing an entire multi-college research university (with Carnegie-Mellon research status and accreditation as well) to be formed out of whole cloth rather than a simple adult education center with a few classes. If more thought is done on how to "bootstrap" this whole project, perhaps some thoughts on how to convince the Foundation board to let a separate wiki be kicked loose to let this project try to develop on its own can be made.--Rob Horning 11:21, 14 August 2005 (UTC)
  13. six months, during which guidelines for further potential uses of the site, including collaborative research, will be developed
  14. The Wikimedia Movement, as I understand it, is a collection of values shared by individuals (freedom of speech, knowledge for everyone, community sharing, etc.) a collection of activities (conferences, workshops, wikiacademies, etc.) a collection of organizations (Wikimedia Foundation, Wikimedia Germany, Wikimedia Taiwan, etc.), as well as some free electrons (individuals without chapters) and similar-minded organizations.

[B]ibliographieModifier

  1. Karl Polanyi, Fred Block et Joseph E Stiglitz, The great transformation: the political and economic origins of our time, Beacon press, 2001 (ISBN 978-0-8070-5643-1) (OCLC 1277370048) 
  2. Philippe Breton, La tribu informatique: enquête sur une passion moderne, A.-M. Métailié, 1990 (ISBN 978-2-86424-086-0) (OCLC 299433850) 
  3. Jean-Louis Tissier, « L’écoumène à l’ère numérique », Médium, vol. 35, no  2, 2013, p. 82 (ISSN 1771-3757) [texte intégral]
  4. Cléo Collomb, « Pour un concept technologique de trace numérique », Azimuth. Philosophical Coordinates in Modern and Contemporary Age, vol. IV, no  7, 2016/09, p. 37 [texte intégral]
  5. Arjun Appadurai, « Globalization and the research imagination », International Social Science Journal, vol. 51, no  160, 1999, p. 229 (ISSN 0020-8701) [texte intégral]
  6. Boris Beaude, Internet : changer l'espace, changer la société, FYP editions, 2012 (ISBN 978-2-916571-69-0) [lire en ligne], p. 66 
  7. Alexis Blanchet et Guillaume, Triclot, Mathieu Montagnon, Une histoire du jeu vidéo en France: 1960-1991 : des labos aux chambres d'ados, Houdan (Yvelines) : Pix'n Love éditions, 2020 (ISBN 978-2-37188-029-0) (OCLC 1187181039) 
  8. Olivier Servais, Dans la peau des gamers: anthropologie d'une guilde de World of Warcraft, Éditions Karthala, 2021, 326 p. (ISBN 978-2-8111-2630-8) (OCLC 1263212480) 
  9. Alexis Blanchet, Des pixels à Hollywood: cinéma et jeu vidéo, une histoire économique et culturelle, Pix'n love, 2010 (ISBN 978-2-918272-11-3) (OCLC 898295338) 
  10. Jean-Patrice Ake, Une lecture africaine des trois métamorphoses de l’esprit de Nietzsche, Harmattan, 2014 (ISBN 978-2-343-03941-1), p. 14 
  11. Philippe Breton, L'utopie de la communication, Paris, La Découverte, 2020 (ISBN 978-2-348-06559-0) (OCLC 1191840220) 
  12. Nicolas Arpagian, La Cyberguerre: la guerre numérique a commencé, Vuibert, 2009 (ISBN 978-2-7117-6893-6) (OCLC 778345664) 
  13. Boris Beaude, « Les virtualités de la synchronisation », Géo-Regards, no  7, 2014, p. 121–141 [texte intégral]
  14. Christian Vandendorpe, « Le phénomène Wikipédia: une utopie en marche », Le Débat, Gallimard, vol. 148, no  1, 2008, p. 17 (ISSN 0246-2346)
  15. Théo Henri, Wikipédia : une utopie réalisée ?, Université de Poitier, juillet 2013, 98 p. [lire en ligne] 
  16. Richard M Stallman et Sam Williams, Richard Stallman et la révolution du logiciel libre - Une biographie autorisée, Eyrolles, 2013 (OCLC 708380925) [lire en ligne] 
  17. 17,0 et 17,1 Roberto Di Cosmo et Dominique Nora, Le hold-up planétaire: la face cachée de Microsoft, France Loisirs, 1998 (ISBN 9782744121760) [lire en ligne], p. 15 & 27 (par ordre de citation) 
  18. Linus Torvalds, David Diamond et Olivier Engler, Il était une fois Linux, Osman Eyrolles Multimédia, 2001 (ISBN 978-2-7464-0321-5) (OCLC 48059105) 
  19. Linus Torvalds et David Diamond, Just for fun: the story of an accidental revolutionary, HarperBusiness, 2002 (ISBN 978-0-06-662073-2) (OCLC 1049937833) 
  20. Christophe Lazaro, La liberte logicielle, Academia Bruylant, coll. « Anthropologie Prospective », 2012, 56 p. (ISBN 978-2-87209-861-3) (OCLC 1104281978) 
  21. Eric Steven Raymond, Cathedral and the bazaar, SnowBall Publishing, 2010 (ISBN 978-1-60796-228-1) (OCLC 833142152) 
  22. Steven Levy et Gilles Tordjman, L'éthique des hackers, Globe, 2013 (ISBN 978-2-211-20410-1) (OCLC 844898302) 
  23. 23,0 et 23,1 Djilali Benamrane, Biens publics à l'échelle mondiale et Coopération solidarité développement aux PTT, Les télécommunications, entre bien public et marchandise, Une histoire d'Internet, ECLM (Charles Leopold Mayer), 2005 (ISBN 978-2-84377-111-8) (OCLC 833154536), p. 73 & 63 (par ordre de citation) 
  24. 24,0 et 24,1 Alexandre Serres, Christian Le Moënne et Jean-Max Noyer, « Aux sources d'internet: l'émergence d'Arpanet : exploration du processus d'émergence d'une infrastructure informationnelle : description des trajectoires des acteurs et actants, des filières et des réseaux constitutifs de la naissance d'Arpanet : problèmes critiques et épistémologiques posés par l'histoire des innovations », Thèse de doctorat, Université Rennes 2, 2000, p. 481 & 488 (par ordre de citation) [texte intégral]
  25. Stephen Denneti, ARPANET Information Brochure, Defense Communications Agency, 1978, 46 p. (OCLC 476024876) [lire en ligne], p. 4 
  26. Solange Ghernaouti-Hélie et Arnaud Dufour, Internet, Presses universitaires de France, 2012 (ISBN 978-2-13-058548-0) (OCLC 795497443) 
  27. Theodore Roszak et Claude Elsen, Vers une contre-culture. Réflexions sur la société technocratique et l'opposition de la jeunesse, Paris, Stock, 1970, 318 p. (ISBN 978-2-234-01282-0) (OCLC 36236326), p. 266-267 
  28. Fred Turner, Aux sources de l'utopie numérique : de la contre-culture à la cyberculture : Stewart Brand, un homme d'influence, C & F, 2013 (ISBN 978-2-915825-10-7) (OCLC 891585534) 
  29. Andrew L. Russell, « 'Rough Consensus and Running Code' and the Internet-OSI Standards War », IEEE Annals Hist. Comput. IEEE Annals of the History of Computing, vol. 28, no  3, 2006, p. 48–61 (ISSN 1058-6180)
  30. Quentin Jardon, Alexandria: les pionniers oubliés du web : récit, Paris, Gallimard, 2019 (ISBN 978-2-07-285287-9) (OCLC 1107518440), p. 154 
  31. James Gillies et Robert Cailliau, How the web was born: the story of the world wide web, Oxford University Press, 2007, 283 p. (ISBN 978-0-19-286207-5) (OCLC 603986579) 
  32. 32,0 et 32,1 Sam Williams, Richard M Stallman et Christophe Masutti, Richard Stallman et la révolution du logiciel libre : une biographie autorisée, Livio éditions, 2020 (ISBN 978-2-35455-034-9) (OCLC 1163855816), p. 180 
  33. Andrew M St. Laurent, Understanding open source & free software licensing [guide to navigating licensing issues in existing & new software, Sebastopol, Ca : O'Reilly Media Inc., 2004 (ISBN 978-0-596-00581-8) (OCLC 314704943) 
  34. Lawrence Lessig, Code, Basic Books, 2008 (ISBN 978-0-7867-2196-2) (OCLC 792688532) 
  35. Rana Foroohar, Rachel Fulginiti et Inc Books on Tape, Don't be evil: how big tech betrayed its founding principles--and all of us, Books on Tape, 2019 (ISBN 978-0-593-14979-9) (OCLC 1124988649) 
  36. Alex Wright, Cataloging the world : Paul Otlet and the birth of the information age, Oxford University Press, 2014 (ISBN 978-0-19-993141-5) (OCLC 861478071) 
  37. Paul Otlet, Traité de documentation : Le Livre sur le livre, théorie et pratique, Bruxelles, Editions Mundaneum, 1934, 431 p., p. 428 .
  38. Françoise Levie, L' homme qui voulait classer le monde: Paul Otlet et le Mundaneum, Impressions Nouvelles, 2008 (ISBN 978-2-87449-022-4) (OCLC 699650184) 
  39. Ned Kock, Yusun Jung et Thant Syn, Wikipedia and e-Collaboration Research: Opportunities and Challenges, vol. 12, IGI Global, 2016 (ISSN 1548-3681) [lire en ligne], p. 1–8 
  40. Jonathan Zittrain, The Future of the Internet--And How to Stop It, Yale University Press, 2008 (ISBN 9780300145342) [lire en ligne], p. 140 
  41. Joseph Michael Reagle, Good Faith Collaboration: The Culture of Wikipedia, MIT Press, 2010 (ISBN 9780262014472) [lire en ligne], p. 54 
  42. Andrew Lih, The Wikipedia revolution: how a bunch of nobodies created the world's greatest encyclopedia, Aurum, 2010 (ISBN 978-1-84513-516-4) (OCLC 717360697), p. 35 
  43. Ralf Dahrendorf, Classes et conflits de classes dans la societe industrielle., Mouton, 1972 (OCLC 299690912) 
  44. Pierre Desmarez, Sociologie générale (syllabus), Bruxelles, Presses universitaires de Bruxelles, 2006, 10e éd., 194 p., p. 34 .
  45. Divers auteurs, L'Éthique Hacker, U.C.H Pour la Liberté, Version 9.3, 56 p. [lire en ligne], p. 11 
  46. David Murray, Cédric Biagini, Pierre Thiesset et Cyberlibris ScholarVox International, Aux origines de la décroissance: cinquante penseurs, 2017 (ISBN 978-2-89719-329-4, 978-2-89719-330-0 et 978-2-89719-331-7) (OCLC 1248948596) 
  47. André Gorz, Ecologie et politique: nouv ed et remaniee., Éditions du Seuil, 1978 (ISBN 978-2-02-004771-5) (OCLC 796186896) 
  48. Philippe Escande et Sandrine Cassini, Bienvenue dans le capitalisme 3.0, Albin Michel, 2015 (ISBN 978-2-226-31914-2) (OCLC 954080043) 
  49. Shoshana Zuboff, L'âge du capitalisme de surveillance, Zulma, 2020 (ISBN 978-2-84304-926-2) (OCLC 1199962619) 
  50. Christophe Masutti et Francesca Musiani, Affaires privées : aux sources du capitalisme de surveillance, Caen : C&F éditions, coll. « Société numérique », 2020 (ISBN 978-2-37662-004-4) (OCLC 1159990604) 
  51. Rémy Rieffel, Révolution numérique, révolution culturelle ?, Folio, 2014 (ISBN 978-2-07-045172-2) (OCLC 953333541), p. 20 
  52. Ayn Rand, Nathaniel Branden, Alan Greenspan et Robert Hessen, Capitalism: the unknown ideal, 2013 (ISBN 978-0-451-14795-0) (OCLC 1052843511) 
  53. Ayn Rand, La vertu d'égoïsme, Les Belles lettres, 2011 (ISBN 978-2-251-39046-8) (OCLC 937494401) 
  54. Antonio Gramsci, Textes, Editions Sociales, 1983 (ISBN 978-2-209-05518-0) (OCLC 12842792), p. 210 

[M]édiagraphieModifier

  1. Lionel Scheepmans, « Nouvelles formes de management dans la création de produits numériques », sur Wikiversité,
  2. Lionel Scheepmans, « Culture fr Wikipédia, ethnographie du projet Wikipédia en français », sur Wikiversité,
  3. Rédaction Culture, « Qu'est-ce que le "Métaverse", l'univers parallèle qui fait rêver les géants du numérique ? », sur France Info,
  4. Hassan Meddah, « Pourquoi la France se dote d'une cyber-armée », sur L'Usine Nouvelle,
  5. Richard Stallman, « Système d'exploitation GNU – Annonce initiale », sur GNU,
  6. Karl Pradène, « Qu'est-ce que le logiciel libre ? », sur GNU,
  7. Brandon Griggs, « The Commodore 64, that '80 s computer icon, lives again », sur CNN,
  8. Shanhong Liu, « Desktop OS market share 2020 », sur Statista,
  9. Ridha Loukil, « Les géants d'internet déterminés à briser le monopole d'Intel dans les serveurs », sur Usine Digitale,
  10. Agence Reuters, « Intel verse 1,25 milliard de dollar à AMD contre l'abandon des poursuites », sur Le Monde,
  11. Eric S. Raymond (trad. Sébastien Blondeel), « La cathédrale et le bazar », sur Linux France,
  12. Frédéric Joignot, « Wikipédia, bazar libertaire », sur Le Monde,
  13. Étienne Combier, « Les leçons de l’Internet Society pour sauver la Toile », sur Les Echos,
  14. Michel Elie, « Quarante ans après : mais qui donc créa l'internet ? », sur Vecam,
  15. Guillaume de Lamérie, « Aux sources de l’utopie numérique, de la contre-culture à la cyberculture », sur Association française pour l’Information Scientifique,
  16. Gilles Dubuc, « Joining the World Wide Web Consortium », sur Wikimedia Foundation News,
  17. Revoltenum, « Pourquoi vous ne devriez pas utiliser Google Chrome », sur Révolte Numérique,
  18. Le Monde, « La bataille des navigateurs Web », sur Le Monde,
  19. La rédaction, « Affaire Microsoft: plus de dix ans de procédures aux États-Unis et en Europe », sur ZDNet,
  20. Arnaud Devillard, « Le navigateur Netscape tire sa révérence », sur 01net,
  21. Richard Stallman, « Le projet GNU », sur GNU,
  22. Richard Stallman, « Pourquoi l'« open source » passe à coté du problème que soulève le logiciel libre », sur GNU,
  23. Steven J. Vaughan-Nichols, « L’Open Source a 20 ans : comment cette philosophie a-t-elle révolutionné la programmation ? », sur ZDNet,
  24. Lawrence Lessig, « Code Is Law - On Liberty in Cyberspace », sur Harvard Magazine,
  25. Lawrence Lessig (trad. Alexis Kauffmann), « Code is Law – Traduction française du célèbre article de Lawrence Lessig », sur Framablog,
  26. Brion Vibber, « MediaWiki's big code & usability code & usability push », sur Leuksman,
  27. David Strine, « MediaWiki is the software that underpins Wikipedia. This conference shows all the other ways it can be used », sur Wikimedia Foundation News,
  28. David Amsden, « The Brilliant Life and Tragic Death of Aaron Swarz », sur Penske Media Corporation,
  29. Richard Stallman, « The Free Universal Encyclopedia and Learning Resource (1998 draft) », sur GNU,
  30. Richard Stallman, « The Free Universal Encyclopedia and Learning Resource », sur GNU,
  31. Larry Sanger, « Let's make a wiki », sur Nupedia-l,
  32. Geere Duncan, « Timeline:Wikipedia's history and milestones », sur Wired UK,
  33. Jimmy Wales, « Re: [Bug-gnupedia] gnupedia.org resolves to nupedia », sur GNU Mailing Lists,
  34. 34,0 et 34,1 Marshall Poe, « The Hive », sur The Atlantic,
  35. Timothy, « The Early History of Nupedia and Wikipedia : A Memoir », sur Slashdot,
  36. Jason Richey, « new language wikis », sur Wikipedia-l,
  37. C. Scott Ananian, « One Worl, One Wiki! », sur Wikimedia commons,
  38. Giles Turnbull, « The DIY travel guide », sur BBC News,
  39. Jake Coyle, « On the Net: Web Sites to Travel By », sur Fox News,
  40. Steven Musil, « Wikimedia, Internet Brands settle Wikivoyage lawsuits », sur CNET,
  41. Thomas Douillard, « Abstract Wikipédia - LinuxFr.org », sur Linux Fr,
  42. Terry Collins, « Wikipedia co-founder launches project to fight fake news », sur CNET, .
  43. Sheldon Rampton, « WikiEN-l Re:Current events », sur Wikimedia-l, .
  44. Jimmy Wales, « Announcing Wikimedia Foundation », sur Foundation-l,
  45. Florence Devouard, « Candidacy to the board of WMF », sur Foundation-l,
  46. Medieninsider, « Christian Humborg wird Vorstandschef von Wikimedia Deutschland », sur Medieninsider,
  47. Gavin Clarke, « Stallman's GNU at 30: The hippie OS that foresaw the rise of Apple - and is now trying to take it on », sur Theregister,
  48. André Gorz, « Le travail dans la sortie du capitalisme », sur Revue Critique d'Écologie Politique,
  49. Liat Clark, « Tim Berners-Lee : we need to re-decentralise the web », sur Wired UK,
  50. Elsa Trujillo, « Tim Berners-Lee, inventeur du Web, appelle à la régulation de Facebook, Google et Twitter », sur Le figaro,
  51. Tristan Gaudiaut, « Infographie: L'essor de l'Internet des objets », sur Statista Infographies,
  52. Christine Siméone, « Censurée en Turquie et en Chine, remise en cause en Russie, ces pays qui en veulent à Wikipédia », sur France Inter,
  53. Stéphane Moccozet, « Une station hertzienne militaire du Puy-de-Dôme au cœur d'un désaccord entre Wikipédia et la DCRI », sur France 3 Auvergne-Rhône-Alpes,
  54. Nicolas Truong, « L’hégémonie culturelle, mère de toutes les batailles politiques », sur sur Le Monde,

[V]idéographieModifier

[S]itographieModifier

  1. Framasoft, « Changer le monde, un octet à la fois »
  2. Globometer, « Le nombre d’ORDINATEURS dans le Monde »
  3. Wikipedia, « Category:Virtual reality communities »
  4. Meta-Wiki, « Wikimedia servers/fr »
  5. W3schools, « OS Statistics »
  6. Meta-Wiki, « Wikimedia servers »
  7. Wikipédia, « Wikipédia: Interprétation créative des règles »
  8. Meta-Wiki, « Vision »
  9. W3C, « Tim Berners-Lee: WorldWideWeb, the first Web client »
  10. W3C, « La mission du W3C »
  11. 3Wschools, « Browser Statistics »
  12. StatCounter, « StatCounter Global Stats - Browser, OS, Search Engine including Mobile Usage Share »
  13. Wikipédia, « Évolution de l'usage des navigateurs web »
  14. Creative Commons, « Foire Aux Questions - À propos de CC »
  15. Creative commons, « Foire aux questions »
  16. MediaWiki, « Main page »
  17. Wiki.c2, « Top Ten Wiki Engines »
  18. Meta-Wiki, « Vision »
  19. Alexa, « Wikipedia.org Competitive Analysis, Marketing Mix and Traffic »
  20. Wikipédia, « Principes fondateurs »
  21. Wikipedia, « Information for "Wikipedia: Neutral point of view" »
  22. Meta-Wiki, « Revision history of "Terms of use" »
  23. Wikipédia, « Wikipédia:Règles et recommandations »
  24. GNE, « Home »
  25. GNU, « Le projet d'encyclopédie libre »
  26. Meta-Wiki, « My resignation »
  27. Meta-Wiki, « Wikimedia News »
  28. Wikimania 2012, « Submissions/11 years of Wikipedia, or the Wikimedia history crash course you can edit - »
  29. Wiktionnaire, « Wiktionnaire:Historique du Wiktionnaire »
  30. Wiktionnaire, « Wiktionnaire:Historique du Wiktionnaire/Discussion Wikipédia:Wiktionary »
  31. Wikilivres, « acceuil »
  32. Meta-Wiki, « Wikijunior/proposal to Beck Foundation »
  33. Wikilivres, « Wikijunior »
  34. Meta-Wiki, « Talk:Wikiversity/Old »
  35. Wikibooks, « Wikiversity »
  36. 36,0 et 36,1 Wikibooks, « Wikibooks:Requests for deletion/Wikiversity »
  37. Meta-Wiki, « Wikiversity »
  38. Meta-Wiki, « Wikiversity/Vote/fr »
  39. Wikimedia Foundation Wiki, « Meetings/November 13, 2005 »
  40. Meta-Wiki, « Wikiversity/Modified project proposal »
  41. Meta-Wiki, « Difference between revisions of "Special projects committee/Resolutions" - Meta »
  42. Wikiversité, « Wikiversité »
  43. Wikisource, « Wikisource »
  44. Wikimédia Incubator, « Welcome to Wikimedia Incubator! »
  45. Meta-Wiki, « Proposals for closing projects/Closure of Beta Wikiversity »
  46. Meta-Wiki, « Proposals for closing projects/Move Beta Wikiversity to Incubator »
  47. Meta-Wiki, « Proposals for closing projects/Move Beta Wikiversity to Incubator 2 »
  48. Meta-Wiki, « Requests for comment/Travel Guide »
  49. Open Publishing Awards, « Results »
  50. Wikimedia Foundation Wiki, « Minutes/2020-02 »
  51. Meta-Wiki, « Proposals for new projects »
  52. Meta-Wiki, « WikiLang »
  53. Wikimedia Foundation Wiki, « Resolution:Abstract Wikipedia »
  54. Meta-Wiki, « Proposals for closing projects »
  55. 55,0 et 55,1 Division of Corporations - State of Florida, « Wikimedia Foundation, INC. »
  56. WikiIndex, « the index of all wiki ».
  57. WikiHow, « wikiHow:Powered and Inspired by MediaWiki »
  58. Wiktionnaire, « wiki ».
  59. Meta-Wiki, « Talk:Www.wikimedia.org template/2008 ».
  60. Wikimedia foundation Wiki, « Resolution:Recognition of Wikimedia Belgium »
  61. Moniteur Belge, « Wikimedia Belgium vzw »
  62. Wikimédia Belgique, « Wikimédia Belgique »
  63. Wikimédia Belgique, « General Assembly 2021 »
  64. Wikimedia Foundation Wiki, « Resolution chapters committee »
  65. Meta-Wiki, « Template:Wikimedia movement affiliates/Requirements comparison »
  66. Alexa, « Top sites »


En raison de limitations techniques, la typographie souhaitable du titre, «  », n'a pu être restituée correctement ci-dessus.