OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Le déclin de Wikipedia ? http://owni.fr/2010/03/23/le-declin-de-wikipedia/ http://owni.fr/2010/03/23/le-declin-de-wikipedia/#comments Tue, 23 Mar 2010 17:15:37 +0000 J-S. Beuscart http://owni.fr/?p=10701 Les frenchies du South By SouthWest continuent leur exploration des arcanes du festival texan. Cet article s’interroge sur la pérennité du modèle de Wikipedia et analyse les raisons du déclin du nombre des contributeurs de l’encyclopédie en ligne.

1453862379_730a41d8691

Titre original : Wikipedia peut-il survivre au déclin du nombre de ses contributeurs

Wikipedia est l’exemple paradigmatique de l’efficacité de la coopération décentralisée, ou de la « sagesse des foules ». Sa dynamique collaborative a produit en quelques années une encyclopédie très complète, à la fois riche et pertinente. Andrew Lih, professeur de journalisme à Berkeley et auteur de The Wikipedia Revolution, explique qu’il avait l’habitude de commencer ses conférences sur le sujet en créant une erreur volontaire sur une page ; à la fin de la conférence, l’erreur était corrigée – et la démonstration de l’efficacité du système était faite.

Mais depuis quelques temps, ce petit trick ne marche plus à tous les coups. Plus généralement, la communauté a constaté une diminution de la participation : le nombre de contributions est en baisse depuis fin 2007, et l’encyclopédie aurait perdu jusqu’à 50 000 éditeurs durant l’année 2009. Dans sa présentation, Andrew Lih s’est proposé d’expliquer ce déclin, et de deviner s’il menace réellement le futur de Wikipedia. Le propos était extrêmement riche et précis, on peut tenter de le résumer en deux grands arguments.

Tout d’abord, contribuer à Wikipedia est devenu de plus en plus compliqué, techniquement et socialement. Dans les premiers temps glorieux, il n’y avait que trois règles : NPOV (neutralité du point de vue), AGF (assume good faith), IAR (ignore all rules – just write).

Au fur et a mesure de la croissance, de nombreuses nouvelles règles sont venues organiser la coopération (Andrew Lih en identifie 4 générations), si bien que débattre lors de conflits d’édition est devenu aussi compliqué que construire un argumentaire juridique.

Parallèlement, la communauté est devenue moins ouverte : pour devenir administrateur, vous devez passer un certain nombre de questionnaires et de tests ; et les pratiques de deletionism (la suppression rapide d’articles jugés en dessous d’un certain standard) ont tendance à refroidir les bonnes volontés. Enfin, la complexité technique de l’édition s’est accrue, pour ressembler de plus en plus à du code, et de moins en moins à de l’écriture.

Andrew Lih a diffusé quelques films issus de recherches d’utilisabilité, montrant des utilisateurs ordinaires à qui on demande de faire une modification simple, et qui s’en avèrent incapables. La communauté Wikipedia est consciente de ce problème, et a essayé de simplifier la syntaxe, sans succès. Certains outils WISWYG, comme wikia, vont également dans ce sens.

2453225588_bd12f727121

D’un autre côté, ce déclin des contributions provient sans doute aussi du fait qu’il y a tout simplement moins de choses à écrire. Si l’on considère, un peu schématiquement, le savoir humain comme un stock qui croît régulièrement, on peut considérer les premiers temps du développement de Wikipédia comme un temps de rattrapage, qui nécessite un très grand nombre de contributions et de contributeurs. Une fois que le stock a été constitué, il est normal que le rythme se ralentisse, pour épouser le rythme de croissance du savoir humain.

En combinant ces deux explications, le chercheur a dessiné deux grands scénarios d’évolution de Wikipédia. Soit celui d’un déclin en qualité, ou d’une vulnérabilité plus grande au spam, du fait d’un nombre insuffisant de gardiens et de correcteurs ; soit celui de la constitution d’une élite de contributeurs-réviseurs, relativement fermée, qui se traduirait à la fois par une augmentation de la qualité et une diminution de la réactivité.
Wait and see…

> Article initialement publié sur French XSW

]]>
http://owni.fr/2010/03/23/le-declin-de-wikipedia/feed/ 3
Critiques du Web² (1/4) : Quelles données libère-t-on ? http://owni.fr/2009/09/16/critiques-du-web%c2%b2-14-quelles-donnees-libere-t-on/ http://owni.fr/2009/09/16/critiques-du-web%c2%b2-14-quelles-donnees-libere-t-on/#comments Wed, 16 Sep 2009 12:07:24 +0000 Hubert Guillaud http://owni.fr/?p=3718 Oui, les données valent de l’or. C’est aussi comme cela qu’on peut lire le Web à la puissance deux (Web²) de Tim O’Reilly et John Battelle. Mais si c’est effectivement le cas, si nous sommes tous assis sur un capital dont on mesure mal l’exploitation qui peut en être faite, pourquoi faudrait-il les libérer ? Que gagne-t-on à les partager ?

Boris Müller
Image : Illustration de Boris Müller pour le festival de littérature allemand de 2006 montrant les relations entre les lettres dans un poème, mis en avant par l’australien Andrew Vande Moere, l’auteur du cultissime blog infosthetics sur l’esthétisme de la visualisation de données, pour un article de PingMag sur la beauté de cette nouvelle discipline de représentation de l’information.

Un des présupposés de l’article d’O’Reilly et Battelle est que les données que produisent les dispositifs sociotechniques, depuis les bases de données commerciales jusqu’aux réseaux de capteurs, en passant par les logs de sites web et les documents publics, “s’ouvriront” pour permettre à toutes sortes d’acteurs de les exploiter de manières nouvelles : les agréger, les croiser, les analyser, en extraire d’autres significations ou d’autres décisions…

Or l’ouverture des données ne va pas de soi pour les organisations. Et ce ne sont pas seulement des questions de droits ou de vie privée (centrales), mais aussi des questions de conception (politique) et de valeur (économique) des données elles-mêmes. Si les données sont le capital immatériel de demain comme l’expliquent Tim O’Reilly et John Battelle, ou comme l’ont déjà dit Jean-Pierre Jouyet et Levy avant eux, il sera difficile de dire qu’il faut les libérer, c’est-à-dire les ouvrir, les rendre accessible facilement – voir gratuitement. Surtout si demain, leur agrégation, leur compilation, leur croisement appellent à créer de nouvelles données, de nouveaux services et de nouvelles valeurs.

Indéniablement, la question de leur ouverture deviendra à l’évidence un sujet conflictuel. “Libérer” une donnée, c’est la mettre en circulation et bien souvent, en perdre le contrôle, y compris économique. C’est aussi permettre à d’autres de créer à partir d’elle de nouveaux services, de nouvelles valeurs. En contrepartie de quoi ? Dans quelles conditions ? On peut bien sûr montrer que bien souvent, une donnée qui circule et que beaucoup de gens exploitent intelligemment produit plus de bien-être collectif qu’une donnée soigneusement enfermée dans son silo, mais la plupart des acteurs n’intègrent pas (encore ?) leur contribution au bien-être collectif dans leurs comptes…

Certes, on peut souhaiter qu’elles n’appartiennent plus seulement à ceux qui les produisent ou les collectent, puisqu’elles sont pour l’essentiel composées de nos identités et de nos activités. Mais n’est-ce pas un vain rêve ? Un miroir aux alouettes dont les reflets nous empêchent de regarder le problème plus en profondeur ?

Il y a au moins deux limites intrinsèques à la vision de Battelle et O’Reilly :

> Il n’existe pas de données brutes

Toute donnée est construite par le système qui la produit. Un capteur est installé à un endroit précis ; il mesure certains paramètres et pas d’autres, avec une certaine marge d’erreur, à une certaine fréquence. Un document est rédigé dans une langue donnée et avec un certain langage, administratif, scientifique, commercial, littéraire… Deux entreprises faisant le même métier collecteront des données différentes ; elles définiront des segments différents : par exemple, on pourra classer un âge dans les segments de 5 ans (15-20 ans, 20-25…) ou beaucoup plus larges (”jeune”, “actifs”, “vieux”…). Toutes les données auront du mal à discuter entre elles, quels que soient les progrès de la science des algorithmes ou de la sémantique

> On ne libère jamais tout

Quelles sont-elles ces données qu’on appelle à libérer ? Desquelles parle-t-on ? Desquelles ne parle-t-on pas ? Amazon par exemple libère certaines données via ses interfaces de programmation (API), oui. Celles qui permettent à d’autres services de construire des services depuis ses données à son propre profit… Amazon ne libère pas les données de ses clients. N’importe qui n’a pas accès aux livres que vos Kindle ont achetés. Nous n’avons pas non plus accès aux chiffres de ventes des produits que propose le commerçant. Pas plus que nous n’avons accès aux données de visites (les logs) de son site marchand. Où sont les données des plaintes ou des demandes de retrait de titres qu’il reçoit et qui justifient certains de ses reclassements de titres par exemple ?

S’il y a de plus en plus de lois et/ou de décisions politiques pour libérer les données publiques – et encore, les exemples britanniques et américains demeurent pour l’instant isolés -, les entreprises, elles, n’ont pas cette contrainte et ne libèreront que ce qui leur semble soit non stratégique, soit plus probablement utile à l’émergence d’écosystèmes de services qui leur profiteront en dernier ressort.

La libération des données qu’appellent O’Reilly et Battelle ressemble certes à un horizon, une nouvelle frontière, mais elle n’a rien de magique en soi. Le plus dur assurément sera de créer les conditions de la libération des données pour ne pas que ces promesses ne se transforment en un vaste Data-entertainment, un “grand spectacle des données”, une industrie du divertissement autour des données, comme le propose Facebook.

> Article initialement publié sur Internetactu, sur lequel vous pouvez retrouver la suite de cette critique du Web²

]]>
http://owni.fr/2009/09/16/critiques-du-web%c2%b2-14-quelles-donnees-libere-t-on/feed/ 1