OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Internet par la racine http://owni.fr/2012/07/05/internet-par-la-racine/ http://owni.fr/2012/07/05/internet-par-la-racine/#comments Thu, 05 Jul 2012 14:33:30 +0000 Andréa Fradin http://owni.fr/?p=115344 Au commencement, il y avait la “racine”. Quiconque tente de percer à jour le fonctionnement d’Internet se retrouve nez-à-nez avec ce drôle de précepte. Sans bien en cerner le sens. Ainsi, votre serviteur, qui face à des articles titrant sur “la racine d’Internet divise les autorités américaines”, “la Chine veut sa propre racine Internet”, est restée circonspecte : c’est quoi ce bulbe magique générateur de réseau ? Et pourquoi tout le monde s’agite pour le contrôler ? Jardinage réticulaire avec quelques experts du Net.

Dommage, la racine n'est pas un gros modem caché sous la Silicon Valley (South Park, "Over Logging", saison 12 épisode 6)

Le bulbe magique

Premier apprentissage : la racine du net n’est pas un oignon. Ni un modem géant caché au fin fond de la Silicon Valley par le gouvernement américain. Cruelle désillusion pour tous les fans de South Park, la réalité est autrement plus prosaïque : la racine est avant tout un fichier. L’un des pères d’Internet en France, Louis Pouzin, nous explique :

C’est un fichier de données. On peut le voir sur écran ou l’imprimer.

Et de poursuivre : “c’est la table des matières des annuaires de TLD”.

C’est là que ça se corse : les TLD, ou “top level domains” (“domaines de premier niveau”) sont tous les “.quelquechose” : .com, .net, .info ou, pour les pays, en .fr, .uk, etc. On compte aujourd’hui plus de 300 extensions. Tous les sites Internet sont regroupés dans un annuaire qui porte le nom de leur extension : “par exemple, l’annuaire .com explique Louis Pouzin. Il existe donc autant d’annuaires que de TLD.”

Et la racine dans tout ça ? Elle a en mémoire la liste de tous les TLD et s’occupe de pointer vers les différents annuaires. “C’est un système d’aiguillage”, ajoute Stéphane Bortzmeyer, ingénieur à l’Afnic, l’organisme qui gère notamment le .fr. “Quand on lui demande un accès au site owni.fr, elle renvoie à l’Afnic qui gère le .fr” Et ainsi de suite pour les sites du monde entier : la racine est la conseillère d’orientation du Net.

La racine est morte, vive Internet !

Évidemment, le fichier seul ne peut pas s’exécuter comme ça, à l’aide de ses petits bras. Parler de racine, c’est aussi parler de “serveurs racine”. Des machines disséminées dans le monde entier et sur lesquelles est copié le fameux bottin de l’Internet. On parle souvent de 13 serveurs racine, mais la réalité est plus complexe. Selon Stéphane Borztmeyer : “il y a une centaine de sites physiques qui gèrent les serveurs racine.”

Concrètement, ces serveurs ne ressemblent pas à des bunkers ultra-sécurisés. A la manière de datacenters classiques, “il s’agit simplement de matériel encastré dans des racks [NDLA : sorte de casiers à matériel informatique]“, poursuit l’ingénieur de l’Afnic. La sécurité physique n’est pas le problème.” Le souci est plus au niveau logiciel. Et encore : si la racine venait à disparaître de la surface de la Terre, aucun cataclysme dévastateur n’en résulterait. Ni coupure nette, ni blackout, ni tsunami vengeur, rien, tout juste quelques défaillances !

“Il y aurait une perte de fonctionnalité, mais ce ne serait ni soudain, ni total ni catastrophique”, explique l’universitaire américain Milton Mueller, l’un des premiers à s’être intéressé à la racine et ses implications géopolitiques, dans son livre Ruling the root. “Le réseau se dégraderait petit à petit mais on peut y survivre” confirme Stéphane Bortzmeyer. Un anti-scénario catastrophe rendu possible par certains serveurs, les “serveurs de nom”, et leur capacité à retenir les indications données par la racine, explique Louis Pouzin :

Il existe des milliers de copies de la racine stockées dans des serveurs de noms et des ordinateurs d’utilisateurs. L’Internet pourrait continuer à fonctionner au moins une semaine, ce qui donne le temps de s’organiser pour réparer l’incident.

Ces serveurs de noms, que l’on retrouve par exemple chez les fournisseurs d’accès à Internet (Orange, Free et compagnie), ne demandent que rarement leur route aux serveurs de la racine. Le plus souvent, ils ne les contactent qu’au moment de leur mise en service : Internet n’est alors pour eux qu’un énorme brouillard de guerre. Impossible dans ces conditions de savoir à quoi renvoie owni.fr ou hippohippo.ytmnd.com. Le reste du temps, ils se souviennent au moins temporairement (en cache) des indications de la racine. Certains FAI ont même opté pour une solution plus définitive : ils copient le fichier racine dans leurs serveurs, afin d’éviter de passer par la racine, raconte encore Milton Mueller.

La racine, c’est l’Amérique

Ceci dit, ils ne contournent pas complètement la racine, puisqu’ils se contentent de copier son fichier, qui peut connaître des modifications au fil du temps. Pour rester à la page, et continuer d’orienter les internautes, des mises à jour seront alors nécessaires et le problème restera le même : in fine, il faudra s’en retourner vers la racine.

Un système hyper-concentré qui ne correspond pas tout à fait à l’image d’Épinal d’un Internet rhizomatique, parfaitement décentralisé, sans queue ni tête. Et qui peut poser problème : car derrière la racine, il y a des hommes. Et oui, malheureusement pour nous -ou heureusement, c’est selon-, la racine n’est pas une intelligence autonome venue d’un autre monde, des petits serveurs dans ses bagages, pour nous offrir Internet. La racine, c’est l’Amérique. Et selon Stéphane Bortzmeyer :

aucune modification du fichier racine ne se fait sans signature d’un fonctionnaire aux États-Unis.

Deux institutions, l’Icann et Verisign, s’occupent de la mise à jour de cette liste. “L’Icann accepte ou refuse l’enregistrement des TLD, et transmet sa décision au Département du Commerce (DOC). Verisign effectue l’enregistrement ou la radiation des TLD dans la racine sur ordre du DOC, et parfois du FBI”, détaille Louis Pouzin. La machine est 100% made in USA.

Même si son rouage le plus connu, l’Icann, est présenté comme une organisation indépendante, une “communauté” constituée de FAI, “d’intérêts commerciaux et à but non lucratif” ou bien encore de “représentants de plus de 100 gouvernements”. Il n’empêche : si l’Icann gère la racine, c’est uniquement parce que les États-Unis le lui permettent. “C’est une relation triangulaire, explique Milton Mueller à OWNI. L’Icann comme Verisign sont contrôlés par le biais de contrats les liant au Département du Commerce américain.” L’Icann vient d’ailleurs de renouveler l’accord qui la lie à l’administration américaine, obtenant ainsi le droit de poursuivre l’intendance de la racine pour les cinq à sept prochaines années.

One root to rule them all

Internet après la fin de Megaupload

Internet après la fin de Megaupload

La coupure de Megaupload a provoqué un torrent de réactions. Le problème n'est pas la disparition du site en lui-même. Il ...

Potentielle arme de destruction massive, la racine est le nouveau gros bouton rouge qui fait peur, sauf que seuls les Etats-Unis peuvent en disposer. S’ils décident de faire joujou avec, ils peuvent par exemple supprimer une extension. Hop ! Disparu le .com et tant pis pour les Google, Facebook et autres machines à cash. Plus probable, ils peuvent aussi faire sauter un nom de domaine : c’est ce qui s’est passé en janvier dernier, avec le site Megaupload, qui a été rayé de la carte Internet.

Ils peuvent aussi bloquer l’arrivée d’un nouveau .quelquechose ou au contraire, élargir la liste. C’est d’ailleurs l’opération dans laquelle s’est lancée l’Icann, qui planifie l’arrivée des .lol, .meme, .viking -et un autre gros millier de réjouissances-, dans le fichier racine. Le tout contre quelque monnaie sonnante et trébuchante : 185 000 dollars la demande d’une nouvelle extension, 25 000 par an pour la conserver. Car aujourd’hui pour les marques sur Internet, c’est un peu be dot or be square.

“Fort heureusement, jusqu’à présent, les États-Unis n’ont pas eu de gestion scandaleuse de la racine”, modère Stéphane Bortzmeyer, avant de concéder :

Sur Internet, c’est un peu l’équilibre de la terreur.

Un pouvoir constitué de fait, au fil de la création du réseau. Et qui, forcément, ne laisse pas indifférents les petits camarades. Avec en premier chef, la Chine. L’empire du milieu menace souvent les États-Unis de construire sa propre racine. Encore récemment, avec la publication d’un draft auprès de l’IETF (Internet Engineering Task Force, l’organisme en charge des standards Internet), qui a fait grand bruit dans les médias. Sur son blog, Stéphane Bortzmeyer tempère : ces drafts “peuvent être écrits par n’importe qui et sont publiés quasi-automatiquement”. Avant d’ajouter par téléphone :

Les Chinois menacent, mais rien n’est encore fait.

“Les réseaux chinois sont connectés à Internet. La seule différence avec d’autres pays, c’est que le système de filtrage est beaucoup plus violent.”

Pour l’ingénieur réseau de toute façon, il est quasiment impossible de bâtir une racine alternative. Pas d’un point de vue technique : “nombreux sont les étudiants qui l’ont fait pour impressionner leurs petits copains !” Le problème est plus au niveau pratique :

Il y a une forte motivation à garder la même racine. Sans cela, owni.fr pourrait donner un résultat différent selon la racine employée !

Pas hyper commode pour un réseau à prétention internationale. C’est ce qui explique l’inertie qui entoure l’Icann, Verisign et la racine originelle : si tout le monde veut contrôler la racine, personne n’a intérêt à faire bande à part. Ou dispose de moyens et d’influence suffisamment conséquents pour provoquer une migration d’une racine vers une autre. “Le problème, c’est le suivi : faire en sorte que les gens basculent en masse vers l’autre racine, en reconfigurant tous les serveurs de nom, explique encore Stéphane Bortzmeyer. Il faut une grande autorité morale, proposer mieux en termes de gouvernance, de technique…” Bref :

Pour avoir une nouvelle racine, il faut prouver qu’on est meilleur que les États-Unis.

Un peu comme sur les réseaux sociaux, où il faut démontrer que l’on vaut mieux que Facebook, afin de briser son effet d’entraînement colossal.

Racine contre rhizome

Les nouvelles root de l’Internet

Les nouvelles root de l’Internet

Le 12 janvier, l’organisme californien en charge de la gestion des noms de domaine de l’Internet a ouvert les extensions ...

Pour l’expert de l’Afnic, seul un comportement inacceptable des États-Unis serait susceptible de faire bouger les lignes. D’autres en revanche, refusent de se plier au statu quo. Et estiment que la mainmise des États-Unis sur la racine suffit seule à proposer une alternative. C’est notamment le cas de Louis Pouzin, et de son projet “Open Root”. Pour ce pionnier du réseau, “la légende de la racine unique est un dogme assené par l’ICANN depuis 1998.” Et ceux qui la diffusent sont “les partisans d’une situation de monopole.” “Ils n’en n’imaginent pas l’extinction”, confie-t-il à OWNI.

D’autres vont encore plus loin, en imaginant une racine en peer-to-peer. Distribuée à plusieurs endroits du réseau. Fin 2010, l’emblématique fondateur de The Pirate Bay et de FlattR, Peter Sunde, a laissé entendre sur Twitter que ce projet l’intéressait. Depuis, et malgré un intérêt médiatique important, plus de nouvelles. Par mail, il nous explique avoir “confié les rênes” de ce projet à d’autres, par manque de temps. Mais ajoute croire encore en la nécessité d’une alternative :

Soit nous prenons le contrôle [de la racine], de manière distribuée et démocratique, soit nous la remplaçons dans un futur proche.

Et de poursuivre :

Il est ironique de croire en un Internet décentralisé quand ce TOUT ce que nous construisons repose au final sur un système placé entre les mains d’une organisation, qui dépend d’une juridiction, d’un pays qui a des intérêts particuliers dans la façon dont se comportent les autres pays.

L’ingénieur suédois rêve d’une alternative distribuée, “avec des caches locaux”. Utopie irréalisable selon Stéphane Bortzmeyer : “Le problème principal est celui de l’unicité”, justifie-t-il. En clair, un nom de domaine ne renvoie qu’à un contenu, stocké sur des machines identifiées par une adresse IP : en France, en Allemagne ou à Tombouctou, Owni.fr ne renvoie qu’à owni.fr. C’est ce qu’on appelle le système DNS (Domain Name System). Et c’est ce qu’assure la racine (qu’il est plus correct d’appeler “racine DNS” que “racine d’Internet”), grâce à un système de responsabilité en cascade : la racine détient la liste des .com, .fr et compagnie, elle les assigne à des sites (wikipedia.org, google.com), qui ensuite, gèrent comme ils l’entendent leur nom de domaine (en créant par exemple fr.wikipedia.org). Pas de pagaille, pas de doublon, et Internet sera bien gardé.

“Il y a eu quelques tentatives de faire un système en peer-to-peer, qui restent surtout au stade de la recherche fondamentale aujourd’hui“, poursuit le Français. “Mais toutes font sauter l’unicité ! Le mec qui trouve comment faire sans racine obtient tout de suite le Prix Nobel !”

Non sens pour Peter Sunde, pour qui “des projets de racine alternative existent et rencontrent parfois un certain succès.” Après, “tout dépend ce qu’on entend par succès”, précise-t-il. Mais en leur qualité de “terrains d’essai”, Peter Sunde leur apporte un plein soutien. Et Louis Pouzin de rappeler :

Un certain nombre de projets, ou concepts, ont déjà été commencés, sans réussir à percer. Au fait, quels pouvoirs ont intérêt à favoriser une racine entièrement décentralisée ?


Bonus : comprendre Internet, c’est aussi dessiner des petits serveurs avec des yeux et des bérets. J’ai fait un petit quelque chose, arrangé par Loguy (qu’il en soit remercié), pour savoir ce qu’il se passe avec la racine quand un internaute va sur owni.fr. C’est pour vous <3


Illustrations : motivational poster par FradiFrad via christopher.woo (CC FlickR)

]]>
http://owni.fr/2012/07/05/internet-par-la-racine/feed/ 14
Rapport de force sur les interouèbes http://owni.fr/2011/06/06/rapport-onu-g8-force-interouebes-internet/ http://owni.fr/2011/06/06/rapport-onu-g8-force-interouebes-internet/#comments Mon, 06 Jun 2011 18:01:43 +0000 Andréa Fradin et Guillaume Ledit http://owni.fr/?p=66510 Branle-bas de combat dans le réseau. Fini les placards, maintenant c’est sûr, Internet a pris une envergure internationale et les différents acteurs institutionnels avancent leurs pions pour faire face à ce nouvel enjeu. Après le G8, qui a mis les utilisateurs sur la touche et la défense de la propriété intellectuelle au centre des préoccupations, c’est au tour des Nations Unies de donner de la voix.

Dans une tonalité bien différente de celle employée par les gouvernants de ce monde.

Tous ceux qui veulent changer le monde

“Le Rapporteur Spécial considère que le fait de couper l’accès à Internet, quelle que soit la justification avancée, y compris pour des motifs de violation de droits de propriété intellectuelle, est disproportionné et donc contraire à l’article 19, paragraphe 3, du Pacte International relatif aux Droits Civiques et Politiques.”

Rapport sur la promotion et la protection de la liberté d’expression et d’opinion, page 21

Opposé à une coupure de la connexion Internet, préoccupé par la mise en oeuvre de technologies de blocage ou de filtrage “souvent en violation avec l’obligation faite aux États de garantir la liberté d’expression”: le document des Nations-Unies, rendu en fin de semaine dernière [PDF], pouvait difficilement être plus éloigné des positions prises par les gouvernants réunis à Deauville, les 26 et 27 mai derniers, à l’occasion du G8.

Les thématiques dominantes du rapport des Nations Unies

Les thématiques dominantes de la déclaration finale du G8

Dans une déclaration commune, les chefs d’État renouvelaient alors leur ”engagement à prendre des mesures fermes contre les violations des droits de propriété intellectuelle dans l’espace numérique, notamment par des procédures permettant d’empêcher les infractions actuelles et futures”. L’occasion de préparer le terrain à la signature du traité ACTA, en négociation depuis près de quatre ans, et qui vise à introduire des sanctions pénales pour les “pirates de tous les pays”.
Et mises à part les déclarations d’intention d’usage (”l’Internet est désormais un élément essentiel pour nos sociétés”, ” la censure ou les restrictions arbitraires ou générales sont incompatibles avec les obligations internationales des États et tout à fait inacceptables”), aucune mention n’a clairement hissé la protection de la liberté des internautes au-desssus d’impératifs économiques ou sécuritaires. Neutralité des réseaux, protection des données personnelles: sur ces points pourtant essentiels à la pérennité et au développement du réseau, seul a été évoqué ”le défi de promouvoir l’interopérabilité et la convergence entre [les] politiques publiques”. Du charabia diplomatique qui n’offre pas grand chose de solide. Ou de fiable.

L’ONU contre-attaque

En optant pour le contre-pied, pour ne pas dire le tâcle franc en direction des dirigeants du G8, les Nations-Unies ont marqué d’un même coup quelques points au sein de la communauté des défenseurs des libertés sur Internet. Du côté de la Quadrature du Net, on se réjouit de l’initiative, ne manquant pas au passage de relever les contradictions entre les grandes puissances et l’organisation internationale. Seul problème, de taille: si l’ONU peut gronder, elle peut difficilement passer de la parole aux actes. D’autant que l’organisation mondiale a chapeaute déjà l’Internet Governance Forum (IGF) . Sans renier la portée symbolique du rapport, non négligeable dans une sphère où la retenue diplomatique est de mise, difficile d’entrevoir son effectivité.

Il aura peut-être le mérite de faire sortir du bois les différents acteurs qui souhaitent jouer un rôle dans la sacro-sainte “gouvernance de l’Internet”. Les États bien sûr, mais également des institutions telle la Commission Européenne, dont les multiples virevoltes sur le sujet commencent à agacer. Soufflant le chaud et le froid, un jour explicitement en faveur de la neutralité sur tous les réseaux, l’autre permissive sur les dispositifs de blocage sur l’Internet mobile, la Commission n’a de cesse de faire le yoyo entre pressions opérateurs de télécommunication et intérêts des usagers. Il faut dire que la situation en Europe est loin d’être harmonisée (voir notre carte à ce sujet), le continent faisant le grand écart entre une France à la riposte graduée qui patine et des Pays-Bas qui viennent d’adopter une loi interdisant blocage et dégradation des applications sur l’Internet mobile… garantissant ainsi légalement la neutralité des réseaux.


Illustration CC FlickR: rickyli99

]]>
http://owni.fr/2011/06/06/rapport-onu-g8-force-interouebes-internet/feed/ 2
Bienvenue à l’e-G8, le Davos du web http://owni.fr/2011/05/23/eg8-davos-web-internet-sarkozy-publicis/ http://owni.fr/2011/05/23/eg8-davos-web-internet-sarkozy-publicis/#comments Mon, 23 May 2011 14:19:48 +0000 Andréa Fradin et Olivier Tesquet http://owni.fr/?p=64078

De la même manière que Cannes donne envie aux gens de faire des films, l’e-G8 doit être une vitrine du web.

Dans la bouche de Maurice Lévy, puissant patron du groupe de communication Publicis et président de ce pré-sommet consacré aux questions numériques, cette phrase résonne comme un slogan publicitaire à destination des jeunes entrepreneurs. Pendant deux jours, les 24 et 25 mai, le jardin des Tuileries va se transformer en FIAC de l’Internet, à l’initiative de Nicolas Sarkozy. En nous recevant dans son bureau des Champs-Elysées, le P-DG se veut rassurant: “Nous avons l’habitude de ce type de manifestations, nous organisons Davos”. Et c’est peut-être ce qui inquiète certains.

1000 invités, des pointures internationales (Mark Zuckerberg de Facebook, Eric Schmidt de Google, Jeff Bezos d’Amazon, le magnat des médias Rupert Murdoch), un grand chapiteau, des ateliers, des stands où les jeunes pousses du web pourront s’exposer: le parfait environnement pour réfléchir à “l’impact d’Internet sur l’économie”… Quitte à oublier le reste.

Car si l’item tarte à la crème ”Internet et la société” (avec la brochette Groupon, Orange, Facebook, le World Economic Forum et Wikipedia) est bien au programme de l’eG8, l’événement reste trusté par des problématiques au registre beaucoup plus industriel. Parmi les séances plénières, relevons:

  • “Internet et la croissance économique” (avec eBay, Vivendi, Google, Christine Lagarde)
  • “la propriété intellectuelle à l’heure du numérique” (avec Gallimard, Twentieth Century Fox, Universal et Frédéric Mitterrand) 
  • “encourager l’innovation” (Lessig, Financial Times, Free, Éric Besson)

Une discussion à l’attention des gros bonnets du web, qui encadrent également la manifestation: “le président a souhaité que l’e-G8 soit organisé en dehors des pouvoirs publics”, précise Maurice Lévy.

Dans les tuyaux depuis 2006

En tout, il devrait coûter aux alentours de trois millions d’euros, et Publicis se prépare déjà à un exercice “déficitaire”. Dans l’affaire, l’Élysée se contente de louer le jardin des Tuileries, ce qui veut donc dire que les grands acteurs du secteur sont poussés à la contribution.

Comme le révélait La Tribune dans son édition du 2 mai, les sponsors ont du débourser entre 100 000 et 500 000 euros pour être partenaires de l’événement et afficher un logo sur les affiches. Quand on lui demande s’il ne s’agit pas d’un achat de temps de parole, Maurice Lévy s’emporte:

Vous ne pouvez pas organiser une telle manifestation sans inviter certains acteurs. Si on n’avait pas convié Stéphane Richard, ça n’aurait pas été très sérieux.

Ce faisant, il reconnaît ainsi implicitement la présence d’Orange parmi les “co-chairmen”, aux côtés de Vivendi, eBay, Microsoft ou Capgemini.

Pour Lévy, l’e-G8 est un couronnement. Dès 2006, “au moment de la remise du rapport sur l’économie de l’immatériel”, il rêvait du Grand Palais pour “susciter la création”. Mais ses envies avaient dû être remisées au placard. Motif invoqué par Éric Besson et Nathalie Kosciusko-Morizet, tour à tour secrétaires d’État à l’économie numérique? Pas d’argent. Et c’est finalement Nicolas Sarkozy qui relance l’idée en mars 2011.

“Il voulait mettre à l’ordre du jour du G8 un certain nombre de points relatifs à Internet, et il m’a donc contacté”, se félicite Maurice Lévy. Et si ce dernier refuse de s’avancer davantage sur les priorités, il reconnaît quelques grandes lignes, pas si éloignées de “l’Internet civilisé” enterré en grande pompe il y a quelques semaines:

Il faut nourrir les huit chefs d’État. Le président a isolé certaines questions: les droits d’auteur, les infrastructures, la protection de l’enfance. Apporter des réponses à cela n’a rien d’anormal. Il faut se poser la question de ce qui forme ou non une démocratie.

“Ceux qui ne seront pas présents auront tort”

Ravi de la perspective qu’offrent ces deux jours, le publicitaire tient néanmoins à déminer le terrain, conscient des limites de l’exercice. “Sur Internet, si vous faites une connerie, vous vous faites reprendre 25 fois”, note-t-il dans un sourire. Encadré par deux collaborateurs versés dans le numérique, le boss de Publicis a visiblement identifié les points de friction potentiels:

Des gens qui ne représentent rien se feront entendre, et vice-versa. Nous avons invité quatre personnes de l’ICANN, le président de l’Electronic Frontier Foundation, Lawrence Lessig et d’autres universitaires d’Harvard ou Princeton. Ceux qui ne seront pas présents auront tort.

Parmi les absents, on peut signaler Cory Doctorow, l’un des plus célèbres activistes du web. Sur BoingBoing, il explique brièvement les raisons qui l’ont poussé à décliner l’invitation:

C’est une tentative de manipuler les gens qui s’intéressent à l’Internet, pour qu’ils prêtent de la crédibilité à des régimes qui sont en guerre avec le web ouvert et libre.

Pour Jérémie Zimmermann, porte-parole de la Quadrature du Net, il s’agit ni plus ni moins d’une “opération de blanchiment [des politiques publiques] qui masque ce que les gouvernements mettent en œuvre depuis un an”. En citant WikiLeaks, le COICA ou les directives européennes en matière de filtrage, il rappelle que l’ACTA, le fameux accord commercial anti-contrefaçon négocié en secret pendant deux ans, doit être soumis au vote lors d’un conseil des ministres de l’OCDE qui se tiendra… en même temps que le G8.

Au plan européen, de nombreuses initiatives citoyennes, dont la Quadrature du Net, Telecomix ou Network Cultures dénoncent de façon unanime la tenue de l’eG8, “sommet visant à œuvrer pour un Internet civilisé”, dont le sort ne dépendrait que d’une poignée de chefs d’État. Pour se faire entendre, ils ont déjà mis sur pied un contre-site: “G8 vs Internet”.

Abandon de la gouvernance?

Soucieux d’éviter le retour de bâton, Maurice Lévy tient à préciser que la qualité de l’e-G8 “dépendra de la qualité de ses interventions”. Celles-ci, poursuit le grand ordonnateur, pèseront chacune de la même façon dans les conclusions de l’événement, de “l’échange” (il ne faut surtout pas parler de keynote) mené entre Zuckerberg et la salle à l’avis d’un auditeur lambda. A l’en croire, cette synthèse, adressée aux dirigeants qui se réuniront dès le lendemain à Deauville pour le G8, devrait donc être équilibrée. Et dégagée du sceau du Palais: “Il n’y a pas l’ombre de l’Élysée sur les conclusions”, assure le patron de Publicis.

Pourtant, Nicolas Sarkozy et ses sherpas auraient orienté les débats depuis de longs mois. Selon des informations publiées par Frédéric Martel sur Marianne2.fr, le président de la République aurait fait barrage en 2010 à une conférence destinée à mettre en lumière l’action des cyberdissidents à travers le monde. “Vous m’avez fait part de votre intention de réunir une conférence internationale consacrée à la liberté d’expression sur Internet. Cette problématique doit être abordée de manière globale”, aurait-il fait savoir à Bernard Kouchner – encore ministre des Affaires étrangères par l’entremise de ses conseillers.

Aux yeux de Jérémie Zimmermann, le cadre du forum est biaisé, et il craint que les gouvernements n’abandonnent la gouvernance aux richissimes ténors du web, dont le poids est devenu tel qu’ils influent directement sur les décisions politiques:

L’e-G8 part du principe que les leaders d’Internet sont ceux qui ont de l’argent. Prenez les trois invités majeurs (Facebook, Google et Amazon, ndlr): deux d’entre eux font reposer leur modèle économique sur la collecte des données personnelles, et la dernière est passée maître dans l’art de déposer des brevets fantaisistes. Cette conférence ouvre la porte à des entreprises dont le business model est fondé sur la restriction.

Quand on lui oppose cet argument, Maurice Lévy tique. Il insiste:

Le débat ne sera intéressant que s’il est contradictoire.

Reste à savoir qui parlera le plus fort. Et dans l’arène, pas sûr que tous les participants jouent à armes égales.

NB: Sur le site officiel de l’eG8, Publicis vient de mettre en ligne une vidéo mettant en scène l’effort, les escabeaux et la sueur mobilisés pour la mise en place de ce grand événement. Le tout à grand renfort de musique blockbusterienne. On vous laisse déguster.

Cliquer ici pour voir la vidéo.


Crédits photo: eG8 Forum, Flickr CC tOkKa, celticblade, pierre bédat

Retrouvez tous les articles de notre Une e-G8 sur OWNI (illustration de Une CC Elsa Secco pour OWNI)
De l’Internet des “Pédos-nazis” à l’”Internet civilisé”

- G8 du net : les bonnes questions de Nova Spivack

]]>
http://owni.fr/2011/05/23/eg8-davos-web-internet-sarkozy-publicis/feed/ 10
Rapport Cardoso : les subventions inorganisées d’une presse sous perfusion http://owni.fr/2010/09/17/rapport-cardoso-les-subventions-inorganisees-dune-presse-sous-perfusion/ http://owni.fr/2010/09/17/rapport-cardoso-les-subventions-inorganisees-dune-presse-sous-perfusion/#comments Fri, 17 Sep 2010 15:42:40 +0000 Martin Untersinger http://owni.fr/?p=28371 Le 8 septembre dernier, le consultant Aldo Cardoso a remis aux ministres du Budget et de la Culture son rapport sur “la gouvernance des aides publiques à la presse”. Long d’une centaine de pages, ce rapport présente 15 propositions, applicables sur une période de 5 ans (2012 – 2016) et destinées à améliorer le contrôle, l’utilisation et l’efficacité des aides que l’État octroie à la presse.

Le 23 janvier 2009, lors d’un discours détaillant les grandes mesures tirées des États Généraux de la presse écrite, Nicolas Sarkozy avait souligné la nécessité de “clarifier les objectifs, modifier la gouvernance et contrôler l’utilisation” de la vingtaine d’aides à la presse qui existent aujourd’hui en France. C’est dans cette optique que Christine Albanel et Eric Woerth, alors respectivement ministre de la Communication et ministre du Budget, ont commandité ce rapport en juin 2009.

Un secteur en crise

Le rapport rappelle dans un premier temps les chiffres bien connus d’un secteur économique en crise. La baisse de 12 % de la diffusion payante depuis 1995 et le fort reflux des recettes publicitaires (-17 % en 2009) ont ramené le chiffre d’affaires de la presse française à son niveau exceptionnellement bas de 1993.

Si ce constat n’est pas nouveau, c’est sans doute la première fois que des chiffres aussi détaillés sont dévoilés, à la fois sur la santé globale de la presse française, mais aussi et surtout sur le détail des différentes subventions que l’État lui accorde. OWNI avait par ailleurs pris part à cet effort de transparence il y a quelques semaines, en publiant un document inédit révélant le détail des subventions accordées par le fonds de modernisation à la presse (FDM).

Des aides publiques inefficaces

Tout aussi inquiétant que l’état économique de la presse : l’inefficacité des aides publiques. Le rapport Cardoso dresse ainsi un bien triste portrait de leurs effets sur le dynamisme de la presse.

Depuis la libération, le dispositif des aides s’est étoffé, complexifié, sédimenté et force est de constater que même s’il représente aujourd’hui environ 12 % du chiffre d’affaires du secteur économique, il n’a pas permis l’émergence ou la présence de titres de presse forts et indépendants de l’aide publique.

Le rapport avance même un chiffre éloquent : près de 80 % des aides distribuées par l’état seraient utilisées à des seules fins de fonctionnement, contre seulement 20 % pour des investissements.

L’accent est également mis sur la dépendance forte de certains types de presse aux aides publiques. Ainsi la part de ces dernières dans le budget de la presse d’information politique et générale (IPG, les journaux d’information et/ou partisans soutenus dans un soucis de “pluralisme”) est bien plus importante que pour les autres secteurs. A titre d’exemple, elles représentaient 55 % du chiffre d’affaires de France Soir en 2008 (contre 12 % en moyenne).

On peut s’attendre en toute logique à ce que cette part aille en augmentant dans les années à venir. Cette concentration a déjà été amorcée depuis plusieurs années et aujourd’hui, près d’un tiers des subventions publiques cible déjà la presse IPG.

Le rapport pointe également l’extrême complexité du système des aides publiques. Il suffit de jeter un oeil au tableau qui y figure pour comprendre : grand nombre de fonds et programmes d’aides, multiplicité des bénéficiaires et stratification des dispositifs empêchent presque mécaniquement une bonne gouvernance globale et stratégique des fonds publics.

Plus préoccupant encore, on constate dans le rapport que jusqu’ici, les pouvoirs publics n’ont eu ni stratégie globale, ni moyens de contrôle suffisants sur les aides qu’ils ont accordés. Ainsi, un interlocuteur anonyme rencontré par Aldo Cardoso explique que, loin de subvenir aux besoins d’une ‘fonction’, en l’occurrence celle d’informer, les subventions tendent au contraire à soutenir ‘des acteurs et une industrie’”. “Défaut de pilotage global”, “expertise insuffisante”, “faible adéquation de certains projets aux besoins du secteur”, “indigence des indicateurs”, “faiblesse des moyens consacrés à l’évaluation” sont autant de reproches formulés à l’encontre de la puissance publique.

Fort de ce triste constat, le rapport propose 15 solutions réparties sur 4 grands axes afin de réformer la gouvernance de ces aides.

Une structure d’octroi et de contrôle des subventions repensée

Le rapport propose ainsi le conditionnement de l’octroi des aides à un dialogue et à une “prise d’engagements clairs et évaluables” dans le “respect des priorités” stratégiques de l’État. Il liste également une série d’outils qui pourraient être pris en compte dans la mesure et l’évaluation en amont et en aval des subventions : taux de profit, de réabonnement, le coût moyen annuel d’impression, les effectifs du journal… Ce qui ne manque pas de susciter des interrogations quant aux procédures qui ont cours actuellement.

La structure administrative de contrôle et de suivi des aides doit également être repensée. Le rapport préconise une séparation stricte entre les fonctions de pilotage stratégique et celles de contrôle de l’utilisation des fonds publics, tout en établissant un pilotage global et commun à toutes les aides. Et rappelle également qu’en vertu de la loi n°2000-321 du 12 avril 2000, les détails des subventions sont librement accessibles à qui en fait la demande (journalistes inclus). Un autre moyen de contrôle…

In fine, la structure d’octroi et de contrôle devrait ressembler à ceci, si les préconisations du rapport sont appliquées.

Priorité à l’innovation !

Une autre proposition significative est celle de la réorientation des aides vers l’innovation et “l’invention de nouveaux modèles”, c’est à dire sur des projets susceptibles de provoquer “un effet de levier”, susciter la “diversification plurimédia” et soutenir “les laboratoires et incubateurs d’innovation”. Tout ceci afin d’encourager ce qu’Aldo Cardoso considère comme “l’avenir de la presse”, à savoir “sa capacité à réinventer ses contenus”. Il faut noter par ailleurs qu’à l’heure actuelle, seuls le FDM et le SPEL ont pour mission explicite de favoriser l’innovation (accordant un financement sur projet et non pas de manière automatique).

Au niveau structurel, le rapport préconise une maîtrise des coûts plus stricte mais annonce des effets surprenants par leur ampleur, puisque d’après les calculs de l’Inspection Générale des Finances menés sur une structure de coûts classique d’un titre de presse, le taux de profit pourrait passer – si les préconisations du rapport sont mises en oeuvre – de – 2 % à + 13 % !

Création d’un fonds stratégique unique pour 2012 – 2016

Une des réformes clés appelées de ses vœux par le rapport Cardoso est la création d’un fonds stratégique de la presse, qui rassemblerait l’essentiel des aides publiques. Ce qui n’est pas sans poser problème puisque des instances globales de régulation existent déjà, comme l’ARCEP (pour l’aide postale) ou la DGMIC.

De plus, le rapport élude un peu la question de savoir comment cette nouvelle gouvernance va respecter les règles de concurrence, et surtout comment elle conciliera ce contrôle accru avec l’impératif de neutralité de l’État. Par ailleurs, il est quelque peu surprenant que l’objectif affiché du fonds de soutenir l’innovation ne soit mis en oeuvre que par la fusion de fonds prééxistants et non par la création de nouveaux fonds.

Maintenir le montant des aides directes

En raison notamment d’un fort recul des aides indirectes (distribution, crédits d’impôts…) du à la fin des accords État Presse Poste, il est extrêmement probable que le montant global des aides connaisse un net reflux, de l’ordre de 20 % d’ici à 2016, explique le rapport. Ce dernier propose de compenser cette perte en maintenant l’augmentation des aides directes initiée après les Etats Généraux, à hauteur de 900 millions d’euros sur cinq ans, qui seraient redéployés progressivement vers le fonds stratégique nouvellement créé.

Et la presse en ligne ?

Si le rapport ne préconise rien de révolutionnaire concernant la presse en ligne, plusieurs de se propositions semblent à retenir.

En premier lieu, il envisage de ramener la TVA applicable à la presse sur Internet, aujourd’hui de 19,6 %, au taux super-réduit (2,1 %) qui profite actuellement à la presse traditionnelle. Remédier à ce déséquilibre illogique – après tout, seul le support change, pas le contenu – est dans l’air depuis un bon moment déjà. Seul problème, cela nécessiterait une modification de la législation européenne… Plus largement, le rapport préconise de ne pas établir de différence de “traitement hermétiquement différent” de celui de la presse traditionnelle à quelque niveau d’intervention étatique que ce soit.

Le rapport déconseille par ailleurs d’adopter le projet un temps envisagé de mettre en place une taxe sur les fournisseurs d’accès à Internet pour résorber le déficit de la presse papier et met en évidence les difficultés de répartition qu’une telle mesure entraînerait.

Enfin, il rappelle qu’Internet n’est pas responsable de tous les maux de la presse écrite traditionnelle :

L’offre de presse en ligne n’est pas à l’origine du reflux de la diffusion de la presse écrite, qui s’inscrit dans une tendance de long terme.

À l’inverse, le rapport place au coeur des dynamiques d’innovation à encourager l’exploitation “des opportunités de mise en valeur qu’offrent les nouveaux supports de diffusion” afin qu’ils “collent à des usages en perpétuelle évolution”.

Et maintenant ?

Même si des questions subsistent, le rapport soulève plusieurs points cruciaux, notamment en incitant les pouvoirs publics à se doter d’une gouvernance globale et de véritables instruments de contrôle. Il convient également de retenir la concentration des efforts en vue de transformer des subventions de fonctionnement et aux acteurs (donc inefficaces) pour les concentrer sur un secteur et pour l’innovation.

Le ministre de la Culture Frédéric Mitterrand a annoncé le 9 septembre dernier la mise en place d’un forum qui se réunira au mois d’octobre afin de définir “les modalités de mise en œuvre progressive” des mesures préconisées par le rapport Cardoso. De là à envisager une mise en application rapide ?

La multiplication des annonces d’économie budgétaires, des priorités gouvernementales bien loin des médias, couplés au climat délétère qui règne actuellement entre la presse (trotsko-fasciste) et le pouvoir permettent malheureusement d’en douter.
__

Merci à Vincent Truffy et à Albéric Lagier pour leurs précieux éclairages.

> Téléchargez le rapport Cardoso dans son intégralité
> Voir la structure actuelle des aides publiques à la presse.
> Retrouvez l’intégralité de notre dossier du jour sur les aide à la presse .
> Consultez tous nos articles sur les subventions à la presse, notamment “Subventions à la presse : l’heure des fuites ?”.

Crédits Photo CC Flickr : .zahrky

]]>
http://owni.fr/2010/09/17/rapport-cardoso-les-subventions-inorganisees-dune-presse-sous-perfusion/feed/ 7
Russie : la collaboration en ligne comme nouvelle forme de gouvernance ? http://owni.fr/2010/09/12/russie-la-collaboration-en-ligne-comme-nouvelle-forme-de-gouvernance/ http://owni.fr/2010/09/12/russie-la-collaboration-en-ligne-comme-nouvelle-forme-de-gouvernance/#comments Sun, 12 Sep 2010 08:02:06 +0000 Gregory Asmolov (trad. C.Ulrich) http://owni.fr/?p=27817 Ce billet a été originellement publié sur Global Voices, écrit par Gregory Asmolov et traduit par Claire Ulrich.

__

Le rôle des médias sociaux en ligne et de la blogosphère est habituellement traité sous l’angle de la transparence et de la responsabilisation des dirigeants. Ceux qui militent pour l’utilisation citoyenne des médias sociaux le font pour dévoiler les échecs d’un gouvernement et le mettre face à ses responsabilités. Durant les gigantesques incendies de cet été en Russie [anglais], le rôle de ces médias a cependant dépassé ce cadre. Les internautes ont non seulement mis à jour les carences des autorités mais ont aussi témoigné d’une grande solidarité et d’une capacité à s’organiser pour lutter contre ce désastre.

Des volontaires près de Roshal (district de Shatursky, region de Moscou) voyant bruler la forêt, nettoyant les débris, éteignant les petits feux

Volontaires près de Roshal (district de Shatursky dans la région de Moscou) regardant la forêt bruler, nettoyant les débris, éteignant les petits feux

La communauté des internautes russes ne s’est pas limitée à aider les victimes des incendies en ligne. Des blogueurs ont créé des brigades de pompiers volontaires, sont allés sur le terrain et ont offert rapidement de l’aide. Au-delà de réponses aux questions telles que “comment devenir pompier”, “comment lutter contre différents types de foyers d’incendie”, “quel équipement devrait avoir un volontaire”, Internet a donné une plateforme pour coordonner et échanger des informations 24 h sur 24 sur une situation en évolution rapide.

Que les internautes aient pris l’urgence dans leurs propres mains a permis de faire passer un message bien plus percutant que des critiques envers le gouvernement. Jusqu’à un certain point, les internautes russes ont comblé les lacunes des autorités. C’est une situation qui peut surprendre car la capacité de la blogosphère russe a influencé au delà du cyber-espace a souvent été mise en doute.

Alors, qu’est-ce qui a provoqué un résultat aussi extraordinaire ?

Les carences des autorités ont été le déclic de la collaboration en ligne

Il existe plusieurs explications. L’approche sceptique affirme que la raison principale du réveil des internautes russes a été le niveau  élevé du danger pour eux mêmes. Contrairement à d’autres urgences, les incendies affectaient la population entière de Moscou. Un internaute anonyme a ainsi expliqué [en russe] son parcours au site Lenta.ru :

Когда горела Сибирь, нам было, честно говоря, пофигу. Когда пожар был в соседнем лесу, мы ковыряли в носу на даче и загорали под солнышком. Когда сгорела Выкса, мы проснулись и вскрикнули: “Власти бездействуют!” Через полчаса мы припомнили какую-то там бучу с Лесным кодексом и кинулись к компьютеру. Через час блогосфера бурлила. А на следующий день, когда Москву заволокло дымом, нам стало страшно, и мы бросились работать на благо страны.

Quand la Sibérie brulait, honnêtement, on s’en fichait complètement. Quand les incendies étaient dans les forêts proches, [on n'a rien fait], on prenait le soleil à la campagne. Quand Vyksa a été détruite par le feu, on s’est réveillés et on a crié : “Le gouvernement ne fait rien !” Une demi-heure plus tard, on s’est rappelé de quelque chose à propos d’un codex de la forêt et on s’est précipité sur nos ordinateurs. Une heure plus tard, la blogosphère était en ébullition. Le jour suivant, quand la fumée a envahi Moscou, on a pris peur et on s’est mis à bosser pour le bien de notre pays.

Au-delà de ce point de vue cynique, l’énorme mobilisation  peut être expliquée par deux facteurs. La collaboration a été provoquée par la réalisation que les autorités ne contrôlaient plus la situation et, de plus, refusaient d’en endosser la responsabilité. Et la présence de technologies de l’information a permis l’échange d’informations et les outils pour la coordination d’une collaboration efficace.

Ce sentiment de profonde méfiance envers le gouvernement a été l’un des leitmotivs de la conversation en ligne sur les incendies. Anna Baskakova, une experte en art qui a participé activement à la lutte contre les incendies, a publié un appel à Sergey Shoigu, le ministre russe des situations d’urgence. Cet appel a généré plus de 2 400 commentaires et est devenu l’un des billets les plus lus de la semaine. Anna Baskakova a écrit [en russe]:

… у меня исчезли последние детские иллюзии, связанные с тем, что кто-то там, наверху, о нас заботится и нас защищает (нет, я не о Боге, я говорю о руководстве страны и о Вас в том числе). Теперь я стала взрослым человеком и рассчитываю только на себя.

… J’ai perdu cette illusion puérile que quelqu’un, là haut, prend soin de nous et nous protège (non, je ne parle pas de Dieu, je parle du gouvernement de ce pays, vous compris). Maintenant, je suis devenu adulte et je ne compte plus que sur moi-même.

L’un des moments où l’exaspération des internautes envers le gouvernement a atteint son comble a été le moment où le Premier ministre Vladimir Poutine a co-piloté un avion des pompiers [en anglais], une initiative qui a été unanimement vue comme un coup médiatique. Certains se sont demandés si Poutine avait vraiment le droit légalement de co-piloter un avion. Un blogueur a demandé [en russe]:

Премьер-министр тушит пожары; Премьер-министр реанимирует 80-летних бабушек; Премьер-министр сеет пшеницу. А кто управляет страной?

Le Premier ministre lutte contre les incendies : le Premier ministre ressuscite les grands mères de 80 ans ; le Premier ministre sème du blé. Et qui dirige le pays ?

Dans un billet sarcastique, intitulé “L’innovation dans la lutte contre les incendies,” Leonwolf dresse une liste [en russe] des mesures que peuvent prendre les autorités pour éteindre les incendies. La liste comprend :

L’une des plus virulentes critiques contre la gestion de cette crise est venue de Yulia Latynina, journaliste à Echo Moskvy. Elle affirme [en russe] que l’état russe a atteint un nouveau stade de déliquescence puisque même la présence de Poutine n’a plus pu provoquer un mieux :

Мы видим, что система по-прежнему не функционирует. Над Москвой стоит смог, московские морги переполнены. Лужков даже не вернулся из отпуска. Система продолжает выделять 9 млрд. рублей на чистую воду, переименовывать милицию в полицию. Здорово, ребята, давайте лучше не милицию в полицию переименуем, а сразу, как кто-то пошутил в блогах, ВАЗ переименуем в БМВ, те же самые три буквы. И тремя буквами всё это накроется.

Nous pouvons voir que l’appareil ne fonctionne toujours pas. Moscou est maintenant recouvert par la fumée. Les morgues de Moscou débordent. Luzhkov [le maire de Moscou] n’est pas rentré de vacances. L’appareil continue à allouer 9 millions de roubles pour de l’eau potable, rebaptise militia en  police. C’est super les mecs, ne rebaptisons pas militia en police, mais, comme l’a proposé un blogueur en plaisantant, VAZ [une usine russe de voitures] en BMW – trois lettres identiques (en russe). Et avec trois lettres, tout sera recouvert  [allusion a une malédiction russe].

"Avez-vous signé pour être volontaire ?". Illustration de ryskan sur Live Journal

La technologie permet aux communautés de se substituer aux autorités

Les incendies en Russie ont démontré qu’avec l’aide de nouvelles technologies, des communautés d’internautes pouvaient suppléer à la fois aux fonctions et aux structures de l’État.

L’un des signes les plus révélateurs de l’échec du gouvernement russe a été que les internautes ont du acheter eux mêmes du matériel – dont des tuyaux d’arrosage – pour les brigades de pompiers professionnels. Igor Cherskiy, l’un des leaders du mouvement des bénévoles sur le Net, par ailleurs écrivain et blogueur, a demandé [en russe] au Ministre Shoigu non pas de l’aide, mais des instructions sur quel type de tuyaux acheter :

Назовите, пожалуйста, адреса, где вы прячете эти сокровища. Мы приедем и даже купим их у вас же, чтоб вам же привезти, чтобы вы потушили пожар. <…> Понимаете? Наши женщины не боятся покупать пожарные рукава для ваших героических войск. Они только боятся “купить ненужное”.

S’il vous plait, donnez-moi les adresses où vous dissimulez ces trésors. On viendra et on vous les achètera et on vous les donnera ensuite, pour que vous puissiez éteindre les incendies…Vous comprenez ? Nos femmes n’ont pas peur d’acheter des tuyaux pour vos troupes héroïques. Elles ont uniquement peur “d’acheter le mauvais modèle”.

Le ministre Shoigu n’a pas répondu à Igor Cherskiy, mais un autre blogueur -  fort_i_ko sur LiveJournal, un ancien pompier  – a expliqué en détails quels types de tuyaux acheter.  Igor Cherskiy conclut [en russe] :

Ура! Теперь любая кухарка сможет управлять МЧС. Ибо очень доходчиво всё изложено.

Hourra ! Maintenant, n’importe quel cuisinier pourra courir au Ministère des urgences. Parce que maintenant, tout a été expliqué très clairement.

La célèbre phrase de Vladimir Lenine – “Chaque cuisinier doit apprendre comment gouverner l’État” ne s’appliquait pas, bien sûr, dans cette situation. C’est la mobilisation des internautes qui a provoqué l’émergence de plusieurs leaders des opérations de secours, et  la répartition des responsabilités entre eux. Sur LiveJournal, _alisa a écrit [en russe] après un de ses déplacements dans une zone dévastée par les incendies :

вчера мы ездили в Кулебаки чтобы отвезти им все это – необходимые пожарным инструменты, продукты, средства защиты были приобретены на деньги блоггеров, организовал наш десант по заброске всего этого в «горячую точку» i_cherski , который как известно на общественных началах замещает временно недееспособное руководство МЧС.

Hier, nous avons été à Kulebaki pour leur apporter tout ce dont ils avaient besoin – du matériel de pompiers, de la nourriture, des  accessoires pour se protéger, achetés avec l’argent réuni par les blogueurs. Notre mission vers ce “point chaud” a été organisée par i_cherski, qui, comme vous le savez, remplace temporairement la direction incompétente du Ministère des situations d’urgence.

Si i_cherski a rempli le rôle du Ministère des situations d’urgence, le rôle du Ministère de la santé et des services sociaux a été rempli par Elizaveta Glinka, dont le pseudonyme est doctor-liza. Son appartement a été transformé en quartier général de coordination pour l’aide et de zone de stockage tout à la fois.

Grâce à l’aide de la communauté pozar_ru sur la plateforme de blogs LiveJournal, Igor Cherskiy et Elizaveta Glinka sont devenus les deux chefs de la collaboration en ligne des bénévoles. Malgré leur succès, des actions collectives de ce type souffrent souvent d’un manque de coordination. L’afflux d’un nombre colossal d’offres d’aide, ajouté à l’excès d’informations, menaçaient l’idée même d’une coordination efficace. De plus, des associations qui prenaient une part active au missions de secours n’avaient aucune présence sur Internet. A titre d’exemple, un rôle important a été joué par une organisation caritative de l’Église orthodoxe russe [en russe].

Une plateforme de management qui a rendu possible les offres d’entraide mutuelle a été la  “Help Map” [en russe] – le premier déploiement en Russie de l’outil de suivi de crise Ushahidi [en anglais] qui a agrégé les informations de toutes les sources et les a organisées en catégories, géolocalisées et horodatées. La composante collaborative de la  “Help Map” a permis d’inclure des personnes qui pouvaient partager des informations en ligne au delà du cercle des blogueurs et des internautes. “Help Map” a créé une base de données utiles et mis sur pied un centre de coordination pour mettre en relation ceux qui avaient besoin d’aide, et ceux qui en offraient, à partir d’informations fournies par une carte interactive. Le blogueur ottenki-serogo, qui a visité le centre de coordination de Ushahidi à Moscou, a décrit ainsi [en russe] le rôle de la “Help Map”:

Карта Помощи – без сомнения проект года. Возможно, его даже наградят, посмертно, когда пожаров в стране, наконец, не станет. Скорее всего это будет какая-нибудь интернет-премия, но никак не признание заслуг государством. Впервые (вы можете вспомнить что-нибудь подобное?) интернет добровольцы не только объединились в желании помочь, но и создали сайт, колл-центр, систему мониторинга и обмена информацией.  […] Они не связаны ни с какими организациями и политическими партиями, они сами по себе, они тихо растворятся среди нас, когда беда отступит, и соберутся снова чтобы помогать, если, не дай бог, случится. Система создана, обкатана и готова к повторению.

“Help Map” est, sans doute permis, le projet de l’année. Peut-être qu’il obtiendra un prix à titre posthume, quand les feux seront, enfin, éteints. Probablement obtiendra-t-il une distinction dans le monde d’Internet, mais certainement pas de la part du gouvernement. Pour la première fois (est-ce que quelqu’un se souvient de quelque chose de ce genre avant ? ) des bénévoles, via Internet, n’ont pas simplement uni leur désir d’aider, mais ont lancé un site, ouvert un centre d’appels, déployé un système de suivi de crise et d’échanges d’informations. […] Ils ne dépendent d’aucune organisation ni d’aucun parti politique, ils sont tout seuls, et ils disparaitront progressivement quand la crise se résorbera, pour se rassembler à nouveau si, à Dieu ne plaise, quelque chose arrivait. Le système a été créé, et il est maintenant prêt à être réactivé.

Le centre de coordination de la "Help Map". Photo de Ottenki-Serogo

“Help Map” n’a pas simplement envoyé un message fort au gouvernement : qu’il n’est pas capable de s’occuper de ses propres citoyens. Il a aussi présenté un mécanisme alternatif pour une nouvelle forme de responsabilité qui émerge parmi les citoyens.  Ushahidi est devenu une institution de la société civile. Il s’agissait des premiers pas d’une nouvelle réalité, au sein de la quelle les citoyens forment des mécanismes et des institutions alternatives pour palier au vide des structures gouvernementales.

L’alliance d’une communauté en ligne concentrée sur une tâche, de plusieurs leaders et d’un centre de coordination, d’un outil comme la carte interactive en ligne Ushahidi crée un nouveau modèle de collaboration en ligne, qui peut offrir une réaction efficace et rapide. Le blogueur grey-wolk résume [en russe] le rôle du modèle qui vient d’émerger :

Люди без указаний, без поощрений и жажды славы просто начали сами исполнять функции государства. […] Выяснилось, что сочетание активных людей, новейших технологий распределенной работы,  отсутствие формальных ограничений и неограниченного источника знаний в виде сетевых ресурсов Интернета приводит к тому, что данный “виртуальный” коллектив весьма небольшой численности может проводить операции, реально влияющие на огромное пространство - несколько областей России.

Sans aucun ordre, sans encouragement, sans recherche de gloire personnelle, les gens ont juste commencé à remplir les fonctions dévolues à l’État. […] Il se trouve que la rencontre entre des personnes actives, les dernières technologies permettant la répartition du travail, le manque de restrictions formelles et les ressources illimitées de connaissances disponibles sur Internet conduisent à une situation où ce groupe relativement restreint est capable de prendre en charge des opérations qui ont un impact réél sur un territoire immense – quelques régions de Russie.

Ce qui est décrit ci-dessus est un exemple du phénomène de  “gouvernance sans gouvernment” (un terme qui a fait son apparition en 1992, avec James Rosenau et  Ernst-Otto Czempiel [en anglais]). La ”Gouvernance sans gouvernement” est devenue  possible et utile grâce aux nouvelles technologies de l’information. Elles ont de plus permis de faire émerger de nouvelles institutions dans le monde réel (par exemple, le centre de coordination créé comme extension physique de la “Help Map“).

Certains blogueurs en Russie voient déjà dans la réaction face aux incendies ce qui peut être le début d’un nouveau modèle politique pour la Russie, où des citoyens armés de technologies pourraient prendre en main la gouvernance. Le blogueur grey-wolk développe ce concept dans un billet intitulé  “Les incendies comme catalyseurs de l’auto-gestion en Russie” [en russe]:

При всех ошибках и несколько хаотической  форме создания “виртуальной организации” можно выделить несколько главных положений:
- в России существуют люди, способные самоорганизовываться и осуществлять существенные макроскопические воздействия
- “виртуальный коллектив” такого уровня может быть создан практически в любое время и способен осуществлять серьезную деятельность через 2 -3 недели после старта проекта.
Таким образом, после июля – августа 2010 года в России наконец то появился зачаток позитивного движения, и не считаться с его наличием формальные власти уже не в состоянии. Данное движение пока затрагивает в основном сферу деятельности МЧС. Что на очереди?

Malgré toutes les erreurs, et la création assez chaotique d’une “organisation virtuelle”, nous pouvons tirer plusieurs conclusions :
- il existe des personnes en Russie capable de s’organiser et d’avoir des macro-impacts significatifs.
- “un groupe de travail virtuel” de ce type peut être créé n’importe quand et peut maintenir une activité conséquente pendant deux à trois semaines après le début du projet.En conséquence, après juillet-août 2010, nous voyons enfin les premiers signes d’un mouvement positif en Russie, et le gouvernement ne peut plus l’ignorer. Jusqu’ici, ce mouvement affecte surtout l’activité du Ministère des situations d’urgence. Mais après ?

“Gouvernance sans gouvernement” : les obstacles

Une coopération menée à bien ne peut pas réussir sans une grande confiance mutuelle entre les personnes. John Clippinger, dans son livre “Une foule d’une seule personne :  le futur de l’identité numérique” [en anglais], avance que l’intensité de la collaboration en ligne dépend de la possibilité d’évaluer la réputation et la crédibilité des autres membres.

La crise des feux de forêts en Russie a montré que les membres de ces communautés virtuelles inspirent plus confiance que le gouvernement. Anna Baskakova écrit [en russe] :

[…] я поверила в человеческую доброту. Потому что мне отовсюду под честное слово шлют вещи, деньги и продукты, чтобы я потратила все это на тушение пожаров. Даже совсем незнакомые люди из-за океана говорят, что мне доверяют, и переводят суммы на мою карточку. Вам не шлют, Сергей Кожугетович? Странно. Отчего они не хотят вам помогать??

[…] J’ai pris confiance dans le genre humain. Parce que ces gens [me font assez confiance ] pour m’envoyer des biens, de l’argent, de la nourriture, pour que je puisse les investir dans la lutte contre les incendies. Même de parfaits étrangers vivant de l’autre côté de l’océan disent qu’ils me font confiance, et virent de l’argent sur ma carte de crédit. Et vous, Sergey Kozhugetovich [Shoigu] ? Est-ce que vous avez reçu quelque chose ? Non ? C’est étrange. Pourquoi ne veulent-ils pas vous aider ?

Cependant, les activités en ligne s’accompagnent aussi de beaucoup de méfiance mutuelle et d’incidents, surtout parce que le web russe est un espace où les blogueurs pro-gouvernement sont très actifs.

On peut penser que dans une situation d’urgence, le niveau de confiance mutuelle augmente beaucoup, et que, par conséquent, la collaboration en ligne devient possible. Cette confiance cependant est très fragile. Quand la crise se résorbe, le niveau de méfiance et les tensions augmentent.

Prolonger et amplifier la confiance nécessite plus d’options, comme celles de pouvoir évaluer qui sont vos partenaires et quelle est leur réputation. Il n’est pas surprenant que les leaders du mouvement en ligne aient été des personnalités déjà connues.  Clippinger argumente que le renforcement de la confiance en ligne à travers le développement d’une identité en ligne peut créer une nouvelle réalité sociale, avec des niveaux plus élevés de coopération et d’auto-gestion. Les incendies en Russie sont une nouvelle preuve que la “gouvernance sans gouvernement” exige un haut niveau de confiance mutuelle. Elle offre aussi de l’espoir, car les membres d’une communauté de ce genre ont la possibilité s’informer sur Internet sur le parcours de leurs compagnons. La coopération virtuelle ne nécessite pas seulement une identité en ligne bien développée, mais fait elle-même partie aussi du développement de cette identité.  Par la suite, quand un besoin de coopération se fait sentir, il peut se baser sur la confiance qui a été précédemment développée.

Certains obstacles à la collaboration en ligne doivent cependant être soulignés. L’un d’eux est  “la loi de fer de l’oligarchie” [en anglais]. Suggérée en 1911 par le sociologue Robert Michels [en anglais], la “loi” dit que toute forme d’organisation provoque une concurrence pour le pouvoir et créé ses propres “oligarques”. Dans un environnement virtuel, les centres producteurs d’informations deviennent un type d’oligarques. Les centres d’informations peuvent passer de la collaboration à la rivalité, et menacer l’efficacité de l’action en réseau.

Un autre problème est celui de l’audience. Les communautés et les blogs sur la plateforme LiveJournal s’adressent d’abord à des internautes actifs. La carte interactive  “Help Map” a tenté d’élargir son audience en utilisant les SMS des particuliers comme sources d’informations mais ces informations, dans leur majorité, sont distribuées sur le Net.  Parallèlement, les médias russes “traditionnels”  (surtout la télévision) sont contrôlés par le gouvernement et ont reçu l’ordre [en russe] d’ “éviter l’exagération et la dramatisation” des incendies. L’audience disponible pour la coopération en ligne est donc limitée.

Conclusion

Au cours de l’été 2010, le web russe est devenu un exemple de “gouvernance sans gouvernement” né de l’incapacité du gouvernement à gérer la crise. L’alliance de blogs, de communautés virtuelle, d’un outil  de suivi de crise, l’émergence de nouvelles institutions dans le monde réel pour soutenir cette structure, donne le cadre d’une prise en charge relativement efficace et coordonnée d’une crise.

La Russie n’est pas le seul exemple de ce phénomène. Dans son essai (encore inédit) “Téléphonie mobile & Gouvernance dans les zones fragiles ou hors état de droit” – Steven Livingston [en anglais] de l’université George Washington montre que les technologies de l’information et de la communication pourraient être des catalyseurs de nouvelles formes de gouvernance. Son essai démontre comment les téléphones mobiles peuvent  “créer de nouvelles institutions qui permettent aux personnes de mieux gérer leurs problèmes ( banque, sécurité,  informations pour le commerce) sans l’implication d’un gouvernement. Cela signifie que la coopération via la technologie devient graduellement une alternative à un gouvernement et un nouveau cadre pour l’autonomisation, dans différentes parties du monde. Dans ce cas, la mobilisation sur le Web russe pourrait n’être qu’un exemple parmi de très nombreux autres.

Le problème de la confiance, des relations en ligne, et de l’accès limité à Internet qui ne permet pas d’impliquer d’avantages de personnes est toujours présent. Il faut ajouter qu’un gouvernement qui identifie une forme rivale de gouvernance dans les réseaux sociaux peut aussi intervenir pour empêcher la collaboration en ligne.

Article de Gregory Asmolov et traduction par Claire Ulrich initialement publiée sur Global Voices

Photos CC Wikipedia Evgen2, et FlickR slack12

]]>
http://owni.fr/2010/09/12/russie-la-collaboration-en-ligne-comme-nouvelle-forme-de-gouvernance/feed/ 3
Hans Rosling: des legos, des données, le futur? http://owni.fr/2010/04/03/hans-rosling-des-legos-des-donnees-le-futur/ http://owni.fr/2010/04/03/hans-rosling-des-legos-des-donnees-le-futur/#comments Sat, 03 Apr 2010 21:00:51 +0000 Media Hacker http://owni.fr/?p=11576 Cliquer ici pour voir la vidéo.

Vidéo sous-titrée en français disponible ici

Hans Rosling est professeur de santé publique internationale à l’université d’Uppsala, en Suède. Dans cette vidéo pour le projet “2020 Shaping Ideas” lancé par la marque Ericsson, il exprime la théorie selon laquelle un rééquilibrage mondial des niveaux de vie est à l’oeuvre , et qu’il va se poursuivre. Les disparités gigantesques qui existent entre les niveaux de vie à l’échelle mondiale sont pour lui la conséquence des guerres, d’une mauvaise gouvernance, et d’un état d’esprit propre aux Etats-nations qui voudrait que certains Etats soient plus égaux que d’autres. La solution? Un renforcement des pouvoirs de l’ONU afin de mettre en place une véritable gouvernance mondiale qui encadrerait les échanges marchands. Le scientifique maintient que c’est possible, et on a envie de le croire, malgré nos références crypto-gauchistes (je parle pour moi). Hans Rosling est reconnu pou ces multiples interventions au cours des fameuses conférences TED, et c’est là qu’interviennent les legos. Féru de statistiques et cherchant à les représenter de la manière la plus pertinente qui soit, il a gratifié ses auditeurs de morceaux d’anthologie dans la visualisation de données, dont celui-ci (en anglais, vost disponible chez TED):

Cliquer ici pour voir la vidéo.

Et comme on se pose des questions sur la visualisation de données en ce moment, il semble intéressant de revoir ce que le monsieur avait bricolé pour comparer les statistiques des morts de la grippe A et celles de la tuberculose, en lien avec leur couverture médiatique respective:

Cliquer ici pour voir la vidéo.

— > Vidéo dénichée par @sabineblanc, fan de lego devant l’éternel, sur gapminder, et traduite par mes soins.

]]>
http://owni.fr/2010/04/03/hans-rosling-des-legos-des-donnees-le-futur/feed/ 4
Pour un gouvernement 2.0 http://owni.fr/2010/03/11/pour-un-gouvernement-20/ http://owni.fr/2010/03/11/pour-un-gouvernement-20/#comments Thu, 11 Mar 2010 16:20:34 +0000 Serge Soudoplatoff http://owni.fr/?p=9877 2285257955_13d8c781b2

En finir avec les relations verticales

Passionné d’Internet depuis plus de vingt-cinq ans, ingénieur de formation, fondateur et président d’Almatropie, entre autres, Serge Soudoplatoff rejoint Owni. Il expose dans ce billet les avancées de certains pays en matière d’open data. Un train que la France n’a malheureusement pas encore pris .

Nous sommes au mois de mars 2010. O’Reilly vient de terminer sa conférence en ligne sur le gouvernement 2.0. Premier constat : les pays qui y participent, parce qu’ils ont quelque chose à raconter, sont les États-Unis, le Canada, l’Australie, l’Angleterre, et Israël. Je sais, la France, pays des droits de l’homme, hélas, n’y était pas présente.

Que signifie un gouvernement 2.0 ? C’est un cheminement qui passe d’abord par l’open data. En bref, le gouvernement s’engage à fournir publiquement toutes les informations qu’il détient. Je viens de croiser à Melbourne Chris Moore, qui est DSI de la ville d’Edmonton, et qui a mis en place un tel système de catalogue open data. Ne croyons pas que c’est facile, il s’est heurté à toute sorte de méfiance, de rejets. Mais il a persévéré, et a réussi. On y trouve des informations géo-localisées, comme les parkings, les bus, les écoles, etc. Mais ce n’est pas suffisant, Chris a décidé d’ouvrir les API de ce catalogue aux développeurs.

Dans la même idée, la ville de San Francisco vient d’annoncer l’ouverture de ses API 311. 311 est, aux États-Unis, l’équivalent du 911 mais quand il n’y a pas d’urgence. Le 911 est utilisé pour signaler qu’un immeuble brule, le 311 pour dire qu’il y a un simple problème ; c’est très bien expliqué ici. Suite à un document créé par Harvard en 2008, une initiative a été lancée, l’open311, qui consiste à créer un ensemble d’API autour des services municipaux (au passage, ce site est un wiki, outil très intéressant dans des phases de conception). Parmi les usages intéressants de cette initiative, signalons fixmystreet en Angleterre, un système de déclaration de problèmes urbains en Hollande, ou bien do it yourself democray aux États-Unis, qui est une application iPhone !

Tout repose sur la même idée (que j’espère bien promouvoir à la DUI) : le rôle du gouvernement est d’encapsuler ses données et d’ouvrir des API, pas seulement de faire un portail où sont sélectionnées des applications « labellisées », mode de relation avec les citoyens qui reste encore trop hiérarchique, supérieur, entre des « sachants » d’un côté et le brave peuple de l’autre.

Mettre les citoyens et le gouvernement en mode collaboratif

Mais ce n’est qu’un début : le pas suivant consiste à mettre les citoyens et le gouvernement en mode collaboratif, en s’appuyant sur les outils de l’Internet. Je ne saurais que trop vous conseiller de lire l’excellent rapport publié par le gouvernement australien, qui est généralement cité comme ce qui se fait de mieux en gouvernance 2.0 : ” Getting on with Government 2.0“. Ce rapport, publié en décembre 2009 sous licence Creative Commons, est adressé à deux ministres : Lindsay Tanner, ministre des Finances et de la Dérégulation, et Joseph Ludwig, membre du Parlement et ministre d’État. La première page est éloquente : l’Australie veut faire de son gouvernement le meilleur au monde !

Je ne peux m’empêcher de vous délivrer l’un des paragraphes de cette première page :

Information collected by or for the public sector is a national resource which should be managed for public purposes. That means that we should reverse the current presumption that it is secret unless there are good reasons for release and presume instead that it should be freely available for anyone to use and transform unless there are compelling privacy, confidentially or security considerations which require otherwise.

La mise en œuvre de ce projet passera par trois piliers :

> Changer la culture et la gouvernance de l’administration

> Utiliser tous les outils collaboratifs issus de l’Internet

> Ouvrir les accès à toutes les données publiques

    Voici une belle initiative, à l’opposé des fameuses lois en I chères à JMP.

    Ne pourrions-nous pas nous en inspirer ?


    > Billet initialement publié sur Almatropie

    > Illustration par Todd Barnard

    ]]>
    http://owni.fr/2010/03/11/pour-un-gouvernement-20/feed/ 3
    Et si le droit de citation devait sauver le patrimoine culturel ? http://owni.fr/2010/02/06/et-si-le-droit-de-citation-devait-sauver-le-patrimoine-culturel/ http://owni.fr/2010/02/06/et-si-le-droit-de-citation-devait-sauver-le-patrimoine-culturel/#comments Sat, 06 Feb 2010 06:28:50 +0000 Michèle Battisti http://owni.fr/?p=7705 Je ne me suis pas trompée. Le long article de Lawrence Lessig publié  hier (réf.1)  méritait que l’on s’y penche. Il y pointe les aberrations du droit d’auteur, tel qu’appliqué à l’environnement numérique, en partant de difficultés rencontrées dans l’environnement traditionnel par les documentaristes pour libérer les droits sur les nombreux extraits d’œuvres que l’on trouve immanquablement dans ce type de documents. Or, sans droits, ces documentaires, qui représentent des pans importants du patrimoine culturel d’un pays, ne peuvent plus être réexploités et disparaissent.

    Ce qu’il met en exergue, c’est qu’assez curieusement  ces courts extraits qui émaillent les œuvres audiovisuelles et les films, n’ont jamais fait l’objet d’une exception  au titre du droit de citation comme pour les livres et que, de tout temps, une demande d’autorisation était nécessaire pour pouvoir les insérer. Si l’habitude a été prise pour les  auteurs et producteurs d’œuvres audiovisuelles et de films de négocier des droits pour les premières exploitations,  les difficultés, bien souvent l’impossibilité, d’obtenir les droits nécessaires apparaissent lorsque l’on veut les reproduire pour les conserver (*) et les rediffuser ultérieurement.

    Un parallèle avec le numérique, où chaque usage est soumis à une licence d’autorisation,  s’imposait donc tout naturellement, ainsi que les menaces que représente un tel modèle pour l’avenir du patrimoine culturel mondial.

    Abandonner une « vision autiste » du droit d’auteur

    Selon Lawrence Lessig, copier une œuvre à la seule fin  l’indexer ne devrait pas être redevable de droits. Et Google, souligne-t-il aussi (du moins aujourd’hui prend-il la peine d’ajouter), propose dans son projet de Règlement des conditions d’accès aux œuvres plus favorable que le Fair use. Les problèmes majeurs de cet accord ne seraient d’ailleurs  pas liés à la situation de monopole ni même aux atteintes à la vie privée, mais à l’impact du modèle adopté par Google sur l’accès à la culture. Google, certes, a une vision plutôt laxiste de l’accès (c’est bien que lui reprochent les auteurs et les éditeurs, même aux Etats-Unis), mais pour Lawrence Lessig cette vision reste dangereuse car elle protège de fait chaque unité d’une œuvre par un droit d’auteur. Pour marquer les esprits, il donne pour exemple l’absence d’un tableau, dont les droits n’ont pas été obtenus, dans un article scientifique proposé pourtant en libre accès par son auteur.

    Puisqu’il est impossible aujourd’hui de ne pas « entrer chaque jour en collision avec le droit d’auteur », et que la complexité engendrée par le système n’est certainement pas un progrès, il convient de restaurer les espaces de liberté, comme l’ont été les  bibliothèques où l’on pouvait, qui que l’on soit, accéder gratuitement à tous les livres dans leur intégralité.

    Une nouvelle vision qui doit s’imposer rapidement

    Le droit d’auteur est naturellement important pour les auteurs et les éditeurs et doit subsister. Mais, selon  Lawrence Lessig les œuvres ont deux vies : une première où le droit d’auteur est pertinent ; une seconde où certaines utilisations doivent être autorisées.

    Il propose aussi trois pistes  pour pallier les problèmes les plus criants :
    - 1° pour libérer les droits plus facilement, créer des registres, sur le modèle des registres de noms de domaines,  où les ayants- droit inscriraient leurs œuvres après un délai (estimé à 5 ans). Les oeuvres qui n’y figureraient pas seraient réputées appartenir au domaine public ;
    - 2° pour réexploiter l’œuvre légalement, l’ayant droit d’une œuvre composite serait réputé être propriétaire des droits sur l’ensemble des éléments qui la compose au bout d’un délai donné (14 ans, par exemple);
    - 3° s’inspirer aussi du modèle adopté avant l’irruption du numérique, modèle qui ménageait des espaces de liberté  en échange  de compensations financières, à l’image, par exemple, de la licence légale pour la diffusion radiophonique,  afin de rétablir l’équilibre entre les ayants et les usagers,  le principe même sur lequel est fondé le droit d’auteur.

    La citation en filigrane

    Ce résumé du texte très riche de Lawrence Lessig devait en souligner certains aspects. Et la citation, abordée à plusieurs reprises  par l’auteur pour sa démonstration, en est un qui m’est cher (réf.3). L’IABD avait proposé un amendement pour élargir la citation à l’extrait d’œuvres (réf 4). Non limité au seul écrit, il aurait permis de reproduire, non à des fins esthétiques mais  à des fins d’information (pour illustrer l’actualité mais aussi  à des fins documentaires) ou pédagogiques, des graphiques, des photos, ….  avec les mentions de la source qui s’imposent, accompagnées des liens éventuels.  Cet usage correspond également, selon moi, à l’un espace de liberté, évoqué par Lawrence Lessig dans son article. Dûment encadré, il donne sans nul doute une nouvelle vie aux œuvres, sans préjudice pour leur auteur.

    Note
    (*) la reproduction à des fins de conservation est autorisée par la loi française, mais uniquement pour les bibliothèques, les services d’archives et les musées ouverts au public. Ces  établissements peuvent aussi  les  communiquer au public mais au sein de leur bâtiment et sur des « postes dédiés ».

    Sources
    1. For the Love of Culture. Google, copyright, and our future. Lawrence Lessig, The New Republic, January 26, 2010
    2. Les chercheurs français handicapés par l’absence d’exception au droit d’auteur à des fins de recherche, Actualités du droit de l’information, septembre 2008
    3. La loi DADVSI… et après ?; Journée d’étude IABD
    ? Michèle Battisti, Documentaliste-Sciences de l’information,  2007/2 – Volume 44
    4. Amendements au projet de loi Dadvsi proposés par l’IABD. Sur le site Droitauteur

    » Article initialement publié sur Paralipomènes

    » Photo d’illustration par laihiu sur Flickr

    ]]>
    http://owni.fr/2010/02/06/et-si-le-droit-de-citation-devait-sauver-le-patrimoine-culturel/feed/ 1
    Chine : Les internautes s’élèvent contre le départ de Google http://owni.fr/2010/01/18/chine-les-internautes-selevent-contre-le-depart-de-google/ http://owni.fr/2010/01/18/chine-les-internautes-selevent-contre-le-depart-de-google/#comments Mon, 18 Jan 2010 18:39:24 +0000 Rougemer http://owni.fr/?p=7082 [NDLR] Cet article est la traduction d’un texte publié par Bob Chen. Les liens sont en chinois ou en anglais

    Do no evil” (Ne faites pas le mal) est la devise de Google. L’ironie de la chose dans l’affaire de Google en Chine est que Google a aidé le gouvernement chinois à censurer l’accès des internautes chinois à des informations “sensibles”, une condition imposée à Google par le gouvernement chinois pour opérer en Chine.  Cette fois-ci, cependant,  Google a pris la mouche et rendu publics ses différends avec les autorités chinoises. Google va probablement quitter la Chine.
    Le billet publié sur le blog officiel de Google affirme que Google-Chine a été l’objet d’attaques de hackers. Une tierce partie a eu accès aux informations d’utilisateurs de Google, dont beaucoup d’activistes.
    Ce que l’on connait déjà est l’auto-censure de Google. Par exemple, si on tape les mots tel que Tiananmen dans Google.cn depuis la Chine, on n’obtient aucune photo ou texte concernant la crise de 1989 en Chine.
    Quand, le 13 janvier au soir, Google a annoncé qu’il arrêtait sa censure automatisée de son moteur de recherche en Chine, les internautes chinois se sont précipités sur le site web pour faire des recherches sur des mots “sensibles” auxquels il n’avaient jamais eu la chance d’avoir accès. Sur tous les comptes Twitter, forums et réseaux de discussion chinois, on s’est mis à parler de Google et son éventuel départ de la Chine.
    Sur Twitter, pzhtx écrit :

    Google热榜中“天安门”上升到第一了,中国网民在送Google最后一程

    Tiananmen est arrivée en tête des recherches. Les internautes chinois disent de cette façon  ” au revoir ” à Google.

    Les internautes chinois déplorent d’être maintenant confinés au sein du plus grand réseau Internet du monde, encerclés par une Grande Muraille faite de pare-feu et par une censure sans concessions.
    Un message sur Twitter a  fait le tour du web chinois :

    Facebook的原罪是它能让人认识想认识的人,Twitter的原罪是它能让人说出想说的话,Google的原罪是它能让人找到想找到的东西,Youtube的原罪是它能让人看到想看到的东西……所以它们都被干掉了
    Facebook a eu le tort d’aider les gens à savoir ce qu’ils voulaient savoir. Twitter a eu le tort de permettre aux gens de dire ce qu’ils voulaient dire. Google a eu le tort d’aider les gens à chercher ce qu’ils voulaient chercher. Et Youtube a le tort de nous permettre de voir de qu’on voulait voir.
    Alors, pour ça, on les met dehors.

    Des millions d’internautes en subissent directement les conséquences : depuis l’expansion de Google en Chine, son moteur de recherches, sa messagerie Gmail et son outil de traitement de texte Google Doc ont largement été utilisés. Un internaute du site Xiaonei (Renren.com, note du traducteur), un réseau social très populaire chez les jeunes, était paniqué :

    陆铠 :早上看到新闻说“谷歌将退出中国市场”……吓醒了……我的Gmail,我的Google docs,我的谷歌咨询,我的互联网

    Quand j’ai appris que “Google se retire du marché chinois”, j’ai eu vraiment peur. Mon Gmail, mes documents Google, mes recherches Google, mon réseau internet.

    Ces derniers temps, il est arrivé des choses peu ordinaires dans le cyber espace chinois. Le portail Baidu a été attaqué par des soit-disant hackers iraniens, provoquant une “cyber-guerre”. Le moteur de recherche local, qui possède la plus grande part de marché, Baidu, est souvent comparé à Google. Sa réputation est cependant entachée par une forte censure, et aussi parce qu’il a bridé les recherches des internautes sur l’affaire du lait pour bébés empoissonné, après avoir accepté de l’argent des producteurs de lait, par exemple.

    王子健 :百度该不知道的都不知道,谷歌不该知道的都知道,他知道的太多了…

    Ce qu’on ne doit pas savoir, Baidu ne vous le fera pas savoir, tandis que Google vous le dira. On a appris beaucoup de choses avec Google. Et parmi les internautes, c’est Google le [moteur de recherches] qui est très apprécié.

    樊春晓→槑 :谷歌退出中国市场?!谷歌有骨气,谴责xx一个,没有民主的地方,谷歌情愿退出,道义、金钱,什么更重要?我收回以前说老外没文化的话,现在他们为我们诠释了什么叫舍身取义,XX,看看现在的中国人,祖宗的美德一点都没留下,枉为华夏子孙.

    Google quitte le marché chinois ? Voilà la moralité de la compagnie : dans un lieu sans démocratie, Google a choisi de partir. Qu’est-ce qui est le plus important, l’argent ou la moralité et la justice ? Je retire ce que je disais avant sur les grossiers étrangers : ils nous ont montré ce que veut dire se sacrifier pour la bonne cause. Regardez la Chine aujourd’hui. De la vertu et des mérites de nos ancêtres, il ne reste plus rien. Ça me fait mal au cœur d’être un descendant de la grande nation des Hans。

    On trouve aussi des blagues sarcastiques qui font le tour de la Toile :

    90后:今天我翻墙,看到一个国外网站叫Google的,妈的全是抄袭百度的。00后:翻墙是什么? 10后:网站是什么? 20后:国外是什么?
    Génération 1990 : aujourd’hui j’ai sauté par dessus le mur (Ndt : le pare-feu de la censure), et j’ai vu un site web étranger, qui s’appelle Google. Putain , c’est une copie totale de Baidu !

    Génération 2000 :  sauter le mur, c’est quoi ?
    Génération 2010 : Site web ? connais pas.
    Génération 2020 : Étranger ? quel étranger ?

    唐鹏 :我党威武,我天朝万岁!!谷歌终于要“自愿”退出中国市场了!!!

    Tang Peng  : Longue vie à la dynastie du Parti  Communiste Chinois, ce grand parti politique ! Finalement, Google voudrait quitter le marché chinois de son propre chef !
    Les internautes ont rapidement déduit quelle version de l’information allait être présentée par les chaines de télévision CCTV (chaines d’état chinoises).

    cctv新闻稿:近日谷歌公司由于黄色搜索,侵犯中国作家著作权等问题,遭到了中国网民的普遍抵制。由于业绩下滑严重,考虑退出中国市场。这又是一次中国网民抵制外国不良网络服务商的成功案例!

    Informations de la CCTV : Récemment, Google a rencontré des problèmes avec des sites pornographiques, et le non-respect de droits d’auteurs ;  pour ces raisons, les internautes chinois l’ont boycotté. Subissant alors des baisses de revenus, Google a envisagé de se retirer du marché chinois. Voilà encore un nouveau cas où le peuple chinois boycotte un site web étranger plein de mauvaises intentions !

    Le mouvement pour déposer des fleurs au pied des bureaux de Google en Chine a gagné de l’ampleur sur la toile. C’est une façon de rendre hommage à Google et d’exprimer le mécontentement et l’amertume à l’égard de la censure. Devant le siège de Google à Pékin, des internautes ont commencé à organiser la commémoration en déposant des fleurs.

    » Article initialement publié sur Global Voices

    ]]>
    http://owni.fr/2010/01/18/chine-les-internautes-selevent-contre-le-depart-de-google/feed/ 1
    Internet du futur : vers un “cahier des charges” http://owni.fr/2009/07/22/internet-du-futur-vers-un-%e2%80%9ccahier-des-charges%e2%80%9d/ http://owni.fr/2009/07/22/internet-du-futur-vers-un-%e2%80%9ccahier-des-charges%e2%80%9d/#comments Wed, 22 Jul 2009 15:03:47 +0000 Hubert Guillaud http://owni.fr/?p=2055

    “Il est essentiel que le réseau ‘universel’ qu’est l’internet conserve une architecture qui favorise l’accessibilité et l’innovation” rappelle la réponse à la [1] consultation du secrétariat d’Etat chargé de la Prospective et du développement de l’économie numérique sur l’internet du futur que publient la Fing, Silicon Sentier, l’internet Society France et plusieurs personnalités de l’internet français.

    Une réponse qui pointe du doigt le danger qu’il y aurait de vouloir transformer l’internet sans comprendre comment lui-même nous a transformé.

    Introduction

    En réponse à la consultation publique sur l’internet du futur organisée par le secrétariat d’Etat chargé de la Prospective et du développement de l’économie numérique, la Fing,  Silicon Sentier et l’ Isoc France, ainsi qu’un certain nombre d’individualités marquantes de l’internet français, ont choisi de produire ensemble une contribution publique.

    Ce groupe se compose pour l’essentiel de non-techniciens, qui ont néanmoins de l’internet un usage quotidien et professionnel pour publier, innover, produire.

    Par conséquent, notre contribution propose plutôt les éléments d’un “cahier des charges” de l’internet de demain, envisagé par des “grands utilisateurs”, qu’une série de recommandations techniques précises.

    Les questions posées par l’internet et ses usages ne trouvent certes pas toutes leurs réponses dans l’architecture et les technologies du réseau lui-même. Beaucoup de réponses relèveront des applications et des services, des utilisateurs et de leurs organisations, de la régulation ou de l’écologie des usages. Dans le cadre de cette consultation, nous avons choisi de nous focaliser sur ce que l’on devait demander au réseau internet – et par symétrie, sur ce qu’il vaudrait mieux ne pas lui demander.

    C’est pour mieux explorer aussi ce second terme de l’alternative – ce que l’on ne devrait pas demander au réseau – que nous avons décidé d’évacuer (pour l’instant du moins) des infrastructures d’applications aussi importantes que le web. Cela nous aura notamment permis de repartir de questions trop rarement posées : qu’attendons-nous vraiment de l’internet ? Que sommes-nous prêts à sacrifier pour l’obtenir ?

    Nous espérons que ce court texte apportera un éclairage utile et complémentaire des autres contributions.

    Il demeure ouvert aux critiques, commentaires et enrichissements sur le site  http://internetdufutur.wordpress.com.

    Daniel Kaplan, Jean-Michel Cornu et Hubert Guillaud,  Fing
    Marie-Vorgan Le Barzic et Marie-Noéline Viguié,  Silicon Sentier
    Gérard Dantec et Laurent Ferrali, Isoc France

    Sommaire
    1. A quels problèmes s’agit-il de répondre ?
    2. Des non-dits qui obscurcissent le débat
    3. Efficience ou universalité : au fond, que demande-t-on à l’internet ?
    4. Les objets, les sujets : deux nouveaux objectifs pour l’internet du futur
    5. Conclusion, les trois priorités
    Liste des participants

    1. A quels problèmes s’agit-il de répondre ?

    Si tant de gens, dans tant de pays, réfléchissent à “l’internet du futur”, ce doit être que celui-ci rencontre des problèmes, ou qu’il devrait en rencontrer dans l’avenir. Pour envisager les directions à prendre, il est important de recenser ces problèmes, et d’en mesurer le caractère plus ou moins critique. Il faut aussi faire la part des problèmes réellement liés à la technique, de ceux qui proviennent de l’organisation de l’internet ou de ses acteurs.

    Et pourtant, il marche !
    Car le plus étonnant, au fond, est que pour la plupart de ses usages et de ses utilisateurs, l’internet fonctionne assez bien alors que son architecture fondamentale a fort peu changé en près de 30 ans.

    Cela se fait certes au prix d’une grande complexité, distribuée à tous les niveaux : multitude d’acteurs intervenant à tous les échelons du réseau – jusqu’aux administrateurs des réseaux d’entreprises et aux utilisateurs (gestion des adresses, sécurisation, mises à jour diverses, etc.) ; multiplication des adaptations destinées à permettre au réseau d’accepter de nouveaux usages et de nouveaux utilisateurs ; “patches” liés à la sécurité, la qualité de service, la mobilité, etc. Mais il demeure que l’exceptionnelle capacité d’adaptation de l’internet, et l’extraordinaire diversité des utilisateurs et des usages pour lesquels il constitue aujourd’hui une base satisfaisante, doivent conduire à approcher toute transformation significative avec un grand discernement.

    Un problème de dimension
    L’une des principales difficultés que rencontre l’internet d’aujourd’hui est celle de suivre la croissance du nombre d’appareils connectés. Celle-ci traduit non seulement la croissance du nombre d’utilisateurs, celle du nombre de “terminaux” par utilisateur (beaucoup d’appareils électroniques s’équipant d’une connexion réseau), mais aussi, la multiplication d’objets et d’espaces “communicants”.

    L’insuffisance du nombre d’adresses IP que fournit l’actuel protocole IPv4 est manifeste. Diverses mesures ont jusqu’ici permis de gérer la pénurie, au prix d’une certaine fragmentation du réseau et sans doute, de l’impossibilité de penser certains usages (il est par exemple impossible d’accéder directement à chaque objet connecté par une adresse propre indépendante des applications, ce qui rend difficile son utilisation comme “serveur”).

    L’inflation des tables de routage pourrait également finir par créer des phénomènes d’engorgement. Malgré les promesses des générations successives de routeurs, l’évolution technologique ne semble pas pouvoir répondre à elle seule à cette problématique de croissance.

    Des insuffisances pour des usages “critiques”
    L’internet pose des problèmes à des organisations ou des types d’échanges pour lesquels le réseau, ou bien telle ou telle de ses caractéristiques, ont un caractère critique – au sens où si une fonction donnée n’est pas remplie, l’échange devient impossible ou sérieusement problématique :

    • L’internet ne propose pas aisément une sécurisation de bout en bout des échanges. Techniquement, elle supposera que tous les intermédiaires assurent bien le même service d’une façon compatible les uns avec les autres. Or, l’internet étant un réseau de réseaux indépendants les uns des autres, une part majeure de la sécurité relève de fait des utilisateurs et des applications. Notons qu’aujourd’hui, dans la plupart des cas, les opérateurs de réseaux comme les utilisateurs mettent très insuffisamment en œuvre les technologies et les démarches de sécurité élémentaires et disponibles.
    • Reposant sur un principe d’obligation de moyens (”best effort”) et non de bonne fin, l’internet peut difficilement être utilisé pour des échanges ayant besoin d’un niveau garanti de “qualité de service”, en termes de fiabilité, de débit, de latence, etc. On pense, par exemple, à des usages pour lesquels le temps réel est essentiel, parmi lesquels la vidéo haute définition, mais aussi des applications destinées à synchroniser de manière précise différents dispositifs (applications industrielles, de sécurité, scientifiques, etc.). Là encore, des solutions existent, mais il est difficile de garantir qu’elles sont mises en œuvre, et de la même façon, de bout en bout et au travers de tous les réseaux.

    Une difficulté à accomoder de nouvelles demandes
    En l’état, malgré certaines adaptations, l’internet gère mal la mobilité. Il se prête également mal à la multidiffusion d’un signal (”multicast”).

    Des difficultés d’ordre économique et social
    Enfin, l’internet suscite ou rend manifestes des difficultés dont le caractère n’apparaît pas technique au premier abord, mais dont on pressent bien – pour de bonnes ou de mauvaises raisons – que certaines solutions pourraient passer par des évolutions du réseau lui-même :

    • L’internet est difficile à contrôler, mais il n’est pas non plus si incontrôlable qu’on le dit. Le pouvoir iranien n’est pas si mal parvenu à restreindre les communications entre ses citoyens, et il a sérieusement raréfié leurs interactions avec le reste du monde. On ne peut tout contrôler tout le temps, mais force est de constater que dans de nombreux pays, on parvient assez bien à censurer l’internet, ou au moins retrouver la trace de ceux qui passent au travers des mailles du filet.
    • Le modèle économique de l’internet, comme réseau, apparaît comme fragile. A titre d’exemple, la rentabilité des fournisseurs d’accès s’obtient aujourd’hui, soit en faisant financer les gros utilisateurs par les petits (comme nous le verrons plus loin), soit en s’étendant vers d’autres services, ce qui peut poser des problèmes de concurrence ou fragiliser des secteurs (comme ceux des contenus) dont la rentabilité s’avère déjà problématique.
    • La gestion de l’identité sur l’internet n’est guère satisfaisante. Alors que le réseau est devenu, pour beaucoup de gens, un espace d’action et de transaction quotidien, l’identité numérique demeure généralement liée aux conditions physiques et contractuelles d’accès au réseau ou à un service. Pour la plupart des individus, changer de fournisseur d’accès, de service de messagerie ou de réseau social signifie perdre son adresse, ses contacts, bref, une bonne part de son identité.
      L’identité numérique n’est en fait ni réellement protégée (il y a beaucoup de moyens de savoir qui se cache derrière un pseudo, une adresse IP), ni réellement certifiée (on peut penser savoir à qui l’on a affaire, mais sans en être sûr).
    • Notre vie quotidienne, notre vie économique, certains aspects essentiels du fonctionnement de nos sociétés, deviennent très dépendants vis-à-vis de l’internet. Mais celui-ci n’assume pas vraiment la responsabilité qui devrait accompagner cette dépendance : sauvegarde et préservation des informations dans le temps ou au contraire, effacement sûr des informations, résilience en cas de problème, etc.

    Il y a donc beaucoup de bonnes raisons de s’intéresser à l’internet du futur, voire de tout remettre à plat, sur le plan intellectuel du moins. Mais un certain nombre de non-dits obscurcissent aussi singulièrement le débat.

    Cartographie des questions relatives à l'internet du futur par Véronique Olivier-Martin
    Image : Une cartographie des questions relatives à l’internet du futur réalisée par [17] Véronique Olivier-Martin à partir de l’atelier de travail du 26 juin 2009.

    2. Des non-dits qui obscurcissent le débat

    Tous les problèmes cités plus haut sont réels et importants. Mais l’internet vit avec eux depuis des années. Certains de ces problèmes ont trouvé des solutions plus ou moins bricolées. Dans d’autres cas, les solutions techniques disponibles, certes peut-être imparfaites, tardent à se mettre en œuvre – c’est vrai en particulier de la sécurité, tant au cœur des réseaux que dans les entreprises et sur les postes de travail.

    Alors, pourquoi le thème de l’internet du futur, voire – pour certains – de sa nécessaire refondation, prend-il aujourd’hui tellement d’importance ? Et de quel internet s’agit-il ?

    Un enjeu économique mal documenté
    La question de la “neutralité de l’internet” a surgi dans l’actualité via la rubrique économique : il s’agissait, pour certains fournisseurs d’accès américains, de compléter les revenus qu’ils tiraient de leurs clients finaux (vente d’abonnements, de bande passante et d’interconnexion) en facturant les sites web les plus utilisés ou les plus exigeants, en échange d’une garantie d’acheminement prioritaire sur leurs liaisons.

    Cela revenait au fond à rappeler que l’équilibre économique de la plupart des acteurs du réseau repose sur un écheveau complexe et opaque de subventions croisées :

    • Au cœur du réseau, les petits réseaux et les pays pauvres subventionnent les autres en payant des frais d’interconnexion bien plus élevés ;
    • Au niveau local, l’enchevêtrement entre réseaux et points d’interconnexion publics et privés, réservés et partagés, rend difficile tout calcul précis ;
    • Au niveau de l’accès, les clients raccordés à un débit moyen ou bas, ou ceux qui consomment peu, subventionnent les gros utilisateurs des centres-villes ;
    • Des transferts également complexes ont lieu entre les différents métiers des opérateurs : accès, contenus, transactions…

    On comprend alors que derrière certaines hypothèses d’évolution de l’internet, s’expriment des volontés – éventuellement contradictoires – de modifier les équilibres économiques et les jeux d’acteurs.

    Par exemple, il est difficile de garantir une qualité de service de bout en bout si chaque communication emprunte un chemin différent, passant “chez” un grand nombre d’acteurs indépendants les uns des autres, de toutes tailles, obéissant à des règles différentes – c’est la situation d’aujourd’hui. Mais pour faire autrement, il faudrait une intégration beaucoup plus forte des réseaux jusqu’à l’accès, et beaucoup moins d’opérateurs, chacun étant lié aux autres par des règles (économiques et techniques) d’interconnexion très strictes. On voit bien qu’une telle intégration changerait le paysage concurrentiel de l’internet.
    De même, une plus forte intégration entre accès et contenus, ou encore, une architecture de réseau qui ne ferait plus la différence entre accès fixes et mobiles, entraineraient de toutes autres organisations de marché.
    Il est légitime que les intérêts s’expriment. Mais ils apparaissent rarement en tant que tels dans le débat sur l’internet du futur. Les intérêts se masquent le plus souvent derrière des arguments fonctionnels et techniques.
    Une meilleure connaissance de la réalité de l’économie de l’internet, ainsi que des rôles, usages, intérêts et enjeux de l’ensemble de ses acteurs, semble indispensable à un débat éclairé et ouvert sur l’internet du futur. La France devrait engager des travaux de recherche dans ce domaine et inviter l’Union européenne à en faire de même.

    Un désir de contrôle qui ne se soumet pas au débat
    Les réflexions américaines sur l’internet du futur sont devenues de plus en plus visibles à partir des attentats du 11 septembre 2001. C’est dire que la préoccupation sécuritaire y joue un grand rôle. Celle-ci concerne certes les Etats face au terrorisme et plus généralement, aux nouvelles formes de guerre. Mais la lutte contre la délinquance et la criminalité s’est également invitée au débat. Et de leur côté, les entreprises demandent également plus de sécurité face aux attaques gratuites ou intéressées dont elles sont très souvent victimes. Et plus récemment, ce sont des secteurs économiques aux prises avec de nouvelles formes de concurrence plus ou moins loyale, ou même avec leurs clients (dans le cas des industries culturelles par exemple), qui demandent au réseau d’en savoir plus sur ses utilisateurs, de filtrer, bloquer, tracer…

    Certaines de ces demandes se retrouvent de fait au cœur de débats publics, comme c’est le cas autour de la “loi Hadopi”. Mais bien d’autres s’expriment d’une manière plus discrète. On peut comprendre pourquoi. Mais dans le même temps, s’agissant de l’architecture d’un réseau aussi essentiel que l’internet, le degré d’importance à accorder à l’insertion de nouvelles fonctions de sécurité au sein du réseau doit s’ouvrir aux discussions. Parce qu’on ne sécurise jamais sans contrepartie, que ce soit en termes d’ouverture du réseau, de performance, de jeux d’acteurs, etc.

    * *

    Les vertus de l’internet actuel doivent servir de base pour construire l’internet du futur. Les individus comme les organisations utilisent le potentiel collaboratif de l’internet d’une façon active et efficace. La prise en compte de ces aspects est un atout pour les pays émergents qui voient l’internet comme une opportunité en termes de développement et (le plus souvent) de liberté d’expression. Elle est, pour tous, un facteur d’innovation et de croissance. Toute évolution proposée doit être jugée en fonction de sa capacité de faire vivre cette dynamique ou, au contraire, de la fragiliser.

    _________________

    Un enjeu de gouvernance mondiale
    Le groupe de travail n’a pas produit de contribution spécifique sur la gouvernance de l’internet, qui demeure cependant un sujet d’avenir majeur. Cette gouvernance demeure aujourd’hui largement dépendante du gouvernement américain d’une part, et de l’autre, des grandes entreprises (notamment américaines) qui ont à la fois l’intelligence et les ressources de financer la présence massive de leurs ingénieurs dans les groupes de standardisation.

    Les futures évolutions de l’internet doivent relever d’une gouvernance bien plus multilatérale et multi-acteurs. Le mouvement engagé sous l’égide des Nations Unies depuis le Sommet mondial de la société de l’information (2003-2005), qui a vu émerger une forme d’expression de la “société civile”, constitue un premier pas, évidemment insuffisant. L’Europe doit devenir un intervenant actif des débats à venir. Les entreprises européennes doivent prendre conscience de la nécessité d’être présentes aux moments et aux endroits où s’élaborent les standards. Enfin, ces travaux doivent déborder du cadre des forums officiels et des listes de discussions pour techniciens, pour permettre à d’autres groupes d’évaluer les conséquences économiques, sociales et environnementales des évolutions envisagées.

    3. Efficience et universalité : au fond, que demande-t-on à l’internet ?

    Les réflexions sur l’internet du futur semblent faire l’hypothèse que ce réseau doit devenir plus efficient pour, d’une part, grandir et d’autre part, mieux répondre aux besoins « critiques » – sécurité, qualité de service, etc.

    Cette idée qui semble incontestable mérite cependant qu’on la regarde en profondeur et en particulier que l’on se pose la question de savoir ce que l’on perd lorsque l’on gagne en efficience.

    Car on demande aussi à l’internet d’être un réseau “universel”, et même doublement :

    • Il doit être accessible au plus grand nombre (voire à tous), donc disponible partout, facile à déployer et raccorder, peu coûteux. L’internet a fait de la connectivité une aspiration nouvelle, que l’on voit s’exprimer de la part des exclus des réseaux et plus encore, des exclus de la démocratie ou du développement dans le monde. L’internet du futur doit à l’évidence continuer de porter cette espérance.
    • Il doit également accueillir les usages, les services, les applications et même les détournements les plus hétéroclites et les plus imprévus, et leur permettre si nécessaire de se déployer à très grande échelle. En fonctionnant comme une infrastructure neutre et simple, appuyée sur des standards ouverts, en ne faisant aucune distinction a priori entre les points qu’il connecte, l’internet est devenu en quelques années l’une des plus extraordinaires plates-formes d’innovation de l’histoire. Des millions d’applications, de sites, d’organisations humaines, de processus… s’appuient sur lui. Pratiquement aucun n’était même imaginable aux débuts du réseau. Très peu ont été inventés par les grands acteurs des réseaux.

    Pour atteindre ce niveau d’universalité, le critère prioritaire n’est plus l’efficience, mais l’adaptabilité, la capacité d’accueillir l’imprévu – le juriste Jonathan Zittrain parle d’un internet “génératif” .

    Comment équilibrer adaptabilité et efficicience ?
    Gagner en efficience implique que l’on cherche à optimiser la gestion des ressources rares du réseau (les adresses IP, la puissance de calcul des routeurs, la bande passante parfois… et les finances des opérateurs) et à en maximiser la sécurité, ce qui exige de prévoir au mieux ce qu’il se passe sur le réseau (les chemins empruntés par exemple).

    rareteabondance.jpgSe mettre en position de répondre à l’imprévu exige à peu près l’opposé : proposer en permanence une abondance de choix, voire de capacités, entre lesquels chaque innovateur, chaque organisation, voire chaque individu, choisira le moment venu, mais pas avant…

    Ainsi d’un côté, on cherche à optimiser (gérer la rareté par la prévisibilité) et de l’autre à s’adapter (gérer l’imprévisible par l’abondance). Ces deux approches semblent incompatibles mais en réalité, tout est affaire d’équilibre.

    efficienceresilience.jpgLes sciences de la complexité, démontrent en effet que tout réseau, qu’il soit technologique, biologique ou humain atteint un optimum de durabilité lorsqu’il trouve le bon équilibre entre l’efficience et la résilience (qui reprend certaines notions de l’adaptabilité) . Cet optimum se situe généralement un peu plus près de la résilience que de l’efficience. C’est également à ce point d’équilibre entre optimisation et adaptabilité, entre ordre et désordre, qu’émergent de nouvelles possibilités ; bref, que le potentiel d’innovation est maximal.

    Les arguments techniques, généralement centrés sur l’efficience, ne peuvent donc pas suffire à déterminer la direction des travaux sur “l’internet du futur”. Il faut certes répondre d’une manière ou d’une autre aux besoins “critiques” de certaines applications qui échouent si certaines fonctions ne sont pas remplies à un certain niveau de qualité (garantie de bonne fin). Mais l’internet doit aussi demeurer un réseau à vocation universelle – accessible à tous et à tous les usages, sans préjuger de leur pertinence – et ceci s’accommode mal de dispositifs verrouillés.

    Il y a critique et critique
    Quelles sont les applications qui nécessitent vraiment un réseau “critique”, prioritairement bâti sur des critères d’efficience et de sécurité ?

    On a par exemple souvent présenté la nécessité d’un débit parfaitement continu (la qualité de service) comme un élément critique pour permettre de passer de la voix sur un réseau. Mais l’utilisation massive du téléphone mobile, de la téléphonie IP, de la vidéo sur l’internet ou même de jeux en ligne de “basse résolution”, montre que les utilisateurs arbitrent plus souvent qu’on ne le croit en faveur du choix, du prix, de la mobilité, de leur propre capacité de participation, au détriment d’une qualité maximale.
    Par contre des réseaux militaires, de recherche ou d’échanges interbancaires peuvent être perçus comme critiques : la sécurité, le délai d’arrivée des informations, la rapidité d’interaction, y ont un caractère vital. C’est aussi le cas d’éventuels réseaux qui permettraient le contrôle à distance de stimulateurs cardiaques ou d’autres appareils médicaux : dans ce cas la sécurité et la continuité du service doivent être assurés au maximum, quitte à réduire l’innovation sur de tels réseaux.

    Faire coexister deux logiques
    Sans négliger l’importance des critères d’efficience propres aux réseaux et aux usages “critiques”, on ne saurait donc réorganiser tout l’internet autour de ces critères. Il est “essentiel ” que le réseau “universel” qu’est l’internet conserve une architecture qui favorise l’accessibilité et l’innovation (symétrie des échanges, interconnexion directe des différents points du réseau…). De ce point de vue, il est nécessaire à court terme de faciliter le déploiement du protocole IPv6 (qui est immédiatement disponible et conserve cet équilibre entre “best effort” et optimisation) tout en favorisant la recherche de nouvelles solutions respectant le même type d’équilibre.

    D’un autre côté, il apparaît économiquement raisonnable que les réseaux critiques, mêmes non interconnectés avec l’internet “universel” partagent lorsque cela est possible, les mêmes infrastructures physiques.
    Différentes technologies permettent aujourd’hui de faire fonctionner sur de mêmes réseaux physiques des réseaux “virtuels” distincts et même étanches entre eux. Ceci présenterait en outre l’avantage, pour l’avenir, de faciliter l’expérimentation (de préférence participative, avec l’ensemble des acteurs concernés) de solutions innovantes pour l’internet qui sauraient mieux équilibrer performance, fiabilité, adaptabilité, économie et innovation.

    Une difficulté économique
    Cette vision d’un réseau “universel” qui arbitre délibérément en faveur du potentiel d’innovation au détriment de certaines attentes en termes d’efficience, et même de sécurité, rend difficile la mise en place de points de passage obligés à des fins, par exemple, de péage ou de contrôle. Remarquons cependant que dans d’autres domaines, ces fonctions ne sont pas non plus gérées par le réseau (cas des transports, dont la modernisation s’est accompagnée de la disparition des octrois), ou bien qu’elles ne le sont pour l’essentiel qu’aux extrémités des réseaux (cas de l’énergie). L’internet ne ferait donc pas exception.

    * *

    Si l’on ne peut pas avoir à la fois une efficience maximale et une adaptabilité maximale, il faut alors trouver le moyen de permettre aux deux formes de réseaux de se développer tout en s’interconnectant et en partageant le plus grand nombre possible de ressources.

    4. Les objets, les sujets : deux nouveaux objectifs pour l’internet du futur

    Un véritable “internet des objets”
    Aujourd’hui, ce que l’on décrit souvent comme “l’internet des objets” se déploie le plus souvent hors de l’internet (dans des réseaux internes à des entreprises ou à des secteurs d’activités) et selon des principes très différents de ceux de l’internet : chaque puce qui équipe un objet ou un lieu ne communique en général qu’avec son “maître”, dans des dispositifs en étoile autour d’un système centralisé, et pour des finalités précises.

    Les objets et les espaces se mettent bien en réseau, mais d’une manière sélective et le plus souvent hiérarchique, à l’intérieur de silos. On ne peut en général pas accéder aux capteurs et actionneurs pour leur faire faire autre chose que ce qu’ont prévu leurs installateurs ; on n’accède pas plus aux données qu’ils produisent : les images des caméras vont au PC de surveillance, les mesures de trafic à celui de la circulation, et personne d’autre n’en fera jamais rien. A brève échéance, on saura probablement identifier les “objets communicants” d’une manière à peu près universelle, mais il reste que la connexion “en étoile” à un serveur ne fait pas un “internet des objets”.

    Ce qui a deux conséquences liées : d’une part, la plupart des puces installées dans des objets ou des espaces doivent se rentabiliser sur un seul usage, pour un seul acteur – celui qui les a installées. Comme, jadis, les ordinateurs spécialisés, mono-tâches et mono-utilisateurs. Et d’autre part, l’imagination innovante trouve peu à s’appliquer, puisque l’accès à l’infrastructure de facto que constituent toutes ces puces demeure sous contrôle, et que la combinatoire de ces puces, objets, espaces, utilisateurs, demeure bridée.

    Un marché aussi contraint se condamne à rester petit. Et par construction, il vise à renforcer les acteurs et modèles existants, pas à les changer.

    Deux idées centrales
    D’autres pistes sont en cours d’exploration pour imaginer un système dans lequel les modèles de conception des objets, leurs fonctions, leurs caractéristiques techniques, leur composition, leur cycle de vie et bien sûr, les services qu’ils offrent via leurs capacités d’acquisition, de traitement et de communication, s’ouvrent beaucoup plus largement à l’innovation.

    Tout, dans ces travaux, ne relève pas du réseau soi-même. Mais ils convergent autour de deux idées centrales :

    • Faire des objets (et des espaces) communicants des “constituants” de l’internet à part entière, qui peuvent être visibles du reste du réseau (ils disposent d’adresses publiques), qui peuvent émettre autant que recevoir et ce, via l’internet de tout le monde, qui peuvent être exploités (ou au moins voir leurs données exploitées) par d’autres que ceux qui les ont créés, installés ou équipés. Naturellement, des conditions de sécurité ou économiques peuvent s’appliquer, mais elles doivent venir après. Cela suppose a minima que l’espace d’adressage des objets soit cohérent avec celui du reste de l’internet et que les protocoles de l’internet “universel” facilitent également l’interconnexion avec des objets dont les capacités électroniques sont de faible puissance et qui doivent consommer très peu d’énergie.
    • Faciliter l’établissement spontané de réseaux de proximité entre objets fixes et nomades : détection et reconnaissance automatique, négociation de la connexion, utilisation des supports de réseau disponibles, ainsi que des liens accessibles avec le reste de l’internet.

    La recherche européenne doit se focaliser sur ces éléments de cahier des charges, pour prendre position dans la création d’un internet des objets intégré dans l’internet des humains, plutôt que séparé de lui et contrôlé par les grandes filières industrielles existantes.

    Un “internet des sujets”
    Le thème de l’identité (numérique) prend une place de plus en plus centrale dans les discussions autour de l’internet, ainsi que dans les pratiques.

    Aujourd’hui, cette identité est maltraitée sur le réseau :

    • Elle dépend entièrement des conditions d’accès au réseau ou à un service donné. Si l’on change de fournisseur d’accès internet, on perd le plus souvent son adresse e-mail et par suite, bien souvent, son accès à certains services, voire des listes de contacts. Si l’on change de réseau social, on perd son profil et ses réseaux d’”amis”.
    • Elle est fragmentée, elle existe de manière différente dans chaque espace au sein duquel on s’identifie : un coupe identifiant/mot de passe par service, réseau social, outil… Il devient dès lors très difficile de maîtriser les manifestations et les utilisations de son identité.
    • L’utilisateur de l’internet n’est ni vraiment anonyme (il est relativement aisé de l’identifier, du moins si l’on peut relier l’adresse IP à un compte chez un fournisseur d’accès), ni bien identifié (le réseau lui-même ne certifie ni n’authentifie sans dispositifs complémentaires mis en place à cet effet).

    Or le développement des pratiques individuelles et sociales de l’internet fait émerger un grand nombre d’attentes nouvelles, et en partie contradictoires :

    • Le besoin social et professionnel de disposer d’une “existence numérique” – auquel font référence des initiatives tendant à donner à des SDF une adresse mail, un numéro de téléphone ou encore un espace de stockage numérique personnel.
    • La volonté de maîtriser les manifestations de son identité, qu’il s’agisse de préserver sa vie privée face aux commerçants, aux employeurs ou aux autorités – ou au contraire de se projeter pour entrer en relation avec d’autres, collaborer, s’exprimer, obtenir un service…
    • La double volonté, d’une part, de disposer de plusieurs “identités” distinctes permettant de cloisonner divers aspects de son existence et d’autre part, de simplifier la gestion de ses identifiants, de ses cercles de relations, de ses profils, etc.
    • La besoin de rattacher à son ou ses identité(s) une multitude d’objets, d’informations, de documents, de liens et autres “agents” disséminés sur le réseau – sans pour autant tout laisser voir à tout le monde.

    Une “adresse numérique” personnelle ?
    La complexité de ces attentes incite paradoxalement à ne pas trop confier de choses au réseau soi-même, au risque de tout figer, ou de détruire la confiance pour cause d’excès de surveillance.

    Mais il semble malgré tout nécessaire de réfléchir à la possibilité d’attribuer facilement (et pour pas cher, voire gratuitement) un ou plusieurs identifiants techniques pérennes, propres à l’individu et sans doute incessibles, indépendants des modalités physiques ou contractuelles d’accès au réseau. La forme de cet/ces identifiant(s) est à discuter : adresse IP ou morceau d’adresse, nom de domaine, “URI” (uniform resource identifier)…

    Un tel type d’identifiant résoudrait plusieurs des problèmes cités plus haut. En revanche, il pourrait en créer de nouveaux s’il rendait excessivement aisé l’établissement d’un lien entre une visite, une transaction, un échange, une donnée, et l’identité civile associée. Il faudrait donc offrir la possibilité de le masquer via des dispositifs d’anonymisation de tout ou partie de l’adresse par exemple, ou par des moyens alternatifs à rechercher.

    Ce qui précède constitue donc, non pas une revendication, mais la recommandation d’en faire un vrai sujet de recherche et d’expérimentation pour l’internet de demain. L’identité numérique sera l’un des sujets de débat centraux de l’internet du futur. Ce sujet devra être abordé d’une manière créative et courageuse, pour répondre aux aspirations qui émergent sans céder à la tentation de la surveillance ou de la transparence totale.

    Un internet de confiance ?
    La “confiance” est souvent évoquée comme l’un des buts souhaitables à atteindre sur l’internet du futur. Mais qu’entend-on par confiance ? Au moins trois choses :

    • La confiance vis-à-vis du réseau soi-même, de sa fiabilité (la possibilité de s’appuyer dessus pour des actes importants) – dont l’une des conditions est qu’il ne nous soumette pas à une surveillance plus étroite que celle que l’on accepte dans la vie quotidienne hors ligne.
    • La confiance vis-à-vis des services, de leur crédibilité, du respect de leurs engagements contractuels, du respect de la vie privée de leurs utilisateurs.
    • La confiance vis-à-vis des autres, de ce que l’on pense savoir d’eux (qui ne suppose pas nécessairement de connaître leur identité civile) et de la valeur de leur parole.

    Face à ces questions importantes, les principales réponses théoriques et politiques sont aujourd’hui techniques – elles consistent à augmenter le niveau de sécurité des systèmes ; alors qu’au quotidien, les principales réponses pratiques sont plutôt contractuelles (ce que chacun risque ou non), assurancielles (à qui coûte le risque, et combien), sociales (ce que les autres disent de…) ou mémorielles (ce que j’ai vécu précédemment avec…). La plupart des dispositifs avancés de sécurisation des échanges demeurent peu utilisés.

    Faut-il aller plus loin dans le réseau lui-même ? Sans doute, mais là encore, d’une manière prudente. Traiter de manière purement technique des questions de confiance peut détruire le substrat de confiance sur lequel toute société repose : pourquoi me demander si j’ai confiance en quelqu’un s’il m’est facile de prendre toutes les sécurités possibles ? Et par suite, la confiance vis-à-vis du réseau peut en souffrir : puis-je prendre le moindre risque si tout m’est infiniment imputable et si, pour que ce soit le cas, tout ce que je fais se sait quelque part ?

    A minima, avant que de sécuriser plus avant l’internet et les échanges qui s’y déroulent, il conviendrait de s’assurer que les dispositifs de sécurité existants sont utilisés – ou bien, de comprendre pourquoi ce n’est pas le cas. Il peut en effet, comme nous l’indiquons dans la partie 3, y avoir de bonnes raisons de ne pas sécuriser à l’excès certains dispositifs, certains modes d’accès et d’identification, certaines transactions ou échanges : faciliter l’accès, réaliser des économies, favoriser l’émergence d’usages imprévus et de détournements, inviter les utilisateurs à se faire confiance, etc.

    Ce que l’on pourrait demander au réseau soi-même pourrait alors porter sur :

    • La confidentialité des échanges : certains imaginent que les données circulant sur le réseau puissent être étiquetée d’un niveau de confidentialité (public, privé, restreint) ;
    • La sécurité des équipements du réseau ;
    • Et la facilité de construire des réseaux “critiques” plus fiables et sécurisés, séparés au moins pour partie de l’internet “universel”.

    Conclusion : les trois priorités

    Une approche technologique de l’internet du futur cherchera assez naturellement à répondre au plus grand nombre possible de demandes en termes de performance, de fiabilité et de sécurité.

    En nous plaçant d’un autre point de vue, celui d’acteurs qui s’appuient sur l’internet pour innover et développer leurs activités, nous avons montré que cette approche pouvait avoir un coût caché : celui de rendre l’internet moins accessible, et surtout, moins ouvert à l’innovation.

    * *

    En évoluant, l’internet doit rester ce réseau doublement universel – ouvert à tous, ouvert à tout – et cette plate-forme d’innovation. Cela supposera souvent d’arbitrer, sur l’internet, en faveur de l’adaptabilité du réseau plutôt que de l’optimisation – quitte à faire le contraire sur certains réseaux dédiés, plus ou moins interconnectés avec l’internet “universel” et pour lesquels la capacité d’innovation n’est pas aussi essentielle.

    Les conséquences sociales et économiques d’une diminution de la capacité de l’internet à fonctionner comme un moteur d’innovation ouverte, y compris pour de compréhensibles raisons de sécurité et de qualité, seraient profondément négatives.
    Cet internet ne sera plus celui des seuls ordinateurs, du moins des ordinateurs tels que nous les connaissons. Etendre l’internet aux objets constitue un chantier prioritaire, mais il faut l’aborder dans l’esprit… de l’internet : c’est-à-dire faire des objets, non pas de simples terminaisons de chaines de valeur industrielles, mais des constituants à part entière d’un internet des humains et des non-humains, ouverts à leur tour aux transformations, aux détournements, aux agencements imprévus.

    Enfin, l’internet est devenu une infrastructure si essentielle pour des millions d’individus, qu’il devient prioritaire de les y faire exister. Exister comme des sujets autonomes, capables d’y déployer leurs capacités, qui y possèdent une adresse (voire un domicile) stable, tout en bénéficiant des libertés élémentaires de disparaître, de se dissimuler ou de se réinventer.

    * *

    Universalité, accessibilité et ouverture à l’innovation d’où qu’elle vienne ; mise en réseau des humains et des non-humains ; émergence d’un “internet des sujets” : voici les trois attentes prioritaires que nous exprimons dans ce “cahier des charges” de l’internet du futur. Elles ne s’opposent pas à d’autres attentes, mais elles doivent être défendues avec suffisamment de force, comme des critères sur lesquels il serait grave, y compris du point de vue économique, de transiger.

    En défendant une telle vision, la France proposerait une voie créative et ambitieuse, dans laquelle l’Europe pourrait prendre toute sa place.

    ________________

    Quelques recommandations concrètes

    Ayant travaillé dans l’optique d’un “cahier des charges”, le groupe ne s’est pas fixé pour objectif de produire des recommandations précises en réponse à chacune des questions de la consultation. Quelques pistes ont cependant émergé des échanges, dont nous reprenons les principales.

    Soutenir les recherches qui visent :

    • A mieux comprendre l’économie et les jeux d’acteurs de l’internet, ainsi que son fonctionnement concret
    • A augmenter les capacités et la qualité du réseau actuel
    • A étendre au-delà de ses limites actuelles les principes architecturaux décentralisés qui fondent en principe l’internet, mais ne s’appliquent que rarement au niveau du “dernier kilomètre” : réseaux “sans opérateurs” et de pair à pair, réseaux mesh et ad hoc, réseaux autonomes… (ce dernier point relevant dans une large mesure de la recherche “en rupture”)
    • Dans le soutien à la recherche, s’attacher à associer les grands industriels, les acteurs publics, les laboratoires de recherche et les petites entreprises innovantes, dont proviendront bien souvent les innovations les plus importantes. Des initiatives particulières doivent s’attacher à mettre ces dernières en mesure de développer leur R&D, puis leur développement, les deux à l’échelle internationale.
    • Trouver les méthodes et les dispositifs concrets permettant d’intégrer les citoyens et les utilisateurs en amont des recherches sur l’internet du futur (et ses applications).
    • Explorer, en termes techniques, économiques et de régulation, les conséquences de l’émergence probable de “droits” associés au caractère de plus en plus indispensable des réseaux : droit à l’accès, droit à l’identité, droit à l’oubli ou à la déconnexion, droit à la préservation des données dans le temps…
    • A l’évidence, porter ces projets et ces recommandations au niveau européen, seul échelon d’action pertinent dans ce débat mondial.

    _________________

    Liste des participants au groupe de travail
    Les participants sont intervenus à titre individuel. Les idées exprimées dans ce document ne reflètent pas nécessairement celles de leurs employeurs ou organisations. La présence dans la liste des participants n’implique pas non plus une adhésion à chacune des idées et propositions de ce document.

    Olivier Auber, Baptiste Cammareri, Jean-Marie Chauvet, Nathalie Colombier, Dominique Dardel, Jean-Marie Dazin, Olivier Desbiey, Fabrice Epelboin, Monique Epstein, Laurent Ferrali, Vincent Fillion, Francine Halfen, Isabelle Galy, Laurent Gille, Damien Guennif, André Gunthert, Thomas Lang, Jean-Marc Manach, Kouam Mensah, France Miremont, Gilles Misrahi, Pierre Mounier, Tristan Nitot, Nicolas Nova, Gilles Pansu, Franck Perrier, Margault Phélip, Damien Roussat, Sylvie Sassi, Christel Sorin, Mohsen Souissi, Christophe Tallec, Yannick Tamèze.

    Article initialement publié sur Internet Actu

    ]]>
    http://owni.fr/2009/07/22/internet-du-futur-vers-un-%e2%80%9ccahier-des-charges%e2%80%9d/feed/ 0