OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Internet et la technique : l’univers des possibles http://owni.fr/2011/04/14/internet-et-la-technique-lunivers-des-possibles/ http://owni.fr/2011/04/14/internet-et-la-technique-lunivers-des-possibles/#comments Thu, 14 Apr 2011 14:43:08 +0000 Félix Treguer http://owni.fr/?p=56901 … ou Internet pour les nuls (moi compris).

Après avoir présenté dans ses grandes lignes l’éthos qui anime les concepteurs d’Internet la semaine dernière, il s’agit désormais de comprendre comme cet éthos a débouché sur certaines caractéristiques essentielles. Ces caractéristiques techniques sont, comme on va le voir, au fondement de la malléabilité d’Internet et donc de la liberté de communication rendue possible par le « réseau des réseaux ».

Le premier choix technique essentiel consiste à organiser Internet sur une architecture relativement simple et obéissant selon le principe du « bout-à-bout » («end-to-end » en anglais) . Pour que les réseaux interconnectés soient compatibles (ou « interopérables »), les concepteurs d’Internet ont fait le choix d’un principe de fonctionnement relativement simple, fondé sur trois niveaux de couches jouant différents rôles dans le transport de l’information. Au niveau inférieur, on trouve tout d’abord la couche physique du réseau, qui correspond aux réseaux physiques, filaires ou hertzien, le long desquels circulent les données (des protocoles permettent par exemple l’allocation de la bande passante entre différents utilisateurs, ou encore le formatage des données). Au niveau supérieur se trouve la couche « applicative », constituée par les applications que les utilisateurs finaux du réseaux utilisent pour communiquer (email, web, messagerie instantanée, peer-to-peer, etc). Au milieu, se trouve enfin la couche des protocoles de transport, tel le protocole TCP, et le protocole IP, qui est utilisé par tous les paquets de données transitant sur Internet et permet leur adressage en vue de leur transmission depuis un émetteur vers un récepteur.

IP et transmission des paquets

Comme l’explique Walid Dabbour, chercheur à l’Institut National de Recherche en Informatique Appliquée (INRIA), celui-ci joue en fait un double rôle. Chaque machine connectée est dotée d’une adresse IP qui l’identifie et la localise au sein du réseau.

Elle prend la forme d’une série de chiffres de type 138.96.196. : il s’agit de l’équivalent dans le réseau Internet de l’adresse postale . Au contraire de la commutation par circuit qui caractérise le réseau téléphonique ou le Minitel, qui nécessitent l’établissement d’un liaison continue entre deux points du réseau cherchant à échanger de l’information et qui suppose une intelligence du réseau capable de localiser l’émetteur et le récepteur. Dans le réseau Internet, les paquets sont transmis indépendamment les uns des autres entre les différents routeurs, qui sont les équipements physiques chargés d’orienter à partir de la seule adresse de réception les paquets de données au sein du réseau. Il se peut que, pour un même fichier scindé en différents paquets de donnés, les paquets empruntent des routes différentes.

Cette architecture en couches est traditionnellement représentée sous la forme d’un sablier. Du fait du fonctionnement indépendant de ces différentes couches, n’importe qui peut ainsi développer des protocoles applicatifs sans avoir à se préoccuper de la couche physique, ni du transport des données. Si un fournisseur d’accès Internet décide de déployer de nouvelles méthodes d’allocation de la bande passante entre utilisateurs, le développeur d’un programme de messagerie instantanée n’a pas besoin de réécrire le code pour faire fonctionner son application.

Les deux couches, physiques et applicatives, fonctionnent indépendamment l’une de l’autre. Cette architecture technique permet donc un modèle de fonctionnement décentralisé, ou les différents acteurs du réseau peuvent agir en toute autonomie sans avoir à se soucier des actions des autres. Chacun peut donc participer au développement de l’architecture globale sans besoin de coordination.

Grâce à la commutation par paquet et le système d’adressage par IP, un grand nombre de configurations communicationnelles différentes peut se développer entre les différents points de ce réseaux. Du point à point, et donc une communication privée, dans le cas où seuls deux ordinateurs connectés sont en communication (similaire à une communication radio entre deux talkies-walkies ou une conversation téléphonique). Du point multipoint, dans le cas où un ordinateur diffuse des données en direction de plusieurs ordinateurs. Selon le nombre de destinataires et le caractère ou non confidentiel de la communication, on passe alors dans un schéma de « communication », c’est-à-dire de mise à disposition du public un message. Enfin, et c’est la une vraie nouveauté, Internet permet aussi des configurations multipoint-à-multipoint, ou une diversité d’émetteurs peut envoyer de l’information à une diversité de récepteurs.

C’est notamment le cas des application peer-to-peer ou des jeux en ligne multijoueurs. La commutation par paquets adressés séparément les uns des autres permet, enfin, qu’un même point du réseau établisse simultanément un nombre potentiellement infini de communications distinctes. Ainsi, on peut écouter de la musique en streaming (avant tout une réception point-à-multipoint), tout en échangeant avec un ami au travers d’un client de messagerie instantanée (communication point-à-point), et en postant une contribution à un blog collectif (émission multipoint-à-multipoint). Du point de vue des modes de communication qu’il rend possible, Internet est donc extrêmement versatile.

Jouissance et liberté des utilisateurs

L’architecture d’Internet en couche indépendante permet de faire d’Internet un réseau « malléable », fondé sur une structure « bout-à-bout ». Ce principe structurel fut pour la première fois formalisé et exposé en 1981 par Jérôme Saltzer, David P. Reed, et David D. Clark. Selon eux, la fiabilité du système impose de faire en sorte que le contrôle des protocoles ait lieu autant que faire se peut en bout de réseau. Là encore, il s’agit de laisser aux utilisateurs du réseau le contrôle de celui-ci, et de favoriser un modèle a-centré, dans lequel l’intelligence est poussée en périphérie.

Les concepteurs d’Internet ne souhaitaient pas prédire les innovations qui surviendraient que ce soit dans la couche inférieure ou dans la couche supérieure de l’architecture d’Internet. Il se sont contentés de trouver un dénominateur commun, le protocole IP, qui permet un transport fluide des données entre plusieurs réseaux. Il suffisait (et il suffit encore) à un opérateur de réseau d’être interconnecté à d’autres réseaux et d’obtenir une adresse IP pour pouvoir émettre et recevoir de l’information. Outre ce pré-requis, Internet est un réseau dit « future-proof », ne limitant pas les utilisations qui peuvent en être faites puisqu’adaptables à l’envi par ses utilisateurs. C’est pour cela que l’on trouve une grande variété de protocoles dans la couche physique et dans la couche applicative du réseau.

Selon Jonathan Zittrain cette plasticité du réseau Internet est une caractéristique essentielle qui explique sa supériorité sur d’autres réseaux de communication – fondé sur les mêmes principes technologiques mais propriétaires et contrôlés par l’opérateur du réseau – qui, dans les années 1980, proposaient eux aussi des services de ligne. L’environnement informationnel dont nous héritons aujourd’hui est fondé selon lui sur ce concept de « générativité », ou de malléabilité, qui caractérise non seulement Internet, mais également les ordinateurs que l’on y connecte. Zittrain définit la « générativité » de la manière suivante :

« La générativité est la capacité d’un système donné à produire des évolutions non anticipées au travers des contributions non-filtrées des utilisateurs »

La « générativité » repose donc sur des libres contributions des utilisateurs. L’écosystème informationnel qui résulte du couplage d’Internet et des postes informatiques eux aussi « malléables », est fondé sur la liberté dont jouissent les utilisateurs.

Cet écosystème est propice à l’innovation. La création du World Wide Web par le britannique Tim Berners-Lee, alors chercheur au CERN , est un exemple majeur de cette faculté d’Internet d’engendrer de nouvelles manières de communiquer. Avant la création de la « toile », Internet était un outil utilisé par la communauté scientifique, et les applications étaient pour l’essentiel limitées à l’envoi de courriers électroniques, au transfert de fichiers ou à la participation à des groupes de discussion et autres forums thématiques. Le protocole HTTP va révolutionner la manière dont l’information peut se partager sur Internet, grâce à l’utilisation de liens hypertexte permettant de naviguer sur Internet entre différents serveurs connectés au réseau au moyen de simples clics. Comme les membres du projet ArpaNet avant lui, Berners-Lee va rendre public ces protocoles et collaborer avec d’autres chercheurs pour les améliorer. Comme l’explique Philippe Aigrain, les conséquences sociales de cette innovation sont colossales :

La Toile, conçue sur la base d’Internet et sur les mêmes principes de protocoles pair à pair, ouverts, asynchrones et équitables, devint la mémoire et l’espace de coopération de groupes d’une échelle sans précédent. La Toile met en place un réseau gigantesque et non coordonné de contenus textuels ou graphiques (…). C’est une remarquable invention sociale, car elle permet une création distribuée, avec un très faible coût d’entrée pour devenir auteur »

Avec le Web, Internet devient un moyen de communication grand public, il se démocratise. Et puisque de nouvelles audiences se constituent dans cet espace public en gestation, les premiers acteurs commerciaux y investissent pour se rendre visibles mais aussi et surtout pour profiter de cet extraordinaire canal de distribution de biens et services, avec le développement progressif de ce qu’on appelle assez étrangement le « commerce électronique ». En retour, l’effet de réseau joue à plein et on assiste à l’arrivée de ces nouveaux adeptes d’Internet, qui sont ainsi introduits à ce nouvel univers communicationnel.

Depuis le World Wide Web, des milliers d’autres innovations ont eu lieu : l’arrivée de la vidéo, des protocoles d’échanges peer-to-peer, la téléphonie sur IP (rendue célèbre avec l’application Skype) et de bien d’autres encore, plus ou moins confidentielles, mises au point par des étudiants passionnés d’informatique, des entreprises de tailles diverses, des centres de recherche publics… Prises dans leur ensemble, elles font d’Internet un moyen de communication d’une richesse inégalée ; un réseau en constante évolution, inventant sans cesse de nouvelles formes d’ « action communicationnelle ».

La neutralité du réseau

Du fait de son rôle historique dans le développement de ce que Yochai Benkler nomme « l’économie informationnelle en réseau » , le principe « bout-à-bout » est essentiel à la liberté de communication permise par Internet et à l’innovation qui en résulte. Il garantit que l’utilisateur final préserve en bout du réseau l’autonomie nécessaire à une libre utilisation de cet outil de communication et notamment du type d’information qu’il entend y faire circuler. Ce principe va donc également de paire avec la neutralité du réseau.

Le réseau, entendu non pas comme l’ensemble des nœud mais comme l’architecture physique qui relie ces nœuds entre eux, ne remplit qu’un rôle de « simple transport ». En 2011, près de deux milliards d’êtres humains se connectent régulièrement en ligne et ont pour l’essentiel le choix des outils qu’ils utilisent pour s’y connecter.

En revanche, chacun d’entre eux reste dépendant d’un fournisseur d’accès, qui remplit le rôle du facteur en transportant les données. Historiquement, le rôle de ces opérateurs de réseaux est limité. Ils se contentent de construire l’infrastructure physique permettant de relier physiquement les « consommateurs » aux grands réseaux de télécommunications mondiaux. Ils leur fournissent une adresse IP leur permettant d’être localisable, d’émettre et recevoir de l’information, c’est-à-dire d’exister au sein d’Internet. En leur qualité de prestataire, les fournisseurs d’accès s’assurent du bon fonctionnement de l’infrastructure télécom dont ils ont la charge. Leur rôle s’arrête là. La communication entre deux points du réseau est toujours traitée de la même manière, quelque soit l’émetteur, le destinataire ou la nature des données transportées. En ce sens, Internet est un réseau neutre.

Lors des Rencontres Mondiales du Logiciel Libre de 2009, Benjamin Bayart, pionnier de l’internet en France et président du fournisseur d’accès associatif French Data Network (FDN), propose de définir quatre axiomes pour tout fournisseur d’accès à Internet : 1) transmission des données par les opérateurs sans en examiner le contenu; 2) transmission des données sans prise en compte de la source ou de la destination des données ; 3) transmission des données sans privilégier un protocole de communication ; 4) transmission des données sans en altérer le contenu.

La neutralité du Net garantit ainsi que les données transitent de manière non discriminée sur le réseau. Le mode de transport dépend des décisions et des protocoles choisis par l’utilisateur final, en bout de réseau, et le transporteur qu’est l’opérateur de réseau se contente de les relayer au sein du réseau dont il a la charge. Ce principe de fonctionnement vient, là encore, d’une volonté de décentraliser au maximum la gestion des activités communicationnelles. C’est aujourd’hui ce concept de neutralité qui cristallise les débats politiques et juridiques relatifs sur la manière dont le droit doit s’appliquer sur Internet.

Les nouvelles « affordances »

Le principe bout-à-bout, la plasticité du réseau qu’il engendre, ainsi que la neutralité de l’infrastructure de transport constituent l’identité d’Internet. Elles en font un réseau de pairs, où chaque nœud est égal à tous les autres. La structure technique d’Internet crée ce que les sociologues nord-américains nomment les « affordances ».

Ce mot anglais, repris tel quel par certains auteurs francophones, semble renvoyer à première vue à un concept sophistiqué. Il n’en est rien : il s’agit simplement des potentialités qu’offre une situation sociale particulière, un objet ou une technologie, pour faciliter certains modes d’interaction sociale ou de configurations politiques. Pour l’illustrer, Benklerdonne l’exemple de l’imprimerie, qui a eu des conséquences différentes sur les taux d’alphabétisation dans les sociétés dans lesquelles elle était introduite, en fonction de l’environnement socio-culturel de ces dernières. L’effet d’entraînement fut bien plus important dans les pays où la pratique de lecture personnelle était encouragée par le système social (religieux en l’occurrence) – tels que la Prusse, l’Écosse, l’Angleterre ou le nord-est des États-Unis – que dans les pays qui décourageaient l’interaction directe avec les textes religieux, comme en France ou en Espagne.

L’environnement socio-culturel conditionne en première instance les effets de la technique, ici l’imprimerie. En dépit de sa simplicité, ce concept d’ « affordance » est important, car il permet de s’interroger sur les enjeux socio-politiques d’une technologie donnée tout en sortant de l’impasse conceptuelle du déterminisme technologique, qui pose une relation de stricte causalité entre une technologie et un processus de changement social qu’elle est supposée provoquer. La technologie ne fait que faciliter certains processus ; elle met en capacité et c’est déjà beaucoup.


Retrouvez tous les articles sur la neutralité, ainsi que notre dossier du jour (image de Une: Elsa Secco):

- Pour un Internet “neutre et universel”
- Neutralité en Europe: laissez-faire et petits pas

> Article publié initialement sur We The Net sous le titre Les caractéristiques d’Internet et ses potentialités politiques

> Illustrations Truthout, _boris et RémiC

]]>
http://owni.fr/2011/04/14/internet-et-la-technique-lunivers-des-possibles/feed/ 8
Haystack, l’Arche de Zoé du cyberactivisme http://owni.fr/2010/09/15/haystack-larche-de-zoe-du-cyberactivisme/ http://owni.fr/2010/09/15/haystack-larche-de-zoe-du-cyberactivisme/#comments Wed, 15 Sep 2010 14:45:58 +0000 Olivier Tesquet http://owni.fr/?p=28249 Avez-vous entendu parler de Haystack ? Dans l’absolu, vous devriez. Mais si vous ignorez tout de ce mot, ce n’est peut-être pas une si mauvaise chose. En anglais, le terme désigne une meule de foin. Pour Austin Heap, un jeune entrepreneur du web au visage poupin et à la chevelure christique, il désignait un moyen de libérer les masses opprimées d’Iran. La baseline de cet outil d’évangélisation était d’ailleurs sans équivoque : “Good luck finding that needle”, “bonne chance pour trouver cette aiguille”. En offrant aux internautes brimés par le régime des mollahs une connexion sécurisée, Haystack devait “fournir au peuple d’Iran un Internet non filtré, libéré des efforts de censure du gouvernement [...] et lui offrir des moyens de chercher, recevoir et communiquer publiquement des informations et des idées.”

À mi-chemin entre un proxy et un routeur de type Tor (qui a vocation à anonymiser les échanges de son utilisateur), Haystack se voyait déjà dans le costume de parangon de la démocratie. Mais comme l’estiment certains spécialistes de la cryptographie, il est extrêmement difficile d’offrir une protection complète aux internautes (Ross Anderson, président de la Foundation for Information Policy Research parle d’”histoire sanglante”). Plombé par ses défauts structurels et son entêtement à faire cavalier seul, Haystack n’était-il pas condamné au purgatoire ?

Négligence ou contrecoup douloureux de l’attention médiatique qu’elle a suscitée, la plateforme paie aujourd’hui ses approximations et son développement à marche forcée – il n’a apparemment fallu que 72 heures à Austin Heap et Daniel Colascione, son codeur, pour trouver un moyen de contourner les pare-feux mis en place par Téhéran. Après avoir été mis en échec par une étude de sécurité indépendante, le fondateur du site a du reconnaître ses failles. Accusé de mettre les vies des dissidents iraniens en danger, il a publié ce message sur la page d’accueil, en anglais, en français, et en farsi :

“Nous avons stoppé les essais en cours de Haystack en Iran en attendant un examen de sécurité. Si vous avez une copie du programme d’essai, s’il vous plaît évitez de l’utiliser.”

“Scénario hollywoodien”

Loué dans la presse, drapé dans les atours d’un “Internet libre” prôné par le Département d’État et Hillary Clinton depuis ce fameux discours du mois de janvier, l’outil doit aujourd’hui faire face à un mouvement de défiance proportionnel à l’engouement qu’il a déclenché lors de son lancement officieux (deux petites douzaines de copies ont été distribuées à des “personnes de confiance”, en Iran). Selon le Washington Post, cette initiative aurait d’ailleurs reçu l’aval des autorités américaines.

Dans la continuité du mirage de la “révolution Twitter” de juin 2009, les médias du monde entier s’étaient pourtant attardés sur le projet de Heap. “Un programmeur informatique s’attaque aux despotes du monde entier”, titrait Newsweek en août, tandis que le Guardian allait jusqu’à le consacrer “innovateur de l’année”. Sur la photo qui illustre un article en forme de panégyrique, le jeune homme se tient face à l’objectif, bâillonné par une souris. Les concepteurs-rédacteurs qui passent par là apprécieront la portée symbolique du geste. Les autres se demanderont peut-être – et ils auront raison – si tout est vraiment si simple.

Sur Foreign Policy, Evgeny Morozov, jamais le dernier lorsqu’il s’agit de tailler des croupières aux technolâtres de toutes obédiences, déplore le “scénario hollywoodien” d’Haystack. En outre, il estime qu’il aurait été plus prudent d’offrir une version bêta à un pays doté d’un gouvernement “ami” (il cite le Canada) plutôt que de jouer les francs-tireurs jusque sous les meurtrières de la forteresse iranienne.

La technique, pour quoi faire?

Ignorée dans la presse française mais largement exposée outre-Atlantique, cette histoire sans happy end a le mérite de poser une question pertinente : celle de la zone grise entre le domaine académique, qui étudie Internet pour ses implications sociales, philosophiques ou politiques, et le domaine économique, matrice au cœur de laquelle s’échafaudent des projets souvent ambitieux mais parfois déconnectés de la réalité. “Je crains davantage les geeks n’ayant aucune connaissance des dynamiques géopolitiques que ceux qui en ont”, écrivait récemment Dancho Danchev, consultant en sécurité informatique et blogueur.

À une époque où les censeurs et les opposants jouent perpétuellement au chat et à la souris, ceux qui veulent capitaliser sur la liberté en ligne se perdent trop souvent dans les limbes, parce qu’ils ne s’attardent pas suffisamment sur les implications politiques particulièrement complexe charriées par l’outil web. Comme Nathan Freitas, éminent spécialiste du web, me l’a formulé dans un email, le champ du business cherche à “gagner”, quand le champ de la recherche vise à “améliorer”. “[Des activistes comme Austin Heap] débordent de bonnes intentions mais raisonnent comme des ONG, avec une logique d’optimisation du temps, de l’espace, des coûts”, écrit-il. À ce sujet, qui de mieux que Martin Heidegger pour élever le débat. Dans La question de la technique, le philosophe allemand écrit:

“Le dévoilement qui régit la technique moderne est une pro-vocation, par laquelle la nature est mise en demeure de livrer une énergie qui puisse comme telle être extraite et accumulée. Mais ne peut-on en dire autant du vieux moulin à vent ? Non : ses ailes tournent  bien au vent et sont livrées directement à son souffle. Mais si le moulin à vent met à notre disposition l’énergie de l’air en mouvement, ce n’est pas pour l’accumuler.”

Pour vulgariser sa pensée, la finalité de la technologie ne repose pas dans son caractère technologique. Dans un email adressé aux chercheurs du département “Liberation Technology” de l’université de Stanford, Daniel Colascione estime que “le seul choix responsable serait d’effacer la totalité de leur contenu, puis de détruire les sauvegardes”. Parce qu’Haystack n’est qu’une coquille vide ?

Crédits photo: Flickr CC baileyraeweaver

]]>
http://owni.fr/2010/09/15/haystack-larche-de-zoe-du-cyberactivisme/feed/ 3
Entre réel et virtuel, les limites de la vie… à l’école http://owni.fr/2010/08/18/entre-reel-et-virtuel-les-limites-de-la-vie%e2%80%a6-a-l%e2%80%99ecole/ http://owni.fr/2010/08/18/entre-reel-et-virtuel-les-limites-de-la-vie%e2%80%a6-a-l%e2%80%99ecole/#comments Wed, 18 Aug 2010 13:25:46 +0000 Bruno Devauchelle http://owni.fr/?p=25009

Le développement actuel des univers virtuels interactifs est le prolongement de travaux de recherche menés dès l’apparition de l’ordinateur autour d’un mythe célèbre : « l’ordinateur c’est l’homme ». Ce mythe apparu aussi bien avec Türing qu’avec la cybernétique ou encore les théories de l’apprentissage de Skinner (enseignement programmé). C’est donc dire qu’il est ancré dans l’esprit humain à l’égal des grands mythes qui traversent l’humanité et déclinés de manière proche au travers des cultures. Si l’ordinateur c’est l’homme, alors l’homme est-il une machine ? Cette question en forme de syllogisme potentiel mérite pourtant d’être regardée de plus près.

Quand on dit que l’ordinateur c’est l’homme, on peut considérer, comme Michel Serres, qu’il s’agit d’une externalisation prolongeante des fonctions humaines. Ainsi par sa capacité à suppléer à des fonctions humaines faibles (la mémoire précise par exemple) il permet, il oblige presque l’homme à développer ses capacités « fortes ». En d’autres termes, en libérant le cerveau des tâches répétitives ou consommatrices d’énergie mentale, il suppose qu’il est alors possible de développer les capacités du cerveau qui vont vers le « plus de complexité ». L’histoire des techniques pourrait d’ailleurs nous en donner un bon exemple, comme le propose Jacques Ellul. Passant de compliquer à complexes les progrès techniques ont intégré cette évolution à un point tel qu’aujourd’hui il est quasiment impossible d’accéder aux éléments simples de la technique.

Développement de l’usage des smartphones

Le cerveau humain, complexe en lui même aurait commencé à projeter cette complexité dans les techniques (et pas seulement les machines) qu’il développe. Avec l’ordinateur et les travaux sur la réalité virtuelle, sous toutes ses formes, il semble bien que nous voyons apparaître ces liens de continuité.
Illustrons ce propos à l’aide d’un exemple visible : le développement des usages des smartphones permet d’observer comment la complexité du fonctionnement mental se trouve mis en scène dans les multiples formes de la vie quotidienne, personnelle et collective. Regardons des usagers en activité au long d’une journée, d’une semaine voire davantage et nous pouvons nous apercevoir que l’objet lui même s’est installé dans le prolongement direct de l’activité mentale, qu’elle soit sociale, professionnelle ou affective…

Cette évolution qui a débuté il y a une dizaine d’année devient de plus en plus signifiante car elle se généralise et s’intègre comme un « étant là » dans l’ensemble de la population. En devenant inconscient, c’est-à-dire plus mis à distance intellectuellement, cette évolution illustre bien le lien entre réel et virtuel. L’homme en externalisant certaines de ses fonctions humaines serait obligé de se « machiniser », en d’autres termes d’utiliser de plus en plus de prothèses pour faire face à la complexité.

L’élève, ou un exemple de la complexité humaine

L’émergence des mondes virtuels, et Second life l’a montré, a fait rêver beaucoup de monde. Le développement d’autres espaces proches, réseaux sociaux, jeux en réseaux etc… continue de faire rêver (imaginaire) dans le même sens : passage de  l’ordinateur prolongeant l’homme à l’homme machine. Les zélateurs de ces espaces n’en sont pas toujours conscients mais ils portent tous ce vieux rêve rationaliste. Car c’est de cet ordre des choses qu’il s’agit. La complexité humaine, présente chaque jour devant l’enseignant, autrement dit par ses irréductibles élèves », présente chaque jour devant le dirigeant politique ou d’entreprise par ses irréductibles employés, est insupportable dans un monde rationnel. Il n’est pas possible, acceptable de dire : je ne comprends pas et je l’accepte.

En développant les univers virtuels et en les fusionnant de plus en plus avec le réel (de la simulation à la réalité augmentée), nous allons nous retrouver avec un problème éducatif nouveau : situer la part de l’humain dans notre environnement ! Le risque de la continuité humain-machine c’est la fusion (illusoire certes sur un plan technique, mais bien réelle sur un plan cognitif et imaginaire). Le monde scolaire a longtemps résisté à la technique dès lors que celle-ci effaçait l’humain dans l’acte d’enseignement. La richesse et la variété des fonctionnalités des nouvelles techniques qui sont mises à disposition sont en train de modifier complètement la donne. L’espace classe est en train lentement d’éclater comme espace-temps d’apprentissage.

Certes le TBI (tableau blanc interactif, ndlr) donne encore du fil à retordre car il est bien centralisateur (de par sa forme même : un écran pour plusieurs). Mais le portable (ordinateur ou smartphone) dans la classe relié au reste du monde va inévitablement questionner la forme scolaire. Cela prend du temps, les résistances sont fortes, mais la multiplication actuel des initiatives (ajoutons-y l’ENT -espace numérique de travail, ndlr) vont inévitablement, du moins dans la lecture que l’on peut faire des forces en présence, nous amener à nous poser la question. Comme de plus ces techniques permettent de plus en plus le lien individuel « homme machine » elles posent aussi au système scolaire la question de sa forme collective.

Technicisation de l’enseignement

L’élève est-il une machine ? Va-t-il le devenir dans nos classes ? L’expérience des Landes (rappelons nous l’enquête de l’an passé après huit années de pratique) nous montre que les choses vont lentement, que la technicisation de l’enseignement est un phénomène lent. Mais là deux questions se posent : inexorabilité de l’évolution ? Sens de cette évolution ?
L’inexorabilité de l’introduction du progrès technique dans l’école dépend surtout de ce qu’il en est fait dans l’ensemble de la société. Le système scolaire est fortement confronté à la demande de la société au service de laquelle il a été créé. Cependant sa « résistance » à cette perméabilité à la technique est un renversement assez récent dans notre société (début des années 60). En passant des dictats de Jules Ferry à l’esprit de Condorcet, le monde enseignant se sentant menacé au sein d’une société qui met son autorité en cause (fin des années 60), a engagé des actions qui l’ont progressivement mis en marge de la « vraie vie » comme le disent souvent certains jeunes. Si la légitimité du monde scolaire a fait l’unanimité jusqu’au milieu des années 1980 – 2000, elle est mise à mal par un phénomène complexe qui associe les difficultés sociales, les évolutions techniques et la globalisation. Les tensions internes au système scolaire en sont un bon témoignage mais n’apportent pas de vision d’avenir et révèlent plutôt une déstabilisation : l’école ne serait plus maître de son destin (si tant est qu’elle l’ait jamais été !)

L’école, le lieu central du débat

Le sens de ces évolutions est dont lié aussi à l’évolution des choix faits dans la société. Autrement dit l’École est le lieu central du débat qu’il faut engager d’urgence. Au moment ou le virtuel et le réel sont proches dans les discours (cf. les nouveaux programmes des sections technologiques du lycées qui invitent de plus en plus à utiliser la simulation comme base de l’enseignement) sur l’école, au moment où les finances de l’État font hésiter sur le chemin à prendre (cf. la suite du rapport Fourgous….), il va être nécessaire d’engager un débat de fond sur l’idée même d’éducation dans un monde dans lequel réel et virtuel sont dans une continuité de plus en plus forte. Plutôt que de « regarder » le spectacle de l’insertion de la technique (TIC dans notre cas) dans le quotidien, il est (peut-être) encore temps de penser leur place non pas dans l’école, mais dans l’ensemble de nos sociétés. L’évidence à laquelle nous sommes confrontés dans les faits que nous observons peut faire croire à l’inexorabilité, mais la réalité est qu’il faut redonner au sens de ces évolutions leur poids dans les choix à venir.

Le pessimiste pourra opter pour la première hypothèse et tenter de freiner, l’optimiste pourra opter pour la deuxième en pensant qu’il peut créer du sens. Dans tous les cas, si le monde scolaire ne joue pas son rôle de questionneur, il risque de se retrouver marginaliser. Or mettre en route ce rôle de questionneur c’est inviter chacun à se mettre en réflexion sur ces évolutions, à accepter la confrontation, la discussion, la co-construction. Il est à craindre que le dépérissement récent de l’esprit démocratique dans nos sociétés occidentales ne soit le signe que ce débat est mort né… pris dans le flot tumultueux des mots vides de sens qui circulent si souvent dans notre monde d’information et de communication

À débattre.

Billet initialement publié sur le blog de Bruno Devauchelle

Image CC Flickr kairin

]]>
http://owni.fr/2010/08/18/entre-reel-et-virtuel-les-limites-de-la-vie%e2%80%a6-a-l%e2%80%99ecole/feed/ 2
Il n’y a pas un mais DES Internets … http://owni.fr/2010/04/14/il-n%e2%80%99y-a-pas-un-mais-des-internets-%e2%80%a6/ http://owni.fr/2010/04/14/il-n%e2%80%99y-a-pas-un-mais-des-internets-%e2%80%a6/#comments Wed, 14 Apr 2010 08:20:35 +0000 Jean Michel Planche http://owni.fr/?p=12277 Le concept de neutralité du Net fait débat en ce moment. Explications pédagogiques de cet enjeu fondamental, qui vise à ce “que personne ne puisse s’accaparer notre capacité d’échange, de communication et de création, en un mot d’exister sur ces futurs territoires numériques”.


… MAIS … ce n’est pas une raison pour laquelle il faut faire n’importe quoi et ne pas alerter lorsqu’il y va d’un sujet aussi stratégique que le réseau de communication qui sous-tend la plupart de nos usages numériques d’aujourd’hui et de demain, mais aussi, des choses plus importantes encore que tous ceux qui discutent autour de la neutralité «du net» semblent ne pas voir ou feindre d’ignorer : notre vie numérique tout entière, pas seulement le droit de consommer, mais celui :

> d’exister, sans avoir à en demander l’autorisation par quelques grands orchestrateurs et dont l’épicentre ne sera pas toujours celui de notre citoyenneté
> de contrôler l’usage et les contenus dont on veut nous gaver jusqu’à en étouffer.
> de maîtriser, jusqu’à la création, sans devoir, là aussi demander la permission à quelques grands orchestrateurs, pour accéder à nos propres données et implorer qu’il n’en soit pas fait n’importe quoi.

Vous me savez attaché à ce concept de neutralité, dont je vous ai souvent (trop ?) parlé. Pour mémoire, il y a même un site sur le sujet, où tout ( ? ) est dit.
Mais quand j’ai vu la frénésie de tables rondes, de commissions, de discussions, d’interview sur le sujet, fidèle à ma ligne directrice, j’ai fais l’inverse : je suis rentré dans ma coquille, en réaction, en résistance même …

Pourquoi ?

Et bien tout simplement parce que s’il y a débat, c’est que certains le veulent et que je ne suis pas certain qu’il en ressorte du mieux. Je suis même assez certain du contraire, sinon, pourquoi en parler, pour défendre un concept qui ne fonctionne «pas si mal» ?

Pourquoi maintenant, alors que cela fait 20 ans que l’on travaille aux meilleures interconnexions possibles et que l’on explique la nature particulière de l’Internet ?
A partir du moment où on associe tous les miasmes et où l’on ouvre la boite de pandore, il était normal qu’ils sortent et que l’on passe du traditionnel «c’est la faute au net» à «j’ai ma solution, qui consiste à interdire ce qui ne sera pas explicitement autorisé et qui me gêne.»

Bref, je ne voulais pas participer à ce simulacre de défense du bien public, qui ne manqueraient pas de nous enfermer, tôt ou tard, dans des compromis mal négociés et où l’Internet ouvert, neutre que nous appelons de nos voeux ne serait qu’une vague vision naïve (comme ils disent) de quelques illuminés, souvent barbus.

Par ailleurs, sur ce sujet et bien d’autres, je pensais que je m’étais déjà largement exprimé et qu’en plus TOUT A ETE DIT. Il suffit de se baisser pour lire ou entendre des choses intelligentes, sans forcement que j’ai quelques chose de plus à rajouter:

> iciici,
> ici,
> ici ou la
> ou pire : iciiciici et là ici.

Mais, la chaire est faible …

… et coup sur coup, j’ai dis oui à deux initiatives :

> la première : demain, un jour prochain (l’enregistrement de mardi vient d’être reporté) où j’accompagnerais l’excellent Fabrice Epelboin sur le plateau de Techtoc.tv, avec le Ministre de la Défense : Hervé Morin.
> la deuxième, où je suis invité par «la direction générale de la compétitivité de l’industrie et des services», service STIC / SDRU à une audition, vendredi prochain (16/4/2010). Initiative qui semble liée à la consultation publique, lancée par le « secrétariat d’état chargé de la prospective et du développement de l’économie numérique ».

En fait, plus que tout, je suis assez sidéré de voir le brouet que chacun fait de cette histoire de neutralité, à l’aune de ses propres intérêts et de sa compréhension supposée ou réelle du problème. Je prends le risque ici, de me fâcher avec tout le monde en essayant de mettre les pieds dans le plat pour que l’on évite, une fois de plus de passer à coté d’une formidable opportunité.

Tout d’abord les faits, qu’ils plaisent ou non :

IL N’Y A PAS UN INTERNET, MAIS DES INTERNET

Disant cela, je ne dis pas qu’il faut cloisonner et que j’accepte que certains soient plus « égaux » que d’autre ou que tout le monde ne puisse pas communiquer avec tout le monde. Je ne fais que redire ce que je disais il y a 15 ans, lorsque je dirigeais Oléane. L’Internet d’Oléane (pour les entreprises) n’était pas le même que celui de Transpac, ni que celui des fournisseurs d’accès «grand public» (que nous alimentions pour l’essentiel, entre Transpac et nous), ni même que celui de Renater.

Chacun avait sa propre philosophie, ses propres moyens, sa propre « saveur » et … son propre tarif. Fabriquer un Internet «qui marche» pour une entreprise, dans des ratios symétriques, avec une contention limitée, une certaine sur-capacité et un personnel 24h/24 n’est pas de la même nature que vendre un service triple play à des particuliers pour 30 € / mois. Non, Opentransit et Free par exemple ne font pas le même métier MAIS … cela ne veut pas dire qu’il y en a un qui fait mal son travail.

Disant cela, je ne voudrais pas que certains croient que je vis dans l’illusion d’un passé révolu. J’ai suivi le sujet de près et demeure proche de nombreux opérateurs ET d’utilisateurs pour avoir la faiblesse de penser ce que je dis.

Je me dois d’ailleurs de rappeler qu’au début de l’Internet … il fallait montrer patte blanche pour s’interconnecter avec les autres … de la NSFNet jusqu’à Renater compris. Le monde de la recherche n’avait alors pas vraiment besoin du monde «commercial» et nous le faisait savoir de belle manière. A ma connaissance, Oléane a été le premier «privé, en France» à obtenir une interconnexion complète avec la NSFNet en 1992 ….

IL N’EN DEMEURE PAS MOINS QU’IL Y A CERTAINES RÈGLES À RESPECTER

Il y va du fameux « vivre ensemble », comme je l’entends beaucoup en ce moment. Je pense bien sûr à des règles écrites … les fameuses RFC qui permettent une réelle interopérabilité technique entre les différents fournisseurs. On a aussi les normes, les standards … et même certains puissants (Apple, Microsoft …) s’y plient : quand le marché l’exige, ne l’oublions jamais.

Mais ceci s’appelle des obligations de moyens.

Il y a aussi et c’est là que je vais aussi diverger avec beaucoup, des obligations de résultats. Lorsque l’on prétend vendre de l’Internet, il me semble nécessaire d’avoir :

> une certaine idée de la performance et de la qualité … vous savez que c’est mon cheval de bataille depuis 10 ans, je ne vais certainement pas l’oublier. Il est trop facile de dire Fibre, 100 Mbps et de ne délivrer qu’un goulet d’étranglement à un pseudo Internet. De l’Internet qui fonctionne bien, cela coûte cher, en investissement, en temps, en compétences et en efforts quotidiens.
> une idée certaine de l’interopérabilité. Sommes-nous certain d’être toujours joignables ? par tous les réseaux, à toute heure ? … la réponse est bien sûr non ou plutôt, nous pensons que parce qu’il s’agit d’Internet (pronom indéfini et neutre, pour le coup), on est «sur Internet», donc on fait partie du bidule. Et bien NON ! La qualité dépend d’énormément de facteurs et en particulier de comment vous êtes connectés, comment les gens qui souhaitent vous contacter sont connectés et … de ce qui se passe au milieu n’est pas neutre non plus !!
- Lorsque j’envoie un courrier électronique, j’ai envie qu’il arrive tout de suite, pour tous les utilisateurs et pas que l’on m’explique quelques heures après que mon adresse était filtrée pour mon bien !
- Lorsque j’héberge ma vie numérique chez moi, j’ai envie de pouvoir y accéder de partout et pas simplement … de chez moi.

IL NE FAUT PAS CONFONDRE GESTION DE FLUX DANS LES RÉSEAUX ET GESTION DE FLUX DANS L’INTERNET

J’ai entendu et lu beaucoup de choses sur le sujet et l’amalgame est dommageable.

NDLR: Ne voulant pas, moi aussi participer à cette embrouillamini, je ne décrirais pas l’alternative que TOUS les services soient délivrés par Internet … Cela sera pour un autre billet et je pense qu’il nous faut encore une étape pour y arriver … l’étape de comprendre enfin qu’il est dans l’intérêt de TOUS d’avoir un Internet « qui fonctionne ».

Certains pays mettent en place une séparation nette entre l’infrastructure (là ou les fibres qui entrent chez vous) et les services / contenus / usages qui «s’expriment» dessus. Ainsi, il serait théoriquement possible :

> d’avoir plusieurs FAI (Fournisseurs d’Accès à Internet) sur un même support,
> d’avoir plusieurs services de téléphonie,
> et surtout … d’avoir plusieurs services audio-visuels, sans devoir acheter la logique d’intégration verticale essayée par beaucoup et qui impose un empilement de «box» et de télécommandes à la maison.

Il devient, alors, plus facile de saisir les particularités des différents métiers :

> Le métier d’opérateur Internet, le vrai, devrait d’être électriquement neutre et dans certains cas précis (problèmes de sécurité qu’il faut convenablement définir) se mettre en situation de type «best effort» où l’on fait de son mieux pour qu’un paquet qui rentre sur son réseau en ressorte LE PLUS VITE POSSIBLE.

On ne règle pas par le réseau des choses qui doivent se gérer ailleurs … par les applications et l’intelligence qui est laissée aux utilisateurs de s’organiser.

Le métier d’un opérateur d’infrastructure est différent et il peut, lui, être amené à régler des problèmes de gestion de flux, de la meilleure façon possible. Depuis la nuit des temps, on fait de la gestion de classe de service … pour les entreprises … et même pour les particuliers OUI … AUJOURD’HUI … chez vous. Les différents flux qui sortent de la box de votre opérateur sont déjà «gérés». Vous avez l’Internet, la voix et la vidéo. C’est à l’opérateur de se débrouiller pour que l’un ne gène pas trop l’autre. Dire cela ne veut pas dire tripatouiller l’Internet.

Quand au métier de FAI (celui qui vend la connexité Internet à Madame Michu), c’est un bon moment pour essayer de définir ce qu’il devrait être. Peut être qu’il serait temps si ce n’est de parler de CHARTES, au moins de définir :

> un commun dénominateur inaltérable,
> d’imposer que l’on nous explique ce qui n’est pas vendu et que le FAI dise par avance les « entorses » qu’il se réserve le droit de faire. Ensuite … au marché de dire s’il accepte ou non. Certains voudront payer plus cher pour avoir un service qu’ils jugeront meilleur. Pourquoi ne pas les laisser faire ? Cela veut-il dire Internet a plusieurs vitesses ? Oui. Et alors … Je préfère un Internet à plusieurs vitesses à un Internet Canada Dry, qui aurait la couleur d’Internet, l’odeur d’Internet mais … qui n’en serait pas.

Alors pourquoi ce sujet, aujourd’hui ?

Parce que tout se mélange et s’emmêle : intérêts privés, volontés altruistes. Véritables problèmes et fausses solutions.

On est face à un plat de spaghetti de plus en plus inextricable. On mélange allègrement des problématiques d’infrastructure (globale / desserte (et non collecte) / d’infrastructures Internet, de Services Internet (DNS, SMTP …), d’applications classiques, de cathédrales verticales (Google, Facebook  …), de  contenus (Internet / pas Internet, légaux / pas légaux …) … sans s’apercevoir que l’on traite des choses différentes, avec des logiques et des modèles économiques différents. A trop vouloir voir si l’herbe est plus verte dans le champ d’à côté, on en oublie de s’occuper du sien et il est alors trop tard.

Et qui plus est, on confond l’Internet et le Web, ce qui n’est pas nouveau, mais qui continue d’être stupide, pour ne pas dire plus.

Mais on commence quand même par se rendre compte que le sous-jacent de tous nos échanges va s’appeler Internet, dans quelques années … nous l’avions rêvé, nous l’avons fait. Aussi, cela nous donne encore plus de devoir pour veiller à conserver un Internet en bon état de fonctionnement POUR TOUS … pas seulement au service de la distribution du contenu de quelques uns MAIS SURTOUT de la libre innovation et capacité de créer par chacun.

C’est cela pour moi l’enjeu de la neutralité de l’Internet … que personne ne puisse s’accaparer notre capacité d’échange, de communication et de création en un mot d’EXISTER sur ces futurs territoires numériques.

En regardant ce qu’il se passe de l’autre coté de l’Atlantique, on s’apperçoit que certains ont déjà parfaitement compris ce problème … alors, pourquoi pas nous ?

Ne serait-il pas temps d’avancer un peu plus vite pour nous aussi participer pleinement au potentiel du numérique et ne pas laisser un boulevard aux autres ?

Crédit photo : plumetrobon,

> Article initialement publié sur jmp.net

]]>
http://owni.fr/2010/04/14/il-n%e2%80%99y-a-pas-un-mais-des-internets-%e2%80%a6/feed/ 1
Stockez vos favoris dans votre admin wordpress ! http://owni.fr/2010/02/24/stockez-vos-favoris-dans-votre-admin-wordpress/ http://owni.fr/2010/02/24/stockez-vos-favoris-dans-votre-admin-wordpress/#comments Wed, 24 Feb 2010 09:11:14 +0000 imath http://owni.fr/?p=8937

Stockez vos favoris dans votre admin wordpress !

Visuel

Passer le blabla et aller au lien du téléchargement

Voici le widget #2 qui garnira prochainement l’intranet dont je m’occupe pour ma boîte. Rien de transcendant, presque inutile au regard des nombreuses solutions type netvibes, iGoogle ou autre.. Cependant, dans la galaxie intranet de ma boîte on ne pense pas beaucoup à l’utilisateur.. C’est le moins qu’on puisse dire ;) Pour mémoire lors de la publication de mon premier widget sur ce site, j’avais abordé rapidement l’équipement dernier cri dont nous disposons..!

J’attaque donc le point 2 de ma “roadmap” avec cet humble plugin dont l’objectif est de disposer d’un gestionnaire de favoris au sein de l’admin wordpress. Cette fois-ci, ayant récemment hérité d’un projet de développement Wordpress Mu, j’ai pensé à sa compatibilité pour la version single et multi du célèbre CMS.

Première vue : Liste des favoris

Liste des favoris

3 pictos pour successivement supprimer, modifier ou ouvrir le lien dans une nouvelle fenêtre précèdent chaque lien. Le lien “Paramétrer” sur la droite permet d’ajouter un favori.

Seconde vue : Ajout d’un favori

Ajouter un favori

2 text-inputs : alias et lien, un submit et c’est en BDD. Suite à l’ajout on reste sur cette vue l’histoire de ne pas multiplier les clics si on a besoin d’enchaîner plusieurs ajouts. Quand on a fini : on revient (lien “Revenir Liste”) à la vue “Liste des favoris” qui à l’aide d’un léger ajax se refresh :)

Troisième vue : Modifier un favori

Modifier un favori

Les mêmes text-inputs (il s’agit de la même div pré-remplie et enrichie d’une valeur dans 1 hidden (celle de l’id du booQy), un submit et c’est màj. Cette vue est déclenchée par le clic sur le picto modifier dans la vue 1

Voili c fini.. euh presque, si ça vous intéresse pour télécharger booQy c par ici ;)

> Retrouvez cet article sur imath.owni.fr

]]>
http://owni.fr/2010/02/24/stockez-vos-favoris-dans-votre-admin-wordpress/feed/ 3
Ma position sur la Loppsi http://owni.fr/2010/02/22/ma-position-sur-la-loppsi/ http://owni.fr/2010/02/22/ma-position-sur-la-loppsi/#comments Mon, 22 Feb 2010 17:22:41 +0000 Jean Michel Planche http://owni.fr/?p=8801 205710716_81bf87ca5f_o

J’avais même indiqué tout cela lors d’une réunion entre professionnels de la profession en SEPTEMBRE 2008. Réunion où étaient présents beaucoup de beau monde. Mais rien n’y a fait et nous sommes maintenant « middle of the road », qui comme chacun le sait « is the most dangerous path ». Et pas seulement pour les hérissons et les ministres de la culture (anciens ou présents).

Pourquoi la Loppsi me dérange, en l’état :

1. Si je ne remets pas en question la lutte contre les pédophiles, je n’accepte pas la diabolisation d’Internet et la méthode utilisée pour justifier le besoin de l’article 6 de la Loppsi 2,

2. Le sujet est suffisamment d’importance pour s’en occuper sérieusement. La mesure proposée donne la fausse impression que la « pédophilie » est sous « contrôle », alors qu’il n’en est absolument rien. Nos enfants ne seront absolument pas mieux protégés après, qu’avant. Tant que l’on ne s’intéresse pas véritablement aux deux extrémités essentielles de la chaîne : les pédophiles et nos enfants, nous ne faisons pas grand chose,

3. Ce filtrage « télécommandé » va créer des points de faiblesse qui vont fragiliser les réseaux des opérateurs. Le risque de devenir plus sensibles à des cyber-attaques est certain et la paralysie des infrastructures entières du pays sera facilitée,

4. L’Internet sera le premier réseau de flux (les routes, l’électricité, le gaz, la poste …) dont l’architecture et l’usage sera sous le contrôle d’un Ministère de l’Intérieur. Que penser alors, lorsque l’Internet deviendra le réseau fédérateur de la plupart de nos échanges, services et usages électroniques ?

5. L’évolution d’Internet et son modèle économique seront laissés au bon vouloir de quelques équipementiers qui auront réussi à imposer leur matériel de filtrage. L’innovation sera bridée et sous le contrôle de quelques uns,

6. Imposer le filtrage aux Fournisseurs d’accès Internet et uniquement à eux est déjà imposer la méthode. Ne pas associer d’autres acteurs de la filière du numérique est une erreur car ce sujet ne concerne pas seulement les opérateurs. Il y a fort à parier que le filtrage se fera par un système qui forcera l’analyse de tous nos échanges, systématiquement, pour accepter ou non l’établissement d’une session. Outre le fait que ce système aura ses propres défaillances et pourra constituer une back door fantastique pour d’autres puissances étrangères, il sera perméable à la volonté politique du moment, que j’espère toujours bonne et éclairée !

7. Nous n’avons pas modifié la structure d’autres réseaux de flux parce que des pédophiles pouvaient utiliser leurs services, nous allons modifier la structure et l’architecture d’Internet. La tendance a la centralisation fera créer des réseaux non adhérents en région, qui ne créeront aucune valeur ajoutée localement. Le transport aérien est un exemple de réseau non adhérent, qui ne créé aucune valeur sur son passage. Au contraire, le bus est un réseau adhérent. Il est possible de sortir à n’importe quelle arrêt pour créer de la valeur localement. L’infrastructure est un élément essentiel de l’attractivité de nos territoires.

8. Empiler les lois en « i » créé un étrange sentiment de vouloir tout sécuriser, aseptiser et contrôler, pour notre plus grand bien, mais sans véritablement nous associer à la démarche et en n’étudiant pas suffisamment les conséquences et les effets collatéraux. Trop de lois tuent les lois. Le risque d’un rejet massif de la nécessité de réforme, à cause d’une forme inadaptée est loin d’être nul.

Et alors, on fait quoi ?

Et bien déjà on en parle … et en particulier j’attends avec impatience le contact des instigateurs du sujet.

Je n’ai pas la science infuse sur tout, mais en l’espèce :

1. je ne crois pas que le filtrage des infrastructures de télécommunications soit LE sujet et LA solution
2. je ne crois pas que le logiciel Hadopi + contrôle parental sur le poste de l’utilisateur final, soit LA solution

Je l’ai déjà dis, à maintes reprises, il manque un élément ESSENTIEL au dispositif.

L’Internet nous a été amené trop rapidement et trop précipitamment à la maison. Je le dis d’autant plus que je ne suis pas responsable de ce sujet, étant plus focalisé sur l’Internet entreprise, dans le passé. Nous avons laissé ce marché à d’autres. Quand nous avons connecté les entreprises, il y avait des conditions préalables, il y avait du transfert de connaissance à faire et des gens censés être compétents derrière. Bref, cela ne se faisait pas aussi simplement que de brancher une arrivée de gaz sur un four.

Ce qui est vrai pour le gaz, pour l’électricité, pour l’eau n’est pas vrai pour l’Internet où en quelques jours, vous pouvez voir arriver cette « facilité » chez vous, sans pour autant être formé, conscient des usages et des dangers et sans avoir de quelconques disjoncteurs général et différentiels.

Il manque à la maison ces disjoncteurs, des disjoncteurs Internet, calibrés non pas en Ampère, mais en « profil de risque ».

Pour ce qui est de l’électricité, il y a des normes, il y a des installateurs agréés qui ne font pas n’importe quoi … mais je peux aussi m’électrocuter et risquer ma vie. Pour autant, des réseaux aussi dangereux et utiles pour notre vie, comme l’électricité et le gaz sont entrés dans nos habitations, sans l’aide du Ministère de l’Intérieur !

Et bien c’est pareil avec Internet. Il manque des installateurs agréés. Il manque des disjoncteurs, EVIDEMMENT SOUS LE CONTROLE DE L’USAGER. Un installateur agréé peut venir faire une installation électronique conforme aux dernières recommandations en vigueur, mais ensuite, si je veux passer mes disjoncteurs de 300 mA à 30 mA … c’est mon problème et ma responsabilité et je le revendique !

Et c’est exactement ce que je dis avec Internet.

Je veux pouvoir filtrer ce que je ne veux pas, mais je veux pouvoir supprimer tout ou partie de ces filtres s’ils ne sont pas conformes (ou s’ils le deviennent) à ma sensibilité, à mon histoire, à mes ambitions. Ce faisant, je cours le risque que la loi s’applique car je serais sur le territoire Français … et tant mieux. Il n’y a aucun problème à cela et il ne faut pas en faire plus que ce que le bon sens peut régler.

Et enfin, si on veut vraiment que ce genre de système existe, il faut donc s’intéresser à la citadelle, au bastion que constitue la « BOX » des opérateurs. Je le répète, proposer ces BOX a été une bonne chose à court terme et à bien servi les intérêts économiques d’un opérateur, mais à moyen terme, cela freine l’innovation aussi sûrement que ce qui s’est passé dans la téléphonie mobile. Faut il attendre un nouvel Apple pour faire voler en éclat cette appropriation de la création de valeur dans notre maison ?

On me rétorquera que la box fait partie du réseau des opérateurs et constitue un élément de fragilité certain qui doit continuer d’être sous le contrôle des opérateurs, seuls aptes à en assurer la sécurité (ou plutôt celle de leur réseau). Cet argument est à la fois vrai et faux.

Souvenez vous, il y a quelques années, nous allions acheter notre point d’accès Wifi à la Fnac, chez Fry’s ou Pixmania. Cela ne fonctionnait pas si mal. Mettions nous notre vie plus en danger ? Le réseau des opérateurs courrait il un risque plus grand ?

Si l’opérateur acceptait de nous livrer une prise réseau ETHERNET à son infrastructure de services et même plusieurs prises normalisées ETHERNET / IP et nous laisser faire ensuite notre travail, la vie en serait simplifiée d’autant.

En effet, une nouvelle race de box pourrait voir le jour, achetée par les utilisateurs finaux et dont les logiciels pourraient être en OPEN SOURCE (pourquoi pas …) et qui assureraient le rôle de gateway résidentielle de la famille, sous le contrôle des responsables de la famille et non des opérateurs ou du ministère de l’Intérieur.

Cette solution aurait pour immense mérite de ménager tout le monde (opérateurs, gouvernement et utilisateurs) et en plus de créer de la valeur pour les pays qui l’auront compris et pourraient prendre une avance considérable sur un sujet mondial que chacun essaye de circonvenir de sa propre façon régalienne ou minitellienne.

Quel dommage que de laisser à d’autres cette avantage technologique décisif et de rester au bord de nos beaux autoroutes Français en criant très fort parce qu’une voiture étrangère vient de nous écraser les pieds et nous pollue.

» Article initialement publié sur jmp.net

» Illustration de page d’accueil par wheresmysocks sur Flickr

]]>
http://owni.fr/2010/02/22/ma-position-sur-la-loppsi/feed/ 2
Et voici Qwicker ! http://owni.fr/2010/01/17/et-voici-qwicker/ http://owni.fr/2010/01/17/et-voici-qwicker/#comments Sun, 17 Jan 2010 19:16:43 +0000 imath http://owni.fr/?p=7028 plugin img from css-tricks.com

Passer le blabla et découvrir directement le plugin..

Dans le cadre de mes expérimentations #wordpress, et après 2,5 mois de mise en place, je me suis aperçu que l’espace d’administration pour les abonnés pouvait potentiellement rendre plus de services que la simple visualisation de son profil.

    Par ailleurs, le “contexte” de ma boîte m’a convaincu de travailler à enrichir cet espace :

  • > Navigateur : Internet Explorer 6 (si si !!)
  • > Pas d’espace personnalisé pour “stocker” ses flux rss, favoris
  • > Pas d’outil pour tout simplement lire des flux rss (Outlook v2000, dans le meilleur des cas) !!

Depuis ces fameux 2,5 mois, plus de 60 utilisateurs se sont abonnés à “mon” blog (en réalité celui de ma direction que je développe et maintient ;) ). D’ailleurs, dans la partie front, ma première action a été d’ajouter une page listant ces utilisateurs – une sorte de répertoire – et leurs coordonnées. J’ai baptisé cette page “la Communauté”. Or pour vraiment l’animer, il m’a semblé primordial de travailler à offrir des “gadgets” en vue de simplifier nos échanges et leur utilisation des ressources disponibles dans la galaxie Intranet de ma boîte.

Je me suis donc défini une “roadmap” des différents outils que je pensais utiles à l’enrichissement de leur expérience de notre site Intranet.

    Ma roadmap :

  • 1. Disposer d’un système d’alerte pour informer sur la disponibilité de mes autres applis
  • 2. Proposer un lecteur de flux RSS personnalisable et le rendre collaboratif
  • 3. Proposer un espace de stockage des bookmarks et le rendre collaboratif
  • 4. Faciliter la mise en bookmark des pages de la galaxie Intranet et des ressources Internet
  • 5. Mettre en place un service de “wiki” docs en vue de faciliter la rédaction collaborative

L’objectif à terme étant de faire de la page d’administration wordpress de notre site leur page d’accueil ;) Cet article se concentre sur le point 1. à savoir la mise en place d’un système d’alerte et d’échanges accélérés par rapport aux classiques mailing lists que je trouve inappropriées.

le “plugin” qwicker : fichier zip (12ko)

D’un objectif principal qui était de tenir informé de la disponibilité des applis que j’ai développé sur d’autres hébergements (flex, php..), je me suis dit : “tant qu’à faire autant mettre en place un espace d’échanges rapides accessible à tous les abonnés !”.
J’ai donc développé mon premier plugin wordpress en ce sens. Il s’agit d’un modeste “twitter” like.

Vue Dashboard
Illustration widget dans l’onglet Tableau de bord

Comme tout plugin, il suffit de dézipper la bête dans le répertoire /wp-content/plugins et de l’activer depuis le menu plugin de l’administration de wordpress.
Activation du plugin

Et hop! il est prêt à l’emploi ;) Voyons les fonctionnalités :

Inspection du nombre de caractères saisi :
140 pas plus
Twitter like oblige > 140 caractères max !

Au fur et à mesure de la saisie du “Qwick”, il est affiché le nombre de caractères restant. Pour cela, j’ai légèrement adapté l’excellent travail réalisé sur le plugin jquery JMaxInput et ajouter un évènement onsubmit qui compte la longueur de la chaîne de caractères.

Vérification de l’existence d’un utilisateur :
User unknown
Oops.. je sais j’ai délaissé FF pour Chrome, mais sur mon mac perso FF est vraiment trop long ;)

Il est possible d’adresser plus particulièrement un “qwick” à un destinataire. Pour ce faire je rajoute “@” devant le pseudo de l’utilisateur wordpress. j’utilise le pseudo de l’abonné car il est quoiqu’il arrive unique. Pour être sûr que “unknown” existe bien, sur submit un léger ajax va inspecter la liste des pseudos, si l’un d’entre eux n’est pas reconnu, le qwick n’est pas posté et un message informe sur le ou les utilisateurs inconnus.

Vérification de l’arrivée de nouveaux qwicks :
Nouveaux Qwicks
Permet de rafraîchir la page uniquement en cas de nouveaux qwicks en cliquant directement sur le lien.

Par défaut toutes les 6 secondes un appel ajax est réalisé pour savoir si de nouveaux messages ont été postés. Si cette périodicité est jugée trop régulière, il suffit de modifier les lignes 224 et 226 du fichier qwicker.php !

224: setTimeout(‘updatePost()’, 6000);
226: setTimeout(‘updatePost()’, 6000);

En cliquant sur le lien “Afficher le (les n) nouveau qwick(s)”, la timeline est rafraichie.

La pagination de la timeline :
Pagination
j’adore la fonction paginate_links de wordpress !

Par défaut, le nombre de qwicks affiché est fixé à 5. Cependant, vous pouvez augmenter ou diminuer ce dernier en changeant la variable $limit dans le fichier qwicker.php à la ligne 142 :

142: $limit = 5; # fixed

J’utilise la fonction paginate_links() de wordpress pour cette fonctionnalité. Et à l’usage je la préfère largement au plugin wp-paginate que j’utilise pour le loop classique de wordpress. En effet, lorsque j’utilise des customs queries, ce dernier renvoyant systématiquement la pagination du loop classique, paginate_links() me permet de précisément gérer leurs paginations.

L’utilisation des “gravatars” :
Gravatar
Pour le blog de ma boîte (Intranet), j’utilise plutôt le plugin user-photo

En vue de proposer simplement un avatar de l’utilisateur, la version du plugin que j’ai rendu disponible en téléchargement ici utilise gravatar : la fameuse fonction get_avatar([id_user], [taille avatar]).
Néanmoins, dans mon environnement professionnel, n’étant pas en mesure de faire des appels gravatar (Intranet) et n’étant pas certain que les utilisateurs aient effectivement un gravatar, j’utilise le plugin user-photo.

Conclusion

Pour améliorer la bête la version que je prévois de mettre en ligne propose l’affichage d’informations relatives à l’utilisateur (coordonnées, les 5 derniers qwicks, et les 5 derniers commentaires déposés sur le blog) à l’aide de thickbox. Dans un environnement fermé, ou si vous voulez faire un flux particulier au sein de votre blog pour vos utilisateurs, ce premier jet peut être intéressant. Autrement, je vous conseille de sonder la base des plugins pour directement intégrer twitter à votre blog ;) .
N’ayant pas encore testé la bête en live, si toutefois vous le faites, merci de me faire un feedback en déposant un commentaire ici.

    Rappel des ressources :

  • WPengineer.com : excellent tuto pour ajouter un élément au dashboard
  • Codex Wordpress : utilisation de paginate_links
  • JMaxInput : pour afficher le nombre de caractères tapé
]]>
http://owni.fr/2010/01/17/et-voici-qwicker/feed/ 4