SEM@FOR 77 : La révolution numérique est en marche …

haut-debit.jpg

Courant novembre, deux évènements locaux se sont entre croisés, à priori sans rapport, mais annonciateur pourtant d’un bouleversement considérable et in fine intrinsèquement liés, nous y reviendrons dans une prochaine note, car le sujet est vaste.

L’un est la mise en route de SEMAFOR 77, le réseau d’initiative publique lancé par le Conseil général, l’autre l’inauguration de la TNT « tout numérique » à Coulommiers ! C’est de Brie que notre pays débute la longue marche qui la mènera dans trois ans (novembre 2011) à la télévision tout numérique et à l’extinction de la diffusion analogique sur l’ensemble de son territoire.

L’Internet haut débit est aujourd’hui, comme l’eau ou l’électricité, un fluide essentiel. Y accéder, c’est accéder à la vie (information, éducation, formation, culture, loisirs, e commerce, formalités administratives …), ne pas y accéder c’est en être exclu.
Pourtant aujourd’hui non seulement les taux de couverture de la population à l’Internet à haut débit (512 Ko) sont insuffisants, mais 2 % de la population française n’est pas desservie. Résultat des courses, 1 à 2 millions de Français se retrouvent physiquement exclus de la société de l’information !

Cette réalité se mêlant aux inégalités d’accés constatées en Seine et Marne et à l’inévitable fracture numérique des territoires en découlant, ont amené le Conseil général a s’impliqué dans l’aménagement numérique du département. C’est ce que Bertrand Caparroy Vice Président à l’aménagement numérique est venu présenter à Trilport lors d’une réunion publique à laquelle participait également M Bregnard de France Télécom, nous y reviendrons bientôt, car cette réunion fut vive, intéressante, instructive et pas langue de bois …

Depuis la loi du 21 juin 2004 pour La Confiance en l’Economie Numérique, les collectivités locales peuvent intervenir dans les  infrastructures de télécommunications et créer des réseaux d’initiative publique qui représentent désormais 40 % des accès dégroupés et occupent un rôle prépondérant dans le développement du haut débit : près de 2 milliards d’euros d’investissement global, public et privé y ont été investis ! L’Autorité de régulation des communications électroniques et des postes (ARCEP) recensait en septembre 2008 102 projets de réseaux d’initiative publique, dont 85 pro jets majeurs couvrant chacun plus de 60 000 habitants et 56 projets en exploitation.

Ces collectivités, dont notre Conseil Général, ont lancé des projets d’aménagement de réseaux de fibre optique afin d’irriguer le territoire, relier les bassins de vie (agglomérations, zones d’activités), interconnecter les nœuds des réseaux des opérateurs et régler la difficile question des zones d’ombre (sans accés au haut débit). Car l’inégalité des territoires est avant tout essentiellement économique : investissement effectué ou pas dans de nouveaux équipements et infrastructures. Lorsque cela n’est pas rentable (nombre d’usagers / poids financier de l’infrastructure) les différents opérateurs, y compris l’historique, sont aux abonnés absents, préférant se concentrer dans les zones à même d’assurer un retour sur investissement rapide.

POur les entreprises privées, vive l’intervention publique, elle est en partie la seule solution, l’unique levier de changement, cela ne vous rappelle rien ?
Les collectivités territoirales, inutile de chercher l’Etat, investissent en lieu et place des opérateurs privés. C’est ce qu’a fait le Conseil Général de Seine et Marne, avec l’aide de la Région (pour 15 millions €) en lançant une délégation de Service Public sur 20 ans destinée à créer et gérer un réseau de fibre optique déployé sur l’ensemble du département : SEM@FOR 77.

Quiproquo pourtant.
Lorsqu’il parle haut débit, l’internaute pense aujourd’hui à 4 ou 8 voir 12 mega; alors que l’étalon actuel pour l’opérateur est fixé à 512 Ko. D’où problème … Le haut débit a fait exploser les usages en quelques années, mais l’arrivée du très haut débit incite à ne plus se poser la question des usages mais de permettre l’émergence des services de demain… Ce sont les usages qui sont désormais à l’avant pointe notamment avec la diffusion des contenus multimédias !

Tout cela risque encore de s’accélérer d’ici quelques mois …

Présentation de SEM@FOR 77 et de son importance pour notre territoire  …

 

REUNION-PUBLIQUE.jpg

Le trés haut débit, enjeu essentiel du développement économique

L’économie numérique représente désormais plus de 25 % de la croissance mondiale, chaque investissement dans ce secteur accroit la compétitivité de l’ensemble de l’économie du fait des gains directs et indirects de productivité générés.

Pourtant en France, l’investissement y est deux fois plus faible qu’aux États-Unis, et trois fois plus faible que les pays d’Europe du Nord, au Japon ou en Corée. Plus grave encore, 50 %  des entreprises françaises sont connectées à l’Internet haut débit, 30 % disposent d’un site Internet et 2,5 % seulement des entreprises ont un site capable d’effectuer des transactions et du e business. Pour faire image, 500 000 petites et moyennes entreprises sont toujours déconnectées de l’économie numérique!

Internet fait émerger de nouveaux modes d’organisation du travail dont le télétravail, trop peu développé dans notre pays est une illstration. les télétravailleurs ne représentent que 7 % de la population active, contre 13 % en moyenne en Europe et 25 % aux États-Unis. Au regard de la crise que nous affrontons, le télétravail présente bien des avantages : allègement des charges de structure, réduction des déplacements domicile / entreprise pour les salariés, respect de l’environnement (sur les gaz à effet de serre du fait des transports économisés). Son développement d’ailleurs lié à celui des TGV peut à terme influer l’aménagement des terrtioires, et dévongestionné quelque peu les métropoles !

Constat : les nouveaux usages de l’Internet sont particulièrement consommateurs en débit : systèmes de sites miroirs (sécurisation), applications en mode hébergé, solutions de stockage et de ressources partagées, télé surveillance, visio conférence, partage de fichiers multimédia en ligne, télévision à la demande, haute définition, sauvegarde de données en ligne …  Ces tâches nécessitent des débits sans cesse croissants. Accéder à ces nouveaux usages est d’ores et un facteur clef de compétitivité dans le concert planétaire. Les grands pays développés se sont résolument lancés vers le très haut débit, au Japon et en Corée du sud, la fibre optique représente déjà 25 % des accès Internet, plu prés de nous en Europe, cinq pays (Suède, Danemark, Pays-Bas, Italie, Norvège) concentrent à seuls près de 96 % des abonnés aux réseaux en fibre optique…
La multiplication des données numériques fait appel à des services toujours plus perfectionnés, qui s’orientent paradoxalement vers une concentration des infrastructures (centralisation des pôles de gestion, de commuication ou de décision) , une externalisation des applications propres au fonctionnement interne (décentralisation d’activités, travail en partenariat à distance),  un nomadisme croissant et une approche « tout réseau » des outils informatiques qui permettent d’augmenter fconsidérablement productivité et efficacité  (synchronisation, synergie, flux tendu …).

Exemple, le domaine de l’imagerie, qu’elle soit de loisir ou médicale, le développement de la robotique, de la télé assistance, permettent l’émergence de nouvelles applications métier aux conséquencs spectaculaires : consultation médicale à distance (télémédecine) et opération chirurgicale, suivi du processus de production, gestion en flux tendu des stocks, traitement intelligent d’images, interconnexion de bureaux d’étude (maquette numérique partagée) …

Ces applications demandent des interconnexions performantes : fiabilité, débits disponibles, services liés à l’offre de connexion (sécurisation, temps de rétablissement,…). Non seulement la place des technologies de l’information et de la communication (TIC) devient incontournable et essentielle dans les usages et métiers des entreprises, mais le très haut débit, est devenu une condition sine quanun de l’attractivité d’un territoire.

 

Un RIP Seine et Marnais : SEM@FOR 77

Plus de 100 réseaux d’initiative public (ou RIP) sont recensés par l’ARCEP qui estime ce bilan largement positif, les RIP étant à l’origine de 30% des dégroupages et ont permis de lancer des infrastructures qui sans eux n’auraient pas encore vu le jour. C’est cette solution qu’a retenue le Conseil Général de Seine et Marne pour développer le haut débit, puis le trés haut débit sur le département.

Le concessionnaire choisi, SEMAFOR 77, est une société composée de trois opérateurs privés (VINCI Networks, Marais et COVAGE) et co financé par le départemnt et la Région (pour un peu moins de 50%). Le Conseil général a fixé quatre objectifs principaux :
– Connecter 100% des foyers Seine et Marnais à l’ADSL à haut débit (512 Kbps ) grâce à l’utilisation de différentes technologies (filaire, hertziennes …),
– Agir pour que toutes les communes Seine et Marnaises soient situées à moins de 10 km du réseau de fibre optique,
– Permettre à 100% des professionnels d’avoir accès à 2 Mbps symétriques (haut débit) minimum,
– Développer la concurrence entre Fournisseurs  d’Accés à Internet (FAI) afin de permettre l’augmentation des débits, les services proposés aux usagers et une baisse des prix des services, grâce au dégroupage de l’ensemble des neouds de raccordement seine et marnais.

Deux impératifs qui ne sont pas des détails, loin s’en faut : le délégataire ne peut pas vendre de services directement aux usagers mais à des opérateurs ou fournisseurs d’accès internet aux mêmes conditions et i fine au terme de la concession, le délégataire rétrocèdera l’intégralité des équipements et infrastructures créés au département.

En faisant appel à un prestataire externe, le conseil général s’est assuré la construction d’un réseau ambitieux dans des délais express et à des coûts raisonnables.
SEM@FOR77 prend en charge plus de la moitié de l’investissement initial (44 millions € sur les 74 millions €), au 30 novembre 2008, près de 1200 kilomètres de fibres optiques ont été déployés en complément d’autres technologies permettant d’atteindre 100% de couverture pour la Seine et Marne.
Dans le désordre : 197 zones d’activités sont désoormais raccordées en fibre, 150 autres desservies en WiMax ou en xDSL dégroupé, 534 autres sites publics sont connectés au réseau, les autres desservies en WiMax ou en xDSL dégroupé, 99 % des lignes téléphoniques seine-et-marnaises dégroupées, 73 collèges publics sont raccordés en fibre optique comme la quasi-totalité des bâtiments du Conseil général (Directions, UAS, ART…) , les autres sites étant raccordés par d’autres technologies.

Concrètement la fibre optique s’est arrêté à Trilport, dans la zone d’activité. Ne reste plus aux entreprises qu’à s’y connecter moyennant rétribution du prestataire, quelqu’il soit (pour les tarifs se rapprocher de SEMAFOR 77)..

Le backbone principal est posé, ne reste plus maintenant qu’à lui permettre de déployer « ses ailes » … Que la capillarité soit, afin que le trés haut débit irrigue nos territoires. Le Conseil Général a lancé un groupe de réflexion sur lcette thématique afin d ‘étudier la prochaine étape, de prendre les bonnes décision, de bien conseiller les collectivités (communes, intercommunalités) qui à un moment donné prendront le relais.

Il faudra également réfléchir à un schéma global d’aménagement des infrastructures numériques afin de rendre l’ensemble le pls complémentaire possible et de permettre au réseau de croitre peu à peu. Verifiera t’on la loi dite de « Metcalfe » ? (ce n’est pas un personnage d’Harry Potter). Une des lois qui a ponctué l’histoire de l’informatique (se souviens t’on encore de celle de Moore sur les micro processeurs) à l’origine de la bulle internet, et trés certainement une des lois fondatrices de a nouvelle économie : « la valeur d’un réseau croît avec le carré du nombre de ses utilisateurs »

C’est tout le mal qu’on souhaite à SEMAFOR 77, en espérant surtout que trés rapidement mes données viennent y faire un tour, au moins elles iront aussi vite que la lumière, cela prouvera de plus que ce réseau n’est pas réservé aux seuls entreprises mais concernent également tous les internautes …

Game is over !!!

 

Dans une prochaine note, outre un mini abécédaire, utile, la différence entre ADSL et FFTH …et les dilemmes de l’opérateur historiques …

 

L’état du Net …

8aaebe3bb8bb162a2c5d106eb9783e4d.jpgPhénomène majeur de la fin du XXème siècle, la révolution internet bouleverse nos économies et nos sociétés, cumulant les bouleversements entrainés par l’apparition de l’imprimerie et de la machine à vapeur.
Trois repères chronologiques pour s’en convaincre  : 1985 : un millier d’utilisateurs, 1994 (date symbolique s’il en est) 2 millions, 2007 près de 1,250 milliard d’utilisateurs ; et le plus incroyable, reste à venir  

Le réseau informatique imaginé par les militaires américains en pleine guerre froide capable de résister à une attaque nucléaire irrigue désormais toute la planète. Particularité : il repose sur le principe d’un maillage dépourvu de centre … La force est bien dans la matrice …

Trois problèmes majeurs cependant :

Cette croissance exponentielle ne doit pas être l’arbre qui cache la forêt, les inégalités de connectivité et d’accès à internet augmentent et la fracture numérique devient à l’échelle de la planète un problème majeur.

La multiplication des usages qui s’affranchissent allègrement des frontières territoriales et des repères sociétaux rendent nécessaire l’évolution du droit, au plan national, mais surtout international,

Enfin la gouvernance d’internet, qui pour des raisons historiques est sigulière, pose problème, ne reposant pas sur des instances multilatérales solides.

Le dossier réalisé par la Documentation Française (téléchargeable sur ce blog dans la partie des documents : « L’état du Monde numérique ») fait un point utile sur ces questions, et plus encore rappelant l’histoire de l’Internet, les débats et enjeux en suspens et dressant une photographie de la situation planétaire actuelle de ce média  …

 

 

Rappel des épisodes précédents

 

A la base les principes de fonctionnement d’Internet sont simples :

5f18fe703b4eb4202f0a9f5f0409feca.jpgLe moteur d’Internet est un protocole de communication  très simple (le fameux TCP/IP comme« Transmission Control Protocol/Internet Protocol », élaboré en 1974 par Vinton Cerf) qui a la capacité de relier ordinateurs et réseaux quelque soit le système d’exploitation utilisé , permettant à la tour de Babel que constitue la toile mondiale de fonctionner sans anicroche.

L’autre grande force d’Internet est sa facilité d’usage. Les internautes surfent de page en page en cliquant sur des liens, s’affranchissant ainsi de toute limite physique. C’est le World Wide Web, créé par Tim Berners-Lee, qui reposant sur la logique révolutionnaire de l’hypertexte.

Depuis … c’est la déferlante … Une expansion planétaire sans précédent amplifiée  par la convergence de l’informatique, de l’audiovisuel et des télécommunications utilisant tous et simultanément les tuyaux du système.

Les services de toute nature se multiplient : messagerie, forums, blogs, télé travail, commerce électronique, médias, diffusion d’images fixes, de fichiers audio et vidéo et apparaissent tous les jours. C’est un véritable mouvement perpétuel alimentée par une évolution technologique permanente : développement du haut débit, filaire ou non, de l’internet mobile, l’ère de l’internaute nomade est arrivée ! Le Web 2.00 renouvelle les modes d’usages et d’appropriation. Les utilisateurs font vivre désormais la toile et la rende réactive et active dans les deux sens (RSS, blogs, wikis, outils de partage de photos, de videos…).

Pourtant la Matrice est un géant aux talons d’argiles, et ce depuis sa création. Sa gouvernance est pour le moins particulière, une originalité qui s’explique par ses origines universitaires.

1992 création de l’Internet Society (ISOC), cette organisation américaine à but non lucratif coordonne le développement des réseaux informatiques dans le monde.

1994, Le World Wide Web Consortium ou W3C est placé sous la responsabilité du Massachussets Institute of Technology (MIT) aux Etats-Unis et de l’Institut national de recherche d’informatique et d’automatique (INRIA) en France.

1998, la gestion du DNS (Domain Name System) est confiée à une organisation californienne de droit privé, l’Internet Corporation for Assigned Names and Numbers (ICANN). Le DNS permet de convertir l’adresse IP (adresse numérique attribuée à chaque ordinateur) en noms compréhensibles, le nom de domaine. l’ICANN qui organise leur attribution reste sous contrôle du département américain du Commerce.

Cette concentration de pouvoir est à l’origine de tensions internationales multiples car le contrôle de cette infrastructure est déterminant : en choisissant ou non d’attribuer un nom de domaine, il détermine l’accès à internet, c’est le sésame indispensable.

 

Qui est le maître de la matrice ?

bac00f526b62a0da027a2099d61eb7ba.jpgAucune autorité centrale, ne régule le système, sinon les USA ; situation inacceptable pour nombre de pays. Si à l’origine Internet était surtout utilisé par les américains, ce n’est plus le cas aujourd’hui, loin s’en faut ! La communauté internationale s’interroge sur la régulation et la gouvernance d’internet (sommet de Genève en décembre 2003, sommet de Tunis en novembre 2005).

La création du Forum sur la gouvernance d’Internet (IGF), devrait permettre de jeter les bases d’une nouvelle architecture : « multilatérale, transparente et démocratique » afin de mettre les différents états sur un pied d’égalité ; mais cette instance n’a toujours aucun pouvoir décisionnaire.

Les Nations unies travaillent à la mise en place d’une structure internationale chargée de l’administration globale du réseau qui pourrait permettre d’éviter une fragmentation de la toile mondiale en myriades de réseaux centralisés. Le risque : maîtriser le tuyau et son contenu et remettre ainsi en cause le principe de neutralité sur lequel repose les fondements d’internet.

Une volonté exprimée par certains États pour des raisons de contrôle politique évidents, mais également par des opérateurs privés de télécommunication (surtout américains) désirant remettre en cause le principe de séparation entre transport et traitement des informations.

Le réseau est par essence neutre, il se limite à transporter les informations sans les modifier. L’instauration d’une tarification spécifique selon le type de données, leur volume ou vitesse de transfert (utilisé par la téléphonie) auraient indirectement une incidence sur la diffusion des contenus et des applications

Une fracture numérique croissante

6c088df3eff2f806f92e4cd33c297509.jpg

La fracture numérique s’aggrave et devient de plus en plus globale (accès, usage, contenu…). Paradoxe incroyable : Internet est  d’autant plus cher qu’il est lent. Si le prix moyen d’un accès haut débit sur la planète est de 27,59 dollars mensuels, ce prix varie selon les latitudes et les pays.

Le continent le plus pénalisé est l’Afrique. Moins de 4% des Africains ont accès à l’internet, D’après la Banque mondiale, les coûts de connexion y sont les plus chers du monde : entre 250 et 300 dollars par mois. ». L’ONU estime que le lancement d’un véritable  « Plan Marshall » est nécessaire pour ce continent si l’on veut fournir un accès universel d’ici à 2012. 

Au niveau européen, des disparités existent … l’écart s’élargit entre « connectés » et « exclus » de la société de l’information.Des écarts liés à l’âge (seulement 10% des personnes au-delà de 65 ans utilisent internet contre 68% des 16-24 ans), l’éducation (seulement 24% des personnes ayant un bas niveau d’éducation utilisent internet, contre 73% des personnes ayant un niveau d’éducation supérieur) ou la profession (seulement 32% des sans-emplois utilisent internet contre 54% des personnes employées)  (Demunter, 2005). […]

Mais la fracture s’aggrandit également entre les pays. Selon les chiffres de la Commission, « l’écart entre le pays où la pénétration du haut débit est la plus élevée (le Danemark, avec 37,2%) et celui où elle est la plus faible (la Bulgarie, avec 5,7%) s’est légèrement accru et dépasse désormais 30 points de pourcentage.

 

  

Le droit d’internet

 

9eada9b7ded7429e59082d3588a3b50d.jpg

Le Tsunami Internet  submerge les règles de droit et  se révèle devenir une vraie opportunité pour l’apparition de nouvelles formes de délinquance « immatérielles », un maelström se révélant problématique pour les juridictions nationales.

La  « cybercriminalité » selon la Commission européenne regroupe trois catégories d’activités criminelles : traditionnelles (fraude informatiques, fausses cartes de paiement bancaires …), diffusion de contenus illicites (violence sexuelle exercée contre des enfants, incitation à la haine raciale …), infractions technologiques ( attaques virales, piratage …)

Cette situation s’explique par les origines d’internet, qui au début ne reliait que les membres d’une même communauté (universitaire). Depuis la toile mondiale est devenu un marché économique en expansion continue, sur lequel circule beaucoup d’argent. La sécurité des communications  et la protection des données personnelles sont devenue essentielle, ces dernières constituent un marché très rémunérateur.

La Commission nationale de l’informatique et des libertés (CNIL, créée en 1978) n’y suffit plus. L’Union européenne a  bien adopté en octobre 1995 la directive 95/46/CE, le texte de référence, au niveau européen, en matière de protection des données à caractère personnel qui établit un équilibre entre un niveau élevé de protection de la vie privée des personnes et la libre circulation des données à caractère personnel au sein de l’Union européenne.

La multiplication des possibilités de reproduire et diffuser des contenus culturels sur internet conduit à une remise en cause du droit d’auteur, perçu d’ailleurs différemment selon les continents. Le développement des réseaux d’échange de fichiers de pair-à-pair (P2P) a considérablement aggravé cette situation. La mise en commun de contenus numérisés de toute nature  (textes, audio, vidéo et logiciels) entre plusieurs individus sans transiter par un serveur central rend possible  la diffusion légale d’œuvres non protégées

Au-delà des dispositions répressives, d’autres solutions sont à l’étude :

Les systèmes numériques de gestion des droits (les Digital Right Management Systems, DRMS) permettent de contrôler la distribution d’œuvres en ligne (achat, limitation du nombre de copies …) et permettent d’envisager la mise en place d’offres légales en ligne. Mais ce système est critiqué car générateur de contraintes  techniques

La possibilité de donner accès librement aux œuvres moyennant une compensation financière versée aux ayants droit (licence légale) mais de nombreux inconnues se présentent : taux à appliquer, clé de répartition …

La mise à disposition gratuite d’œuvres avec le consentement de leurs auteurs est une autre tendance.

Le cas de la France, la loi DADVSI

La loi relative au droit d’auteur et aux droits voisins dans la société de l’information (DADVSI), adoptée le 1er août 2006 est la transposition française de la directive européenne sur le droit d’auteur. Elle est positionnée clairement comme favorable aux DRMS malgré l’opposition de nombreux internautes, associations de consommateurs et interprètes favorables à la licence globale.

Ce texte légalise les dispositifs de protection anti-copie pour les auteurs et les ayants droit qui diffusent leur œuvre sur internet (brouillage, cryptage, application d’un code d’accès, etc…) destinées à empêcher ou limiter les utilisations non autorisées par le titulaire d’un droit.  La loi prévoit la création d’une Autorité de régulation des mesures techniques (ARMT) chargée de veiller à la garantie de la copie privée et à l’interopérabilité des mesures techniques de protection, c’est-à-dire de s’assurer qu’elles n’empêchent pas de lire les œuvres légalement acquises sur différents types de support.

 

33 991 en 2007 !

88917522f050dce4c9d4956614ae6b76.jpgLes premiers jours de janvier sont toujours le moment propice aux bilans sur l’année écoulée et il en existe de toutes sortes !

Celui que publie chaque année, Courrier International : « Le Monde en 2008 » (pour l’édition actuelle) est un modèle du genre, exemplaire à plus d’un titre. Ce numéro special que je parcoure chaque fin d’année avec toujours beaucoup d’intérêt nous livre à un large panorama de l’actualité de la planète. Intérêt et non des moindres, avec une vision un peu décalée, puisque provenant de la rédaction de « The Economist », institution de la presse britannique s’il en est ! La lecture de certains articles recèlent une saveur qui rappelle celle de l’assiette anglaise, l’émission de télé so british s’il en est, du regretté Bernard Rapp.

Là n’est pas le sujet, aujourd’hui  je m’en excuse auprès de mes fidèles lecteurs, je vais justement parler d’eux !Le blog « Entre Marne et Forêt »,  que j’anime depuis 2005, a l’an dernier franchit un nouveau cap, puisqu’il a enregistré prés de 34 000 visites (33 391 plus exactement).

Ce qui pour ce modeste blog, n’est pas si mal, non ?

Merci en tout cas à tous les internautes, pour certains lecteurs fidèles … Mais je vous propose d’aller un peu plus loin dans l’analyse, pour voir ce qui se cachent derrière ces chiffres de fréquentation ?

 

Trés rapidement, quelques données statistiques

 

 33 991 visites ont été enregistrées en 2007, dont prés de 19000 en lecteurs uniques (ce qui représente presque 100 visites jour, en comptant les périodes de vacances, peu propices pourtant à l’écriture et au surf, notamment en juillet, aout et décembre ).

Elément intéressant, prés de 80 000 pages ont été lues (soit une moyenne de 245 pages / jour), ce qui est considérable et atteste une réelle curiosité des visiteurs qui quelquefois remontent les liens proposés

 

Concernant la structure des notes.

Les notes sont organisées en 10 catégories  …en partant du nombre de notes consacrées à chaque thème, il est possible de tracer une esquisse de ce qu’est ce blog (ou plutôt de ce qu’il n’est pas), il est plutôt généraliste, ce qui pour un blog  un journal de bord d’élu local de proximité est dans la logique des choses …

Sur les 224 notes :

23% sont des réactions (coup de coeur, coup de sang olu coup de blues) à des évènements de toute nature (Instantannées), 18% consacrées à la commune dont je suis le Maire (j’essaie à chaque fois de ne pas avoir une analyse trop locale), 15% à l’environnement, prés de 13% à la politique, 7% au Pays de Meaux,prés de 6% au transport.
Pour le reste, en vrac : éducation (4%), Europe (3,5%), PS (4%), Web et Informatique (5%). Une note est en vidéo, celle du reportage de FR3 … 

 

Pour les commentaires 

Peu de commentaires, ont été enregistrés. En fait, il y a autant de commentaires, que de notes : 224 ! Constat ce sont les post, de la catégorie « politique » qui font débat … l’effet des présidentielles, trés certainement. Ce que je regrette un peu, pensant que la thématique environnementale devrait également être source de débat, comme celle des transports !

Au hit des commentaires : L’UMP, à l’heure des tontons flingueurs : 22, Après la vague bleue, confusion des pouvoirs ou non ? : 11, PS : une responsabilité : rebondir : 9, C’est un grand art que de vendre du vent : 9 , Agro carburant plutôt que Bio Carburant :  8

 

Et le Web 3.0 fut …

 

8f78599cd992f982d1a5285cdb6f7d06.jpg

A la fin des années 1980, T. Berners-Lee, ingénieur anglais travaillant au Cern, eu l’idée géniale d’associer différents ordinateurs disséminés dans le monde via le réseau Internet en utilisant des liens hypertextes. Innovation qui a radicalement transformé un simple réseau en un immense livre ouvert, constitué de milliards de pages reliées les unes aux autres par un simple clic de souris … Au bout du clic, la plage !

En 2004 O’reilly créé l’expression de Web 2.0 associant à internet l’idée d’un web  collaboratif et participatif : Wikipedia, Youtube, Flickr, Dailymotion en sont des principales réussites.
Évolution majeure, qui nous accompagne depuis. Elle vit actuellement une nouvelle transformation, qui nous permettra d’échapper au vertige informationnel, en retrouvant dans ce monde virtuel constitué de milliards de données entremêlés l’information utile comme de nouvelles perspectives …

Internet a pris une telle place dans nos vies, que beaucoup craignent désormais plus une coupure du réseau que d’eau ou d’électricité. Ce qui a été constaté lors de la panne de France télécom, comme par les demandes en très haut débit qui se multiplient dans nos villes.
Le paradoxe est que cette révolution bouleverse le monde et tous nso repères avec un vocabulaire et des mots simples et concrets, que comprendraient presque nos grands parents :  ouvrir sa boîte aux lettres, relever son courrier, envoyer des messages, posséder une adresse élecronique, visiter des sites … Des mots qui sont autant de métaphores et constituent en fait l’unique moyen de donner sens à des concepts sans réalité tangible.
Ramener Internet à un simple rôle fonctionnel correspond à une phase d’assimilation essentielle, et permet justement de ne pas se sentir trop perdu dans ce nouveau monde sans repères apparent …

 

Car attention, le Web 3.o risque de nous décoiffer grave …

 

 

07e849b009e641a3a31553c05e7f8043.jpg
 
 

Qu’est ce que le Web 3.0 ?

« Il y a une différence entre connaître le chemin, et arpenter le chemin »

“Le Web 3.0 est avant tout l’émergence de l’intelligence artificielle issue de l’intelligence collective » O’Reilly. Ce qu’on peut traduire en décodé par  « la force est dans le réseau », un air déjà connu puisque la vieille maxime dénommée “loi de Metcalfe”  (du nom du créateur du protocole Ethernet) stipulait que « L’utilité (la valeur ?) d’un réseau est proportionnelle au carré du nombre de ses utilisateurs », ce qui explique en partie l’incroyable envolée de bulle la spéculative qui s’est bâtie autour d’Internet avant d’exploser comme une bulle de savon en 2000 !

Pourtant, nous ne sommes plus très loin de cette réalité, le PageRank de Google, qui base ses statistiques sur la conduite des internautes en matière de liens, l’atteste.
O’reilly va plus loin, selon lui l’information proviendra de plus en plus de “sensors” (détecteurs, palpeurs), véritables artefacts de « l’homo internitus ». C’est du coup un monde virtuel déjà en place qui apparait, réservé pour l’instant  à une minorité d’élus (geek), comme quoi  “le futur est déjà là mais il n’est pas encore distribué équitablement.”.

Nouveau contexte qui a une traduction économique très concrète. Désormais de son ordinateur l’internaute peut créer de la richesse à partir de données numériques, le web dissocie matérialité et possibilité d’action, l’immatériel devenant un mode d’action au même titre que les objets matériels dans l’environnement quotidien.
La mobilité est une autre caractéristique de l’univers de plus en plus nomade des citoyens du village global et mondial, ils sont connectés en permanence au réseau, où qu’ils se trouvent !L’être humain de 2007 se retrouve et se développe désormais avec des « prothèses » qui sont autant de prolongements de lui-même : ordinateur, souris, téléphone portable, agenda électronique …

L’artefact devient un complément indispensable, quasimment au même titre qu’un membre ! Le risque de se dissoudre dans la Matrice, ce gigantesque monde informationnel qu’est Internet et qui peut nous happer apparait peu à peu …

 

L’être et l’avoir

« As-tu déjà fait un rêve Néo, qui te semblait si vrai ? Si tu ne pouvais pas sortir de ce rêve, Néo ? Comment distinguerais-tu le rêve de la réalité ? »

Internet induit une dématérialisation progressive de l’objet possédé (« l’avoir ») : un fichier (texte, image, son …) n’est même plus sur un support écrit, numérique,  ou sur un disque dur mais peut se retrouver à des milliers de kilomètres au bout d’un simple clic. La dématérialisation est de plus en plus totale.

La prochaine évolution concernera  « l’être ». Le concept de présence notamment est en mutation : la visio conférence va renaitre des cendres où certains l’avaient plongé trop rapidement ; mais dans une version beaucoup plus fun : grand écran avec image haute définition, son surround …
Le développement d’univers parallèles comme Second Life et ses avatars  vont avoir des répercussions insoupçonnées ! Les romans de science fiction et d’anticipation seront bientôt considérés au même titre que les ouvrages de Jules Verne aujourd’hui ! Les kilomètres et les frontières sont abolis dans un monde où l’instantané devient la règle. Le village mondial et global s’affranchit des kilomètres et des frontières. Nous sommes tous voisins dans une cité où nous avatars développeront des vies parallèles ..

 

Le rapport à la connaissance

« On n’est pas le meilleur quand on le croit, mais quand on le sait. »

Internet a transformé radicalement notre rapport au savoir. Une révolution copernicienne à l’onde de choc interminable … L’information n’est plus rare mais pléthorique, inerte mais interactive, monopolistique mais partagée et collaborative. Pourtant plus que jamais, il faut savoir … Mais les vecteurs du savoir sont désormais cognitifs et méthodologiques. Il faut avant tout et plus que tout savoir chercher, trouver, analyser, s’approprier, traiter et utiliser les ressources mises à disposition par la toile.

Le rôle de l’enseignement est central mais différent, porté sur les invariants et non plus sur les variables. Vieux débat, aujourd’hui tranché, l’essentiel n’est plus l’information apprise,  mais ce qu’elle structure mentalement.

D’autant que la transmission de connaissances n’est plus linéaire mais hypertextuelle (notion d’arbres de connaissances chère à Pierre Levy) et que l’étudiant se doit désormais de posséder les capacités d’organiser ses ballades dans le champ conceptuel à acquérir. Pourtant les outils pédagogiques sont quasiment identiques et les enseignements en ligne bâtis sur les mêmes structures que les enseignements traditionnels. La calsse virtuelle ou l’espace numérique de travail ne sont pour l’instant pas entré dans le monde du concret et du réel.

 

Web 3.0 comme 3eme culture ?

« Je ne peux que te montrer la porte. C’est à toi qu’il appartient de la franchir ».

Il y a fort à parier qu’Internet aura le même impact que l’écriture sur la pensée, les institutions et plus globalement sur notre civilisation. Car Internet intervient sur tous ces domaines qu’ils soient de mémorisation, d’analyse, de diffusion avec une différence de taille, la gratuité et le fait que chaque internaute peut bénéficier d’un  espace public d’expression autrefois limité à la seule sphère privée.
Des possibilités qui ébranlent tout l’édifice. Le « second pouvoir » culturel (médias, éditions) subit de plein fouet ce Tsunami qui devient une lame de fond et induit une baisse des ventes des libraires et des journaux… D’autant que l’internaute passe un temps croissant sur son ordinateur. Heureusement tous les secteurs du marché du livre et des journaux ne sont pas affectés de la même façon.

Cette révolution numérique entraînera t’elle  un nouveau processus de « destruction créatrice » , selon la formule de Schumpeter, nul ne le sait … encore …

 

« Je ne crois pas qu’il faille s’en remettre à l’espoir, conseiller,

je crois qu’il faut s’en remettre au temps »

 

 

 

 

Liens relatifs à cette thématique

Citations tirées de Matrix.  

 

6eme république ou Web 3.0 ?

 

Web 2.0, buzz, révélation ou révolution …

 

La réponse de Gutemberg à Google 

 

Le seigneur de la Matrice

 

Big brother is watching you !

 

Et surtout un site à visiter de temps à temps : Transnet de Pisani,

cet homme a déjà un pas de l’autre coté du miroir ! 

6eme république ou Web 3.0 ?

39e6ed5f0c776b7edc2df7a3f12a56e6.jpg

Google, Wikipédia ou You Tube ont transformé la vague  « Web 2.00 » (cf note précédente), en déferlante  … L’heure de la rupture a donc sonné dans le monde du Net et risque fort de se transformer d’ici peu en un vrai Tsunami qui bouleversera la vie de tous, internautes ou non (et qui ne le sera pas d’ailleurs ?) …
50 ans après l’apparition du 1er disque dur, « le RAMAC » (ou Random Access Method of Accounting and Control), et de ses 50 disques rotatifs pouvant stocker (et à quel prix !) 5 Mo d’information, tout juste quelques chansons pour un iPod, la planète Internet mue et s’affranchit allègrement de contraintes « terre à terre » qu’elles soient géographiques, temporelles, techniques ou juridiques, et qui concerne désormais la société dans sa globalité.

Cette révolution en marche ne peut laisser indifférents le monde politique, remettant en cause nos repères traditionnels jusqu’à ébranler certaines des fondations de notre organisation de vie; d’autant que l’essor de technologies apparu avec le Web 2.0 : applications en lignes, géo localisation, vidéo sur internet, blogs, Wiki  s’affranchit de contingences matérielles, administratives ou politiques essentielles.
Une globalisation qui avec ses avancées comme ses dommages collatéraux (délocalisation …) change la donne et amene les politiques à envisager de rénover en profondeur leur projet politique, à « changer de logiciel » comme ils disent de plus en plus fréquemment, une remarque à prendre désormais au propre comme au figuré.

 

Cette situation explique les nombreuses études et propositions faites aux différents candidats au moment des élections présidentielles, elles ont le mérite d’ouvrir le débat sur un sujet on ne peut plus d’actualité et à moyen terme réellement explosif …

 

 

b8873484970364d5b7f105fe6d4d9ac6.jpg

L’économie de l’immatériel est bien réelle désormais

Un nouveau modèle économique émerge,  avec ses règles, ses rites, ses fondamentaux et ses légendes, comme celle de Google (cf note précédente), qui en seulement huit ans, à partir d’un service gratuit, est devenue la marque mondiale la plus puissante, devant Microsoft et Coca-Cola.
Les nombreux services qu’elle propose à l’internaute, une vraie galaxie (Google Maps, Picassa,Gmail, Google talk, Blogger, Google desktop, You Tube …) reçoivent plus de 528 millions de visiteurs uniques par mois, audience en plein essor, surtout aprés l’acquisition de You Tube.
Goggle est désormais une puissance financière de tout premier plan, achetant les start up les plus prometteuses à prix d’or; son action est passée de 85 $ fin 2004 à plus de 500 $ aujourd’hui. Google contrôle, excusez du peu,  47 % de la recherche sur Internet aux USA, 70 % en Europe et chaque clic effectuée sur la planète dans une de ses pages, lui rapporte 11 cents.
Un rouleau compresseur qui n’est pas prêt de s’arrêter puisque après l’absorption de You Tube, Google s’est attaqué à la société Double Click, leader de la publicité en ligne. Un appétit qui inquiète internautes comme pouvoir politique …
Car la moindre recherche effectuée sur un de ses sites, lui permet de stocker des informations trés personnelles sur l’internaute (adresse IP de votre ordinateur, pages (URL) et sites visités, date et heure de connexion) durant prés de 2 ans et de tisser avec lui, à son insu mais de son plein gré, des liens invisibles mais réels qui lui permette de mieux le connaître (un vrai profilage) …
Derrière les « contenus personnalisés » proposés se cache en fait une technique dénommée « Behavioral targeting » dont le fleuron est … la société DoubleClick, leader de la publicité sur le Web, grâce à une technologie maison nommée DART (Dynamic Advertising Reporting and Targeting),  c’est dire tout l’intérêt pour Google que représente une telle acquisition ! 
 « Big Brother is watching you » … Certains régimes totalitaires en rêvaient, Google l’a fait !

Autre business plan envisageable pour un entrepreneur (le modèle You Tube) :  revendre son entreprise au plus vite en laissant à des sociétés telles Google, Microsoft le soin de la développer. Car dans ce monde cruel, une sélection naturelle s’opère sans merci parmi les start ups, au gré des mouvements de la vague et de ses tendances …
Mais les leçons du passé ont été bien retenues, les investisseurs diversifient désormais leurs placements et placent moins de capitaux qu’au moment de l’éclatement de la « bulle internet ».
Ce nouvel équilibre s’est stabilisé, avec des sources de revenus enfin diversifiées ne reposant plus sur la seule pub : services intermédiaires (Pay Pal, eBay …) destinés à sécuriser chaque transaction, apparition de sites payants (abonnements, transactions …), explosion du commerce par Internet (Amazon, FNAC …).

Le développement de la convergence (téléphone, internet et télé) démultiplie la puissance des entreprises du Web 2.0  qui s’affranchissent de toutes barrières traditionnelles et institutionnelles et suivent où qu’il aille le cyber citoyen …
Ce sont pourtant des colosses au pied d’argile qui dépendent des résultats des sociétés de mesure d’auditoire du Web, dont les constats font loi auprés des annonceurs, mais plus encore leur succés dépend de leur audience auprés des internautes (quantité et qualité). C’est dire l’importance essentielle que représente et la qualité du tuyau (haut puis très haut débit, notamment en DSL) et la confiance des internautes !

 

Et la France dans tout ça ?

Notre pays n’est pas dans ce domaine un pays d’excellence, loin s’en faut …
Si fin 2006, seulement 54,9 % des foyers français étaient équipés d’un micro-ordinateur et 44,3 % avaient accès à Internet ce taux atteint 70 % chez nos voisins les plus directs  …. Concernant le nombre de connexions à Internet, nous sommes en dessous de la moyenne européenne (51 %) derrière des pays comme la Slovénie, l’Autriche ou l’Estonie, mais à contrario bien positionné sur la couverture du territoire en haut débit puisque 98 % de la population nationale est couverte.
Là encore,a ttention, d’énormes disparités existent entre catégories socioprofessionnelles et territoires … Seulement 61 % des ouvriers, 35 % des personnes au foyer et 24 % des retraités disposent d’un ordinateur à la maison ; et dans 7 régions sur 22, moins de 40 % des foyers disposent d’un accès Internet à domicile.

Situation qui a suscité au moins deux études adressées aux candidats à l’élection présidentielle 

 Dans le rapport (« République 2.0 ») adressé à Ségolène Royal, Michel Rocard formule 94 propositions destinées à favoriser l’émergence d’une société de la connaissance ouverte (rapport disponible sur ce blog).
Citant Amartya Sen, il insiste sur le fait que l’extraordinaire espace de liberté qu’est Internet est surtout générateur par essence de capacités multiples qui sont autant de puissances d’agir. Il faut donc envisager internet comme une chance et non comme une menace.

L’ancien Premier Ministre préconise de transformer l’État en animateur stratégique, non seulement dans l’innovation et la recherche » mais également dans le soutien aux PME afin de créer les conditions « d’un écosystème favorable » : Business Angels, adaptation des dispositifs de type Small Business Investment Companies en France (SBIC sociétés investissant dans le capital de la start-up, et offrant un cofinancement sous forme d’obligations garanties par l’Etat) fonds de soutien spécifiques destinés aux jeunes pousses prometteuses, commandes publiques (notamment avec les logiciel libre), avantages fiscaux les encourageant à investir leurs bénéfices … C’est tout un panel de mesures qui est proposé afin de créer les Google de demain ou tout simplement des start ups nichées dans des niches bénéficiant des effets bénéfiques de la « longue traîne » décrit par Chris Anderson ..

Frein rencontré à cette émergence, le droit d’auteur. Michel Rocard recommande que la DADVSI soit réexaminée afin de concilier liberté des usages et rémunération de la création. Le numérique est devenu la clé de voûte indispensable de la création culturelle. ulture, et sonest générateur de profits grâce à l’existence de modes de financement croisés et complémentaires, garantissant la sécurité juridique des échanges et permettant de « fluidifier la gestion des droits ».
Il propose également de lutter contre une fracture numérique qui exclut de fait toujours plus certains publics fragilisés (chômeurs, personnes handicapées …) qui pour des raisons sociales, culturelles ou géographiques, ne peuvent accéder au haut débit ou s’approprier les nouvelles technologies.
L’objectif est de porter de 44% à 75% la part de foyers équipés d’un ordinateur et connectés à Internet. Certaines mesures sont proposées : création d’un tarif social de l’accès très haut débit à 5 euros par mois, instauration d’une fiscalité spécifique pour favoriser la donation d’ordinateurs … Devant les risques touchant à la personnalité et à l’individu (de type Big Brother) il préconise le renforcement des moyens de la CNIL et de son indépendance, afin d’instaurer un contrôle strict des fichiers de police et de sécurité et de remettre à plat le projet de carte d’identité biométrique. Dans le même ordre d’idées il défend l’idée d’un moratoire sur le vote électronique pour les élections politiques.

Le club de réflexion « Renaissance Numérique » composé d’experts du monde de l’entreprise et de l’université a également adressé aux candidats un livre blanc baptisé « 2010, l’Internet pour tous : 15 mesures pour réduire la fracture numérique en France »  avec l’objectif de réfléchir sur « les grandes évolutions de la société liées au développement du web. » pour changer la donne d’ici 2010 afin que 80 % des français soient équipés, formés et connectés à Internet (soit 9 millions d’internautes supplémentaires d’ici 3 ans),

Il préconise 5 axes d’actions prioritaires :

– Développer le taux d’équipement des foyers en ordinateur (donation d’ordinateurs usagés par les entreprises à leurs salariés, acquisition de PC recyclé à 99 euros, location d’ordinateurs neufs …)
– Mieux former les français en difficulté, lycéens, étudiants, TPE (très petites entreprises) en développant le passeport Internet, ou des formations aux nouvelles technologies de l’information et de la communication (NTIC) dans les entreprises lors de certaines périodes de RTT,
– Développer l’accès à des offres haut débit dans des territoires isolés ou pour certains publics,
– Combattre les freins psychologiques qui éloignent certains Français de l’informatique en entamant une large « campagne de communication et de sensibilisation ».
– Développer un modèle économique de société numérique, considérant la maîtrise de l’informatique et d’Internet, comme un besoin vital …

 

Au delà de la vague d’autres rivages à venir …

Quelques impressions personnelles pour compléter ces analyses de spécialiste tant du politique que du net, sur la nécessaire adéquation entre mode d’organisation politique de la société et mutation d’Internet  …  Car l’un peut également influer sur l’autre et réciproquement. Il faut : 

– Placer l’humain au coeur du système d’échange, la culture du libre choix (et non du monopole) est une des meilleures garanties pour que l’homme ne devienne un simple élément de la Matrice. Elle nécessite cependant la présence de contre pouvoirs influents (puissance publique notamment), l’affirmation de valueurs sociales et humanistes,

– Mettre Internet et sa formidable infrastructure au service de tous, quelque soit l’origine sociale, culturelle ou géographique du cyber citoyen … La typologie du réseau traduit sa finalité : est il outil d’exclusion de domination et d’asservissement ou outil d’épanouissement mutuel ? Pour paraphraser Jean Bodin, (« Il n’est de richesse que d’homme ») imaginons le potentiel d’une société dans laquelle chaque abonné est en capacité d’échanger avec le réseau et non seulement un consommateur asservi^,

– Prendre en compte le développement de mobilité des internautes, le Web 2.0 consacre un certain nomadisme, le réseau devant désormais s’adapter aux besoins de l’individu en mouvement, sans artefact, lui offrant même une certaine ubiquité …

 – Coopérer plutôt que se combattre, le Web 2.0 grâce aux standards ouverts et aux échanges collaboratifs le permet mais tout en restant vigilant; l’expérience de WIkipédia démontre  que si l’expertise peut être collective, chacun n’est pas par définition un expert (sinon la demagogie n’est pas loin …), rappeler que l’absence de contrôle donne lieu à des abus, des confusions et des erreurs, ce qui est gênant pour une encyclopédie ! Une des réponses apportée par un des fondateurs de Wikipedia dans son nouveau projet est de sécuriser les contenus en créant deux statuts de contributeurs : les « auteurs », et les « éditeurs », qui jouent le rôle de modérateur avec la capacité de modifier les articles ou les invalider.

Certaines valeurs essentielles  sont à défendre dans ce nouveau paradigme :

– L’équité afin que chacun ait la capacité d’accéder aux fruits des «arbres de la connaissance » en fonction de ses besoins, quitte à les enrichir selon la typologie rencontrée (peer to peer, wikis, réseau asymétrique …) …
– Le lien social (« social network ») et l’émergence de communautés,
– L’intégrité du réseau …

Au moment ou une nécessaire refondation politique est en cours afin de tenir compte de la réalité d’un nouveau monde, le politique ne doit pas oublier que son projet et sa grille de lecture de la société doit être globale et non parcellaire que ce soit pour le Développement Durable ou pour les outils de communication et de diffusion de la culture supportés par le Net …
Il faut tenir compte également des risques gravitant autour du Web 2.0, abordés dans cette note, du besoin de contre pouvoirs ayant la capacité d’action, de valeurs citoyennes forte, d’une réelle éthique et de la nécessaire vigilance face à l’omniprésence et la puissance de certaines entreprises désormais tentaculaires, enfin de la chance que représente pour notre pays la présence de ses infrastructures comme de son potentiel de formation, de création et culturel hors norme … 

La prochaine mutation pour le Web, pressenti par beaucoup de spécialistes sera celle du Web 3D, reposant sur un espace virtuel modélisé dont certains internautes ont déjà fait leur quotidien … Menant une double vie, au propre comme au figuré, avec leur avatars …

Mais cela est encore une autre histoire …

 

 

Notes précédentes sur cette thématique

Web 2.0, buzz, révélation ou révolution …

Big Google is watching you :
http://jmorer.hautetfort.com/archive/2005/11/12/google-to…

Google, No limit :
http://jmorer.hautetfort.com/archive/2005/11/01/googl…
Google, puissance 80 :
http://jmorer.hautetfort.com/archive/2005/09/21/googl…

Le WeB 2.0, Buzz, révélation ou Révolution ?

Internet est de nouveau un bon plan pour les entrepreneurs. Après l’éclatement de la bulle financière, les sites Internet sont enfin rentables (publicité, internautes et développement du e-commerce). Un cercle vertueux désormais enclenché, c’est la confiance qui revient, pour les internautes comme pour les investisseurs, prêts à soutenir de nouveaux projets d’entreprise.

 

Une nouvelle donne à laquelle l’émergence de la déferlante Web 2 n’est pas étrangère. Avant d’apporter quelques éléments d’analyse, revenons sur le phénomène Web 2.0, très tendance aujourd’hui. Que signifie cette expression ? Nouvelle vague (pour le surf c’est adapté !) buzz ou révolution ?

 

 

Le Web 2.0 marque incontestablement une nouvelle étape du développement d’Internet sur plusieurs champs : économique, technologique, culturel …

 

 

 

 

 

7 principes sont au coeur du Web 2.0, selon O’reilly, auteur d’un article qui fait autorité :

-1 – des services, pas un package logiciel, avec des possibilités d’économie d’échelle
– 2 – un contrôle sur des sources de données uniques, difficiles à recréer, et dont la richesse s’accroît à mesure que les gens les utilisent
– 3 – considérer les utilisateurs comme des co-développeurs
– 4 – tirer partie de l’intelligence collective
– 5 – toucher le marché jusque dans sa périphérie à travers la mise en place de service « prêt à consommer »
-6 – libérer le logiciel du seul PC – offrir de la souplesse dans les interfaces utilisateurs, les modèles de développements et les modèles d’affaires
– 7- Enrichir les interfaces utilisateurs

De Netscape à Google, ou l’émergence d’un nouveau paradigme économique

Netscape, la marque emblématique des débuts d’Internet s’est développé à partir d’un modèle économique traditionnel, bâti sur un produit logiciel, son navigateur. Gratuit, celui ci devait être à l’origine d’un marché rémunérateur situé au niveau des serveurs et des transactions (B to B, B to C). Un business model selon le type Microsoft reposant sur la maîtrise et le contrôle des standards, la gestion d’un planning de sortie de versions successives et attendues, d’un système de licence, des problèmes de portabilité sur différentes plate-forme …
Il en va tout autrement avec Google. Si c’est une application informatique, c’est avant tout un service permettant d’obtenir des données ; sans données Google n’est rien. Son utilité (donc sa valeur) n’est ni son contenu, ni le logiciel en lui même, mais sa capacité et son savoir faire à établir sur le réseau une relation entre l’utilisateur et un contenu. Une activité qui implique des traitements permanents et une remise en cause quotidienne. Ce savoir faire lui a permis, de surpasser jusqu’à aujourd’hui tous ses concurrents.
Ses dirigeants travaillent tous les jours à améliorer et perfectionner leur produit, leur domaine d’action est le Web dans toute sa plénitude, sa globalité et sa diversité, y compris les petits sites (théorie de « la longue traîne » ou  » longue queue » ou « the long tail ») que ses recherches mettent en valeur.
Les sociétés tel Google qui font le web 2.0 bénéficient d’un avantage concurrentiel naturel, inscrit dans leurs gênes. Elles ne s’abritent pas derrière un « business modèle » traditionnel avec des revenus rémunérateurs dépendant d’un produit dominateur derrière lequel s’abriter, leur credo est une perpétuelle remise en cause qui les rend particulièrement réceptive et réactive. Un exemple parmi d’autres : pas de problème de bugs au niveau d’une nouvelle version , la « béta » est une réalité quotidienne et c’est l’utilisateur qui en utilisant les produits les façonnent peu à peu.

Le plus incroyable est que les deux technologies à la base du « Web 2 » sont connus depuis le début d’Internet. Pourtant XML et les interfaces de programmation d’applications (API) n’avaient jusque là suscités que peu d’intérêt, c’est malgré tout à partir d’elles que se sont développés les Web Services et les flux RSS (acronyme signifiant au départ « Sommaire de site enrichi » ou bien « Really Simple Syndication » ou Syndication vraiment simple)
Cette évolution auraient elle était possible sans le succès de Linux, de l’Open Source qui ont brisé les monopoles en place ? Il est permis d’en douter.
Les stratégies propriétaires bénéficiant de rente de situation sont à des années lumière du Web 2, même si la lutte autour de la maîtrise du portail sera déterminante. L’objectif étant désormais d’être universel et de s’adresser à un marché global, tant pour les plateformes (PC et Mac) que pour les supports (ordinateurs, PDA, téléphonie …).

Désormais, l’information a un fil à la patte

Un RSS est un fichier texte généré par un site Web ou un blog, composé de balises décrivant le contenu d’une note par exemple et pouvant être interprétés par un navigateur ou un logiciel adapté (agrégateur). Le RSS est dénommé fil d’info car ce fichier généré automatiquement permet de suivre le rythme de publication de nouvelles notes et d’en diffuser un résumé. Le développement des blogs, dont une des caractéristiques majeure (ce blog n’échappe pas à la règle) est le rythme incertain et irrégulier de parution des notes (ou post) a donné toute son importance au RSS. S’abonner à un fil d’info permet de recevoir les posts au fur et à mesure de leur publication, il en va de même pour les Podcasts.
Nous entrons dans l’ère de la distribution des contenus, qui n’est pas sans poser certaines interrogations sur la fiabilité des informations reprises et transmises sur la toile mondiale, le Web étant une formidable caisse de résonance. La vérification des sources et les recoupements d’informations devient dans certains cas une nécessité et redistribue vers les médias une nouvelle fonction … Le Web est avant tout réactif avant que d’être réfléchi (cf note précédente)

Tirer parti de l’intelligence collective : la force est dans le lien

Depuis Xanadu, le lien hypertexte est à la base du web, il en fait son originalité, sa force, sa richesse, sa simplicité, transformant la toile mondiale en une base de connaissance perpétuelle qui s’enrichit continuellement de nouveaux contenus intègrés à sa structure et constituant peu à peu le Web sémantique. Une situation décrite par O’Reilly : « Telles des synapses formant un cerveau où les associations se renforçent à force de répétitions et d’intensité, les connections au sein du web se multiplient organiquement à la mesure que leur dicte l’activité de l’ensemble des utilisateurs. Le web est devenu une affaire d’intelligence collective« 

Cette évolution transforme les sites en émetteurs d’informations et les internautes en producteurs de contenus, grâce aux langages dynamiques qui permettent de mettre en situation de co-développeurs les internautes. Les liens vont dans les deux sens, permettant un vrai dialogue grâce aux trackbacks (rétro lien) qui permettent de réagir à des notes en postant commentaires, nouveaux liens …

Les exemples d’intelligence collective ne manquent pas : Napster transformant chaque client en serveur au service du réseau, la Page Rank (classement de page) de Google, méthode de classement basé sur les liens hypertextes (et non sur l’analyse des contenus), l’encyclopédie Wikipedia, triomphe du travail collaboratif, ou n’importe quel utilisateur du web peut enrichir ou modifier un article … Signalons également l’importance du buzz (ou « marketing viral », le bouche à oreille) et l’implication des utilisateurs dans le réseau, appellé par certains la « sagesse des foules » …

Pour le philosophe Pierre Levy, initiateur des arbres de connaissances et philosophe du cyberespace : « Il s’agit d’une mutation culturelle comparable à l’invention de l’écriture, si le langage oral porte l’intelligence collective de la tribu, l’écriture l’intelligence collective de la ville, le futur Web sémantique exprimera l’intelligence collective de l’humanité mondialisée interconnectée dans le cyberespace ».
« L’intelligence collective existe dès les sociétés animales … Elle accomplit un saut fantastique avec l’humain du fait du langage, de la technique et des institutions complexes qui caractérisent notre espèce. L’évolution culturelle humaine peut être considérée comme un lent processus de croissance de l’intelligence collective, qui suit un parcours en zig-zag, plein d’essais et d’erreurs, mais avec quelques grandes étapes irréversibles à long terme … l’avènenement du Web représente un pas de plus dans cette longue histoire ».

« Le Web accomplit trois grandes mutations :
1) tous les documents et tous les types de représentation sont virtuellement interconnectés.
2) Tout document présent en un point du réseau est virtuellement présent partout dans le réseau.
3) Les signes ont acquis une capacité d’action et d’interaction autonome grâce au logiciel ».

Ou sont les pistes de développement ?

Deux enjeux stratégiques se dégagent aujourd’hui : celui des données et du portail.

La course pour la possession de données stratégiques est en cours … Données libres, données propriétaires … AU regard de la diversité du type de données et du développement de la numérisation, le débat fait rage et concerne également les bibliothèques (voir note), les photos de satellites mais aussi le téléchargement rebondissant sur d’autres problématiques, plus juridiques celles ci concernant le droit d’auteur (ou le droit d’éditeur). Un débat ouvert également dans d’autres domaines comme celui de la génétique … .
Des données sur lesquelles des nouveaux services se greffent … GPS et aide à la conduite par exemple à partir des photos de satellites … Le champ d’action ouvre des perspectives phénoménales …
Autre enjeu de taille : l’importance fondamentale du portail. Celui ci devient de plus en plus complet et global. Complet dans les services proposés : messagerie instantanée, gestion des agendas, carnet d’adresses, informations, navigateur … Global sur la diversité des plate formes et supports accessibles … PDA, GPS, voiture, ordinateurs (PC, LINUX, MAC) … Un marché qui fait beaucoup d’envieux : Yahoo, Google, Microsoft et auquel s’invite de nouveaux venus tel Apple notamment …

L’Internet est redevenu du coup, l’eldorado des entrepreneurs. Les USA connaissent une vague de création de services web sans précédent, en France cela frétille tout juste bien que les clignotants soient au vert : puissance et simplicité des technologies, présence d’investisseurs, modicité du budget à réunir pour se lancer.
La dynamique est lancée et devrait au regard des caractéristiques du Web 2.0 plutôt concerné des start up que des grandes entreprises, alors que c’est exactement le contraire que vien de faire notre gouvernement, tout récemment … L’informatique logicielle est un sentier de croissance vertueux, ce qui dans le contexte actuel n’est pas rien, et devrait interpeller les politiques sur la priorité des aides à accorder devant plutôt se diriger vers des petites structures réactives (les virtuels Google de demain ) que dans des grands groupes. Il faut avant tout essaimer. Le choix des projets à aider devant être effectué selon certains critères par des spécialistes reconnus dans la partie (une sorte de « business angel institutionnel »), des pistes existent …

Le développement du logiciel libre, par exemple, permet de développer de nouveaux services au meilleur coût mais également de nouveaux emplois. Les applicatifs à mettre en place et à implanter permettant d’optimiser le formidable potentiel du Web 2.0 demande une assistance et un savoir faire local. Encore faut il que les pouvoirs publics et les collectivités territoriales soient moteurs dans ce domaine et qu’on les aide dans cette démarche.

Deux exemples concrets concernant une commune :

– Elle peut bénéficier de subventions (Etat, département, région) sur l’acquisition de matériel (au titre de l’investissement) et non sur un développement logiciel effectué par une Web Agency Locale. Pourtant l’essentiel des pièces d’un ordinateur est produit en Asie du Sud Est (surtout en Chine) alors que le développement, l’implantation et le paramétrage d’applicatifs utilisant des solutions à base de Linux ou de logiciel libre « Open Source » (Appache, SPIP …) nécessitera l’intervention d’un informaticien local, et permettra d’agir efficacement pour l’emploi (qu’il soit direct ou indirect).
– Une acquisition de matériel ou de logiciel permet à une commune de récupérer la TVA, une intervention logicielle, non …

Un buzz est une technique de marketing viral qui repose principalement sur le phénomène de bouche à oreille. Il s’agit de faire parler d’un produit ou d’un service avant son lancement officiel en distribuant, de manière parcimonieuse et parfaitement calculée, des informations ou des rumeurs qui entretiendront la curiosité des Internautes. Un buzz bien encadré peut amener à rendre un produit célèbre avant même sa sortie.

Xanadu, né en 1960, le projet Xanadu lance un nouveau de système d’information « au bout des doigts ». Ted Nelson, son animateur invente l’hypertexte. Une vision avant-gardiste utopique qui peu à peu dessine le devenir de ce que sera plus tard Internet

Article de O’Reilly (en français)

Blog de Francis Pisani : Transnet (voir dans mes favoris)