OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Première édition de Music Net.Works http://owni.fr/2011/02/21/premiere-edition-de-music-net-works/ http://owni.fr/2011/02/21/premiere-edition-de-music-net-works/#comments Mon, 21 Feb 2011 15:56:53 +0000 Loïc Dumoulin-Richet http://owni.fr/?p=30450 Le lundi 21 février voit la naissance d’un nouveau rendez-vous regroupant les professionnels de la musique, du web et des nouvelles technologies.

Session #1 : “Le MP3 est mort, vive l’URL ?”

Lundi 21 février 2011 de 19h à 22h à La Cantine

Alors que les usages de consommation de musique enregistrée subissent de profondes mutations, peut-on considérer que l’immatériel primera sur le fichier, de quelle manière et avec quels résultats pour les différents acteurs concernés ?

C’est avec ce thème volontiers provocateur que Music Net.Works sera lancé le 21 février à l’initiative d’OWNImuic, Silico Sentier, Le Bureau Export de la musique française et Paris Mix, et activement soutenu par Spotify, MXP4 et AF 83 Media.

Pour nous éclairer sur le sujet, un panel d’experts débattra et nous proposera sa vision professionnelle de cette évolution majeure de la musique enregistrée.

- Intervenants -

Aymeric Pichevin , correspondant en France du magazine Billboard, maître de conférence associé à La Sorbonne
Annina Svensson, directrice générale de Spotify France
Franz Tournadour , fondateur de Playlive
Romain Becker, Chef de projet web et nouveaux produits chez Believe Digital
Yvan Boudillet, responsable du département digital business development chez EMI Music France
Laurent Bizot, directeur général du label No Format
Antoine El Iman, co-fondateur de Noomiz
Gilles Babinet, entrepreneur, fondateur de MXP4, Musiwave, Awdio et CaptainDash

Avec la participation de Philippe Cohen Solal de Gotan Project

A partir de 21 h : drinks + musique !

Music Net.Works, c’est quoi ?

Musique, web, start-ups, digital, innovation, contenus, monétisation, business model, évolutions… Des mots souvent associés en théorie, mais rarement confrontés dans la pratique…

C’est pour cette raison que nos partenaires et nous avons voulu créer un rendez-vous parisien des acteurs de la musique et du web mixant débats, workshops, networking et rencontres artistiques.

A chaque édition, une problématique d’actualité et un panel d’experts pour confronter leurs points de vues. L’ambition de Music Net.Works et d’être pérenne et de proposer chaque mois un débat.

Si vous ne pouvez pas être présent à ce lundi à la Cantine, vous pouvez néanmoins suivre la soirée en direct via le site Music Net.Works, le site de la Cantine ou encore notre page Facebook.

]]>
http://owni.fr/2011/02/21/premiere-edition-de-music-net-works/feed/ 1
Peut-on mettre les neurosciences à toutes les sauces? http://owni.fr/2011/01/19/peut-on-mettre-les-neurosciences-a-toutes-les-sauces/ http://owni.fr/2011/01/19/peut-on-mettre-les-neurosciences-a-toutes-les-sauces/#comments Wed, 19 Jan 2011 10:16:46 +0000 Rémi Sussan http://owni.fr/?p=33952 Révolution dans l’habitat ou nouveau buzz marketing ? Le Wall Street Journal a récemment publié un curieux article sur l’usage des sciences cognitives dans la création de… cuisines aménagées ! On y expose les idées d’un certain Johnny Grey, créateur de cuisines depuis plus de 30 ans, dont les techniques d’aménagement reposeraient sur une connaissance profonde des habitudes émotionnelles et cognitives de notre cerveau. Ou du moins, c’est ce qu’il affirme. Et d’énoncer quelques-uns des plus prestigieux clients de l’artisan, tels Steve Jobs ou Sting.

Car pour Grey, une cuisine n’est pas seulement un endroit pour préparer à manger. C’est un lieu dans lequel les couples ou les familles passent de plus en plus de temps.

Pour créer une cuisine de rêve, Grey et son d’équipe passent près de 80 heures à s’entretenir avec leur client n’hésitant pas, précise le Wall Street Journal, à s’installer chez eux pour analyser sa personnalité et ses préférences.

Selon Mr Grey, Un bon moyen de commencer à créer une cuisine heureuse”, affirme l’article, “consiste à découvrir ce qu’il appelle le “point de bien être (sweet spot)” … vous savez, votre point de vue préféré, là où vous avez une vue sur la table, le paysage, l’entrée ou la cheminée, tout en préparant un plat”.

Un article plus ancien du Guardian, lui aussi consacré à Grey, nous en apprend un peu plus sur cette recherche du point G architectural : “Toute activité dans la cuisine devrait faire face à la pièce. Vous ne devriez jamais faire face au mur lorsque vous cuisinez. Cela va contre tous nos instincts. Nous avons examiné comment les hormones travaillent dans le cerveau et comment certaines activités stimulent celles-ci.”

Dans le même article, Grey ajoute : “Tout ce qui se trouve dans votre vision périphérique active votre cerveau. Quelque chose de pointu créera une anxiété, même si elle est subliminale, parce que vous penserez à quelque chose qu’il faut éviter”.


Image : le vaudou des corrélations en neurosciences sociales…

Naturellement une telle invocation des forces de la neuroscience ne pouvait que déclencher l’intérêt du “Neurocritique”, grand pourfendeur devant l’Eternel des interprétations pseudo scientifiques – il y a deux ans, il a publié sur son blog un article qui fit un certain bruit sur “le vaudou des corrélations en neurosciences sociales” qui attaquait les prétentions à déduire le comportement humain à partir de l’imagerie IRM. Le Neurocritique se demande si cette cuisine cognitivement améliorée ne serait pas une manifestation de ce qu’il appelle la “neurophilie explicative”, autrement dit la tendance qu’ont les gens à gober tout discours intégrant les neurosciences : même s’il est probable que les analyses “pseudo-scientifiques” de Grey ne proposent aucune valeur explicative supplémentaire, les clients paieront plus cher pour une cuisine “scientifiquement conçue”.

Vaughan Bell, de l’excellent blog Mind Hacks, s’attaque lui aussi aux prétentions scientifiques de notre cuisiniste, dans un post plus ancien, faisant référence non pas à l’article du Wall Street Journal, mais à un papier du Financial Times, malheureusement indisponible aux non-abonnés – à croire, d’ailleurs, que les recherches “neurologiques” de Grey semblent beaucoup intéresser la presse économique et financière !

Reprenant une affirmation de John Grey à propos du “point de bien-être” selon laquelle lorsque nous faisons face à la pièce, l’ocytocine, l’hormone du lien, et la sérotonine, associée à la relaxation et au plaisir se retrouvent libérées : “non seulement il fait le lien souvent effectué, mais faux, entre des états mentaux spécifiques et des neurotransmetteurs aux effets plus généraux, affirmant sans preuve la relation entre des activités précises et la libération de ces neurotransmetteurs, mais il lance l’idée totalement improuvée que se retrouver dos aux gens dans une cuisine crée de la peur et de l’anxiété, tandis que leur faire face procure relaxation et joie”.

Les ambiguïtés de la neuroarchitecture

On pourrait en rester là et se gausser de l’usage marketing fait du discours scientifique. Mais ce serait peut-être manquer une partie de la complexité du problème. Qu’apprend-on dans les articles du WSJ, du Guardian ou même sur le blog du Neurocritique ? Que Grey a travaillé avec un certain John Zeisel, scientifique au pedigree long comme le bras, spécialiste de la maladie d’Alzheimer et notamment de la manière dont l’environnement influe sur le comportement des malades.

Zeisel, avec son organisation Hearthstone Alzheimer Care crée des environnements susceptibles d’aider les patients atteints de cette affection cérébrale, en travaillant à “incorporer les informations de navigation dans l’architecture plutôt qu’en demandant aux patients de la retrouver dans leur mémoire (…) en créant des fonctionnalités qui évoquent des souvenirs confortables, des souvenirs lointains, comme des cheminées ou des vues sur un jardin ; s’assurer que chaque pièce évoque un état d’esprit spécifique, afin que les patients puissent savoir quand ils pénètrent en un lieu différent. Proposer un accès facile à la lumière du jour et aux espaces extérieurs, afin de permettre aux personnes atteintes de garder un contact avec les rythmes naturels. Le but est d’exercer les parties du cerveau qui fonctionnent encore bien et de soulager celles qui sont endommagées”, nous explique un article de IET. Zeisel est de surcroit membre d’un institut très sérieux consacré à la relation entre le cerveau et l’habitat, l’ANFA (Academy of Neuroscience for Architecture).

Si le Neurocritique est assez silencieux sur Zeisel, Vaughan Bell n’hésite pas à critiquer certains des propos du chercheur, rapportés par le Financial Times. Zeisel aurait ainsi déclaré : “quand nos cerveaux sont satisfaits, une certaine endorphine est libérée, donc nous avons besoin de créer des maisons susceptibles de faciliter cette libération d’endorphines.”

Mais, remarque Bell : “Les endorphines sont les opioïdes naturels du cerveau et peuvent être libérées dans une grande variété de situations: quand nous éprouvons du plaisir, mais aussi aussi quand nous ressentons du stress ou de la peine. Donc créer des maisons qui maximiseraient la sécrétion de cette endorphine peut aussi bien amener à créer des bouges stressants et inconfortables.”

Bell s’attaque également à certains principes défendus par Zeisel, selon qui ” nous avons développé génétiquement des instincts qui nous font nous sentir relaxés au milieu des fleurs, du foyer, de la nourriture et de l’eau… Tandis que les lieux qui nous apparaissent comme trop stériles et dangereux peuvent éventuellement pousser l’hypothalamus à relâcher des hormones de stress.” Aucune preuve, selon Bell, d’une telle disposition génétique vers les fleurs et les petits oiseaux, et aucune indication non plus que des immeubles “stériles” ou “confus” puissent déclencher un stress – à noter toutefois que certaines expériences vont bel et bien dans le sens de Zeisel, telle par exemple cette recherche sur l’importance du milieu naturel sur les capacités cognitives.

Entre science, marketing et culture générale

Qu’en déduire ? Probablement que la “neuroarchitecture” présente la même ambiguïté que celle existant entre la neuroéconomie qui étudie les mécanismes de la décision, et le neuromarketing, qui prétend améliorer la vente de produits en s’inspirant des études sur le cerveau. Là aussi la démarcation entre le pur “buzz” et le vrai travail de fond n’est pas toujours évidente. Où placer par exemple Thaler et Sunstein et leur doctrine du “libertarianisme paternaliste” ? Science fondée ou pur truc marketing ?

De fait toute tentative d’application des découvertes en neurosciences et sciences cognitives se heurte au problème de l’interprétation des données et à la difficulté de juger de l’efficacité d’une intervention. Ça a toujours été le cas en psychologie, mais l’arrivée des neurosciences change la donne et a tous les aspects d’un cadeau empoisonné.

Auparavant, la psychologie et la philosophie étaient difficilement séparables. Pour employer la fameuse expression de Karl Popper, la plupart des théories psychologiques n’étaient pas réfutables : on ne pouvait bâtir de protocole expérimental établissant ou non leur validité. Avec les neurosciences (mais aussi et peut-être plus encore, avec l’expérimentation systématique en sciences cognitives) tout est chamboulé. On se retrouve avec une masse de données chiffrées, obtenues à partir de protocoles précis, de manière répétable et donc réfutable. Pour autant, en déduire une théorie globale du comportement est toujours aussi difficile – et aussi subjectif.

Si Grey avait invoqué, pour ses cuisines, le recours à des théories comme la psychanalyse, le fonctionnalisme du Bauhaus, le postmodernisme ou la déconstruction, voire les traditions chinoises du Feng Shui ou de la géométrie sacrée pythagoricienne, on n’aurait probablement pas trouvé grand-chose à redire : un artiste ou un artisan peut trouver son inspiration où il veut, seule importe la qualité finale de son travail. Mais Grey utilise des concepts se réclamant des neurosciences, et du coup on n’a plus le choix qu’entre accepter naïvement sa Parole ou lui tomber dessus.

De fait, les “neurocuisines” et la neurarchitecture en général posent la question épineuse de l’application des neurosciences à des problèmes non médicaux. Sommes-nous condamnés, au nom d’une certaine prudence épistémologique, à ignorer pour toujours le corpus de découvertes sans cesse grandissant dans ce domaine, pour éviter de faire des contresens, voire d’être accusés d’insincérité ou d’argumentaire marketing ? Et dans ce cas accepter que le divorce entre les “deux cultures” celle des humanités et celle des sciences soit définitivement consommée ? Où faut-il accepter qu’entre la pure réalité scientifique et nos pratiques quotidiennes on puisse bâtir une certaine forme de pont, même s’il faut pour cela recourir à une forte part de métaphore et accepter l’approximation ? Sans compter que ce ne sont pas seulement les non-scientifiques, comme Grey, mais aussi les chercheurs, à l’instar de Zeisel, qui s’aventurent dans cette “zone grise” chaque fois qu’ils cherchent à tirer des conclusions pratiques de leurs travaux !

Reste maintenant à trouver de nouveaux moyens, de nouveaux outils intellectuels nous permettant d’évaluer un tel discours “mixte” ou “flou” qui sort de la recherche scientifique pure tout en reposant sur les conclusions de celle-ci…

>> Photo FlickR CC : amb.photography

>> Article publié initialement sur Internet Actu.

]]>
http://owni.fr/2011/01/19/peut-on-mettre-les-neurosciences-a-toutes-les-sauces/feed/ 1
OWNIPolitics: du journalisme dans la “cité” http://owni.fr/2010/10/26/ownipolitics-journalisme-dans-la-cite-politique/ http://owni.fr/2010/10/26/ownipolitics-journalisme-dans-la-cite-politique/#comments Tue, 26 Oct 2010 14:43:33 +0000 Sylvain Lapoix http://owni.fr/?p=33653 Le journalisme ne progresse-t-il qu’à coup de grandes tartes dans la gueule ? Collectivement comme individuellement ? La première fois que j’ai mis le pied à l’Assemblée nationale, un des responsables du service de presse m’accompagnait :

Léon Blum et Clemenceau ont pris cet ascenseur, il a près d’un siècle.

Nous avons monté les escaliers, pour les poulaillers de la presse qui surplombaient une salle vide mais au perchoir de laquelle je me souvenais avoir vu Aristide Briand. En photo, bien sûr. Une fois redescendus, nous avons glissé sur le marbre jusqu’à la « salle des quatre colonnes ». Là, des collègues envoyaient des SMS sur une banquette empire ou allaient griller une clope sur le perron qui regardait des jardins à la française en attendant le coup de feu. Qui soudain est parti : les députés ont commencé à sortir de la salle, longeant une rangée de petits poteaux dorés à barrière de velours rouge, comme dans les musées, et derrière laquelle les journalistes devaient rester mais au dessus de laquelle ils lançaient leurs micros : « M. Montebourg ! », « M. Marini ! », « M. Gremetz ! » et « M. Copé ! » et tous les autres.

Ils y avaient de plus ou moins grosses « grappes » selon les élus, de plus grosses « forêts » de caméras, perches et appareils photos. Il devait y avoir cinq questions, maximum, qu’ils posaient presque à tout le monde, c’était « la commande du jour », comme au resto, ce qu’ils devaient rapporter pour être à la page. Des commentaires sur des « petites phrases », des réactions aux états d’âme du parti… Rien de politique. Rien. C’était une vraie tarte dans la gueule.
Sur l’absence de politique, j’exagère.

Il y avait quelque chose de politique, certes: de politicien. Mais on a pris l’habitude de considérer que la politique se résumait à ça, des luttes de personnes, de partis, de blocs… A cette politique là, importante mais cruellement insuffisante.

Ensemble tout devient…

2007 a vu l’avènement d’un « nouvel intérêt » qui ne s’est traduit que par la personnalisation d’un affrontement et par celle d’un échec (celui de la gauche) et d’une victoire (celle de Nicolas Sarkozy). Si nous ne nions pas l’importance de ce « jeu » politique, de la tactique et des stratégies mais aussi du militantisme et de l’engagement, la place qu’ils ont pris dans le traitement journalistique de la « chose politique », jetant son ombre méprisante sur tout ce qui touchait de trop près le réel, est à notre avis dommageable. Or, le journalisme lui-même perd de sa vocation politique, de son sens, de sa portée, en se laissant entraîner à parler de choses qui, passé un certain temps, n’intéressent plus que les politiques et les journalistes politiques eux-mêmes. Et le lecteur, de son côté, arrête de tourner les pages.

Le “lecteur” est un citoyen

Sur Internet, à l’inverse, des sites tenus par des journalistes, des experts ou des curieux, ont prouvé que le débat politique pouvait vivre sur les sujets eux-mêmes, qu’il s’agisse d’affaires européennes, d’écologie, d’économie, de défense, de social… ou même de finances publiques ! A côté du “buzz” et des effets qu’induit le temps court permis par le web, la réflexion, l’analyse et la prospective ont réussi à s’installer là où on laissait le temps aux poussières des débats politiciens de retomber.

Dans la continuité de son projet de renouvellement des formes de journalisme, OWNI se lance dans la politique avec un objectif : traiter de tous les aspects de la politique – de l’économie à la recherche en passant par l’écologie, les transports et bien d’autres – sans jamais s’aventurer dans les querelles de partis. Pour ce faire, OWNIpolitics se déclinera sur trois temps de réflexion :

Bilan : pour creuser et tenter de comprendre les racines des problèmatiques qui se posent aujourd’hui.

Débat : pour décrypter les questions et les réponses proposées autour des thèmes qui font l’actualité.

Enjeux : pour offrir un aperçu des défis qui nous attendent et de ceux qui réfléchissent à comment y répondre. Et participer activement !

OWNIpolitics s’appuiera sur l’équipe d’OWNI (journalistes, programmeurs, développeurs et designers) afin de produire ses propres contenus d’intéret public (enquêtes, interviews, analyses, reportages et applications) mais aussi sur un écosystème de contributeurs associés à notre projet, blogueurs politiques ou non, dont les billets nourriront le débat. Le tout dans une démarche politique d’information mais en aucun cas politicienne :

OWNIpolitics se donne le devoir, au nom de sa vocation journalistique, de critiquer tous les partis, de gauche, de droite, du centre et des périphéries diverses. Et bien au delà des partis, de porter un œil critique et constructif sur les principales questions qui sont les enjeux de demain.

//

Illustration CC Elsa Secco pour OWNI, et CC FlickR par Julie70

]]>
http://owni.fr/2010/10/26/ownipolitics-journalisme-dans-la-cite-politique/feed/ 6
Evénement: MAMA débarque à Paris http://owni.fr/2010/10/06/evenement-mama-debarque-a-paris/ http://owni.fr/2010/10/06/evenement-mama-debarque-a-paris/#comments Wed, 06 Oct 2010 10:46:02 +0000 Romain Berrod http://owni.fr/?p=26882 Après avoir vu sa première édition investir la ville de Bourges l’an dernier, le MAMA s’installe cette année les 15 et 16 octobre à Paris, plus précisément dans le dix-huitième arrondissement. Le quartier, qui abrite une concentration impressionnante de salles de spectacles, est l’écrin idéal pour cette manifestation créée par et pour les professionnels de la musique.

Pendant deux jours s’enchaîneront des débats et conférences aux multiples intervenants mais aussi des ateliers et rencontres pro. Le public ne sera pas en reste puisque les deux soirs de nombreux concerts seront proposés dans les salles des alentours (Cigale, Boule Noire, Divan du Monde…) avec à l’affiche Syd Matters, Hey Hey My My, Jil Is Lucky ou encore Lexicon parmi tant d’autres, qui composent une programmation aussi attrayante que variée.

OWNIMusic sera bien évidemment présent et vous rendra compte de l’événement en direct ou presque, sur Twitter, Facebook, et ici même pour des contenus plus complets.

Le programme complet du MAMA est disponible sur le site de l’événement, et mieux pour nous les geeks, via une application iPhone gratuite téléchargeable ici.

Par ailleurs, Romain Berrod de Musique Info a rencontré Fernando Lareiro-Marques, le directeur du Mama. Il détaille les nouveautés de cette seconde édition.

M. I. : Pourquoi avoir décidé de délocaliser le Mama de Bourges à Paris ?

F. L.-M. : La première édition du Mama à Bourges a été considérée comme une réussite, avec plus de 1 500 participants. Néanmoins, nous avions l’intuition que pour affirmer l’identité de notre événement, pour en assurer le développement et favoriser sa renommée internationale, Paris était la terre d’accueil idéale. En outre, nous avons la chance de bénéficier d’une infrastructure naturelle : la partie du 18ème arrondissement où se déroule le Mama, avec ses salles de spectacles nombreuses et concentrées, est un authentique “boulevard de la musique” et un cas presque unique en Europe.

M. I. : Quels sont les ajustements auxquels vous avez procédé, pour cette seconde édition ?

F. L.-M. :  Nous avons maintenu la substance même de l’événement : rencontres professionnelles, conférences et concerts. Mais nous avons tiré les leçons
de la première édition, notre numéro zéro. Cette année, les horaires et les durées des différentes conférences ont été aménagés dans la mesure du possible afin d’éviter qu’ils ne s’entrechoquent. Malgré tout, avec dix conférences par jour et de nombreuses structures partenaires investies dans leur organisation, il y a quelques contraintes inéluctables. La seconde innovation de ce Mama, et non des moindres, c’est l’ouverture vers le public. En effet, en implatant le MaMA à Paris et en investissant un quartier entier, il nous paraissait pertinent d’y associer le public. Dans chaque salle de spectacle, nous avons réservé un quota de places en vente pour le public et les concerts “Live in Montmarte” (20 concerts gratuits dans 10 bars de Montmarte) sont également ouverts au public.

M. I. : Le format et le contenu des colloques et débats a été totalement modifié, pouvez-vous nous en dire un mot ?

F. L.-M. : Nous nous sommes entouré cette année d’un comité de reflexion pour mieux aborder les thématiques et les formats de nos débats. Nous souhaitions que ces rencontres soient dynamiques, consistantes, insolites, qu’elles donnent lieu à des discussions spontanées, suivies d’actes tangibles et de propositions pratiques. Dans la mesure où nos problématiques nationales sont comparables à celles des autres pays, nous avons aussi voulu proposer un grand nombre de thémes internationaux et garantir la présence de nombreux intervenants étrangers.

M. I. : Quelles sont les typologies de professionnels attendus au Mama ? Combien de personnes attendez-vous ?

F. L.-M. : Le Mama est un événement fédérateur et ouvert à l’ensemble de notre filière. Nous nous adressons à tous les professionnels de la musique, qu’il s’agisse de musique enregistrée ou vivante, d’acteurs culturels ou économiques et, évidemment, de français ou d’internationaux. S’agissant d”une première à Paris, il est difficile de se fixer un objectif précis en terme de fréquentation. Mais l’un des éléments très positifs de ce MaMA parisien, qui confirme nos pressentiments, concerne la participation internationale. Nous constatons déjà que de très nombreux représentants de festivals réputés, de tourneurs, de labels internationaux seront présents. S’is seront en majorité européens, le MaMA accueillera également des délégations de professionnels américains, canadiens, japonais, sud-américains, africains …

M. I. : Le Mama se veut un rendez-vous clairement international : comment peut-il trouver sa place face des événements du même genre déjà très identifiés à l’étranger, comme Eurosonic, l’ADE, le Popkomm… ?

F. L.-M. : Outre l’attractivité évidente que représente Paris et des noms tels que Pigale ou Montmartre, le Mama bénéficie de l’intérêt et de l’attention des acteurs de l’industrie musicale internationale pour le marché français. Ce sont les retours fréquents que nous avons. Les internationaux souhaitent pénétrer le marché français mais ils l’appréhende souvent comme une énigme, complexe et difficile à décoder. Ils voient à travers le Mama une excellente opportunité de rencontrer leurs homologues français et de mettre en place des projets de collaboration. Certes, il y a aujourd’hui de très nombreux événements internationaux accueillant des professionnels mais, comme je le disais précédement, la France reste un cas à part. L’engouement des professionnels étrangers pour le Mama et le fait que, malgré sa création récente, notre événement soit déjà identifié à l’échelle internationale, en est la meilleure preuve. A ce titre, plutôt que de nous placer en concurrents d’autres festivals à l’identité similaire, nous nous sommes rapprochés d’eux en créant, par exemple, un réseau international avec des partenaires tels que Eurosonic, South By South West, Spot, C/O Pop Cologne mais aussi le TIMM à Tokyo ou le Canadian Music Week, tous présents au Mama 2010 et avec lesquels nous développons des actions de programmation et de communication. D’autres manifestations ont souhaité développer des collaborations avec le MaMA. Qu’il s’agisse du PopKomm, du Reeperbahn, du Womex, du Liverpool Sound City ou encore du MEG Montréal, tous seront à Paris, les 15 et 16 octobre.

F. L.-M. : Cette année, pendant les 48 heures du Mama, nous présentons 60 groupes, français et internationaux, dont le potentiel à l’export nous parait manifeste. Pour les internationaux, souvent déjà bien positionnés dans leurs pays respectifs, il s’agit de bénéficier de la visibilité du Mama pour présenter un nouvel album, rencontrer un tourneur ou attirer un distributeur. Pour les artistes français, c’est l’assurance de se produire devant un parterre de professionnels, français et internationaux, d’attirer l’attention des plus grands festivals internationaux, de séduire également un agent ou un label à l’étranger.  Car nous sommes effectivement dans cette logique de marché, de soutien à l’export. A titre d’exemple, nous accueillons dans notre programmation des artistes internationaux qui ont été remarqués lors des festivals avec lesquels nous avons mis en place des partenariats. Dans ce cadre, l’an prochain, nous présenterons à l’international et labeliserons des “plateaux artistiques” composés de groupes français remarqués lors du Mama 2010.

M. I. : Le Mama restera-t-il désormais à Paris, au mois d’octobre, ou cela dépend-il de son succès cette année ?

F. L.-M. : En créant le Mama, il n’était pas question de réaliser un “one shot”. Nous avions la volonté d’installer durablement un événement qui correspondait aux attentes des professionnels, français et internationaux. Aujourd’hui, à quelques jours du MaMA, nous restons attachés à cette conception. La récurrence est indéniablement plus aisée lorsqu’il y a succès, mais nous ne nous posons pas la question en ces termes. Pour nous le Mama est un projet d’intérêt général, utile et fédérateur et, sauf catastrophe, nous esperons être encore là pour les années à venir, en octobre certainement et à Paris assurément !

Interview initialement publiée sur Musique Info.

Crédits photos : CC FlickR kern.justin / et Mama.

]]>
http://owni.fr/2010/10/06/evenement-mama-debarque-a-paris/feed/ 2
LOPPSI : Bilan d’observations citoyennes d’un débat parlementaire http://owni.fr/2010/02/23/loppsi-bilan-d%e2%80%99observations-citoyennes-d%e2%80%99un-debat-parlementaire/ http://owni.fr/2010/02/23/loppsi-bilan-d%e2%80%99observations-citoyennes-d%e2%80%99un-debat-parlementaire/#comments Tue, 23 Feb 2010 11:13:47 +0000 Regards Citoyens http://owni.fr/?p=8833

« Utiliser Twitter sans accès à Internet et munis seulement de papier et de crayons » Voilà le défi que nous ont lancé les services de l’Assemblée en refusant l’accès aux tribunes presse à notre partenariat avec le site d’informations LePost.fr.

La richesse du projet de loi LOPPSI nous semblait une bonne occasion d’informer via Twitter sur le déroulement d’un débat parlementaire. Mais comment nous organiser alors que, sans accréditation, nous ne pouvions avoir sur nous ni téléphone, ni ordinateur ?

La solution que nous avons trouvée : avoir de bonnes jambes !

Nous avons donc assisté aux 26 heures de débats depuis les tribunes du public, comme le font de nombreux citoyens chaque jour. Dès qu’une information retenait notre attention, nous rédigions un message sur du papier. Tous les quarts d’heure, alors que l’un d’entre nous restait en tribunes pour ne rien rater du débat, l’autre en sortait avec ses notes et dévalait les escaliers jusqu’aux vestiaires. Il y récupérait notre mini-ordinateur et le branchait à Internet via une clé 3G. Après une rapide recherche de liens, il postait sur Twitter les 3 ou 4 messages préparés depuis les tribunes. Aussitôt les messages envoyés et les outils consignés aux vestiaires, il pouvait remonter quatre à quatre les escaliers pour retourner en tribune.

Au bout de quelques heures de débats, nous nous sommes aperçus que nous n’étions pas seuls à publier sur Internet en direct de l’Assemblée. Un journaliste informait pour LeMonde.fr depuis la tribune presse au dessus de nous.

Présents sur place ou suivant les débats via le flux vidéo, des journalistes proposaient donc eux aussi des compte-rendus. Alors que nous nous concentrions sur le déroulement des débats, eux s’intéressaient avant tout au contenu des prises de paroles. Leur travail venait donc parfaitement complémenter nos gazouillis : nous rapportions régulièrement sur l’équilibre des groupes présents, sur la répartition des votes, sur le contenu des échanges de fond ou de forme formulés hors micro, sur les discussions entre le gouvernement et différents députés lors des suspensions de séance, ou même sur des évènements plus anectodiques (lapsus, blagues ou rires) permettant de partager l’ambiance de l’hémicycle. On retrouve ainsi pêle-mêle :

» le discours du ministre commençant devant une majorité de députés… de l’opposition, l’équilibre des forces politiques se retrouvant par la suite pour les débats sur le fond du texte ;

»le public se retrouvant par moments plus nombreux en tribune que les députés en contrebas ;

»les bancs qui se remplissent pour le vote en « scrutin public » ;

» le soutien apporté par des députés de la majorité aux amendements et votes de l’opposition sur les articles relatifs à Internet ;

» le passage momentané de certains députés pour les débats sur des sujets spécifiques dont ils sont spécialistes comme Etienne Pinte avec les sans-papiers ;

» le consensus trouvé parfois par l’ensemble des députés pour des votes à l’unanimité ;

» les réunions informelles entre le ministre, le rapporteur et des députés de tous les groupes pendant les supensions ou après les séances, entraînant parfois des résultats concrets ;

» les échanges hors-micro formulés d’un bout à l’autre de l’hémicycle entre les députés, parfois suite à des lapsus ou des blagues provoquant l’hilarité générale ;

» les accélérations menées en fin de débat par la présidente Vautrin en l’absence de députés censés défendre leurs amendements ;

» les légers écarts au règlement qui ont interpellé certains députés sans les formaliser plus avant ;

» ou encore les députés se servant de leur nouvelle connexion Internet pour consulter NosDéputés.fr depuis leur fauteuil de l’hémicycle ! ;-)

Nath, présente en séance, fait des croquis des débats LOPP... on Twitpic
Le rapporteur de la LOPPSI, Eric Ciotti par une spectatrice Nath

Mais cette complémentarité n’a duré qu’un temps : pour des raisons d’organisation et de budget, aucun journaliste accrédité n’a pu assister à l’intégralité des 25h30 de débats, du mardi après-midi au jeudi passé minuit.

Équipés d’ordinateurs en tribune presse, notre travail aurait certainement gagné en qualité. Dommage donc que l’Assemblée nationale n’ait pas ouvert ses portes à notre partenariat avec un journal en ligne alors que son règlement l’autorisait. La coproduction citoyens/journalistes semble bien être l’une des seules façons de couvrir exhaustivement des débats parlementaires aussi riches.

Il existe pourtant une vraie demande citoyenne de mieux connaître le fonctionnement de l’Assemblée : toute la semaine, nous avons croisé dans les tribunes de nombreux citoyens venus assister aux discussions.

Munis de papier et de crayons, beaucoup ont pris des notes, d’autres réalisaient des croquis que nous avons diffusés, et certains ont bien voulu nous faire part de leurs impressions au travers de petites interviews vidéo.

Cliquer ici pour voir la vidéo.

Autre exemple de l’intérêt citoyen pour les débats, les réactions suscitées par nos comptes-rendus sur Twitter : beaucoup s’étonnaient de ne compter que peu de députés, tout particulièrement lors de la discussion générale. Nous avons choisi d’expliquer que les débats se déroulent en plusieurs étapes : certaines ne donnant lieu à aucun vote, il est compréhensible que les députés choisissent de se consacrer à d’autres tâches législatives ou de contrôle parlementaire. De même, quelque soit le nombre de députés en hémicycle, nos lecteurs ont pu remarquer que l’équilibre politique gauche-droite reflétait généralement celui de la chambre. En relatant ces différentes phases du processus législatif, notamment en introduction de nos pages de compte-rendus, nous espérons faire mieux comprendre certains aspects du fonctionnement parlementaire, et ce malgré les barrières qui nous sont mises par les services de l’Assemblée.

Vous pouvez donc retrouver nos « twitt-rendus de séance » agrémentés de croquis, vidéos et explications sur les enjeux pour chaque journée de débats :

Motions de rejet et discussion générale : Mardi 09/02/10
Suite de la discussion générale et Article 1 : Mercredi 10/02/10
Articles 2 à 46 : Jeudi 11/02/10
Vote Solennel : Mardi 16/02/10

Vous pouvez retrouver et commenter par ailleurs l’ensemble des débats du dossier LOPPSI sur NosDéputés.fr avec des statistiques sur la participation et les temps de parole, et les revoir en vidéo sur le site de l’Assemblée nationale. Le texte débattu et les amendements adoptés et rejetés sont également consultables sur NosDéputés.fr.

» Article initialement publié sur Regards Citoyens

]]>
http://owni.fr/2010/02/23/loppsi-bilan-d%e2%80%99observations-citoyennes-d%e2%80%99un-debat-parlementaire/feed/ 5
Suivre en direct de l’Assemblée la LOPPSI ? C’est pas gagné… http://owni.fr/2010/02/09/suivre-en-direct-de-l%e2%80%99assemblee-la-loppsi-c%e2%80%99est-pas-gagne%e2%80%a6/ http://owni.fr/2010/02/09/suivre-en-direct-de-l%e2%80%99assemblee-la-loppsi-c%e2%80%99est-pas-gagne%e2%80%a6/#comments Tue, 09 Feb 2010 17:16:38 +0000 Regards Citoyens http://owni.fr/?p=7868
Lors des débats depuis les tribunes
CC – Richard Ying

Comment donner envie aux citoyens de suivre les travaux parlementaires ? Comment recréer un lien entre l’activité parisienne des députés et leurs électeurs ? Voilà les questions que nous nous posons souvent à Regards Citoyens.

Nous pensons que des projets de lois aussi riches que la LOPPSI sont de bonnes occasions d’exercer cette pégagogie. Ce texte traite à la fois d’Internet, de scanners corporels, de vidéo-surveillance, de police municipale, d’espions, de la presse ou encore des entreprises spécialisée dans l’intelligence économique. Il suscite donc réticences et résistances, mais aussi enthousiasme voire fantasmes. Les débats seront certainement animés et donnent donc une bonne occasion pour innover dans le traitement de l’actualité parlementaire.

C’est pourquoi nous souhaitions nous associer avec LePost.fr et proposer une plateforme innovante autour de ce texte.

Nous avons donc d’abord développé Simplifions la loi 2.0 pour le texte de loi de la LOPPSI : grâce à notre outil, les internautes peuvent lire en contexte et commenter le texte relié à ses amendements.

En parallèle de cette observation minutieuse mais distante du travail parlementaire, nous nous sommes dit qu’être présents en tribunes publiques apporterait une vraie plus-value. Le flux vidéo des débats de l’Assemblée permet de suivre les orateurs mais pas d’observer le reste des députés ni d’évaluer les enjeux de chaque vote : être présent physiquement est le seul moyen de voir si des députés sont remontés et s’ils viennent par intérêt pour les débats ou juste pour préserver les équilibres politiques. La meilleure couverture que nous pouvions apporter au Post aurait donc été de rapporter le déroulement des débats en direct depuis les tribunes, avec Twitter par exemple.

Malheureusement le rêglement relatif au comportement du public est très strict : seuls papiers et crayons sont autorisés, il nous était donc impossible de réaliser cela sans une accréditation presse. Rien de plus simple pour un journal en ligne comme LePost.fr, qui l’avait déjà fait avec un photographe amateur durant les débats HADOPI. Le Post a donc engagé les démarches avec le service presse de l’Assemblée la semaine dernière, avant de se voir finalement refuser cette accréditation quelques heures avant le début des débats. Le motif : « Nous ne souhaitons pas faire une jurisprudence ». Les services de l’Assemblée préfèrent donc que les tribunes presse restent vides, les journalistes parlementaires ayant depuis longtemps déserté ces tribunes, plutot que d’accueillir de nouvelles formes de couverture de l’actualité parlementaire qui associerait journalistes et citoyens.

Persuadés de l’importance de ce travail pédagogique, nous irons malgré tout assister aux débats, et nous trouverons des moyens de vous rapporter au maximum nos observations. Mais ce manque d’ouverture des l’Assemblée n’est pas à l’honneur de nos institutions.

La programmation des débats sur la LOPPSI est la suivante, les personnes curieuses peuvent suivre les débats en direct avec la vidéo sur le site de l’Assemblée :

matin après-midi soir
Mardi 9 Février 17h -> 20h 21h30 -> ≃ 00h30 *
Mercredi 10 Février 16h -> 20h 21h30 -> ≃ 00h30 *
Jeudi 11 Février 9h30 -> 12h30 15h -> 20h 21h30 -> ??? *
Mardi 16 Février 16h : Vote Solennel

* Les débats du soir peuvent se poursuivre parfois jusque 4 ou 5 heures du matin. Le calendrier prévisionnel permet cependant d’estimer que ceux de mardi et mercredi soir finiront probablement plus tôt, aux alentours de minuit. En revanche ceux du jeudi pourront s’étendre jusqu’à ce que le texte ait été discuté dans sa totalité, voire s’achever exceptionnellement le vendredi si nécessaire. Suivant la décision de la conférence des présidents, le vote final sur le texte pourra avoir lieu soit à la fin des débats, soit sous la forme d’un scrutin solennel à 16h le mardi suivant.

Liens utiles :

>Le texte de loi
>Les amendements
>La feuille jaune présentant le programme des discussions
>RegardsCitoyens sur Twitter
>Page LOPPSI sur LePost.fr

» Article initialement publié sur Regards Citoyens

» Illustration de page d’accueil par Julie70 sur Flickr

]]>
http://owni.fr/2010/02/09/suivre-en-direct-de-l%e2%80%99assemblee-la-loppsi-c%e2%80%99est-pas-gagne%e2%80%a6/feed/ 1
Internet du futur : vers un “cahier des charges” http://owni.fr/2009/07/22/internet-du-futur-vers-un-%e2%80%9ccahier-des-charges%e2%80%9d/ http://owni.fr/2009/07/22/internet-du-futur-vers-un-%e2%80%9ccahier-des-charges%e2%80%9d/#comments Wed, 22 Jul 2009 15:03:47 +0000 Hubert Guillaud http://owni.fr/?p=2055

“Il est essentiel que le réseau ‘universel’ qu’est l’internet conserve une architecture qui favorise l’accessibilité et l’innovation” rappelle la réponse à la [1] consultation du secrétariat d’Etat chargé de la Prospective et du développement de l’économie numérique sur l’internet du futur que publient la Fing, Silicon Sentier, l’internet Society France et plusieurs personnalités de l’internet français.

Une réponse qui pointe du doigt le danger qu’il y aurait de vouloir transformer l’internet sans comprendre comment lui-même nous a transformé.

Introduction

En réponse à la consultation publique sur l’internet du futur organisée par le secrétariat d’Etat chargé de la Prospective et du développement de l’économie numérique, la Fing,  Silicon Sentier et l’ Isoc France, ainsi qu’un certain nombre d’individualités marquantes de l’internet français, ont choisi de produire ensemble une contribution publique.

Ce groupe se compose pour l’essentiel de non-techniciens, qui ont néanmoins de l’internet un usage quotidien et professionnel pour publier, innover, produire.

Par conséquent, notre contribution propose plutôt les éléments d’un “cahier des charges” de l’internet de demain, envisagé par des “grands utilisateurs”, qu’une série de recommandations techniques précises.

Les questions posées par l’internet et ses usages ne trouvent certes pas toutes leurs réponses dans l’architecture et les technologies du réseau lui-même. Beaucoup de réponses relèveront des applications et des services, des utilisateurs et de leurs organisations, de la régulation ou de l’écologie des usages. Dans le cadre de cette consultation, nous avons choisi de nous focaliser sur ce que l’on devait demander au réseau internet – et par symétrie, sur ce qu’il vaudrait mieux ne pas lui demander.

C’est pour mieux explorer aussi ce second terme de l’alternative – ce que l’on ne devrait pas demander au réseau – que nous avons décidé d’évacuer (pour l’instant du moins) des infrastructures d’applications aussi importantes que le web. Cela nous aura notamment permis de repartir de questions trop rarement posées : qu’attendons-nous vraiment de l’internet ? Que sommes-nous prêts à sacrifier pour l’obtenir ?

Nous espérons que ce court texte apportera un éclairage utile et complémentaire des autres contributions.

Il demeure ouvert aux critiques, commentaires et enrichissements sur le site  http://internetdufutur.wordpress.com.

Daniel Kaplan, Jean-Michel Cornu et Hubert Guillaud,  Fing
Marie-Vorgan Le Barzic et Marie-Noéline Viguié,  Silicon Sentier
Gérard Dantec et Laurent Ferrali, Isoc France

Sommaire
1. A quels problèmes s’agit-il de répondre ?
2. Des non-dits qui obscurcissent le débat
3. Efficience ou universalité : au fond, que demande-t-on à l’internet ?
4. Les objets, les sujets : deux nouveaux objectifs pour l’internet du futur
5. Conclusion, les trois priorités
Liste des participants

1. A quels problèmes s’agit-il de répondre ?

Si tant de gens, dans tant de pays, réfléchissent à “l’internet du futur”, ce doit être que celui-ci rencontre des problèmes, ou qu’il devrait en rencontrer dans l’avenir. Pour envisager les directions à prendre, il est important de recenser ces problèmes, et d’en mesurer le caractère plus ou moins critique. Il faut aussi faire la part des problèmes réellement liés à la technique, de ceux qui proviennent de l’organisation de l’internet ou de ses acteurs.

Et pourtant, il marche !
Car le plus étonnant, au fond, est que pour la plupart de ses usages et de ses utilisateurs, l’internet fonctionne assez bien alors que son architecture fondamentale a fort peu changé en près de 30 ans.

Cela se fait certes au prix d’une grande complexité, distribuée à tous les niveaux : multitude d’acteurs intervenant à tous les échelons du réseau – jusqu’aux administrateurs des réseaux d’entreprises et aux utilisateurs (gestion des adresses, sécurisation, mises à jour diverses, etc.) ; multiplication des adaptations destinées à permettre au réseau d’accepter de nouveaux usages et de nouveaux utilisateurs ; “patches” liés à la sécurité, la qualité de service, la mobilité, etc. Mais il demeure que l’exceptionnelle capacité d’adaptation de l’internet, et l’extraordinaire diversité des utilisateurs et des usages pour lesquels il constitue aujourd’hui une base satisfaisante, doivent conduire à approcher toute transformation significative avec un grand discernement.

Un problème de dimension
L’une des principales difficultés que rencontre l’internet d’aujourd’hui est celle de suivre la croissance du nombre d’appareils connectés. Celle-ci traduit non seulement la croissance du nombre d’utilisateurs, celle du nombre de “terminaux” par utilisateur (beaucoup d’appareils électroniques s’équipant d’une connexion réseau), mais aussi, la multiplication d’objets et d’espaces “communicants”.

L’insuffisance du nombre d’adresses IP que fournit l’actuel protocole IPv4 est manifeste. Diverses mesures ont jusqu’ici permis de gérer la pénurie, au prix d’une certaine fragmentation du réseau et sans doute, de l’impossibilité de penser certains usages (il est par exemple impossible d’accéder directement à chaque objet connecté par une adresse propre indépendante des applications, ce qui rend difficile son utilisation comme “serveur”).

L’inflation des tables de routage pourrait également finir par créer des phénomènes d’engorgement. Malgré les promesses des générations successives de routeurs, l’évolution technologique ne semble pas pouvoir répondre à elle seule à cette problématique de croissance.

Des insuffisances pour des usages “critiques”
L’internet pose des problèmes à des organisations ou des types d’échanges pour lesquels le réseau, ou bien telle ou telle de ses caractéristiques, ont un caractère critique – au sens où si une fonction donnée n’est pas remplie, l’échange devient impossible ou sérieusement problématique :

  • L’internet ne propose pas aisément une sécurisation de bout en bout des échanges. Techniquement, elle supposera que tous les intermédiaires assurent bien le même service d’une façon compatible les uns avec les autres. Or, l’internet étant un réseau de réseaux indépendants les uns des autres, une part majeure de la sécurité relève de fait des utilisateurs et des applications. Notons qu’aujourd’hui, dans la plupart des cas, les opérateurs de réseaux comme les utilisateurs mettent très insuffisamment en œuvre les technologies et les démarches de sécurité élémentaires et disponibles.
  • Reposant sur un principe d’obligation de moyens (”best effort”) et non de bonne fin, l’internet peut difficilement être utilisé pour des échanges ayant besoin d’un niveau garanti de “qualité de service”, en termes de fiabilité, de débit, de latence, etc. On pense, par exemple, à des usages pour lesquels le temps réel est essentiel, parmi lesquels la vidéo haute définition, mais aussi des applications destinées à synchroniser de manière précise différents dispositifs (applications industrielles, de sécurité, scientifiques, etc.). Là encore, des solutions existent, mais il est difficile de garantir qu’elles sont mises en œuvre, et de la même façon, de bout en bout et au travers de tous les réseaux.

Une difficulté à accomoder de nouvelles demandes
En l’état, malgré certaines adaptations, l’internet gère mal la mobilité. Il se prête également mal à la multidiffusion d’un signal (”multicast”).

Des difficultés d’ordre économique et social
Enfin, l’internet suscite ou rend manifestes des difficultés dont le caractère n’apparaît pas technique au premier abord, mais dont on pressent bien – pour de bonnes ou de mauvaises raisons – que certaines solutions pourraient passer par des évolutions du réseau lui-même :

  • L’internet est difficile à contrôler, mais il n’est pas non plus si incontrôlable qu’on le dit. Le pouvoir iranien n’est pas si mal parvenu à restreindre les communications entre ses citoyens, et il a sérieusement raréfié leurs interactions avec le reste du monde. On ne peut tout contrôler tout le temps, mais force est de constater que dans de nombreux pays, on parvient assez bien à censurer l’internet, ou au moins retrouver la trace de ceux qui passent au travers des mailles du filet.
  • Le modèle économique de l’internet, comme réseau, apparaît comme fragile. A titre d’exemple, la rentabilité des fournisseurs d’accès s’obtient aujourd’hui, soit en faisant financer les gros utilisateurs par les petits (comme nous le verrons plus loin), soit en s’étendant vers d’autres services, ce qui peut poser des problèmes de concurrence ou fragiliser des secteurs (comme ceux des contenus) dont la rentabilité s’avère déjà problématique.
  • La gestion de l’identité sur l’internet n’est guère satisfaisante. Alors que le réseau est devenu, pour beaucoup de gens, un espace d’action et de transaction quotidien, l’identité numérique demeure généralement liée aux conditions physiques et contractuelles d’accès au réseau ou à un service. Pour la plupart des individus, changer de fournisseur d’accès, de service de messagerie ou de réseau social signifie perdre son adresse, ses contacts, bref, une bonne part de son identité.
    L’identité numérique n’est en fait ni réellement protégée (il y a beaucoup de moyens de savoir qui se cache derrière un pseudo, une adresse IP), ni réellement certifiée (on peut penser savoir à qui l’on a affaire, mais sans en être sûr).
  • Notre vie quotidienne, notre vie économique, certains aspects essentiels du fonctionnement de nos sociétés, deviennent très dépendants vis-à-vis de l’internet. Mais celui-ci n’assume pas vraiment la responsabilité qui devrait accompagner cette dépendance : sauvegarde et préservation des informations dans le temps ou au contraire, effacement sûr des informations, résilience en cas de problème, etc.

Il y a donc beaucoup de bonnes raisons de s’intéresser à l’internet du futur, voire de tout remettre à plat, sur le plan intellectuel du moins. Mais un certain nombre de non-dits obscurcissent aussi singulièrement le débat.

Cartographie des questions relatives à l'internet du futur par Véronique Olivier-Martin
Image : Une cartographie des questions relatives à l’internet du futur réalisée par [17] Véronique Olivier-Martin à partir de l’atelier de travail du 26 juin 2009.

2. Des non-dits qui obscurcissent le débat

Tous les problèmes cités plus haut sont réels et importants. Mais l’internet vit avec eux depuis des années. Certains de ces problèmes ont trouvé des solutions plus ou moins bricolées. Dans d’autres cas, les solutions techniques disponibles, certes peut-être imparfaites, tardent à se mettre en œuvre – c’est vrai en particulier de la sécurité, tant au cœur des réseaux que dans les entreprises et sur les postes de travail.

Alors, pourquoi le thème de l’internet du futur, voire – pour certains – de sa nécessaire refondation, prend-il aujourd’hui tellement d’importance ? Et de quel internet s’agit-il ?

Un enjeu économique mal documenté
La question de la “neutralité de l’internet” a surgi dans l’actualité via la rubrique économique : il s’agissait, pour certains fournisseurs d’accès américains, de compléter les revenus qu’ils tiraient de leurs clients finaux (vente d’abonnements, de bande passante et d’interconnexion) en facturant les sites web les plus utilisés ou les plus exigeants, en échange d’une garantie d’acheminement prioritaire sur leurs liaisons.

Cela revenait au fond à rappeler que l’équilibre économique de la plupart des acteurs du réseau repose sur un écheveau complexe et opaque de subventions croisées :

  • Au cœur du réseau, les petits réseaux et les pays pauvres subventionnent les autres en payant des frais d’interconnexion bien plus élevés ;
  • Au niveau local, l’enchevêtrement entre réseaux et points d’interconnexion publics et privés, réservés et partagés, rend difficile tout calcul précis ;
  • Au niveau de l’accès, les clients raccordés à un débit moyen ou bas, ou ceux qui consomment peu, subventionnent les gros utilisateurs des centres-villes ;
  • Des transferts également complexes ont lieu entre les différents métiers des opérateurs : accès, contenus, transactions…

On comprend alors que derrière certaines hypothèses d’évolution de l’internet, s’expriment des volontés – éventuellement contradictoires – de modifier les équilibres économiques et les jeux d’acteurs.

Par exemple, il est difficile de garantir une qualité de service de bout en bout si chaque communication emprunte un chemin différent, passant “chez” un grand nombre d’acteurs indépendants les uns des autres, de toutes tailles, obéissant à des règles différentes – c’est la situation d’aujourd’hui. Mais pour faire autrement, il faudrait une intégration beaucoup plus forte des réseaux jusqu’à l’accès, et beaucoup moins d’opérateurs, chacun étant lié aux autres par des règles (économiques et techniques) d’interconnexion très strictes. On voit bien qu’une telle intégration changerait le paysage concurrentiel de l’internet.
De même, une plus forte intégration entre accès et contenus, ou encore, une architecture de réseau qui ne ferait plus la différence entre accès fixes et mobiles, entraineraient de toutes autres organisations de marché.
Il est légitime que les intérêts s’expriment. Mais ils apparaissent rarement en tant que tels dans le débat sur l’internet du futur. Les intérêts se masquent le plus souvent derrière des arguments fonctionnels et techniques.
Une meilleure connaissance de la réalité de l’économie de l’internet, ainsi que des rôles, usages, intérêts et enjeux de l’ensemble de ses acteurs, semble indispensable à un débat éclairé et ouvert sur l’internet du futur. La France devrait engager des travaux de recherche dans ce domaine et inviter l’Union européenne à en faire de même.

Un désir de contrôle qui ne se soumet pas au débat
Les réflexions américaines sur l’internet du futur sont devenues de plus en plus visibles à partir des attentats du 11 septembre 2001. C’est dire que la préoccupation sécuritaire y joue un grand rôle. Celle-ci concerne certes les Etats face au terrorisme et plus généralement, aux nouvelles formes de guerre. Mais la lutte contre la délinquance et la criminalité s’est également invitée au débat. Et de leur côté, les entreprises demandent également plus de sécurité face aux attaques gratuites ou intéressées dont elles sont très souvent victimes. Et plus récemment, ce sont des secteurs économiques aux prises avec de nouvelles formes de concurrence plus ou moins loyale, ou même avec leurs clients (dans le cas des industries culturelles par exemple), qui demandent au réseau d’en savoir plus sur ses utilisateurs, de filtrer, bloquer, tracer…

Certaines de ces demandes se retrouvent de fait au cœur de débats publics, comme c’est le cas autour de la “loi Hadopi”. Mais bien d’autres s’expriment d’une manière plus discrète. On peut comprendre pourquoi. Mais dans le même temps, s’agissant de l’architecture d’un réseau aussi essentiel que l’internet, le degré d’importance à accorder à l’insertion de nouvelles fonctions de sécurité au sein du réseau doit s’ouvrir aux discussions. Parce qu’on ne sécurise jamais sans contrepartie, que ce soit en termes d’ouverture du réseau, de performance, de jeux d’acteurs, etc.

* *

Les vertus de l’internet actuel doivent servir de base pour construire l’internet du futur. Les individus comme les organisations utilisent le potentiel collaboratif de l’internet d’une façon active et efficace. La prise en compte de ces aspects est un atout pour les pays émergents qui voient l’internet comme une opportunité en termes de développement et (le plus souvent) de liberté d’expression. Elle est, pour tous, un facteur d’innovation et de croissance. Toute évolution proposée doit être jugée en fonction de sa capacité de faire vivre cette dynamique ou, au contraire, de la fragiliser.

_________________

Un enjeu de gouvernance mondiale
Le groupe de travail n’a pas produit de contribution spécifique sur la gouvernance de l’internet, qui demeure cependant un sujet d’avenir majeur. Cette gouvernance demeure aujourd’hui largement dépendante du gouvernement américain d’une part, et de l’autre, des grandes entreprises (notamment américaines) qui ont à la fois l’intelligence et les ressources de financer la présence massive de leurs ingénieurs dans les groupes de standardisation.

Les futures évolutions de l’internet doivent relever d’une gouvernance bien plus multilatérale et multi-acteurs. Le mouvement engagé sous l’égide des Nations Unies depuis le Sommet mondial de la société de l’information (2003-2005), qui a vu émerger une forme d’expression de la “société civile”, constitue un premier pas, évidemment insuffisant. L’Europe doit devenir un intervenant actif des débats à venir. Les entreprises européennes doivent prendre conscience de la nécessité d’être présentes aux moments et aux endroits où s’élaborent les standards. Enfin, ces travaux doivent déborder du cadre des forums officiels et des listes de discussions pour techniciens, pour permettre à d’autres groupes d’évaluer les conséquences économiques, sociales et environnementales des évolutions envisagées.

3. Efficience et universalité : au fond, que demande-t-on à l’internet ?

Les réflexions sur l’internet du futur semblent faire l’hypothèse que ce réseau doit devenir plus efficient pour, d’une part, grandir et d’autre part, mieux répondre aux besoins « critiques » – sécurité, qualité de service, etc.

Cette idée qui semble incontestable mérite cependant qu’on la regarde en profondeur et en particulier que l’on se pose la question de savoir ce que l’on perd lorsque l’on gagne en efficience.

Car on demande aussi à l’internet d’être un réseau “universel”, et même doublement :

  • Il doit être accessible au plus grand nombre (voire à tous), donc disponible partout, facile à déployer et raccorder, peu coûteux. L’internet a fait de la connectivité une aspiration nouvelle, que l’on voit s’exprimer de la part des exclus des réseaux et plus encore, des exclus de la démocratie ou du développement dans le monde. L’internet du futur doit à l’évidence continuer de porter cette espérance.
  • Il doit également accueillir les usages, les services, les applications et même les détournements les plus hétéroclites et les plus imprévus, et leur permettre si nécessaire de se déployer à très grande échelle. En fonctionnant comme une infrastructure neutre et simple, appuyée sur des standards ouverts, en ne faisant aucune distinction a priori entre les points qu’il connecte, l’internet est devenu en quelques années l’une des plus extraordinaires plates-formes d’innovation de l’histoire. Des millions d’applications, de sites, d’organisations humaines, de processus… s’appuient sur lui. Pratiquement aucun n’était même imaginable aux débuts du réseau. Très peu ont été inventés par les grands acteurs des réseaux.

Pour atteindre ce niveau d’universalité, le critère prioritaire n’est plus l’efficience, mais l’adaptabilité, la capacité d’accueillir l’imprévu – le juriste Jonathan Zittrain parle d’un internet “génératif” .

Comment équilibrer adaptabilité et efficicience ?
Gagner en efficience implique que l’on cherche à optimiser la gestion des ressources rares du réseau (les adresses IP, la puissance de calcul des routeurs, la bande passante parfois… et les finances des opérateurs) et à en maximiser la sécurité, ce qui exige de prévoir au mieux ce qu’il se passe sur le réseau (les chemins empruntés par exemple).

rareteabondance.jpgSe mettre en position de répondre à l’imprévu exige à peu près l’opposé : proposer en permanence une abondance de choix, voire de capacités, entre lesquels chaque innovateur, chaque organisation, voire chaque individu, choisira le moment venu, mais pas avant…

Ainsi d’un côté, on cherche à optimiser (gérer la rareté par la prévisibilité) et de l’autre à s’adapter (gérer l’imprévisible par l’abondance). Ces deux approches semblent incompatibles mais en réalité, tout est affaire d’équilibre.

efficienceresilience.jpgLes sciences de la complexité, démontrent en effet que tout réseau, qu’il soit technologique, biologique ou humain atteint un optimum de durabilité lorsqu’il trouve le bon équilibre entre l’efficience et la résilience (qui reprend certaines notions de l’adaptabilité) . Cet optimum se situe généralement un peu plus près de la résilience que de l’efficience. C’est également à ce point d’équilibre entre optimisation et adaptabilité, entre ordre et désordre, qu’émergent de nouvelles possibilités ; bref, que le potentiel d’innovation est maximal.

Les arguments techniques, généralement centrés sur l’efficience, ne peuvent donc pas suffire à déterminer la direction des travaux sur “l’internet du futur”. Il faut certes répondre d’une manière ou d’une autre aux besoins “critiques” de certaines applications qui échouent si certaines fonctions ne sont pas remplies à un certain niveau de qualité (garantie de bonne fin). Mais l’internet doit aussi demeurer un réseau à vocation universelle – accessible à tous et à tous les usages, sans préjuger de leur pertinence – et ceci s’accommode mal de dispositifs verrouillés.

Il y a critique et critique
Quelles sont les applications qui nécessitent vraiment un réseau “critique”, prioritairement bâti sur des critères d’efficience et de sécurité ?

On a par exemple souvent présenté la nécessité d’un débit parfaitement continu (la qualité de service) comme un élément critique pour permettre de passer de la voix sur un réseau. Mais l’utilisation massive du téléphone mobile, de la téléphonie IP, de la vidéo sur l’internet ou même de jeux en ligne de “basse résolution”, montre que les utilisateurs arbitrent plus souvent qu’on ne le croit en faveur du choix, du prix, de la mobilité, de leur propre capacité de participation, au détriment d’une qualité maximale.
Par contre des réseaux militaires, de recherche ou d’échanges interbancaires peuvent être perçus comme critiques : la sécurité, le délai d’arrivée des informations, la rapidité d’interaction, y ont un caractère vital. C’est aussi le cas d’éventuels réseaux qui permettraient le contrôle à distance de stimulateurs cardiaques ou d’autres appareils médicaux : dans ce cas la sécurité et la continuité du service doivent être assurés au maximum, quitte à réduire l’innovation sur de tels réseaux.

Faire coexister deux logiques
Sans négliger l’importance des critères d’efficience propres aux réseaux et aux usages “critiques”, on ne saurait donc réorganiser tout l’internet autour de ces critères. Il est “essentiel ” que le réseau “universel” qu’est l’internet conserve une architecture qui favorise l’accessibilité et l’innovation (symétrie des échanges, interconnexion directe des différents points du réseau…). De ce point de vue, il est nécessaire à court terme de faciliter le déploiement du protocole IPv6 (qui est immédiatement disponible et conserve cet équilibre entre “best effort” et optimisation) tout en favorisant la recherche de nouvelles solutions respectant le même type d’équilibre.

D’un autre côté, il apparaît économiquement raisonnable que les réseaux critiques, mêmes non interconnectés avec l’internet “universel” partagent lorsque cela est possible, les mêmes infrastructures physiques.
Différentes technologies permettent aujourd’hui de faire fonctionner sur de mêmes réseaux physiques des réseaux “virtuels” distincts et même étanches entre eux. Ceci présenterait en outre l’avantage, pour l’avenir, de faciliter l’expérimentation (de préférence participative, avec l’ensemble des acteurs concernés) de solutions innovantes pour l’internet qui sauraient mieux équilibrer performance, fiabilité, adaptabilité, économie et innovation.

Une difficulté économique
Cette vision d’un réseau “universel” qui arbitre délibérément en faveur du potentiel d’innovation au détriment de certaines attentes en termes d’efficience, et même de sécurité, rend difficile la mise en place de points de passage obligés à des fins, par exemple, de péage ou de contrôle. Remarquons cependant que dans d’autres domaines, ces fonctions ne sont pas non plus gérées par le réseau (cas des transports, dont la modernisation s’est accompagnée de la disparition des octrois), ou bien qu’elles ne le sont pour l’essentiel qu’aux extrémités des réseaux (cas de l’énergie). L’internet ne ferait donc pas exception.

* *

Si l’on ne peut pas avoir à la fois une efficience maximale et une adaptabilité maximale, il faut alors trouver le moyen de permettre aux deux formes de réseaux de se développer tout en s’interconnectant et en partageant le plus grand nombre possible de ressources.

4. Les objets, les sujets : deux nouveaux objectifs pour l’internet du futur

Un véritable “internet des objets”
Aujourd’hui, ce que l’on décrit souvent comme “l’internet des objets” se déploie le plus souvent hors de l’internet (dans des réseaux internes à des entreprises ou à des secteurs d’activités) et selon des principes très différents de ceux de l’internet : chaque puce qui équipe un objet ou un lieu ne communique en général qu’avec son “maître”, dans des dispositifs en étoile autour d’un système centralisé, et pour des finalités précises.

Les objets et les espaces se mettent bien en réseau, mais d’une manière sélective et le plus souvent hiérarchique, à l’intérieur de silos. On ne peut en général pas accéder aux capteurs et actionneurs pour leur faire faire autre chose que ce qu’ont prévu leurs installateurs ; on n’accède pas plus aux données qu’ils produisent : les images des caméras vont au PC de surveillance, les mesures de trafic à celui de la circulation, et personne d’autre n’en fera jamais rien. A brève échéance, on saura probablement identifier les “objets communicants” d’une manière à peu près universelle, mais il reste que la connexion “en étoile” à un serveur ne fait pas un “internet des objets”.

Ce qui a deux conséquences liées : d’une part, la plupart des puces installées dans des objets ou des espaces doivent se rentabiliser sur un seul usage, pour un seul acteur – celui qui les a installées. Comme, jadis, les ordinateurs spécialisés, mono-tâches et mono-utilisateurs. Et d’autre part, l’imagination innovante trouve peu à s’appliquer, puisque l’accès à l’infrastructure de facto que constituent toutes ces puces demeure sous contrôle, et que la combinatoire de ces puces, objets, espaces, utilisateurs, demeure bridée.

Un marché aussi contraint se condamne à rester petit. Et par construction, il vise à renforcer les acteurs et modèles existants, pas à les changer.

Deux idées centrales
D’autres pistes sont en cours d’exploration pour imaginer un système dans lequel les modèles de conception des objets, leurs fonctions, leurs caractéristiques techniques, leur composition, leur cycle de vie et bien sûr, les services qu’ils offrent via leurs capacités d’acquisition, de traitement et de communication, s’ouvrent beaucoup plus largement à l’innovation.

Tout, dans ces travaux, ne relève pas du réseau soi-même. Mais ils convergent autour de deux idées centrales :

  • Faire des objets (et des espaces) communicants des “constituants” de l’internet à part entière, qui peuvent être visibles du reste du réseau (ils disposent d’adresses publiques), qui peuvent émettre autant que recevoir et ce, via l’internet de tout le monde, qui peuvent être exploités (ou au moins voir leurs données exploitées) par d’autres que ceux qui les ont créés, installés ou équipés. Naturellement, des conditions de sécurité ou économiques peuvent s’appliquer, mais elles doivent venir après. Cela suppose a minima que l’espace d’adressage des objets soit cohérent avec celui du reste de l’internet et que les protocoles de l’internet “universel” facilitent également l’interconnexion avec des objets dont les capacités électroniques sont de faible puissance et qui doivent consommer très peu d’énergie.
  • Faciliter l’établissement spontané de réseaux de proximité entre objets fixes et nomades : détection et reconnaissance automatique, négociation de la connexion, utilisation des supports de réseau disponibles, ainsi que des liens accessibles avec le reste de l’internet.

La recherche européenne doit se focaliser sur ces éléments de cahier des charges, pour prendre position dans la création d’un internet des objets intégré dans l’internet des humains, plutôt que séparé de lui et contrôlé par les grandes filières industrielles existantes.

Un “internet des sujets”
Le thème de l’identité (numérique) prend une place de plus en plus centrale dans les discussions autour de l’internet, ainsi que dans les pratiques.

Aujourd’hui, cette identité est maltraitée sur le réseau :

  • Elle dépend entièrement des conditions d’accès au réseau ou à un service donné. Si l’on change de fournisseur d’accès internet, on perd le plus souvent son adresse e-mail et par suite, bien souvent, son accès à certains services, voire des listes de contacts. Si l’on change de réseau social, on perd son profil et ses réseaux d’”amis”.
  • Elle est fragmentée, elle existe de manière différente dans chaque espace au sein duquel on s’identifie : un coupe identifiant/mot de passe par service, réseau social, outil… Il devient dès lors très difficile de maîtriser les manifestations et les utilisations de son identité.
  • L’utilisateur de l’internet n’est ni vraiment anonyme (il est relativement aisé de l’identifier, du moins si l’on peut relier l’adresse IP à un compte chez un fournisseur d’accès), ni bien identifié (le réseau lui-même ne certifie ni n’authentifie sans dispositifs complémentaires mis en place à cet effet).

Or le développement des pratiques individuelles et sociales de l’internet fait émerger un grand nombre d’attentes nouvelles, et en partie contradictoires :

  • Le besoin social et professionnel de disposer d’une “existence numérique” – auquel font référence des initiatives tendant à donner à des SDF une adresse mail, un numéro de téléphone ou encore un espace de stockage numérique personnel.
  • La volonté de maîtriser les manifestations de son identité, qu’il s’agisse de préserver sa vie privée face aux commerçants, aux employeurs ou aux autorités – ou au contraire de se projeter pour entrer en relation avec d’autres, collaborer, s’exprimer, obtenir un service…
  • La double volonté, d’une part, de disposer de plusieurs “identités” distinctes permettant de cloisonner divers aspects de son existence et d’autre part, de simplifier la gestion de ses identifiants, de ses cercles de relations, de ses profils, etc.
  • La besoin de rattacher à son ou ses identité(s) une multitude d’objets, d’informations, de documents, de liens et autres “agents” disséminés sur le réseau – sans pour autant tout laisser voir à tout le monde.

Une “adresse numérique” personnelle ?
La complexité de ces attentes incite paradoxalement à ne pas trop confier de choses au réseau soi-même, au risque de tout figer, ou de détruire la confiance pour cause d’excès de surveillance.

Mais il semble malgré tout nécessaire de réfléchir à la possibilité d’attribuer facilement (et pour pas cher, voire gratuitement) un ou plusieurs identifiants techniques pérennes, propres à l’individu et sans doute incessibles, indépendants des modalités physiques ou contractuelles d’accès au réseau. La forme de cet/ces identifiant(s) est à discuter : adresse IP ou morceau d’adresse, nom de domaine, “URI” (uniform resource identifier)…

Un tel type d’identifiant résoudrait plusieurs des problèmes cités plus haut. En revanche, il pourrait en créer de nouveaux s’il rendait excessivement aisé l’établissement d’un lien entre une visite, une transaction, un échange, une donnée, et l’identité civile associée. Il faudrait donc offrir la possibilité de le masquer via des dispositifs d’anonymisation de tout ou partie de l’adresse par exemple, ou par des moyens alternatifs à rechercher.

Ce qui précède constitue donc, non pas une revendication, mais la recommandation d’en faire un vrai sujet de recherche et d’expérimentation pour l’internet de demain. L’identité numérique sera l’un des sujets de débat centraux de l’internet du futur. Ce sujet devra être abordé d’une manière créative et courageuse, pour répondre aux aspirations qui émergent sans céder à la tentation de la surveillance ou de la transparence totale.

Un internet de confiance ?
La “confiance” est souvent évoquée comme l’un des buts souhaitables à atteindre sur l’internet du futur. Mais qu’entend-on par confiance ? Au moins trois choses :

  • La confiance vis-à-vis du réseau soi-même, de sa fiabilité (la possibilité de s’appuyer dessus pour des actes importants) – dont l’une des conditions est qu’il ne nous soumette pas à une surveillance plus étroite que celle que l’on accepte dans la vie quotidienne hors ligne.
  • La confiance vis-à-vis des services, de leur crédibilité, du respect de leurs engagements contractuels, du respect de la vie privée de leurs utilisateurs.
  • La confiance vis-à-vis des autres, de ce que l’on pense savoir d’eux (qui ne suppose pas nécessairement de connaître leur identité civile) et de la valeur de leur parole.

Face à ces questions importantes, les principales réponses théoriques et politiques sont aujourd’hui techniques – elles consistent à augmenter le niveau de sécurité des systèmes ; alors qu’au quotidien, les principales réponses pratiques sont plutôt contractuelles (ce que chacun risque ou non), assurancielles (à qui coûte le risque, et combien), sociales (ce que les autres disent de…) ou mémorielles (ce que j’ai vécu précédemment avec…). La plupart des dispositifs avancés de sécurisation des échanges demeurent peu utilisés.

Faut-il aller plus loin dans le réseau lui-même ? Sans doute, mais là encore, d’une manière prudente. Traiter de manière purement technique des questions de confiance peut détruire le substrat de confiance sur lequel toute société repose : pourquoi me demander si j’ai confiance en quelqu’un s’il m’est facile de prendre toutes les sécurités possibles ? Et par suite, la confiance vis-à-vis du réseau peut en souffrir : puis-je prendre le moindre risque si tout m’est infiniment imputable et si, pour que ce soit le cas, tout ce que je fais se sait quelque part ?

A minima, avant que de sécuriser plus avant l’internet et les échanges qui s’y déroulent, il conviendrait de s’assurer que les dispositifs de sécurité existants sont utilisés – ou bien, de comprendre pourquoi ce n’est pas le cas. Il peut en effet, comme nous l’indiquons dans la partie 3, y avoir de bonnes raisons de ne pas sécuriser à l’excès certains dispositifs, certains modes d’accès et d’identification, certaines transactions ou échanges : faciliter l’accès, réaliser des économies, favoriser l’émergence d’usages imprévus et de détournements, inviter les utilisateurs à se faire confiance, etc.

Ce que l’on pourrait demander au réseau soi-même pourrait alors porter sur :

  • La confidentialité des échanges : certains imaginent que les données circulant sur le réseau puissent être étiquetée d’un niveau de confidentialité (public, privé, restreint) ;
  • La sécurité des équipements du réseau ;
  • Et la facilité de construire des réseaux “critiques” plus fiables et sécurisés, séparés au moins pour partie de l’internet “universel”.

Conclusion : les trois priorités

Une approche technologique de l’internet du futur cherchera assez naturellement à répondre au plus grand nombre possible de demandes en termes de performance, de fiabilité et de sécurité.

En nous plaçant d’un autre point de vue, celui d’acteurs qui s’appuient sur l’internet pour innover et développer leurs activités, nous avons montré que cette approche pouvait avoir un coût caché : celui de rendre l’internet moins accessible, et surtout, moins ouvert à l’innovation.

* *

En évoluant, l’internet doit rester ce réseau doublement universel – ouvert à tous, ouvert à tout – et cette plate-forme d’innovation. Cela supposera souvent d’arbitrer, sur l’internet, en faveur de l’adaptabilité du réseau plutôt que de l’optimisation – quitte à faire le contraire sur certains réseaux dédiés, plus ou moins interconnectés avec l’internet “universel” et pour lesquels la capacité d’innovation n’est pas aussi essentielle.

Les conséquences sociales et économiques d’une diminution de la capacité de l’internet à fonctionner comme un moteur d’innovation ouverte, y compris pour de compréhensibles raisons de sécurité et de qualité, seraient profondément négatives.
Cet internet ne sera plus celui des seuls ordinateurs, du moins des ordinateurs tels que nous les connaissons. Etendre l’internet aux objets constitue un chantier prioritaire, mais il faut l’aborder dans l’esprit… de l’internet : c’est-à-dire faire des objets, non pas de simples terminaisons de chaines de valeur industrielles, mais des constituants à part entière d’un internet des humains et des non-humains, ouverts à leur tour aux transformations, aux détournements, aux agencements imprévus.

Enfin, l’internet est devenu une infrastructure si essentielle pour des millions d’individus, qu’il devient prioritaire de les y faire exister. Exister comme des sujets autonomes, capables d’y déployer leurs capacités, qui y possèdent une adresse (voire un domicile) stable, tout en bénéficiant des libertés élémentaires de disparaître, de se dissimuler ou de se réinventer.

* *

Universalité, accessibilité et ouverture à l’innovation d’où qu’elle vienne ; mise en réseau des humains et des non-humains ; émergence d’un “internet des sujets” : voici les trois attentes prioritaires que nous exprimons dans ce “cahier des charges” de l’internet du futur. Elles ne s’opposent pas à d’autres attentes, mais elles doivent être défendues avec suffisamment de force, comme des critères sur lesquels il serait grave, y compris du point de vue économique, de transiger.

En défendant une telle vision, la France proposerait une voie créative et ambitieuse, dans laquelle l’Europe pourrait prendre toute sa place.

________________

Quelques recommandations concrètes

Ayant travaillé dans l’optique d’un “cahier des charges”, le groupe ne s’est pas fixé pour objectif de produire des recommandations précises en réponse à chacune des questions de la consultation. Quelques pistes ont cependant émergé des échanges, dont nous reprenons les principales.

Soutenir les recherches qui visent :

  • A mieux comprendre l’économie et les jeux d’acteurs de l’internet, ainsi que son fonctionnement concret
  • A augmenter les capacités et la qualité du réseau actuel
  • A étendre au-delà de ses limites actuelles les principes architecturaux décentralisés qui fondent en principe l’internet, mais ne s’appliquent que rarement au niveau du “dernier kilomètre” : réseaux “sans opérateurs” et de pair à pair, réseaux mesh et ad hoc, réseaux autonomes… (ce dernier point relevant dans une large mesure de la recherche “en rupture”)
  • Dans le soutien à la recherche, s’attacher à associer les grands industriels, les acteurs publics, les laboratoires de recherche et les petites entreprises innovantes, dont proviendront bien souvent les innovations les plus importantes. Des initiatives particulières doivent s’attacher à mettre ces dernières en mesure de développer leur R&D, puis leur développement, les deux à l’échelle internationale.
  • Trouver les méthodes et les dispositifs concrets permettant d’intégrer les citoyens et les utilisateurs en amont des recherches sur l’internet du futur (et ses applications).
  • Explorer, en termes techniques, économiques et de régulation, les conséquences de l’émergence probable de “droits” associés au caractère de plus en plus indispensable des réseaux : droit à l’accès, droit à l’identité, droit à l’oubli ou à la déconnexion, droit à la préservation des données dans le temps…
  • A l’évidence, porter ces projets et ces recommandations au niveau européen, seul échelon d’action pertinent dans ce débat mondial.

_________________

Liste des participants au groupe de travail
Les participants sont intervenus à titre individuel. Les idées exprimées dans ce document ne reflètent pas nécessairement celles de leurs employeurs ou organisations. La présence dans la liste des participants n’implique pas non plus une adhésion à chacune des idées et propositions de ce document.

Olivier Auber, Baptiste Cammareri, Jean-Marie Chauvet, Nathalie Colombier, Dominique Dardel, Jean-Marie Dazin, Olivier Desbiey, Fabrice Epelboin, Monique Epstein, Laurent Ferrali, Vincent Fillion, Francine Halfen, Isabelle Galy, Laurent Gille, Damien Guennif, André Gunthert, Thomas Lang, Jean-Marc Manach, Kouam Mensah, France Miremont, Gilles Misrahi, Pierre Mounier, Tristan Nitot, Nicolas Nova, Gilles Pansu, Franck Perrier, Margault Phélip, Damien Roussat, Sylvie Sassi, Christel Sorin, Mohsen Souissi, Christophe Tallec, Yannick Tamèze.

Article initialement publié sur Internet Actu

]]>
http://owni.fr/2009/07/22/internet-du-futur-vers-un-%e2%80%9ccahier-des-charges%e2%80%9d/feed/ 0