Société française de l'Internet

Quel Internet pour quelles sociétés ?

Privé. Débat sur la neutralité de l’Internet, SFI, avril 2010

Cet article est en accès réservé aux adhérents et partenaires de la SFI.
Pour le lire, il faut être inscrit et connecté au site.
Les liens d’accès sont en pied de page à gauche.

Pour s’inscrire : http://www.refondation.org/blog/wp-login.php?action=register.
Pour se connecter : http://www.refondation.org/blog/wp-login.php.

[hidepost=4]Ce débat, organisé sur liste de discussion de la Société française de l’Internet, prend pour appui l’interview vidéo de Michel Riguidel réalisée par l’ARCEP.

Contributions, par ordre chronologique :

Philippe Recouppé

Michel Riguidel, au delta des positions défendues dans l’interview ARCEP, ne faut-il pas distinguer dans le réseau :
– les flux professionnels, qui sont mieux valorisés pour être mieux traités, et permettent la notion de SLA (Service Level Agrement) facteur de valorisation des services
– les flux issus d’applicatifs sensibles, voix, vidéo, et là est pour moi le point de cristallisation de la neutralité, car les acteurs s’affrontent avec des moyens et des approches marchés très différenciés (attention à la destruction de valeur)
– les flux grand public, ou le best effort ou la neutralité des contenus devrait s’appliquer, et peut dès aujourd’hui s’appliquer, sans restriction technique
Pour moi, il en va de la valorisation du métier de transporteurs d’information (accès + transport), et donc de sa pérennité, qui si elle venait à être remise en cause, pourrait entraîner jusqu’à la remise en cause du modèle économique de ces transporteurs. Mais nous n’en sommes absolument pas là actuellement, la bonne santé des acteurs du transport et de l’accès le démontre.

Ce débat ne devant surtout pas occulter le débat sur la liberté des contenus, la liberté du courrier, de l’innovation des services … qui est essentielle à Internet, et en est le moteur.

Il nous faudrait réfléchir à comment mettre en avant cette distinction entre ces deux problématiques.

Philippe Recouppé
Président Forum ATENA
www.forumatena.org

trait

Pierre Lagoutte

Pour ma part je distingue deux positions possibles:
1- Augmenter les revenus des transporteurs en dissociant encore plus complètement leurs prix des vente de leurs coûts de production, ceci dans la plus complète opacité.
2- Transférer la gestion de la qualité aux usagers, avec la contribution (plus ou moins forcée) des ISPs, en succitant la transparence (a minima) des coûts de production.

La première position est celle des transporteurs, à l’affut du moindre appui du pouvoir (quelqu’il soit IETF, FCC, ARCEP… l’argent n’a pas d’odeur, mais avec plus ou moins de succès pour le moment) pour augmenter leurs revenus…  La requalification du prix de vente de certaines connexions serait le bienvenu, comme ce qui existe déjà dans la téléphonie mobile en ce qui concerne le prix de revient des SMS et des communications téléphoniques vis-à-vis de leur prix de vente (la voix y est vendue à prix d’or, en comparaison de l’Internet mobile).

La seconde position consisterait à gérér intelligemment les connexions d’accès fixe (typiquement le goulot d’étranglement des accès ADSL) qui sont en pratique la seule source de congestion des échanges des usagers fixes sur le réseau. Il faut rappeler que les usagers payent un bon tiers de leur abonnement pour cet accès, et qu’ils auraient légitimement le droit de participer à leur gestion (notamment de gérer la priorité de leurs flux dans la limite de leur débit contractuel) à leur convenance.
Cette position doit évidemment être accompagnée pour les usagers d’une facturation au débit d’accès contractuel, et non à un tarif unique indépendant des conditions techniques du réseau (ce qui est la situiation actuelle). Cette position, qui inciterait largement au progès de la qualité du réseau, a d’ailleurs fait l’objet d’une proposition de loi à l’Assemblée (rejetée en commission)
Les ISP ont fait évidemment de leur mieux pour prendre pied et pour se maintenir dans la gestion du segment d’accès, au travers des box d’opérateur pour les flux montants, et des équipements de terminaison de réseau pour les flux descendants. Ceci pour certains même, en endommageant au besoin la qualité de certaines connexions choisies, du moins pour les abonnements de base. Il leur serait évidemment ensuite d’autant plus aisé de restaurer une qualité sélective appropriée au montant des abonnements.
Je suis par ailleurs conscient que la TV, et dans une moindre mesure la voix, nécessitent une infrastructure de transport au moins en partie dédiée, et donc des investissements supplémentaires en coeur de réseau. Mais la discussion sur la neutralité n’est pas positionnée sur ces services.

Il est clair que les revenus des transporteurs doivent leur permettre tout à la fois de gagner leur vie et de renforcer l’infrastructure, et qu’ils doivent donc recevoir une juste rémunération (en particulier faire payer davantage les abonnés qui bénéficient d’une meilleure qualité de service – débit). Mais de là à surtaxer ce qui coûte le même prix de revient, il y a un gap que je ne suis pas prêt à accepter. Et je ne vois pas l’intérêt d’une péréquation étatique dans ce domaine.

Je ne parle même pas des sous-entendus non exprimés: la discrimination des flux au niveau applicatif implique une inspection en profondeur du trafic (et pas seulement des champs des paquets IP dédiés à leur qualité de service), ce qui arrange bien les Hadopistes de tous poils qui pourraient alors bénéficier de cette fonction sans avoir à la payer directement. Mais ce ne sera « in fine » qu’un prétexte de plus: le trafic des « non ayant  droits » ayant une aptitude infinie à dissimuler leur trafic plus vite qu’une politique d’inspection ne pourra progresser.

Nous devons a minima rester lucide (ne pas rèver) et bien comprendre les tenants et aboutissants des prises de décision proposées par les différents lobbystes.

trait

Michel Volle

Merci de m’avoir envoyé l’adresse de l’exposé de Michel Riguidel. C’est intéressant.

Cet exposé se situe dans une histoire longue, celle du conflit entre les télécoms et l’informatique sur la place de l' »intelligence » (capacité de traitement et de calcul) : doit-elle résider dans les équipements périphériques ou dans le réseau, c’est-à-dire dans les commutateurs et les routeurs ? Dans les années 90, le CNET a fait des recherches sur les « réseaux intelligents » ; on parlait aussi de « réseaux à valeur ajoutée ».

La bataille entre X25 et TCP/IP a été l’un des épisodes de ce conflit, X25 consommant davantage d' »intelligence » dans les routeurs tandis que TCP/IP se contentait de router les datagrammes, la vérification de l’intégrité du message étant faite par l’équipement destinataire.

Le fait est qu’aujourd’hui la diversité des usages de l’Internet conduit à s’interroger sur la capacité de TCP/IP à tout faire. Est-il capable d’assurer la communication que réclame, pour prendre un cas extrême, la télé-chirurgie ? Ou bien faut-il prévoir des services diversifiés (débit, mais aussi risque de coupure ou de perte, gigue etc.), ce qui exigerait d’introduire de l' »intelligence » dans les routeurs, et aussi de pratiquer des tarifs diversifiés ? Cela ferait renaître le thème des « réseaux intelligents ».

Je partage l’intuition de Michel Riguidel : on ne pourra sans doute pas indéfiniment se contenter d’un service de communication indifférencié, offert à tout le monde pour un prix forfaitaire et relativement bas. Il faudra pouvoir traiter de façon différente des communications répondant à des exigences diversifiées et pointues.

Ce qu’il dit sur l’appropriation du réseau par les « portails » me semble plus discutable : personne n’est obligé d’aller sur Facebook ou sur Google… il s’agit plutôt de savoir comment se partage le profit entre les acteurs de l’Internet et aussi comment il se constitue (redevances ou publicité) : c’est une question importante, mais ce n’est pas la même que celle du partage de l' »intelligence » entre les équipements terminaux et le réseau.

trait

Bruno Mannoni, en réponses à Michel Volle

1. Le 06/04/2010 13:55, Michel Volle a écrit :

« La bataille entre X25 et TCP/IP a été l’un des épisodes de ce conflit, X25 consommant davantage d' »intelligence » dans les routeurs tandis que TCP/IP se contentait de router les datagrammes, la vérification de l’intégrité du message étant faite par l’équipement destinataire. »

NON.

X25 était une vache à lait, dont des expériences réalisées en Allemagne (je n’ai plus les références de l’université) ont montrés que son débit max est de 2 Mb/secondes
http://minilien.com/?X79p44SUrn
ce que contestait l’ingénieur général Gérard Théry, lors d’une conférence au CNIT y a presque 20 ans, ce qui m’a permis de me lever et d’hurler:
Monsieur l’ingénieur général, vous êtes un menteur !
(Applaudissement sur les bancs de l’INRIA) et mise dans la soirée sur écoute administrative non autorisée que le procureur a fait lever : cela fait toujours bizarre lorsqu’on appelle France Telecom pour un dérangement de voir arriver la police :-)

L’idée génial était de faire payer l’ouverture de chaque CV !

Genre tu décroches ton vieux POTS, t’as la tonalité, tu raccroches : t’es facturé !

De plus l’ouverture d’une liaison de bout en bout pour X.25 (ben vi, on pense avec le seul modèle qu’on connait, le POTS !) fait qu’il n’est pas solide et qu’en cas de rupture de liaison faut recommencer le transfert. Rouvrir un CV, donc être à nouveau facturé …

Avec TCP/IP il , bon je vais me citer ca ira plus vite:

« Au milieu des années 1960 les Etats-Unis souhaitaient mettre au point un réseau de commandement militaire, pouvant résister à une attaque nucléaire. En 1962, le rapport de Paul Baran «  On distributed communications  » est publié par la  » Rand Corporation « . Cette recherche, subventionnée par  » l’US Air-Force  » proposait un modèle de réseau de communication ou il n’y aurait pas de point d’autorité centralisée, et ou chaque noeud échappant à une attaque pourrait ré-établir le contact avec les noeuds survivants. Ainsi la destruction d’une partie du réseau ne détruirait pas l’ensemble et l’effet de cette destruction d’une partie sur l’ensemble du réseau serait minimal. Une des recommendations de ce rapport était de mettre en place un réseau national public permettant de transporter les données informatique, un peu comme le réseau téléphonique transporte la voix.  » Il est temps maintenant de penser à un nouveau service public, un réseau de communication dédié à la transmission de données digitales pour un très grand nombre d’abonnés « . Il propose d’utiliser la technologie de la commutation de paquets pour bâtir cette nouvelle infrastructure. Cette recherche ne rencontra pas une large audience , car elle était en partie couverte par le  » secret défense « .

Mais d’autres chercheurs travaillaient sur le même sujet, en particulier J.C.R Licklider qui se mit en congés de 1962 à 1964 pour conseiller l’ARPA et fût très influent sur la méthodologie utilisée par cette agence pour accorder des fonds.

Le MIT, l’UCLA et la RAND se mirent à travailler sur ce concept d’un réseau décentralisé, à l’épreuve de toutes les attaques , dont tous les noeuds auraient le même statut, chaque noeud ayant l’autorité pour recevoir, transmettre, émettre des messages, messages qui seront eux-mêmes divisés en  » paquets « . Chacun des paquets sera transmis séparément, trouvant sa route dans le réseau indépendamment de ses homologues.

Et c’est ce dernier point, le mode dit  » non-connecté  » qui a fait toute la robustesse de ce réseau. Il est important d’en dire quelques mots. Schématiquement il existe deux possibilités pour transmettre de l’information sur un réseau : le mode connecté (ou point à point) et le mode non connecté.

En mode connecté lorsque l’émetteur veut envoyer une information au récepteur (courrier électronique, image, programme) une connexion physique est établie de bout en bout : entre le terminal de l’émetteur et le terminal du récepteur. Si un élément constitutif de cette chaîne de liaison physique tombe en panne, la connexion s’arrête et il est nécessaire de la rétablir.

En mode non connecté, le chemin particulier que prend un paquet n’a pas d’importance. Le paquet passe de noeud en noeud, s’approchant (plus ou moins nous en reparlerons) de sa destination finale, jusqu’à y aboutir. Si une partie du réseau ne fonctionnait plus, cela n’a pas d’importance : le paquet continuerait a être transmis par les noeuds fonctionnant encore. Cette approche garantit un système robuste.

Dans les années 1960 IBM, General Electric et Tymeshare avaient mis en place des systèmes permettant un acccès distant par réseau téléphonique le plus souvent à un ordinateur : un peu comme avec le Minitel on peut se connecter à un centre serveur. L’énorme différence était que l’on avait là une technique maître (l’ordinateur central) / esclave (le terminal). Dans la structure d’ARPANET, au contraire, les noeuds ont tous la même autorité.

Comme l’ont dit certains pionniers de l’architecture du réseau Internet  » nous avons d’abord passé beaucoup de temps à étudier comment les opérateurs de télécommunications géraient leurs réseaux, puis nous avons fait exactement l’inverse.  »

En 1968, le  » National Physical Laboratory  » en Angleterre commença a tester un réseau basé sur ces principes. L’ARPA décida alors de financer un projet plus ambitieux. C’est Larry Roberts qui était à la tête du bureau IPTO (Information Processing Technolgy Office) de l’ARPA qui guida cette recherche. Les militaires mirent en place un appel d’offres pour un réseau de quatre ordinateurs pouvant évoluer jusqu’à 17 sites. C’est la firme BBN (Bolt Beranek and Newman, Inc) qui remporta le contrat.

C’est Severo Ornstein de BBN qui analysa l’appel d’offres. Il se souvient avoir dit à sa hiérarchie:  » Bien sur qu’on pourrait construire un truc comme ca. Mais franchement je ne vois pas à quoi cela pourrait bien servir. »

http://membres.multimania.fr/mannoni/comment-est-ne/historique.html

2. Le 06/04/2010 13:55, Michel Volle a écrit :

« Le fait est qu’aujourd’hui la diversité des usages de l’Internet conduit à s’interroger sur la capacité de TCP/IP à tout faire. Est-il capable d’assurer la communication que réclame, pour prendre un cas extrême, la télé-chirurgie ? »

Les expériences réalisées en réel l’ont été sur de la fibre optique, permettant de transmettre les données à une vitesse constante, de l’ordre de 150 millisecondes, entre le geste du chirurgien et le retour image.

http://www.doctissimo.fr/html/sante/mag_2001/mag1130/dossier/sa_4884_telechirurgie_itw.htm

Mais on ne s’oriente plus vers cela, mais vers des robots en salle machine, heuh dans le bloc opératoire, contrôlés par des joysticks que le chirurgien manipule à partir d’image scanner, TDM ou IRM.

Mais y a des cas ou cela ne remplace pas la bonne vieille méthode. Je prends mon cas:

« A l’ouverture de la cavité thoracique on palpe un nodule dans le lobe supérieur gauche et dans le segment apical du lobe inférieur gauche. Réalisation d’un Wedge au niveau de ces nodules par plusieurs coups d’agrafes GIA 80. »

Un de ces nodules n’était pas détectable au scanner ….

ΑΓΕΩΜΕΤΡΗΤΟΣ ΜΗΔΕΙΣ ΕΙΣΙΤΩ
http://twitter.com/Herode
السلام عليكم

trait

Denis Ettighoffer (réponse en privé à Dominique Lacroix)

Nous savons metttre sous VPN (virtual private network) les échanges et fichiers devant être soit protégés, soit traités spécialement. Lorsque l’on parle de neutralité on évoque surtout les différences de tarifs et de débits affectés à des sessions/contenus spécifiques.

On peut toujours upgrader des sessions sensibles et leur autoriser des passages urgents sur des hubs spécifiques (cela a toujours existé exemple pour des raisons dipliomatiques ou militaires. La téléchirurgie en est un autre exemple qui utilise des réseaux à très haut débit). Cela ne signifie pas que l’on pénalise les sessions classiques en les traitant de façon dégradé parce qu’elles rapporteraient moins d’argent.

trait

[/hidepost]

Laisser une réponse

Vous devez etre connectez Pour poster un commentaire