Sur l'actuelle garantie légale de la neutralité.

Alec indique, dans son billet, que la neutralité du réseau est garantie depuis bien longtemps. Non pas depuis quelque loi récente, mais, en gros, depuis deux siècles, par la garanti de la neutralité du transporteur du pli postal, cette neutralité ayant été transposée depuis dans tous les autres modes de communication.

Son argumentaire fait un subtil mélange entre le secret de la correspondance privé, qui est effectivement un principe très solide depuis bien longtemps, et ce dont je parlais moi, dans les propos qu'il cite, à savoir la non-responsabilité du transporteur. En gros, le facteur qui délivre le pli postal n'est pas responsable si la lettre est piégée, ou qu'elle contient des propos insultants.

Effectivement, ce principe est depuis longtemps admis pour le courrier postal. Mais il ne l'est concernant Internet que depuis peu de temps. Et, depuis un peu plus de 10 ans que le législateur s'intéresse à Internet, tant en France qu'en Europe, la question de la responsabilité du transporteur est centrale. C'est même encore un sujet dans le traité ACTA en cours de discussion. Les textes issus des fuites sont complexes à lire, mais on peut résumer ça comme ça...

Le réseau doit être neutre pour les contenus légaux. C'est même, peu ou prou, la position de la FCC (le régulateur US du marché des télécoms). Bien. Donc le réseau n'est pas nécessairement neutre pour les contenus illégaux, sans quoi il était inutile de préciser le dernier mot. Donc, le réseau, avec ses petits doigts, il doit vérifier si le contenu est légal ou pas. Curieux. Et, si par mégarde il se montrait neutre envers un contenu illégal, en acceptant de le transporter... On ne sait pas. Le principe par défaut serait de dire Le réseau doit être neutre pour les contenus, et donc, n'est pas responsable des actions illégales commises par les utilisateurs du réseau. Mais sitôt qu'on précise autre chose, c'est que ce n'est pas le principe de base qui s'applique[1]. Donc si le réseau doit être neutre pour les contenus légaux c'est qu'il doit reconnaître les contenus qui ne le sont pas, et qu'il se doit donc de ne plus être neutre pour eux. Le seul sens en droit que puisse avoir ce petit mot supplémentaire dans l'énoncé, c'est celui-là. Le réseau ne doit donc pas être neutre du tout, il se doit de différencier le légal de l'illégal (jouant le rôle du juge) et bien entendu d'empêcher l'illégal (jouant le rôle de la police). L'opérateur devient alors pleinement responsable de ce que font les abonnés.

Oui, ce simple mot ajouté dans la phrase en bouleverse le sens et met fin à la non-responsabilité du transporteur. C'est beau, le droit... Pourtant la phrase semblait jolie.

La question de la responsabilité du transporteur sur le contenu transporté en matière de réseaux ouverts au public (et donc concernant Internet) reste donc bien une question centrale, et de toute première importance, et pleinement actuelle.

Cependant, effectivement, Alec et moi sommes parfaitement d'accord sur le principe, et sur le fait que c'est comme ça pour tout le reste (Poste, Télégraphe, Téléphone, etc) depuis deux siècles.

Et si le fin juriste qu'est Alec arrive à m'expliquer que je me trompe sur l'analyse de lawfull content dans les textes qui circulent, je l'écouterai avec la plus grande attention.

Sur le financement du réseau par les fournisseurs de services

C'est le point clef. Et il occupe 90% du texte d'Alec. Je vais essayer de reprendre les arguments clefs.

On réserve x Gbps à YouMotion

Effectivement, chaque fournisseur d'accès, à son échelle, réserve un pourcentage non-négligeable de son infrastructure à chacun des très gros opérateurs de services. Pour FDN, ça représente très peu, forcément, on n'est pas nombreux. Mais pour Free, qui compte 40.000 fois plus d'abonnés que FDN, ça doit représenter à peu près ce que dit Alec, plusieurs Gigabits à chaque fois, des dizaines, peut-être même centaines, en tout.

Quand bien même. Imaginons qu'Internet fonctionne comme il faut, et que donc chacun héberge les vidéos qu'il a envie de diffuser[2], plutôt que de les déposer chez DailyTube. Tant que les abonnés de Free en regardent autant, représentant le même volume de trafic, ça représente le même volume à acheminer. Donc les mêmes dizaines de Giga à réceptionner, et à acheminer à bon port. Si l'essentiel de ce trafic est stocké aux USA (ce qui est le cas pour les plateformes de service visées) alors, effectivement, la livraison du trafic va plutôt avoir lieu à Paris qu'à Béziers. Et cette livraison sera très probablement déséquilibrée.

La conclusion d'Alec, c'est de dire que, puisque le fournisseur de service vit grassement, alors qu'il déséquilibre le modèle économique du FAI, il est légitime qu'il donne des sous au FAI. Curieux. Les marchands de musique tiennent le même raisonnement: le tout numérique déséquilibre mon modèle économique, les gens qui vivent grassement du tout numérique (FAI, publicitaires, fournisseurs de services autres que musicaux, genre la taxe Google) doivent me donner des sous.

Je suis d'accord avec le fond de l'argument: que les trois quarts du trafic viennent de seulement quelques opérateurs, aux USA, c'est extraordinairement malsain. Ça endommage le réseau, en changeant très profondément sa nature. Mais je suis bien entendu en désaccord avec la conclusion, qui est qu'il faut entériner le changement de nature d'Internet, et en faire un réseau câblé où les chaînes payent pour être diffusées, qu'elles soient TF1 ou Google ne changeant rien. Je suis en désaccord avec l'articulation qui amène au fait que ces opérateurs doivent compenser les défaillances du modèles économique du FAI.

Ce que paye le fournisseur de service, c'est son racco, pas son transit

Alec explique, assez longuement, que ce que paye un fournisseur de services à son hébergeur, ce n'est que son raccordement à cet hébergeur, et en aucun cas le transport de ses données à l'international, et ensuite la distribution de ces données jusqu'à l'abonné final. Pour étayer son discours, il indique que, à l'opposé, c'est le cas dans le modèle de la téléphonie: les opérateurs s'entre-facturent les appels, et du coup tout va bien.

Mais alors... Un point m'aurait échappé... Le transit[3] est-il devenu gratuit? Les gros transitaires sont-ils devenus des oeuvres de bienfaisance? Effectivement, le prix du transit est en baisse, parce que le prix de revient des backbones internationaux est en baisse (économies d'échelles, équipements plus modernes, tout ça). Mais il n'est toujours pas gratuit. Et que couvre-t-il si ce n'est l'acheminement du trafic? Un fournisseur de service va payer un transitaire, cher, pour transporter tout ça sur toute la planète, et les FAI vont payer le même transitaire pour recevoir ce trafic. Le transport international est donc payé, aux deux bouts. Reste la distribution...

Effectivement, il y a une différence entre le téléphone et Internet dans le modèle économique. Dans le téléphone, si j'appelle des gens chez Free, et que j'y déverse des millions de minutes de téléphonie (mettons que je suis une société, et que je parle beaucoup, genre je veux vendre des cuisines) alors Free est rémunéré, beaucoup. Même chose, si des tas d'abonnés de Free me téléphonent, et que l'ensemble représente de gros volumes (mettons que je suis une société, toujours, et que beaucoup de gens veulent me parler, genre une hotline), alors... heu... si Free facturait à-la-papa, alors ses abonnés paieraient une lourde facture, mais comme c'est au forfait, ils ne payent pas autre chose que leur forfait. Effectivement, dans les deux cas, l'opérateur de téléphonie est rémunéré. Alors que l'opérateur IP ne l'est pas, ou plus exactement ne l'est qu'au forfait.

Donc, pour la distribution, le gros fournisseur de service ne paye pas. Mais c'est très précisément ce que paye l'abonné quand il paye son accès: la distribution.

Du coup, pour ré-équilibrer, il faudrait un système de demi-terminaisons, comme pour le téléphone. Deux opérateurs A et B échangent du trafic, et chacun paye en fonction de ce qu'il envoie à l'autre. Quand l'échange est équilibré, personne ne paye rien, et quand l'échange se déséquilibre, celui qui émet beaucoup paye beaucoup.

En toute logique, donc, on doit arriver, si c'est ça le problème des FAIs de grande envergure, à ce qu'ils aient une politique en cohérence avec ce problème: que le peering soit gratuit en dessous d'un certain volume (on va pas se faire chier avec des factures de 40 centimes par mois), mais soit payant au-delà d'un certain volume.

Or, curieusement, la politique de peering des gros opérateurs est précisément inverse: en dessous d'un certain volume, on refuse. C'est la politique historique de France Télécom, c'est la politique récente de Free. Une erreur sans doute...

Et puis c'est à l'envers

En effet, en général, sur Internet, celui qui paye, c'est celui qui reçoit. Bin oui. Faisons un essai. Free et Google sont fâchés. Irréconciliables. Du coup ils ne se parlent plus. Combien de temps pour que les abonnés de Free désertent et aillent chez un FAI qui est capable de joindre le principal moteur de recherche? Deux semaines? Trois? À l'opposé, quelle part des clients de Google (les publicitaires) vont claquer la porte en hurlant parce que Google aurait perdu les eyeballs d'un des plus gros FAIs français? 10% des clients français? 15%?

Jusqu'à récemment, les gens qui émettent du contenu avaient des accords de peering plus facilement, ou payaient leur transit moins cher, parce que ça aidait à équilibrer le trafic. Par exemple Free, qui est un gros FAI, avale du contenu, beaucoup, tout ce que ses abonnés regardent passivement sur le Web. Free pouvait donc, sur son réseau, fournir de l'accès à un gros hébergeur, qui n'aurait fait qu'émettre du contenu. Ce contenu, sortant, ne coûte rien à transporter, puisque ce morceau là du réseau est quasi vide. Donc Free peut lui faire un prix tabassé.

Ce modèle est en train de changer. En effet, le lien hypertrophié entre Free et DailyTube n'est utilisé que dans un sens. Mais l'hébergeur de sites web n'a pas de trafic pour DailyTube, et donc ne vient pas ré-équilibrer ce lien hypertrophié et totalement déséquilibré.

Mais de là à vouloir inverser la chaîne de valeur, il y a un pas.

Le problème, c'est le déséquilibre

En effet, ce qui ressort de cette explication, c'est que le problème c'est le déséquilibre. C'est bien ça, ce que j'appelle le Minitel 2.0: si je veux diffuser une vidéo, je suis contraint de la faire héberger chez un gros hébergeur de vidéo. Pourquoi? Parce que l'homme qui configure les DSLAMs a décidé de faire de l'ADSL et pas du SDSL, et donc que je ne pourrais pas diffuser mes vidéos marrantes depuis chez moi.

Les techniques de diffusion de vidéo en peer-2-peer, ça existe. Les techniques de stream en p2p, ça existe. Ça demande un upload un peu moins ridicule que celui qui est fourni par les FAIs en ce moment (un rapport de 1 pour 20), mais ça existe. Free souhaite s'engager, aux côtés de FDN, pour promouvoir l'Internet ouvert que nous souhaitons, où chacun peut s'héberger, et en ce sens va, dans les semaines qui viennent, sortir les éléments de l'offre qui manquent (MX secondaires, sous domaine offert, tutoriels mis en ligne sur l'auto-hébergement, etc)? Chiche?

Pour lutter contre cette asymétrie, il y a 15 ans, Free avait décidé de doper ses pages perso. À l'époque (nostalgie...), en échange d'une somme rondelette, chez un opérateur normal, on avait droit à quelques heures de connexion bas débit, en payant le téléphone en plus, et on avait des services ridicules (une boite mail microscopique, des pages perso d'1 ou 2 Mo, etc). Les FAIs avaient donc un trafic très asymétrique, ce qui était nuisible aux accords de peering: comment négocier quand on est petit (Free était petit, à l'époque) et qu'on n'émet pas de trafic... La solution retenue était d'offrir des pages perso qui faisaient pâlir les hébergeur de l'époque: 100Mo, des bases de données, du PHP, un sous-domaine de free.fr pour ses pages, bref un luxe incroyable pour l'époque... Pourquoi? Parce que du coup, tout ce que le bon peuple avait envie de diffuser partait des serveurs de Free, qui se retrouvait avec un trafic beaucoup plus symétrique du plus bel effet.

Curieusement, 15 ans plus tard, ça ne fonctionne plus pareil. En effet, l'hébergement de grosse capacité (par exemple le service dl.free.fr) est très rapide en interne, quand un abonné Free consulte les publications d'un autre abonné Free, mais dramatiquement lent à la sortie...

Si c'était foudroyant de rapidité vers l'extérieur (mettons, capable de saturer les lignes ADSL des gens qui viennent télécharger), alors il n'y aurait plus d'intérêt à aller chercher le contenu au loin, puisqu'il serait tout proche. Bien entendu, le peering inter-opérateur serait alors déséquilibré (bin oui, les abonnés Orange iront chercher leurs gros fichiers sur le service des abonnés de Free, déséquilibrant le peering entre Orange et Free). Mais il serait alors déséquilibré dans un sens tel que les autres FAIs auraient intérêt à fournir des services similaires.

Messieurs les gros FAIs, si ce qui pose problème, ce sont les échanges avec les énormes services internationaux, alors, au moins, faites semblant d'y croire, et améliorez les échanges entre abonnés locaux.

Le problème, c'est la centralisation des échanges

Un autre des arguments mis en avant par Alec, c'est que le trafic des gros est livré sans la moindre granularité, tout d'un bloc, sur des liens énormes, à Paris, et qu'après il faut écouler tout ça vers le bon peuple de province, sur des tuyaux qui ne sont occupés que dans un sens.

Cet argument est dangereux de deux façons.

1. La réponse d'un Google sera assez simple: verser une redevance, jamais. Par contre, monter un backbone Google en France, déservant tous les points d'échange possibles en province, ils seront pour. Il vont créer le réseau Google, irriguant toutes les grandes villes de France, et Free ne sera plus pour eux que l'opérateur du dernier kilomètre. Une fois que Google aura pris à Free le rôle de transporteur de contenu sur la France, combien de temps avant qu'ils décident de vendre eux-même les accès ?

Cette approche est celle retenue par Google en ce moment. C'est précisément cette menace-là qui est agité quand Google annonce lancer le déploiement d'un réseau de 500.000 prises en fibre optique aux États-Unis. Le message est très clair: si les FAI ne veulent pas faire leur métier de transporteur, on le fera à leur place... C'est un rapport de force entre géants. Maintenant, dans ce rapport de force, Free est une PME française luttant contre une multi-nationale américaine. D'un autre côté, un petit hébergeur aujourd'hui, qui cherche à négocier du peering avec Free se retrouve avec le même rapport de force, Free jouant alors le rôle du géant. Et pas la moindre mansuétude pour les petits: en dessous du seuil critique, pas de peering.

2. L'incohérence. Il y a quelques années, quelques personnes volontaires et attentives à l'état du réseau se sont alarmé de sa trop grande centralisation, et on cherché à mettre en avant, au nom entre autre de l'aménagement numérique du territoire, des points de peering régionaux. L'idée était simple: partout où on peut, on met un switch pour faire point de peering, et on y échange du trafic local. À St-Flour, hop, un point de peering, et on y échange le trafic des abonnés de tout l'est du Cantal, entre les gros opérateurs nationaux, et également les locaux (micro-FAIs, hébergeurs, etc).

En terme d'aménagement du territoire, ça a du sens, ça incite à l'émergence d'acteurs locaux, de proximité, capables de mieux servir leur clientèle (en patoi s'il le faut, je met au défi la hotline de Free de répondre en patoi Cantalou). En terme d'aménagement du réseau, ça a du sens: tout ce qui sera échangé en local, c'est ça de moins à remonter à Paris. En terme de défense d'Internet, ça a du sens, parce que c'est ça, faire réseau, interconnecter, partout, autant qu'on peut, et pas tout remonter à Paris[4]. Et en plus, en termes d'échanges de contenu ça à du sens: en moyenne, j'envoie des liens YouTube à mes proches, donc à mes proches géographiques, et donc un système simple de caches serait plus efficace que tous les réseaux de transport.

Mais voilà, à l'époque, ça n'a pas bien fonctionné. Et pourquoi? Parce que les gros FAIs nationaux ne voulaient entendre parler de peering qu'à Paris...

Maintenant, Free, effectivement, fait du peering en région, mais dans des conditions telles que ça ne peut intéresser que les gros opérateurs de service (voir à ce sujet la peering policy de Free, 400 Mbps de trafic minimum à Lille, à part un des géant américains, ça ne va pas intéresser grand monde).

Enfin, c'est non-significatif

Là-dessus, je n'ai pas les vrais chiffres exacts, n'ayant pas d'accès privilégié aux comptabilités des 4 gros FAIs en place. Par contre, on a des ordres de grandeur. Quelle part des charges annuelles de Free représente le transport au national du contenu des gros opérateurs de service? Moins de 5%, je suis prêt à le parier. Attention, hein, on parle bien du surcoût de transport lié à ce type de trafic, Alec convenant que les échanges inter-personnels (donc le p2p entre autre) relèvent bien, évidemment, de l'abonnement et du service qui est dû à ce titre au client.

Donc, si le surcoût lié à un usage intensif de ces services était facturé, il représenterai en moyenne, pour les gros consommateurs, 2€ à tout casser. Or ça coûterai bien plus cher que ça rien que de faire les mesures pour établir les factures et le système de calcul des dites factures.

On peut donc, raisonnablement, considérer que cette grandeur n'est pas significative.

Pour conclure

Les arguments d'Alec se tiennent. Et pour moi, ils se résument à ça: on a laissé Internet se transformer en Minitel, il faut maintenant l'assumer, et en accepter la tarification.

Autant je suis assez d'accord avec certains éléments d'analyse, par exemple sur les problèmes que ça pose d'avoir des acteurs si dangereusement monopolistiques, si énormément centralisateurs, si puissamment dangereux[5]. Autant je suis en désaccord avec les conclusions: ce mouvement est dangereux, il est en train d'endommager Internet. Accepter les tarifications par demi-circuits que propose Alec, c'est accepter ce changement, le rendre définitif, en quelques sortes. Et donc endommager davantage encore le réseau. Et, au final, créer un contexte dans lequel, au bout du bout, le FAI, ce ne sera plus Free, ce sera Google.

J'avoue que j'aurais eu une analyse plus clémente si Free avait, par le passé, tenté par tous les moyens d'enrayer le problème, en a-centrant son réseau quand il était temps et en visant à interconnecter, par simplement à recevoir le trafic des gros de manière plus lisse, en multipliant les peerings ouverts partout en province, en poussant à l'interconnexion avec les opérateurs locaux, en ayant une politique de peering cohérente (en dessous de tel volume, open peering policy, et non pas au-dessus, comme c'est le cas en ce moment), etc.

Mais, vu le contexte historique, j'ai l'impression que dans la fable l'Internaute et le Miniteliste, Maître opérateur Internet, qui sur son arbre perché tenait en son bec un fromage numérique, écoutait les sirènes de Maître Miniteliste qui par l'odeur alléché est arrivé à toutes jambes, et en arrive à ce que l'opérateur Internet, jura, mais un peu tard, qu'on ne l'y reprendrai plus.

Post-Scriptum

Je ne dis pas que Free est un gros méchant d'avoir fait exprès de tout centraliser Internet. Ce serait idiot en plus d'être faux. Je dis que Free n'a pas lutté contre cette centralisation, ni par le passé[6], ni vraiment maintenant.

Et d'ailleurs, dans le fond, la politique de peering payant que Free souhaite imposer aux gros opérateurs de service, quelque part, on s'en fiche bien, ce n'est pas grave. Et les justifications de cette politique, même si elles peuvent sembler bancales, n'ont pas grande importance. Ce qui est grave c'est si ce peering payant est assorti de conditions plus favorables sur le réseau. Le paquet IP qui circule sur le réseau de Free, qu'il vienne de Google avec qui Free aurait un accord de peering payant, ou qu'il vienne de mon PC perso chez FDN avec qui Free n'a pas d'accord et qui donc arrive en transit, ils doivent être traités avec la même classe de service, la même latence, n'être pas priorisés différemment, n'être pas confrontés à des saturations artificielles, etc.

C'est pour avoir une latence faible et du temps réel pour les vidéos de GoogleTV grâce à une priorisation du trafic que Google est prêt à payer son peering? Alors c'est illégitime, parce que c'est une atteinte à la neutralité du réseau public. Le reste relève de l'accord commercial entre opérateurs.

Notes

[1] De même, quand on dit République populaire c'est bien parce que République tout-court, ça ne colle pas.

[2] Pas que celles dont il est l'auteur, hein. Le principe étant, par exemple, ça m'a fait marrer, je le met sur mon site sur mon PC, j'envoie le lien par mail à tous mes copains.

[3] Le transit est le débit transporté pour compte de tiers, qui est facturé entre opérateurs. Par exemple, Free et FDN n'ont pas d'interconnexion directe, donc FDN paye un autre opérateur pour acheminer vers Free (et d'autres destinations, hein) le trafic de FDN. C'est ça, du transit. Et c'est pas gratuit.

[4] Par exemple, ça fait qu'un échange en p2p aura toutes les chances de se passer à échelle régionale, le ping et le débit étant meilleurs qu'en remontant à Paris par les autoroutes encombrées.

[5] En terme de censure par exemple, ce n'est plus le gouvernement chinois qui choisi de censurer ou non, mais Google. En terme de vie privée, j'en parle même pas...

[6] Si j'en crois archive.org, la page sur la peering policy de Free date de 2008, l'initiative LocalGix, visant à développer des points de peering en région datant de 2003/2004, par exemple, ces deux dates semblant raisonnablement justes à ma mémoire engourdie. On a donc identifié le problème en 2004, et Free s'en fichait tant que son business modèle n'était pas remis en cause, et a donc changé d'avis sur l'opportunité du peering en région en 2008. Mais ne voit toujours pas d'opportunité à faire du peering ouvert sur un point d'échange public en région.