En réponse à Alec

En bonne logique, le billet d'Alec (en fait, un très long commentaire de lui sous un précédent billet) est celui juste en dessous, là, quelques lignes plus loin. Il faut commencer par le lire. Il est long, et parfois compliqué, mais il présente de bons arguments contre la neutralité du réseau, en tous cas contre certains éléments.

Bien entendu, en dehors de quelques évidences qui relèvent de la rhétorique (il faut toujours sortir quelques évidences que tout le monde approuve, pour faire valider l'ensemble d'un discours) je suis plutôt en désaccord. Mais ce désaccord s'explique facilement: nous n'avons pas le même point de vue.

Je ne vais pas dans ce billet garder la forme du commentaire (prendre un extrait significatif, y répondre, un autre extrait, y répondre, etc). Je vais essayer de procéder d'abord à une synthèse de ce que nous dit Alec, en simplifiant (pour l'original, bin, heu, se référer à l'original...), pour expliquer sur quels aspects je ne suis pas d'accord.

Un point qu'il faut souligner en préambule: l'enjeu du débat avec Alec n'est pas essentiel, comme le rappelle le Post-Scriptum de ce billet. Et dans la mesure où nos deux billets respectifs soulignent les points de divergence entre Free et FDN dans leur vision du réseau (points qui existent vraiment et sont tout à fait solides), ils ne mettent pas en avant les points d'accord que nous avons (qui sont nombreux et tout aussi solides).

Sur l'actuelle garantie légale de la neutralité.

Alec indique, dans son billet, que la neutralité du réseau est garantie depuis bien longtemps. Non pas depuis quelque loi récente, mais, en gros, depuis deux siècles, par la garanti de la neutralité du transporteur du pli postal, cette neutralité ayant été transposée depuis dans tous les autres modes de communication.

Son argumentaire fait un subtil mélange entre le secret de la correspondance privé, qui est effectivement un principe très solide depuis bien longtemps, et ce dont je parlais moi, dans les propos qu'il cite, à savoir la non-responsabilité du transporteur. En gros, le facteur qui délivre le pli postal n'est pas responsable si la lettre est piégée, ou qu'elle contient des propos insultants.

Effectivement, ce principe est depuis longtemps admis pour le courrier postal. Mais il ne l'est concernant Internet que depuis peu de temps. Et, depuis un peu plus de 10 ans que le législateur s'intéresse à Internet, tant en France qu'en Europe, la question de la responsabilité du transporteur est centrale. C'est même encore un sujet dans le traité ACTA en cours de discussion. Les textes issus des fuites sont complexes à lire, mais on peut résumer ça comme ça...

Le réseau doit être neutre pour les contenus légaux. C'est même, peu ou prou, la position de la FCC (le régulateur US du marché des télécoms). Bien. Donc le réseau n'est pas nécessairement neutre pour les contenus illégaux, sans quoi il était inutile de préciser le dernier mot. Donc, le réseau, avec ses petits doigts, il doit vérifier si le contenu est légal ou pas. Curieux. Et, si par mégarde il se montrait neutre envers un contenu illégal, en acceptant de le transporter... On ne sait pas. Le principe par défaut serait de dire Le réseau doit être neutre pour les contenus, et donc, n'est pas responsable des actions illégales commises par les utilisateurs du réseau. Mais sitôt qu'on précise autre chose, c'est que ce n'est pas le principe de base qui s'applique[1]. Donc si le réseau doit être neutre pour les contenus légaux c'est qu'il doit reconnaître les contenus qui ne le sont pas, et qu'il se doit donc de ne plus être neutre pour eux. Le seul sens en droit que puisse avoir ce petit mot supplémentaire dans l'énoncé, c'est celui-là. Le réseau ne doit donc pas être neutre du tout, il se doit de différencier le légal de l'illégal (jouant le rôle du juge) et bien entendu d'empêcher l'illégal (jouant le rôle de la police). L'opérateur devient alors pleinement responsable de ce que font les abonnés.

Oui, ce simple mot ajouté dans la phrase en bouleverse le sens et met fin à la non-responsabilité du transporteur. C'est beau, le droit... Pourtant la phrase semblait jolie.

La question de la responsabilité du transporteur sur le contenu transporté en matière de réseaux ouverts au public (et donc concernant Internet) reste donc bien une question centrale, et de toute première importance, et pleinement actuelle.

Cependant, effectivement, Alec et moi sommes parfaitement d'accord sur le principe, et sur le fait que c'est comme ça pour tout le reste (Poste, Télégraphe, Téléphone, etc) depuis deux siècles.

Et si le fin juriste qu'est Alec arrive à m'expliquer que je me trompe sur l'analyse de lawfull content dans les textes qui circulent, je l'écouterai avec la plus grande attention.

Sur le financement du réseau par les fournisseurs de services

C'est le point clef. Et il occupe 90% du texte d'Alec. Je vais essayer de reprendre les arguments clefs.

On réserve x Gbps à YouMotion

Effectivement, chaque fournisseur d'accès, à son échelle, réserve un pourcentage non-négligeable de son infrastructure à chacun des très gros opérateurs de services. Pour FDN, ça représente très peu, forcément, on n'est pas nombreux. Mais pour Free, qui compte 40.000 fois plus d'abonnés que FDN, ça doit représenter à peu près ce que dit Alec, plusieurs Gigabits à chaque fois, des dizaines, peut-être même centaines, en tout.

Quand bien même. Imaginons qu'Internet fonctionne comme il faut, et que donc chacun héberge les vidéos qu'il a envie de diffuser[2], plutôt que de les déposer chez DailyTube. Tant que les abonnés de Free en regardent autant, représentant le même volume de trafic, ça représente le même volume à acheminer. Donc les mêmes dizaines de Giga à réceptionner, et à acheminer à bon port. Si l'essentiel de ce trafic est stocké aux USA (ce qui est le cas pour les plateformes de service visées) alors, effectivement, la livraison du trafic va plutôt avoir lieu à Paris qu'à Béziers. Et cette livraison sera très probablement déséquilibrée.

La conclusion d'Alec, c'est de dire que, puisque le fournisseur de service vit grassement, alors qu'il déséquilibre le modèle économique du FAI, il est légitime qu'il donne des sous au FAI. Curieux. Les marchands de musique tiennent le même raisonnement: le tout numérique déséquilibre mon modèle économique, les gens qui vivent grassement du tout numérique (FAI, publicitaires, fournisseurs de services autres que musicaux, genre la taxe Google) doivent me donner des sous.

Je suis d'accord avec le fond de l'argument: que les trois quarts du trafic viennent de seulement quelques opérateurs, aux USA, c'est extraordinairement malsain. Ça endommage le réseau, en changeant très profondément sa nature. Mais je suis bien entendu en désaccord avec la conclusion, qui est qu'il faut entériner le changement de nature d'Internet, et en faire un réseau câblé où les chaînes payent pour être diffusées, qu'elles soient TF1 ou Google ne changeant rien. Je suis en désaccord avec l'articulation qui amène au fait que ces opérateurs doivent compenser les défaillances du modèles économique du FAI.

Ce que paye le fournisseur de service, c'est son racco, pas son transit

Alec explique, assez longuement, que ce que paye un fournisseur de services à son hébergeur, ce n'est que son raccordement à cet hébergeur, et en aucun cas le transport de ses données à l'international, et ensuite la distribution de ces données jusqu'à l'abonné final. Pour étayer son discours, il indique que, à l'opposé, c'est le cas dans le modèle de la téléphonie: les opérateurs s'entre-facturent les appels, et du coup tout va bien.

Mais alors... Un point m'aurait échappé... Le transit[3] est-il devenu gratuit? Les gros transitaires sont-ils devenus des oeuvres de bienfaisance? Effectivement, le prix du transit est en baisse, parce que le prix de revient des backbones internationaux est en baisse (économies d'échelles, équipements plus modernes, tout ça). Mais il n'est toujours pas gratuit. Et que couvre-t-il si ce n'est l'acheminement du trafic? Un fournisseur de service va payer un transitaire, cher, pour transporter tout ça sur toute la planète, et les FAI vont payer le même transitaire pour recevoir ce trafic. Le transport international est donc payé, aux deux bouts. Reste la distribution...

Effectivement, il y a une différence entre le téléphone et Internet dans le modèle économique. Dans le téléphone, si j'appelle des gens chez Free, et que j'y déverse des millions de minutes de téléphonie (mettons que je suis une société, et que je parle beaucoup, genre je veux vendre des cuisines) alors Free est rémunéré, beaucoup. Même chose, si des tas d'abonnés de Free me téléphonent, et que l'ensemble représente de gros volumes (mettons que je suis une société, toujours, et que beaucoup de gens veulent me parler, genre une hotline), alors... heu... si Free facturait à-la-papa, alors ses abonnés paieraient une lourde facture, mais comme c'est au forfait, ils ne payent pas autre chose que leur forfait. Effectivement, dans les deux cas, l'opérateur de téléphonie est rémunéré. Alors que l'opérateur IP ne l'est pas, ou plus exactement ne l'est qu'au forfait.

Donc, pour la distribution, le gros fournisseur de service ne paye pas. Mais c'est très précisément ce que paye l'abonné quand il paye son accès: la distribution.

Du coup, pour ré-équilibrer, il faudrait un système de demi-terminaisons, comme pour le téléphone. Deux opérateurs A et B échangent du trafic, et chacun paye en fonction de ce qu'il envoie à l'autre. Quand l'échange est équilibré, personne ne paye rien, et quand l'échange se déséquilibre, celui qui émet beaucoup paye beaucoup.

En toute logique, donc, on doit arriver, si c'est ça le problème des FAIs de grande envergure, à ce qu'ils aient une politique en cohérence avec ce problème: que le peering soit gratuit en dessous d'un certain volume (on va pas se faire chier avec des factures de 40 centimes par mois), mais soit payant au-delà d'un certain volume.

Or, curieusement, la politique de peering des gros opérateurs est précisément inverse: en dessous d'un certain volume, on refuse. C'est la politique historique de France Télécom, c'est la politique récente de Free. Une erreur sans doute...

Et puis c'est à l'envers

En effet, en général, sur Internet, celui qui paye, c'est celui qui reçoit. Bin oui. Faisons un essai. Free et Google sont fâchés. Irréconciliables. Du coup ils ne se parlent plus. Combien de temps pour que les abonnés de Free désertent et aillent chez un FAI qui est capable de joindre le principal moteur de recherche? Deux semaines? Trois? À l'opposé, quelle part des clients de Google (les publicitaires) vont claquer la porte en hurlant parce que Google aurait perdu les eyeballs d'un des plus gros FAIs français? 10% des clients français? 15%?

Jusqu'à récemment, les gens qui émettent du contenu avaient des accords de peering plus facilement, ou payaient leur transit moins cher, parce que ça aidait à équilibrer le trafic. Par exemple Free, qui est un gros FAI, avale du contenu, beaucoup, tout ce que ses abonnés regardent passivement sur le Web. Free pouvait donc, sur son réseau, fournir de l'accès à un gros hébergeur, qui n'aurait fait qu'émettre du contenu. Ce contenu, sortant, ne coûte rien à transporter, puisque ce morceau là du réseau est quasi vide. Donc Free peut lui faire un prix tabassé.

Ce modèle est en train de changer. En effet, le lien hypertrophié entre Free et DailyTube n'est utilisé que dans un sens. Mais l'hébergeur de sites web n'a pas de trafic pour DailyTube, et donc ne vient pas ré-équilibrer ce lien hypertrophié et totalement déséquilibré.

Mais de là à vouloir inverser la chaîne de valeur, il y a un pas.

Le problème, c'est le déséquilibre

En effet, ce qui ressort de cette explication, c'est que le problème c'est le déséquilibre. C'est bien ça, ce que j'appelle le Minitel 2.0: si je veux diffuser une vidéo, je suis contraint de la faire héberger chez un gros hébergeur de vidéo. Pourquoi? Parce que l'homme qui configure les DSLAMs a décidé de faire de l'ADSL et pas du SDSL, et donc que je ne pourrais pas diffuser mes vidéos marrantes depuis chez moi.

Les techniques de diffusion de vidéo en peer-2-peer, ça existe. Les techniques de stream en p2p, ça existe. Ça demande un upload un peu moins ridicule que celui qui est fourni par les FAIs en ce moment (un rapport de 1 pour 20), mais ça existe. Free souhaite s'engager, aux côtés de FDN, pour promouvoir l'Internet ouvert que nous souhaitons, où chacun peut s'héberger, et en ce sens va, dans les semaines qui viennent, sortir les éléments de l'offre qui manquent (MX secondaires, sous domaine offert, tutoriels mis en ligne sur l'auto-hébergement, etc)? Chiche?

Pour lutter contre cette asymétrie, il y a 15 ans, Free avait décidé de doper ses pages perso. À l'époque (nostalgie...), en échange d'une somme rondelette, chez un opérateur normal, on avait droit à quelques heures de connexion bas débit, en payant le téléphone en plus, et on avait des services ridicules (une boite mail microscopique, des pages perso d'1 ou 2 Mo, etc). Les FAIs avaient donc un trafic très asymétrique, ce qui était nuisible aux accords de peering: comment négocier quand on est petit (Free était petit, à l'époque) et qu'on n'émet pas de trafic... La solution retenue était d'offrir des pages perso qui faisaient pâlir les hébergeur de l'époque: 100Mo, des bases de données, du PHP, un sous-domaine de free.fr pour ses pages, bref un luxe incroyable pour l'époque... Pourquoi? Parce que du coup, tout ce que le bon peuple avait envie de diffuser partait des serveurs de Free, qui se retrouvait avec un trafic beaucoup plus symétrique du plus bel effet.

Curieusement, 15 ans plus tard, ça ne fonctionne plus pareil. En effet, l'hébergement de grosse capacité (par exemple le service dl.free.fr) est très rapide en interne, quand un abonné Free consulte les publications d'un autre abonné Free, mais dramatiquement lent à la sortie...

Si c'était foudroyant de rapidité vers l'extérieur (mettons, capable de saturer les lignes ADSL des gens qui viennent télécharger), alors il n'y aurait plus d'intérêt à aller chercher le contenu au loin, puisqu'il serait tout proche. Bien entendu, le peering inter-opérateur serait alors déséquilibré (bin oui, les abonnés Orange iront chercher leurs gros fichiers sur le service des abonnés de Free, déséquilibrant le peering entre Orange et Free). Mais il serait alors déséquilibré dans un sens tel que les autres FAIs auraient intérêt à fournir des services similaires.

Messieurs les gros FAIs, si ce qui pose problème, ce sont les échanges avec les énormes services internationaux, alors, au moins, faites semblant d'y croire, et améliorez les échanges entre abonnés locaux.

Le problème, c'est la centralisation des échanges

Un autre des arguments mis en avant par Alec, c'est que le trafic des gros est livré sans la moindre granularité, tout d'un bloc, sur des liens énormes, à Paris, et qu'après il faut écouler tout ça vers le bon peuple de province, sur des tuyaux qui ne sont occupés que dans un sens.

Cet argument est dangereux de deux façons.

1. La réponse d'un Google sera assez simple: verser une redevance, jamais. Par contre, monter un backbone Google en France, déservant tous les points d'échange possibles en province, ils seront pour. Il vont créer le réseau Google, irriguant toutes les grandes villes de France, et Free ne sera plus pour eux que l'opérateur du dernier kilomètre. Une fois que Google aura pris à Free le rôle de transporteur de contenu sur la France, combien de temps avant qu'ils décident de vendre eux-même les accès ?

Cette approche est celle retenue par Google en ce moment. C'est précisément cette menace-là qui est agité quand Google annonce lancer le déploiement d'un réseau de 500.000 prises en fibre optique aux États-Unis. Le message est très clair: si les FAI ne veulent pas faire leur métier de transporteur, on le fera à leur place... C'est un rapport de force entre géants. Maintenant, dans ce rapport de force, Free est une PME française luttant contre une multi-nationale américaine. D'un autre côté, un petit hébergeur aujourd'hui, qui cherche à négocier du peering avec Free se retrouve avec le même rapport de force, Free jouant alors le rôle du géant. Et pas la moindre mansuétude pour les petits: en dessous du seuil critique, pas de peering.

2. L'incohérence. Il y a quelques années, quelques personnes volontaires et attentives à l'état du réseau se sont alarmé de sa trop grande centralisation, et on cherché à mettre en avant, au nom entre autre de l'aménagement numérique du territoire, des points de peering régionaux. L'idée était simple: partout où on peut, on met un switch pour faire point de peering, et on y échange du trafic local. À St-Flour, hop, un point de peering, et on y échange le trafic des abonnés de tout l'est du Cantal, entre les gros opérateurs nationaux, et également les locaux (micro-FAIs, hébergeurs, etc).

En terme d'aménagement du territoire, ça a du sens, ça incite à l'émergence d'acteurs locaux, de proximité, capables de mieux servir leur clientèle (en patoi s'il le faut, je met au défi la hotline de Free de répondre en patoi Cantalou). En terme d'aménagement du réseau, ça a du sens: tout ce qui sera échangé en local, c'est ça de moins à remonter à Paris. En terme de défense d'Internet, ça a du sens, parce que c'est ça, faire réseau, interconnecter, partout, autant qu'on peut, et pas tout remonter à Paris[4]. Et en plus, en termes d'échanges de contenu ça à du sens: en moyenne, j'envoie des liens YouTube à mes proches, donc à mes proches géographiques, et donc un système simple de caches serait plus efficace que tous les réseaux de transport.

Mais voilà, à l'époque, ça n'a pas bien fonctionné. Et pourquoi? Parce que les gros FAIs nationaux ne voulaient entendre parler de peering qu'à Paris...

Maintenant, Free, effectivement, fait du peering en région, mais dans des conditions telles que ça ne peut intéresser que les gros opérateurs de service (voir à ce sujet la peering policy de Free, 400 Mbps de trafic minimum à Lille, à part un des géant américains, ça ne va pas intéresser grand monde).

Enfin, c'est non-significatif

Là-dessus, je n'ai pas les vrais chiffres exacts, n'ayant pas d'accès privilégié aux comptabilités des 4 gros FAIs en place. Par contre, on a des ordres de grandeur. Quelle part des charges annuelles de Free représente le transport au national du contenu des gros opérateurs de service? Moins de 5%, je suis prêt à le parier. Attention, hein, on parle bien du surcoût de transport lié à ce type de trafic, Alec convenant que les échanges inter-personnels (donc le p2p entre autre) relèvent bien, évidemment, de l'abonnement et du service qui est dû à ce titre au client.

Donc, si le surcoût lié à un usage intensif de ces services était facturé, il représenterai en moyenne, pour les gros consommateurs, 2€ à tout casser. Or ça coûterai bien plus cher que ça rien que de faire les mesures pour établir les factures et le système de calcul des dites factures.

On peut donc, raisonnablement, considérer que cette grandeur n'est pas significative.

Pour conclure

Les arguments d'Alec se tiennent. Et pour moi, ils se résument à ça: on a laissé Internet se transformer en Minitel, il faut maintenant l'assumer, et en accepter la tarification.

Autant je suis assez d'accord avec certains éléments d'analyse, par exemple sur les problèmes que ça pose d'avoir des acteurs si dangereusement monopolistiques, si énormément centralisateurs, si puissamment dangereux[5]. Autant je suis en désaccord avec les conclusions: ce mouvement est dangereux, il est en train d'endommager Internet. Accepter les tarifications par demi-circuits que propose Alec, c'est accepter ce changement, le rendre définitif, en quelques sortes. Et donc endommager davantage encore le réseau. Et, au final, créer un contexte dans lequel, au bout du bout, le FAI, ce ne sera plus Free, ce sera Google.

J'avoue que j'aurais eu une analyse plus clémente si Free avait, par le passé, tenté par tous les moyens d'enrayer le problème, en a-centrant son réseau quand il était temps et en visant à interconnecter, par simplement à recevoir le trafic des gros de manière plus lisse, en multipliant les peerings ouverts partout en province, en poussant à l'interconnexion avec les opérateurs locaux, en ayant une politique de peering cohérente (en dessous de tel volume, open peering policy, et non pas au-dessus, comme c'est le cas en ce moment), etc.

Mais, vu le contexte historique, j'ai l'impression que dans la fable l'Internaute et le Miniteliste, Maître opérateur Internet, qui sur son arbre perché tenait en son bec un fromage numérique, écoutait les sirènes de Maître Miniteliste qui par l'odeur alléché est arrivé à toutes jambes, et en arrive à ce que l'opérateur Internet, jura, mais un peu tard, qu'on ne l'y reprendrai plus.

Post-Scriptum

Je ne dis pas que Free est un gros méchant d'avoir fait exprès de tout centraliser Internet. Ce serait idiot en plus d'être faux. Je dis que Free n'a pas lutté contre cette centralisation, ni par le passé[6], ni vraiment maintenant.

Et d'ailleurs, dans le fond, la politique de peering payant que Free souhaite imposer aux gros opérateurs de service, quelque part, on s'en fiche bien, ce n'est pas grave. Et les justifications de cette politique, même si elles peuvent sembler bancales, n'ont pas grande importance. Ce qui est grave c'est si ce peering payant est assorti de conditions plus favorables sur le réseau. Le paquet IP qui circule sur le réseau de Free, qu'il vienne de Google avec qui Free aurait un accord de peering payant, ou qu'il vienne de mon PC perso chez FDN avec qui Free n'a pas d'accord et qui donc arrive en transit, ils doivent être traités avec la même classe de service, la même latence, n'être pas priorisés différemment, n'être pas confrontés à des saturations artificielles, etc.

C'est pour avoir une latence faible et du temps réel pour les vidéos de GoogleTV grâce à une priorisation du trafic que Google est prêt à payer son peering? Alors c'est illégitime, parce que c'est une atteinte à la neutralité du réseau public. Le reste relève de l'accord commercial entre opérateurs.

Notes

[1] De même, quand on dit République populaire c'est bien parce que République tout-court, ça ne colle pas.

[2] Pas que celles dont il est l'auteur, hein. Le principe étant, par exemple, ça m'a fait marrer, je le met sur mon site sur mon PC, j'envoie le lien par mail à tous mes copains.

[3] Le transit est le débit transporté pour compte de tiers, qui est facturé entre opérateurs. Par exemple, Free et FDN n'ont pas d'interconnexion directe, donc FDN paye un autre opérateur pour acheminer vers Free (et d'autres destinations, hein) le trafic de FDN. C'est ça, du transit. Et c'est pas gratuit.

[4] Par exemple, ça fait qu'un échange en p2p aura toutes les chances de se passer à échelle régionale, le ping et le débit étant meilleurs qu'en remontant à Paris par les autoroutes encombrées.

[5] En terme de censure par exemple, ce n'est plus le gouvernement chinois qui choisi de censurer ou non, mais Google. En terme de vie privée, j'en parle même pas...

[6] Si j'en crois archive.org, la page sur la peering policy de Free date de 2008, l'initiative LocalGix, visant à développer des points de peering en région datant de 2003/2004, par exemple, ces deux dates semblant raisonnablement justes à ma mémoire engourdie. On a donc identifié le problème en 2004, et Free s'en fichait tant que son business modèle n'était pas remis en cause, et a donc changé d'avis sur l'opportunité du peering en région en 2008. Mais ne voit toujours pas d'opportunité à faire du peering ouvert sur un point d'échange public en région.

Commentaires

1. Le mardi 30 mars 2010, 05:58 par danc

Chapeau Benjamin, résumer le billet d'alex et le commenter,tout en restant compréhensible ...
Alors il manque quoi en France ? Un hébergeur de vidéos?
Il y a quelques années, je mettais les vidéos des gazouillis du petit sur wat tv, qui m'a claqué la porte au nez : plus pour les particuliers !
Du coup j'ai un gros doute : DailyMotion, ils sont hébergés aux US?

En réponse: quelle importance? Ce qui manque, ce n'est pas un Minitel français pour lutter contre le Minitel américain. Ce qui manque, c'est que tu ais enfin un upload qui te permette de diffuser ce que tu veux diffuser. Il paraît que tu n'as pas envie de diffuser de la vidéo, ce qui est évidemment faux. Si tu ne voulais pas diffuser de vidéo, YouTube n'existerait pas.

C'est pas chez eux que l'état a investit, via la CDC???

2. Le mardi 30 mars 2010, 10:03 par Joce

Rien à voir avec le post malheureusement (aussi je comprendrais que le commentaire soit supprimé) : Pour les nombreux fans de Benjamin Bayart, j'ai tenté de faire un document permettant de retrouver beaucoup de ses interventions/conférences/interviews. Le truc est là : https://docs.google.com/Doc?docid=0...

3. Le mardi 30 mars 2010, 10:23 par Grunt

@Joce:
Un "best of" de Benjamin Bayart sur Google Doc, c'est assez humoristique. Tu aurais pu attendre jeudi pour ça ;)

En réponse: en effet, c'est cocasse. Il manque beaucoup de choses (les conférences d'avant 2006, et elles sont nombreuses). Et, bien entendu, la page facebook listée en bas n'est pas la mienne. Quelqu'un en a peut-être ouvert une à mon nom, c'est possible après tout, mais moi je n'en ai pas ouvert. D'ailleurs, Facebook qui indique (fort logiquement) que Benjamin Bayart a rejoint facebook, sur une page avec ma photo... Je dois bien pouvoir faire fermer ça, c'est de l'usurpation d'identité.

4. Le mardi 30 mars 2010, 19:14 par Grunt

"Je dois bien pouvoir faire fermer ça, c'est de l'usurpation d'identité."

Grâce à LOPPSI2, tu pourras même dire que ça "trouble ta tranquillité."

En réponse: pas besoin d'invoquer les foudres de Loppsi2, c'est une usurpation d'identité, publique, au vu et au su de tous. C'est interdit depui bien longtemps. Ce que Loppsi2 a créé, c'est l'usurpation de pseudo. Or, Benjamin Bayart, c'est pas mon pseudo, et la photo, c'est pas un avatar.

Je sais, c'est ringard (j'assume, je suis un vieux con), c'est juste ma vraie tête et mon vrai nom.

5. Le mardi 30 mars 2010, 19:26 par thomasvo

ben c'est sûr que ta page facebook, c'est... comment dire... croquignolet...

d'ailleurs, je sais plus si ça a été voté en l'état, mais :
Art. 222-16-1. – Le fait de faire usage, de manière réitérée, sur un réseau de communications électroniques, de l’identité d’un tiers ou de données qui lui sont personnelles, en vue de troubler la tranquillité de cette personne ou d’autrui, est puni d’un an d’emprisonnement et de 15 000 € d’amende.

« Est puni de la même peine le fait de faire usage, sur un réseau de communications électroniques, de l’identité d’un tiers ou de données qui lui sont personnelles, en vue de porter atteinte à son honneur ou à sa considération. »

et il me paraît évident que te faire une page facebook, c'est une sombre tentative de décrédibilisation pour porter atteinte à ton honneur et à ta considération.

En réponse: pas si clair, c'est tellement gros que ça pourrait être couvert par le droit de caricaturer... Non? Ceci dit, découvrir dans un Google Doc (gentil au demeurant, hein, c'est pas le sujet) un lien vers "ma" page Facebook, j'en suis encore scotché... Ça montre, pour le moins, que mes propos n'ont pas encore été bien compris.

Et, franchement, remplir le seul formulaire de réclamation de Facebook qui corresponde un peu... à savoir infraction au droit d'auteur... absurde... moi, en train de remplir un formulaire pareil sur le site de Facebook...

6. Le mercredi 31 mars 2010, 02:04 par greee

Juste un petit mot pour te remercier de ta pédagogie et de ta clarté habituelle, c'est tellement agréable et enrichissant. Voila, merci.
Greg

7. Le mercredi 31 mars 2010, 05:32 par danc

D'accord avec toi sur l'upload, ne serait-ce que pour l'envoyer sur ma page perso.
La prochaine fois que j'entendrai un fai se plaindre des 'profiteurs' de leur belle bande passante qui font des sous sur leur dos sans payer, je saurai lui répondre que le profiteur en question a juste fourni ce que le fai ne proposait pas, ou contourné une limitation du fai (upload) ...
Et en même temps, le même fai disait "aujourd'hui, la fibre optique ne sert à rien, sauf à favoriser le piratage" (j'ai des urls !)... tu disais 'incohérence' ?

8. Le mercredi 31 mars 2010, 07:42 par Il Palazzo-sama

À stricto sensu, ce que Facebook appelle une page est un espace de promotion pour des « marque, produit ou organisme » ou pour une personnalité, pas un espace personnel. (ce qui ne change rien au ridicule d’avoir ouvert cet espace sur Facebook pour réunir tes fans, étant donné le message que tu cherches à faire passer)

En réponse: moi, je suis un homme simple, avec des idées simples. Les us et coutumes facebookiens me sont étrangers. Du coup je me contente de savoir lire le français. La page dit qu'elle est créée par moi et est la mienne, et c'est faux. Point. Donc, par définition, elle est créée par quelqu'un qui se fait passer pour moi. Que ce soit la faute de Facebook ou celle de l'utilisateur ne m'intéresse pas. Je ne veux pas que cette page dise qu'elle est créée par moi, c'est tout. Je ne veux pas, par exemple, que ma famille cherche à communiquer avec moi par ce biais. Tu vois l'idée? C'est ça, le fond du problème de l'usurpation d'identité, ici.

À l'opposé, le groupe des fans des cravattes de Benjamin Bayart ne me gène pas, et me fait même plutôt marrer.

Sinon, par rapport à la liste de tes interventions connues, j’étais à peu près arrivé à la même chose de mon côté. (c’est ce qui est directement visible dans la « minitel2.0sphère »)
Mais si tu as d’autres interventions à nous faire découvrir, quel que soit le sujet, n’hésite pas à faire tourner les liens, je suis le premier intéressé. ;-)

En réponse: dans celles qui doivent encore être publiquement en ligne, il y a celle sur les logiciels libérateurs, qui était intitulé "OpenOffice, pourquoi pas?", dont je crois que la bande son est encore chez Framasoft quelque part.

9. Le mercredi 31 mars 2010, 10:07 par Joce

"Il manque beaucoup de choses (les conférences d'avant 2006, et elles sont nombreuses)"
=> Si il y a des liens/pages/torrents/whatever, je suis intéressé également.

En réponse: au moins celle sur Openoffice faite à différentes reprises, et dont la bande son doit être dispo chez Framasoft. Les autres, je crois, ne sont plus en ligne (faudrait que je fasse des fouilles, pas le courrage).

"Un "best of" de Benjamin Bayart sur Google Doc, c'est assez humoristique. Tu aurais pu attendre jeudi pour ça ;)"
=> Le google doc est pratique. En effet j'aurais pu mettre ça ailleurs mais nous sommes quelques amis à partager/maintenir plusieurs documents et google docs s'est avéré être un moyen convenable de le faire pratiquement. C'est un choix pragmatique, mais si quelqu'un a une meilleure solution à proposer je suis attentif. (=> mettre le fichier sur un bête serveur HTTP/FTP perso n'est pas une solution convenable pour l'usage qui en est fait)

En réponse: que le contenu soit élaboré sur GoogleDocs comme outil de travail collaboratif, loin de moi l'idée de m'en choquer, chacun utilise bien les outils qu'il veut, et celui-là est comode. Par contre j'aurais trouvé plus cohérent que le résultat du travail soit hébergé sous la forme d'une page ailleurs... Mais, là encore, dans le fond, ce n'est pas bien grave.

"Et, bien entendu, la page facebook listée en bas n'est pas la mienne."
=> Je ne crois pas que qui que ce soit ait pu croire qu'il s'agisse d'une page "officielle", et comme le dit le monsieur du commentaire d'au dessus les pages sont vues comme des "espace(s) de promotion pour des « marque, produit ou organisme » ou pour une personnalité, pas (des) espace(s) personnel(s)". Dans le doute j'ai modifié le document pour lever toute ambiguïté.
Après que le contenu de la page FB soit intéressant/pertinent ou que la création même de cette page soit intelligente/légale, c'est un autre problème.

En réponse: ce n'est pas ton document qui me pose soucis, c'est la page Facebook elle-même, avec ce qu'elle transporte d'usurpation d'identité.

"Ça montre, pour le moins, que mes propos n'ont pas encore été bien compris."
=> S'agissant de mon cas personnel, je pense m'être suffisamment intéressé à tes propos/interventions et ceux/celles de beaucoup d'autres acteurs du monde du web/réseau/libre pour m'être fait un avis. On peut être "fan" de Benjamin Bayart et ne pas être d'accord avec tout ce qu'il dit ou céder parfois l'idéologie au pragmatisme.

En réponse: aucun problème avec ça. On peut comprendre ce que je dis et n'être pas d'accord, c'est une évidence. Mais par contre, prétendre soutenir mes idées et choisir comme mode d'hébergement une solution Google, c'est peu cohérent, voilà tout. Pour le mode d'édition, effectivement Google Docs, c'est facile et vite mis en place. Pour le mode de diffusion, je trouve que ça ne cadre pas, voilà tout.

Rien à voir : L'utilisation de mots entre crochets dans les commentaires crée des liens, comme sur un wiki. C'est probablement indésirable comme comportement. Exemple : Coucou.

En réponse: Heu... C'est grave? Moi, ça me semblait utile que les gens puissent mettre des liens. Et je me charge de supprimer les spams occasionnels...

10. Le mercredi 31 mars 2010, 12:15 par Vivien MOREAU

« mettre le fichier sur un bête serveur HTTP/FTP perso n'est pas une solution convenable pour l'usage qui en est fait »

Alors, mettre le fichier sur un wiki posé sur un bête serveur HTTP perso ? Il y a toujours une solution. ;-)

11. Le mercredi 31 mars 2010, 13:55 par Olivier Gutknecht

Bon, Benjamin, tu me connais, tu sais que je ne vais pas résister à l'idée d'apporter un rien de contradiction. Juste pour s'amuser un peu.

En réponse: juste pour éviter le côté "private joke", Olivier et moi nous connaissons depuis, voyons voir... pas encore 20 ans, mais déjà plus de 15...

Sur la dé-centralisation du réseau, je partage ton point de vue, à un gros, énorme bémol près. Etant moins dans le réseau que dans l'application je vais voir ce problème par ma petite lorgnette, et si j'adhère complètement à ton point de vue que la "vraie" solution à ce problème c'est de réduire ce déséquilibre grandissant, je ne crois pas un seul instant que la clé est -foncièrement- du coté du réseau (au sens large: interconnexion, politiques de peelings, etc).

En réponse: aucun bémol là-dedans. Le problème ce sont les applications et les usages et c'est là que sera la solution. Je ne veux simplement pas que le réseau condamne l'avenir en rendant définitive la situation actuelle.

Pourquoi ? Parce que, qu'on le veuille ou non, on est allé depuis, allez, un peu plus de 5 ans dans une démocratisation de plus en plus large des applications. C'est le deuxième changement clé. Le premier a été la démocratisation de l'accès, d'un vrai accès au réseau: débit convenable, tout le temps connecté, etc. La seconde l'a été sur les usages. On peut dire ce qu'on veut sur les services 2.0, youtube / blogs / whatever, mais la conséquence est néanmoins qu'on a mis dans les mains des utilisateurs des outils dont la facilité de prise en main était - tiens, comme par hasard - la même que celle du Minitel en sons temps. Et c'est là pour moi le coeur du problème: c'est l'histoire d'une faillite collective de *nous*, technophiles, développeurs d'applications, etc. Parce que je suis persuadé qu'à rester dans notre sphère et à nous déconnecter des usages réels, on a raté une marche dans la démocratisation du réseau. Et c'est les gros fournisseurs de contenus qui ont compris et qui ont fait ce qu'il faut.

Au passage, c'est pas comme si on ne l'avait pas vu venir, ça fait des lustres qu'on sait que le contenu "lourd" allait commencer à arriver sur le réseau. Effectivement là où c'était peut-être plus une surprise, c'est que c'est venu par les boites technos (Google, iTunes) que directement par les TF1 / Universal et consorts. Mais le résultat est le même. Et peut-être même pire: pour reprendre ta note 2, Google, grand ami autoproclamé de la neutralité du réseau ne fait rien pour faciliter la reprise réelle de contenu (au sens hébergement) autre part que dans leurs systèmes. Combien de vidéos YouTube sont téléchargeables, même si les droits le permettent ?

On parle d'hébergement décentralisé des contenus, de reprise en main par les utilisateurs finaux de leurs propres données, de retour du contrôle par l'humain en bout de chaine. Très bien: mais comment concrètement le faire ? C'est (coucou jmp) *l'application* le coeur du problème. Tant que l'on aura pas les applications derrière, on ne sera pas crédible, et l'a-centralisation ne sera pas défendable. Tout comme faire des applications sans un réseau moins déséquilibré sur l'upload et une nouvelle conception du peeling est probablement pas plus crédible. Le serpent se mort la queue et c'est bien ennuyant.

Et je ne veux même pas entendre l'argument sur le fait qu'il faut éduquer l'utilisateur, lui faire installer son wiki ou son serveur de stream vidéo après avoir mis en place son linux, c'est vivre dans un doux rêve, ou (plus grave) se cantonner volontairement dans un public qui ne sera qu'une "élite" technophile. Je n'aurai jamais aucun problème à mettre un petit mini derrière ma connexion FTTH pour héberger en direct ce que je veux. Ma grand-mère, c'est un autre problème, et je refuse l'idée que ça ne doit être une possibilité accessible qu'à moi.

En réponse: il y a pourtant une question centrale sur l'éducation de l'utilisateur. Pas du tout pour apprendre à ta grand mère à installer dotclear toute seule, ce n'est pas le sujet. Mais il est important qu'elle comprenne ce qu'est Internet, même si elle ne se sert que du Minitel. Simplement parce que sinon, ça veut dire qu'elle ne comprend plus le monde dans lequel elle vit (ça finit par arriver à toutes les grand-mères, mais autant que ce soit le plus tard possible).

Alors comment on fait ? Eh bien je ne sais pas. Si les "boxes" avaient été vues comme autre chose qu'une terminaison du réseau, peut-être que cela aurait pu morpher vers un hébergement décentralisé d'applications. On n'en prend pas le chemin.

En réponse: c'est en effet un des points essentiels. Les boxes jouent un rôle majeur dans la minitélisation du réseau. De même que les modes de développement des applications, ou les modèles économiques qui vont avec. Le modèle économique de Facebook, qui consiste à valoriser un contenu qu'il ne produit pas (et donc à voler le contenu des gens, hein, au final c'est bien ça), n'est pas compatible avec ce qu'est Internet, mais est tout droit issu du minitel. C'est en fait exactement le modèle économique du minitel rose (les utilisateurs produisent le contenu, et c'est bien le contenu que les utilisateurs viennent chercher).

Sur la centralisation des échanges, je suis d'accord avec tes points mais malheureusement, Alec parle le langage du pragmatiste. On est tombé dans un bien beau minimum local, et je ne vois pas, très franchement, comment on va pouvoir en sortir.

En réponse: on est d'accord sur quelques points essentiels dans l'analyse, le besoin premier c'est de voir émerger des applications a-centrées rendant les mêmes services ou des services similaires (par exemple Jabber versus MSN), ensuite il est important que le réseau ne vienne pas, en entérinant définitivement ce tournant, refermer le jeu et interdir toute innovation. Parce que, le corollaire de ce que propose Alec, c'est bien ça. Il y aura les opérateurs en place (FAI et FSI) qui ont des accords commerciaux et qui vivent, et aucun nouveau venu ne pourra rentrer dans le jeu sans l'accord préalable des oligopoles en place. L'étape suivante étant la concentration verticale (voire à ce sujet ce que nous mitone France Télécom), où il n'y aura alors plus du tout Internet, mais des réseaux numériques de service assez peu interconnectés entre eux.

Ce qui importe, pour moi, c'est de maintenir le réseau neutre dans cette histoire, pour ne pas fermer la porte aux innovations et aux avancées. C'est toujours plus compliqué de mettre au point un service a-centré. Le mail, ça demande plus de réflexion que la messagerie sur un BBS ou sur le minitel. C'est pas plus compliqué techniquement, c'est même plutôt plus simple, mais c'est justement de faire simple et sans centre, qui demande de trouver le bon modèle, et qui prend du temps. Je suis convaincu que le réseau social qui fera tomber Facebook en étant a-centré sera merveilleux de simplicité (sans quoi il ne marchera jamais). Il reste à l'inventer, et à s'assurer que le réseau ne soit pas mort d'ici là.

Pour ce qui est de la diffusion de vidéo, par exemple, c'est déjà largement au point, avec des solutions de quasi-streaming basées sur du p2p. Ne manque qu'un peu d'upload pour que le réseau re-devienne équilibré.

Mais il reste là-dedans de vrais mauvais choix de la part des FAIs: avoir fait des boxes fermées, interdisant donc de fait l'auto-hébergement et l'apport de services a-centré (merci Free d'avoir négligé la GPL, par exemple, interdisant tout innovation dans le domaine), avoir fait la guerre au p2p, au prétexte d'économiser 3 sous de bande passante, qui a tant favorisé de streaming (merci Free d'avoir filtré le p2p en non-dégroupé, tiens, par exemple), etc.

Et, pour moi, Alec a certes en partie le langage du pragmatisme, mais également le langage de la courte vue. Si le réseau reste sur ce que tu appelles un minimum local, alors Free est condamné à disparaître, et à être remplacé par GoogleNet. Parce qu'en ce moment, pour l'usager moyen d'une Freebox (donc, pas un Internaute, en moyenne), s'il doit choisir entre Internet et Google, il choisira Google. Et que dans cette guerre-là, Free a perdu d'avance. Les FAIs devraient avoir comme soucis premier, majeur, de défendre Internet, et donc de chercher à tout prix à développer des solutions a-centrées permettant aux utilisateurs de s'héberger facilement, simplement parce que quand on vend un accès Internet, on a intérêt à ce qu'Internet exsite. Et que je ne vois pas bien quel est le métier d'un FAI, si Internet meurt sous le poid de Google ou MSN. Or on n'en prend pas le chemin.

12. Le mercredi 31 mars 2010, 17:30 par Grunt

@Joce:
<<On peut être "fan" de Benjamin Bayart et ne pas être d'accord avec tout ce qu'il dit ou céder parfois l'idéologie au pragmatisme.>>

En disant 'idéologie', tu parles de ça?
http://www.google.com/accounts/TOS?...
C'est l'idéologie avec laquelle tu es forcément d'accord pour héberger un document chez Google.

Alors que ta connexion personnelle est compatible avec n'importe quelle idéologie, même la plus extrême: si tu mets du contenu même choquant, même illégal, même polémique, personne ne viendra l'enlever (tu peux avoir des ennuis avec la justice, mais c'est une autre histoire).
Héberger ses documents chez soi n'a strictement rien d'idéologique, c'est juste de l'hébergement neutre et par défaut. Au contraire de l'hébergement par un tiers, qui t'impose souvent son idéologie à lui.

@Olivier Gutknecht:
<<Parce que je suis persuadé qu'à rester dans notre sphère et à nous déconnecter des usages réels, on a raté une marche dans la démocratisation du réseau.>>
Ça peut se voir dans l'autre sens: l'usage réel d'Internet, c'est la machine perso accessible depuis le monde entier. Si par "démocratisation d'Internet", on évoque des utilisateurs qui seraient intéressés par ce réseau-là, ils sont bienvenus.
Mais ceux qui sont déconnectés et ont raté une marche, sont les utilisateurs qui s'imaginent qu'Internet, c'est la télévision avec option "MSN" que les fournisseurs de service leur ont vendu. Qui passent par le réseau Internet pour accéder à des services, mais on pourrait leur remplacer Internet par une fibre directement branchée chez Google et Facebook sans grand changements.
Finalement, qu'il y ait si peu d'internautes, ce ne serait pas si grave, d'autant plus qu'avec un accès à Internet, ils ont toujours la possibilité de l'utiliser pleinement.
Sauf que la démocratisation d'un usage 'Minitel' d'Internet tend à tuer le véritable Internet:
- lois liberticides et ineptes, mais dont peu d'utilisateurs d'Internet comprennent le danger (même Hadopi a été vue avant tout comme une défense d'un modèle économique moisi, alors que son premier problème est l'atteinte à la liberté d'expression),
- restrictions dont la plupart des connectés à Internet s'accomodent sans trop se plaindre: débit montant limité, envoi de mails interdit, ralentissement de certains protocoles.

Internet se porterait bien avec 100 000 internautes, se porteraient mieux avec 100 millions d'internautes, mais avec 100 000 internautes et 100 millions de minitelnautes, il est en danger.

En réponse: je ne saurai mieux dire. Longue vie au Minitel 2.0, tant qu'il ne compromet pas Internet, qui est le vrai facteur de croissance et d'innovation.

13. Le mercredi 31 mars 2010, 17:42 par Olivier Gutknecht

@Grunt:

Ah mais je suis bien d'accord sur le fond. Ce que je dis, c'est qu'on ne peut pas à la fois vouloir trier entre "bons" et "mauvais" utilisateurs (i.e. ce qui ont compris qu'Internet c'est pas juste des services en vrac et les autres), et vouloir renverser la tendance par un effet de masse sur un usage moins asymétrique. Si on veut sortir du Minitel, il faut aussi s'attendre à lutter sur ce terrain là, et faire comprendre que l'on peut avoir du mieux avec le "véritable internet". C'est peut-être pessimiste, mais je ne crois pas que l'on arrivera à sortir du problème actuel uniquement en luttant sur des dangers qui restent abstraits pour 95% des gens si dans le même temps on leur propose des outils, applications et services qu'ils verront comme moins bien que l'existant, aussi problématique soit-il de notre point de vue.

En réponse: Internet à une croissance lente. Et ce pour une raison simple, c'est un outil complexe, qui demande un très long apprentissage. Donc, forcément, son développement est relativement lent. C'est le numérique qui a une croissance très rapide, parce qu'il ne fait que reprendre des usages actuels, sans remettre en cause les modes de pensée et les modèles sociaux, il se développe donc plus facilement.

Effectivement, seuls les gens sachant lire et écrire ont pu comprendre la question de la liberté de la presse, et on ne peut pas s'attendre à ce qu'un illettré, tout intelligent qu'il fut, ait de grandes chances de comprendre les enjeux. De la même manière, les illettrés du numérique ne comprennent pas facilement les enjeux. C'est bien pour ça qu'il faut expliquer sans cesse, sans caricaturer ou sans dire du mal. Moi, que les gens utilisent du Minitel, ça ne me pose pas soucis. Je veux juste qu'ils comprennent petit à petit ce qu'ils font.

Et c'est bien parce que ça ne suffit pas que j'ai fait la conférence Minitel 2.0 lors des RMLLs. Il est urgent que les libristes comprennent que les licenses ne font pas tout, loin s'en faut. Et ce dont on a besoin pour protéger le réseau c'est qu'au moins les informaticiens aient compris, et puissent pousser dans le bon sens. Typiquement, que Tristan Nitot se soit rallié au sujet est une bonne chose. C'est ce type de ralliement qui fait que quand Mozilla cherche une solution pour ranger du contenu (comment ça s'appelle leur machin pour centraliser les bookmarks, weave?), la solution permette nativement une utilisation a-centrée. S'ils avaient développé ça il y a 5 ans, ça aurait été comme la distribution des plugins, centralisé façon app-store.

Maintenant, les libristes ont visiblement compris, reste à expliquer au reste du monde. On commence par les politiques et les régulateurs parce qu'ils ont un fort pouvoir de nuisance. Et on compte sur les libristes pour expliquer les avantages de leurs beaux et nouveaux outils a-centrés à tout le monde.

14. Le mercredi 31 mars 2010, 19:30 par thomasvo

tu (bbayart) parles de méthodes de développement a-centrées (ou qui mènent à des applications a-centrées), tu aurais un peu de "biblio" là-dessus ?

En réponse: non, mais ça se résume bien: si l'outil suppose un point central autre que le DNS, c'est pas bon.

15. Le mercredi 31 mars 2010, 22:39 par Grunt

@thomasvo:

C'est facile à tester: si l'outil est utilisable sans connexion Internet (en supposant que t'as installé tout ce qu'il faut avant de couper le fil), c'est un outil potentiellement a-centré. Ça a l'air paradoxal, mais c'est ça.

16. Le samedi 03 avril 2010, 21:48 par vetetix

Bien que je ne sois pas assez savant en ce qui concerne le fonctionnement d'internet pour approuver tout ce que vous dites dans votre billet, je constate tout de même qu'il est extrêmement difficile à l'heure actuelle d'héberger ses propres services. Pour un petit site web, c'est à peu près suffisant si on n'a pas une grande audience, mais pour diffuser ses vidéos de vacances ou d'anniversaire, c'est d'un coup un peu limité.
Sans aller jusqu'à ces considérations de geeks, parlons simplement de la visioconférence, voire de la multi-visioconférence. Comment serait-il possible de diffuser l'image de sa webcam à 5 ou 10 personnes à la fois, avec les débits sortants dont on dispose à l'heure actuelle ?
Si ma mémé n'est pas assez geek pour pouvoir installer son propre dotclear, elle pourrait au moins être sensible à cet argument (ah, non, on me fait signe que monsieur minitel fournit déjà des services qui diffusent à plusieurs personnes un flux qu'on lui fournirait...)

Sinon, à part ça, est-ce qu'il n'existerait pas un protocole qui permettrait de diffuser en p2p le contenu d'un site web ? Par exemple, les gens qui ont téléchargé la vidéo de la naissance du petit dernier aident le diffuseur et fournissent à leur tour la vidéo pour les futurs visiteurs, le tout dans une balise <video> (ou pour une image dans une balise img).
Spotify, par exemple, utilise du p2p pour diffuser la musique tout en limitant les coûts en BP de ses serveurs. Un système équivalent "pour nous les geeks" serait intéressant, non ? Un système intégré au navigateur internet serait idéal (vu que Opéra fournit déjà du contenu via le navigateur, il pourrait fournir du contenu en cache via p2p, non ?).

17. Le dimanche 04 avril 2010, 16:07 par benoar

@vetetix

Pour ta première question sur la visioconférence, je dirais que la réponse se trouve du côté d'IPv6 et du multicast. Bon, c'est pas encore tout à fait au point pour le multicast selon moi (i.e. peu d'acteurs acceptent aujourd'hui de router du multicast) mais comme proposent tous les intervenants ci-dessus, il faut développer les applications, et demander aux opérateurs de développer leur réseau en conséquence.

Pour la deuxième, sur la distribution de contenu en P2P, va voir du côté des CDN (Content Delivery Network) en P2P.

Sinon, très bon article de Benjamin, même si je ne le trouve pas si clair sur certains points contrairement à l'avis des autres.

18. Le mercredi 07 avril 2010, 19:32 par kna

@ Olivier Gutknecht :
« Je n'aurai jamais aucun problème à mettre un petit mini derrière ma connexion FTTH pour héberger en direct ce que je veux. Ma grand-mère, c'est un autre problème, et je refuse l'idée que ça ne doit être une possibilité accessible qu'à moi. »

Mais tu peux héberger le blog et le mail de ta grand-mère.
Autant je suis d'accord sur le fait qu'il faut éviter le minitel, autant je pense qu'un serveur par personne, c'est du gachis de ressources et de consommation électrique (même avec un fit-pc/linutop/sheevaplug/...).

La faille des technophiles, dans ce cas, c'est de mépriser l'usage « des internautes moyens ». Pour héberger sa famille / ses amis, il faut comprendre qu'il faut mettre un roundcube parce que ssh+mutt ça va pas plaire, que s'ils perdent des mails importants à cause d'une coupure de courant ils vont vite retourner chez google, etc.

19. Le dimanche 11 avril 2010, 20:45 par hamster

@ Olivier Gutknecht
"Je n'aurai jamais aucun problème à mettre un petit mini derrière ma connexion FTTH pour héberger en direct ce que je veux. Ma grand-mère, c'est un autre problème, et je refuse l'idée que ça ne doit être une possibilité accessible qu'à moi."

C'est bien d'avoir des gens qui s'occuppent d'applications. Ca manque.
Si tu reprends la conference minitel 2.0 http://www.fdn.fr/minitel.avi tu verra dans les questions a la fin que Benjamin dit "il suffirait de mettre sur la machinbox un serveur web preconfigure avec lequel il soit aussi facile d'uploader ses photos sur sa box que sur picasaweb". C'est donc bien l'application qui manque.
Depuis quelques annees que cette conf existe des gens se sont dit "et ben on va le faire le truc preconfigure, facile a installer et utiliser qui va bien" mais entre le dire et le faire y'a encore de la marge. Tu est donc le bienvenu pour aider dans ce sens.
Il y a meme 2 listes de discussion qui ont ete faites pour ce sujet :
https://lists.fdn.fr/wws/info/nobox
https://lists.fdn.fr/wws/info/nobox...
D'ailleurs c'est une idee que d'autres ont eu avant nous, exemple :
http://clx.anet.fr/spip/article.php...

20. Le lundi 12 avril 2010, 10:48 par Pierre Col - Kizz TV

Je découvre ce billet et ses commentaires. De quoi alimenter la journée de demain à l'ARCEP !

En réponse: effectivement, au moins ces bases-là sont posées. Pour le reste, il me reste encore du travail de préparation, je ne suis pas couché...