La capacité des fibres optiques arriverait à saturation, Réactions à la publication du 18/05/2015 |
Bienvenue invité ( Connexion | Inscription )
La capacité des fibres optiques arriverait à saturation, Réactions à la publication du 18/05/2015 |
18 May 2015, 16:43
Message
#31
|
|
Macbidouilleur d'Or ! Groupe : Rédacteurs Messages : 32 183 Inscrit : 15 Nov 2005 Membre no 49 996 |
Le forfait illimité concerne les données envoyées/reçues, pas la bande passante. Il n'existe pas de forfaite bande passante illimitée. Ça dépend comment tu définis "illimité".Si c'est illimité au sens strict, ni le volume de données ni la bande passante ne le sont (le volume de données étant de fait limité à la bande passante * la durée...). Perso j'aurais tendance à considérer qu'on peut parler d'"illimité" dès lors que la limite est purement technique, et pas commerciale. Ainsi, la plupart des forfaits ADSL sont bien illimités en bande passante : le modem se synchronise au débit maximum techniquement réalisable sur la ligne, sans que l'opérateur décide de limiter à un débit inférieur. Les offres fibres sont par contre pour la plupart à débit limité. Par exemple les opérateurs qui déploient un réseau GPON, ils déploient un réseau techniquement prévu pour 2.4 Gbit/s down / 1.2 Gbit/s up par fibre (chaque fibre étant ensuite partagée entre jusqu'à 64 abonnés). Donc une offre à moins de 2.4/1.2 Gbit/s n'est pas une offre illimitée. -------------------- |
|
|
18 May 2015, 17:18
Message
#32
|
|
Adepte de Macbidouille Groupe : Membres Messages : 93 Inscrit : 28 Feb 2007 Membre no 81 689 |
salut a tous
je n'ai pas l'habitude d'intervenir, mais avec le "multicouleur" y a t il pas une solution ? soit on met des leds de différentes couleurs (pour des longueurs d'ondes différentes) soit on "dope" les fibres pour multiplier les faisceaux lumineux ? dis je une connerie ? |
|
|
18 May 2015, 17:41
Message
#33
|
|
Macbidouilleur d'Or ! Groupe : Rédacteurs Messages : 32 183 Inscrit : 15 Nov 2005 Membre no 49 996 |
salut a tous Ça se fait déjà d'envoyer plusieurs longueurs d'ondes, je pense que la limite estimée à 100 Tbit/s tient déjà compte de ça.
je n'ai pas l'habitude d'intervenir, mais avec le "multicouleur" y a t il pas une solution ? soit on met des leds de différentes couleurs (pour des longueurs d'ondes différentes) soit on "dope" les fibres pour multiplier les faisceaux lumineux ? dis je une connerie ? -------------------- |
|
|
18 May 2015, 18:37
Message
#34
|
|
Macbidouilleur d'Or ! Groupe : Membres Messages : 2 485 Inscrit : 24 Jul 2003 Lieu : Ancien du Ch'Nord, nouveau en Breizh (22) Membre no 8 750 |
Et pendant ce temps là, à Trifouillis les Oies, ils ont un débit à peine supérieur au 56K des années 90' ... Mais ce n'est pas la faute des concepteurs du réseau, les FAI ne veulent pas investir pour trois pelés et un tondu. j'ai le même problème mais dans la partie nord Dinan, agglomération d'un peu plus de 100 000 habitants. La partie Nord, plus rurale n'est pas vraiment couverte par les différentes antennes, situées au Sud -------------------- Si tu te tapes la tête contre un vase et que ça sonne creux, n’en déduis pas pour autant que le vase est vide.
Sagesse asiatique |
|
|
18 May 2015, 21:51
Message
#35
|
|
Macbidouilleur de bronze ! Groupe : Membres Messages : 268 Inscrit : 3 Jun 2008 Membre no 115 375 |
En voila une bonne idée, nous rendre dépendant d'internet et de tas d'abonnements divers et variés... L'abonnement, LE concept du 21e siècle ! Et donc, externaliser autant de choses que possible: d'abord nos données en tous genres dans le Cloud, puis les applications elles-mêmes (on commence avec le modèle SaaS pour les entreprises, puis on étend aux applications plus classiques). Et s'en sera fini de la micro-informatique à papa, sous prétexte de mobilité et de nomadisme (tu parles d'une blague, les vrais nomades sont extrêmement rares), alors même que la puissance des processeurs et l'espace de stockage sont devenus puissants et abordables. Contrainte obligatoire, et de taille: être connecté en permanence à internet: ça commence mal pour les 60% de la population de la planète. Pour ceux qui auront opté pour le 100% connecté, il va falloir s'attendre à des latences considérables pour accéder à leurs données étant donné qu'elles ne seront plus en local. Je l'ai déjà testé en PME avec des applis Saas, ça rame un max à cause d'un trop grand nombre d'utilisateurs locaux utilisant la maigre connexion ADSL de l'entreprise. Au final, une perte de temps considérable pour l'entreprise, mais elle fait (parfois) l'économie d'avoir un "informaticien local". A l'heure où tout pourrait aller vite localement, tout va se mettre à ramer, étonnant, non ? Avoir une connexion de bonne qualité et à haute vitesse ne suffira pas: il y aura de nombreux cas où des problèmes surgiront en amont de sa connexion locale, sans rien pouvoir faire... qu'attendre ! Je n'ose imaginer le drame pour les millions de personnes en cas de déconnexion du réseau de plus de quelques jours (alors imaginez une attaque sur les points de jonction d'internet...) La fracture numérique ne fait que commencer, elle va devenir une faille géante à l'allure à laquelle les gouvernements avancent dans certains pays (et en France, on est plutôt bien lotis, malgré d'énormes disparités locales ) L'ère du big data commence, la NSA et consorts vont se régaler... Analyse pertinente, en tout cas bien plus que certaines qui précèdent. |
|
|
19 May 2015, 01:47
Message
#36
|
|
Macbidouilleur d'Or ! Groupe : Membres Messages : 3 458 Inscrit : 23 Mar 2004 Lieu : Paris / Vancouver Membre no 16 640 |
Et pendant ce temps là, à Trifouillis les Oies, ils ont un débit à peine supérieur au 56K des années 90' ... Mais ce n'est pas la faute des concepteurs du réseau, les FAI ne veulent pas investir pour trois pelés et un tondu. Ce n'est pas la faute des équipementiers ici, mais bien la faute des architectes et autres ingénieurs en France qui n'ont pour ainsi dire pas les capacités intellectuelles de faire des choses innovantes, ils ne font qu'essayer de faire du neuf avec du vieux. Cela fait plus de 10 ans que des technologies, comme celle employées en Australie, aux US, en Amérique du sud ou bien en Asie existents : il s'agit simplement de liens sans fil, comme celle de Cambium (ex motorola/Canopy) ou bien plus récemment Ubiquity (AirMax). Les ingénieurs en France ne sont que des perroquets qui copient a l'infini ce qu'ils ont vu dans le abac de prepa : en somme des choses qui sont utiles quant l'imagination est la pour rendre les choses et concept possibles . Les technologies sans fil permettent facilement d'avoir du 10 Mbps, voir plus, avec 100 a 250 maisons par tour, et ce, avec de la QOS, de la resilience, et pour des cout par antenne (hors location de l'endroit), sous les 25K euros par antenne ! (voir meme sous les 10K US$ par antenne avec UBNT). Et en plus, c'est SANS LICENSE DE MERDE DU GOUVERNEMENT (USM Band). Mais comme on est feignant, on refile de l'ADSL, encore et toujours, et on évite de faire mieux : cela rendrait la vie de milliers de gens trop facile. Il y a pas mal de villages, en France qui pourrait profiter largement de la fibre, avec d'abord une installation de la boucle locale radio, afin de garantir, via satellite, un service de qualité, et ensuite, l'accés distant via la fibre : les villages/villes de 50 a 2500 habitants en profiteraient pleinement. Pas la faute des inge non plus. En France, l’équipement réseau est régulé et surtout programme par l'Etat. Méconnaître ce fait c'est ne rien comprendre a la situation. Et l'Etat devait faire avec le monopole de France telecom / Vivendi / et le chouchou de l’Élysée: Bouygues. Un gros et gras cartel monopolistique qui s'en fourrait jusqu'aux dents du fond, au mepris de l'interet national et du citoyen consommateur (mais bon comme il est une bonne vache qui gave bien l'industrie du divertissement, pourquoi hesiter hein) Bref la situation actuelle, c'est la résultante des sales petites magouilles des barons de la com et de la collusion avec les gouvernants, pas la peine de pourrir les inge francais ou les urbanistes, qui sont de loin pas les pires au monde. Apres l'histoire des la distribution par radio frequence... Va discuter avec les pti gars de l'armee, pas que francaise d'ailleurs, parce qu'on a des accords europeens et OTANesque, qui font que les radiofréquence sur le territoire doivent etre sévèrement encadrees. Ensuite les RF c'est pas non plus la panacée et on a encore jamais demontré l'innocuité du systeme d'une part (avec toutes les révélations qui sortent ces temps sur les risques industriels histoire de se faire un max de blé au detriment de la sante publique...) et d'autre part les RF sont bien plus exposées a des perturbations (et interceptions...) que les cables. Si tu me trouve un organisme biologique qui a elimine les liaisons physiques pour passer aux radiofrequence je reconsidere mon point de vue... D'ailleurs il y a un truc assez évident et qui pourtant de sort jamais: 99,9% des la population est relie par un reseau routier qui va jusqu'au seuil de la propriete du particulier dans le pire des cas. Un proportion légèrement moins importante dispose d'un acces EDF et FT. Pourquoi cette population n'a pas ete "cable" systematiquement, parce que le prix d'une route ca rend le cout du cablage fibre derisoire? Ah oui: problème de programmation et de coordination... Ex chez mes parents, suite a des intempéries a répétition, EDF a finalement decide d’enterrer les lignes... Donc routes defoncées, tubages, caissons, etc. Ca a duré un bon moment. 6 mois plus tard, FT decide de faire la meme chose, mais de l'autre cote de la route... Ca c'est de la gouvernance! La logique c'est qu'un pylône ca craint autant la tempete et les arbres que ca soit du cablage electrique ou telecom... Ben non ces gros administrateurs sortis de l'ENA et autres inutilités dispendieuses réussissent a rendre complique un truc simple: route = voie de communication => la ou bagnole doit passer, on peut faire passer tous les cablages existants ou futurs... C'est simple et ca fait des economies... Ben non! Finalement, le probleme des telecom c'est aussi le contenu et l’architecture de diffusion. On fait passer de la voix: c'est du numerique. On fait passer de la video: c'est du numerique. On fait passer de la donnee: c'est du numerique. Tout peut passer dans le meme reseau numerique, ok. Mais quelle proportion représente la pub dans le flux transitant? Une serie c'est 4 coupures pub de 15mn => 45 min, soit pratiquement un doublement du flux (et encore on parle pas de densite...) pour qui regarde une serie... Une page WEB, c'est pas grand chose si on enleve toute la #$%@ de pub (Flash/video/audio)... On compresse la musique, mais on altere ce gain de place par de la pub (et la pub c'est de la haute frequence (changements total entre 3 seconde et 2 minutes => pas de cohérence ni de motif), donc les algo de compression sont pas adaptés non plus)... Bref si on supprime la pub dans la diffusion de flux GP, on divise au moins par 2 la quantité de donnees actuelle, et probablement par 3 la quantite a venir. Rajoutons a cela la diffusion HD. On y est pas encore, on a de la HD interpolée au mieux actuellement. Mais a quoi ca sert de quadrupler la densite d'information visuelle sur un TV qu'on regarde toujours a la meme distance? Maintenant parlons de l'architecture. Depuis quelques annees on nous rebat les oreilles avec la neutralite du Net. Ca veut dire que tous les flux doivent beneficier de la meme distribution. Ca veut dire que si la question se pose c'est que certains on voulu installer des systemes asymetriques... Tient, le profil nauséabond de l’industrie du divertissement qui menace. Ben oui, pour diffuser des series DRMisees a mort et dont la moitie du temps de diffusion comprend de la pub, faut elargir les tuyaux, et l'idee c'est de faire payer plus celui qui veut avoir la chance de pouvoir regarder les 45 mn de pub en plus sans lag... Et pour etre bien certain que le "conss" va raquer a chaque diffusion, on fait en sorte d’empêcher le stockage local, la mise en cache,... donc si on veut regarder 2 fois le même film, ben on double le traffic... Bon y a pas que les predateurs de l'industrie du divertissement: a la maison on a 4 Mac. Les mises a jours c'est x4. Avant le tout App Store, => téléchargement de la mise a jour et ensuite elle etait appliquee a chaque machine. C'est devenu tellement enquiquinant a faire que la solution AppStore pour les mises a jour s'impose... Pareil pour les iPhone/iPad... La solution c'est évidement l'architecture P2P, le stockage local (pourquoi les routeurs sont pas equipés d'office d'un DD qui met en cache et evite de recharger les memes donnees? Ca coute rien un DD aujourd'hui!). Sauf que ca rapporte a l'industrie électronique, mais pas a celle du divertissement... La grosse question c'est de calculer le besoin/capacité de traitement individuelle. Et la c'est pas infini, loin de la. Sachant que le cerveau a des limites, a commencer par une voie visuelle et auditive unique, et une capacité de mémorisation qui demande de la répétition et un cycle biologique (sommeil)... Après, une fois qu'on connait la limite, il reste plus qu'a installer une infrastructure légèrement surdimensionnée et on ne parle plus du probleme. Ca a ete dit précédemment, mais il faut insister aussi sur la dimension repartie et redondante. On aura toujours une puissance de traitement de stockage repartie supérieure a n'importe quel système central. C'est physique (et biologique). L'industrie electronique a permis de baisser les couts de maniere telle qu'un individu a facilement acces a une puissance de stockage et de traitement superieure a ses besoins et de tres loin. En plus ces materiels consomment de moins en moins. La solution la encore c'est de decentraliser, dehierarchiser, diviser la charge a la fois dans le temps et dans l'espace. Le truc le plus debile qui soit c'est le principe de la TV: un flux envoyé en meme temps a tous les connectés (actifs ou pas)... C'est aussi mauvais en terme d'architecture qu'en terme de besoin: pas tout le monde en meme temps veux acceder a la meme information (c'est pour ca qu'on a inventé le magnetoscope, et que certains ont tente les magneto intelligents qui filtre la pub...) Le truc encore plus debile que la TV c'est le netbook: un ecran a clavier qui execute le traitement sur un serveur central (oui, le modele mis en place par ADOBE...) et meme imbecilite pour le stockage => cloud. La on touche le fond! -------------------- Agnostique multipratiquant: Unixs, Linux, Mac OS X, iOS et un peu de Windows. Des Macs, des iDevices, des PC et des "ordinosaures"…
Citation « Celui qui t’entretient des défauts d’autrui entretient les autres des tiens. », Diderot« Quand on suit une mauvaise route, plus on marche vite, plus on s'égare. » |
|
|
19 May 2015, 07:13
Message
#37
|
|
Adepte de Macbidouille Groupe : Membres Messages : 167 Inscrit : 27 Oct 2005 Membre no 48 787 |
Si tu connait un pote pas loin, avec une bonne connexion, regarde pour partager la connection avec lui, avec un lien 500 Mbps, voir plus de 1Gbps ;-) (www.ubnt.com) Cette technologie paraît très intéressante, par contre, j'avoue ma nullité technologique, je ne comprends pas bien comment ça fonctionne. Avec ce matériel, on peut établir un partage de connexion privé ? Mais par qui est diffusé le signal de base (la grande antenne) il faut bien que cette antenne soit reliée au réseau d'une manière ou d'une autre ? Comment peut-on connaître si ce service réseau Ubiquity est disponible dans notre zone d'habitation ? D'avance merci. -------------------- MacBook Santa-Rosa 2,2 Ghz; 4 Go Ram; DD 100 Go 7200 rpm Hitachi; OS léo X.5.2
|
|
|
19 May 2015, 07:16
Message
#38
|
|
Macbidouilleur d'Or ! Groupe : Membres Messages : 2 978 Inscrit : 17 Oct 2004 Lieu : Gembloux - Belgique Membre no 25 347 |
Et pendant ce temps là, à Trifouillis les Oies, ils ont un débit à peine supérieur au 56K des années 90' ... Mais ce n'est pas la faute des concepteurs du réseau, les FAI ne veulent pas investir pour trois pelés et un tondu. j'ai le même problème mais dans la partie nord Dinan, agglomération d'un peu plus de 100 000 habitants. La partie Nord, plus rurale n'est pas vraiment couverte par les différentes antennes, situées au Sud Dans ces régions mal couvertes par le réseau câblé... Pourquoi les gens ne s'équipent-ils pas de systèmes basés sur le Net par satellite ? Il existe des solutions très intéressantes... -------------------- People that are crazy enough to think they can change the world are the ones who do FanBoy assumé et défiscalisant Steve Jobs : 1955-2011 ... Remember ! |
|
|
19 May 2015, 09:24
Message
#39
|
|
Macbidouilleur d'Or ! Groupe : Rédacteurs Messages : 32 183 Inscrit : 15 Nov 2005 Membre no 49 996 |
Une serie c'est 4 coupures pub de 15mn => 45 min, soit pratiquement un doublement du flux (et encore on parle pas de densite...) pour qui regarde une serie... Ajouter 15 min à 45 min, pour moi ça fait +33%, c'est loin d'un doublement (+100%).Et même si la compression est moindre (ce qui n'est pas franchement le cas... il y a des sites qui permettent de visualiser l'évolution du débit des chaînes de TV numérique au fil des minutes, j'ai jamais constaté qu'on y voyait de façon flagrante les coupures publicitaires...*), c'est sans doute très loin de représenter la moitié du flux, et encore plus loin d'en représenter les 2/3. Surtout que ça, c'est valable en Amérique du Nord. En France, heureusement, on n'a pas autant de pubs. Sur les chaînes publiques, il n'y a pas de coupures pubs dans les épisodes de série. Sur les chaînes privées, il y en a une seule, et la durée des pubs est très réglementée. Par exemple, sur un filme (1h30-2h en moyenne), c'est maximum 6 minutes de coupure pub... Bref, le gros de la consommation de bande passante TV, c'est pas la pub chez nous... Et pour la bande passante Internet, n 2012, au niveau mondial c'était 40% de P2P, 37% de vidéo en streaming... Même si la pub représentait 50% du reste, ça faisait toujours pas grand chose par rapport au total... * et l'explication est toute simple : on est sur du flux continu, pas sur un fichier qui est préchargé avant d'être visualisé. Il faut donc que le flux puisse être visualisé sans gros temps d'attente dès que le visionneur le demande. Donc il faut des trames clés régulièrement... Pour une diffusion TV, tu peux difficilement attendre plus d'une ou deux secondes entre deux frames clé (même sur des fichiers ou du streaming à la demande c'est rare d'aller au delà de quelques secondes entre deux trames clés, les gains en compression ne sont pas assez important par rapport aux pertes que ça engendre en confort d'utilisation et en tolérance aux corruption de données). Et si tu met une trame clé toutes les secondes, même si tu as un changement majeur de scène toutes les 5s, ça compressera pas moins que si tu en avais un toutes les minutes. Parce que tes scènes durent dans les deux cas largement plus que l'intervalle entre deux trames clés. Rajoutons a cela la diffusion HD. On y est pas encore, on a de la HD interpolée au mieux actuellement. Faut te mettre à la page, la diffusion est bien en HD sur pas mal de chaînes aujourd'hui...Mais a quoi ca sert de quadrupler la densite d'information visuelle sur un TV qu'on regarde toujours a la meme distance? Ça permet notamment d'avoir une TV plus grande... Du temps des TV à tube, une TV de 82cm (32"), c'était considéré comme une très grande TV. Aujourd'hui une 32", c'est une petite TV d'entrée de gamme...Le truc le plus debile qui soit c'est le principe de la TV: un flux envoyé en meme temps a tous les connectés (actifs ou pas)... C'est aussi mauvais en terme d'architecture qu'en terme de besoin: pas tout le monde en meme temps veux acceder a la meme information (c'est pour ca qu'on a inventé le magnetoscope, et que certains ont tente les magneto intelligents qui filtre la pub...) Au contraire, la TV en directe est bien plus efficace en terme de consommation réseau, et c'est bien pour ça que l'explosion de l'utilisation du replay et de la VOD pose problème !Si tu envoies le même flux à tout le monde en même temps, tu fais du multicast. Comme tout le monde reçoit le même flux, tu as pas besoin d'envoyer 1 million de fois la même chose quand tu as 1 million de récepteur. Tu envoies un seul flux. Si on prend l'exemple d'un opérateur ADSL qui diffuse de la TV sur IP, s'il a 1 million d'abonnés qui regardent le JT de 20h, c'est 1 seul flux qui part de la chaine de TV vers le réseau du FAI, puis le FAI duplique ce flux vers chaque nœud principal de son réseau (un seul flux vers chaque noeud), puis un vers chaque noeud secondaire, etc... Et au final, le seul moment où le flux est individualisé (ie un flux par abonné), c'est sur le réseau terminal, la ligne téléphonique de l'abonné ou sa fibre optique. Donc à l'endroit où il n'y a plus de problème de bande passante. Si à peine 10 000 abonnés (donc 100 fois moins) regardent ce même JT en même temps en différé via le replay (mais pas forcément en ayant commencé au même moment), les flux individualisés partent de beaucoup plus haut dans le réseau du FAI. Dans le pire des cas, ils sont même déjà individualisés avant d'entrer dans le réseau du FAI. Au lieu d'avoir 10 Mbit/s qui rentrent en provenance de la chaîne de TV pour servir 1 million de personnes, il faut 1 Gbit/s pour en servir 10 000... -------------------- |
|
|
19 May 2015, 11:00
Message
#40
|
|
Macbidouilleur d'Or ! Groupe : Membres Messages : 4 969 Inscrit : 26 Jan 2011 Lieu : Pollachius virens Membre no 164 083 |
On ne s'en lasse pas des joutes verbales SartMatt / r@net54
Vous pourriez faire des battle de rap, succès assuré ! -------------------- MBP 2017 15" avec clavier pourri et touchbar inutile
|
|
|
19 May 2015, 14:55
Message
#41
|
|
Adepte de Macbidouille Groupe : Membres Messages : 105 Inscrit : 24 Jun 2011 Membre no 168 334 |
Mais comme on est feignant, on refile de l'ADSL, encore et toujours, et on évite de faire mieux : cela rendrait la vie de milliers de gens trop facile. Il y a pas mal de villages, en France qui pourrait profiter largement de la fibre, avec d'abord une installation de la boucle locale radio, afin de garantir, via satellite, un service de qualité, et ensuite, l'accés distant via la fibre : les villages/villes de 50 a 2500 habitants en profiteraient pleinement. Il y a un deux ans, j'habitais dans une ville de la Côte d'Azur (de taille moyenne, 55000 habitants). Un jour en sortant de chez moi, je constate que les bruits de travaux qui sévissaient depuis l'aube correspondaient à l'ouverture d'une tranchée dans ma ruelle. "Vous faites quoi là ? C'est pas de la fibre que je vois ?" dis-je, le coeur battant de plus en plus vite. - Oui bien sûr, c'est de la fibre qu'on passe - Mais... j'étais pas au courant moi, pour le raccordement de l'immeuble, personne ne m'a... (l'ouvrier s'empresse alors de m'interrompre) : - Non vous n'y êtes pas, la fibre qu'on passe n'est pas pour fibrer le quartier, mais pour la vidéosurveillance... - Mais... ok mais c'est dommage, quitte à ouvrir, qu'il n'ait pas été prévu d'en profiter pour fibrer les logements, vous ne trouvez pas ? Fin de la discussion... je prends alors ma voiture et me dirige vers mon boulot, non sans adresser un petit regard déçu au panneau "VILLE INTERNET DEPUIS 2012" s'éloigner dans mon rétroviseur alors que je quittais la ville... Ce message a été modifié par Aegis1383 - 19 May 2015, 14:56. |
|
|
Nous sommes le : 19th March 2024 - 14:21 |