LES RESEAUX HAUTS DEBITS
« La décennie 90 sera celle de la revanche des télécommunications sur l’informatique. Devenues aussi indispensables que l’informatique au monde moderne, les télécommunications ont pourtant connu des progrès techniques moins rapide : alors que la puissance des ordinateurs doublait régulièrement tous les deux ans, il fallait plus de vingt ans au réseau public commuté pour passer de quelques Kilobits à une centaine de Kilobits par seconde. Mais d’ici à la fin du siècle, la situation va s’inverser : tandis que les progrès de l’informatique sont ralentis par la crise, ceux des télécommunications subissent une extraordinaire accélération, dont l’effet sera une multiplication des performances des réseaux par un facteur de centaines, voire milliers, en quelques années. Cette progression spectaculaire s’appuie sur des avancées technologiques décisives dans deux domaines : celui des supports physiques des télécommunications, d’une part (fibre optique, canaux hertziens ou infrarouges, composants hyperfréquences, hybrides ou optoélectronique), et celui des supports logiques d’autre part, l’architecture et les protocoles nécessaires pour maîtriser de tels débits et y intégrer des flux de caractéristiques aussi différentes que la voix, les données ou la vidéo. »
Jean-Jacques DUBY, 1992, Préface de « Réseaux ATM » aux éditions Eyrolles
Guillaume Desgeorge Novembre 1999
INTRODUCTION AUX RÉSEAUX À HAUTS DÉBITS .3
LE RELAIS DE TRAMES 8
I – PRINCIPES GÉNÉRAUX DU FRAME RELAY 8 Architecture générale 8
Mécanismes du Frame Relay ..9
LES RÉSEAUX D’INTERCONNEXION .13
I – FDDI : FIBER DISTIBUTED DATA INTERFACE ..13 Généralités .13
Protocoles et architecture ..14
FDDI–II .16
II – DQDB : DISTRIBUTED QUEUE DUAL BUS .18 Architecture et fonctionnement 18
Architecture des protocoles 19
LES RÉSEAUX LOCAUX .22
I - ETHERNET ET LE HAUT DÉBIT 22 Fast Ethernet 22
Gigabit Ethernet .23
Exemples d’architecture ..24
II – LE 100VG ANY LAN 25 Principe de l’accès par scrutation (polling) .25
Architecture et performances 25
III - LES RÉSEAUX LOCAUX VIRTUELS .26
L’ATM (ASYNCHRONOUS TRANSFER MODE) .28
LES SUPPORTS PHYSIQUES ..32
I – LE CUIVRE ET LA FIBRE OPTIQUE 32 Le cuivre ..32
La fibre optique ..32
Wavelength Division Multiplexing (WDM) 33
IV – LES RÉSEAUX SANS-FIL ..36 HiperLAN .36 IEEE 802.11 ..37
Pourquoi les réseaux hauts débits ?
Pour répondre à de nouveaux besoins, et ayant les possibilités technologiques de les satisfaire. Les architectures de type client – serveur et les applications multimédia (données, sons, images animées (applications futures) ) sont gourmandes en bande passante.
Est naturellement apparu un besoin de réseaux multiservices hauts débits.
A partir de quel débit parle-t-on de haut débit ?
Le terme « haut débit » ne précise pas de fourchette précise. Si le haut débit, il y a 15 ans, pouvait s’appliquer à des débits de l’ordre du Mégabit par seconde, il peut aujourd’hui s’appliquer à des débits de l’ordre du Gigabit par seconde…
Le cours qui est présenté ici présentera donc diverses techniques au débit supérieur à 1 Mbps… La liste n’est pas exhaustive et ce ne sont pas toutes les techniques supérieures au Mégabit par seconde qui seront traitées…
- Données informatiques : trafic asynchrone et sporadique (ou par rafale).
- Voix interactive : temps réel (temps de transfert <150 ms pour être indécelable)
La voix interactive nécessite un intervalle strict entre chaque échantillon (transfert isochrone). La commutation de circuits oblige à garder le même circuit pendant tout l’échange ce qui sous-utilise la bande passante alors que la commutation de paquets permet de récupérer les blancs dans la conversation (60% du temps). Dans ce cas, les paquets sont récupérés dans un buffer qui délivrera régulièrement les paquets au destinataire (émulation de circuit) ce qui introduit un délai supplémentaire.
La mise en paquet fournit également un délai supplémentaire : la source codée donne 1 octet par 125 µs, soit 8ms pour 32 octets. Il faut que le réseau supporte les paquets voix de petite taille. Sans oublier les délais de compression et de décompression. Par contre, un paquet perdu n’a aucune incidence sur la conversation et n’est pas détectable par l’oreille. Ces paquets sont soit ignorés, soit reconstitués (en recopiant le précédent).
- Vidéo : même problème que la voix (transfert isochrone) pour l’aspect temps réel. Par contre, il n’y a pas d’interactivité mais beaucoup plus d’information à fournir.
Pour envoyer une chaîne de télévision sur le réseau (720x576), il faut un débit minimal de 166Mbits par seconde (6 635 520 bits par image x 25 images) sans compression.
En MPEG (image réduite à 352x288), des débits de 1,5 à 2 Mbps sont nécessaires. En MPEG2, 10Mbps sont nécessaires.
On a donc rangé les données dans des classes d’applications en fonction de leurs besoins :
Classe A | Classe B | Classe C | Classe D | ||
Temps | Isochrone | Asynchrone | |||
Débit | Constant | Variable | |||
Mode | Connecté | Non connecté | |||
Applications types | Voix interactive Vidéo | Voix ou vidéo compressée | Données | Données |
1er réseau multiservice en France : Numéris (RNIS ou ISDN : Integrated Services Digital Network) : commutation de circuits (évolution des lignes RTC) sur des canaux B (64 Kbps) et un canal D (16 Kbps).
Le RNIS est un réseau aux infrastructures flexibles dédié à l’intégration de voix, de données, de vidéo, d’images et d’autres applications. Il a été pensé pour remplacer les lignes téléphoniques analogiques actuelles.
RNIS bande étroite (Narrowband ISDN) permet l’intégration de services pour des débits de 56 Kbps à 2 Mbps alors que RNIS large bande (Broadhand ISDN) est basé sur des cellules évoluées de la technologie ATM pour des débits de 2 à 600 Mbps.
Le RNIS est une évolution du réseau téléphonique actuel. Il propose la continuité numérique de bout en bout. Ce n’est pas un réseau supplémentaire entrant en concurrence avec les réseaux existants comme le téléphonique traditionnel, les réseaux X25 ou les liaisons spécialisées. C’est plutôt un accès universel à ces réseaux ou plus exactement à ces services supports.
En jouant sur son sigle, le RNIS apparaissait à l’époque comme un moyen de communication rapide, normalisé, intelligent et souple :
- Rapide, car l’accès de base à 144 Kbps comporte 2 voies à 64 Kbps et une voie à 16 Kbps (2B+D).
Les canaux B permettent, par exemple, de téléphoner tout en envoyant une télécopie rapide. Le canal D, pour sa part, convoie les signaux servant à l’établissement de la communication et toutes les informations de service ; il peut aussi transporter des informations à bas débit. Il existe des accès primaires qui comportent 30 canaux B et un canal D.
- Normalisé, car tous les éléments d’accès au RNIS sont spécifiés par des normes internationales : même canal de base, même canal D, même câblage et même prise (RJ 45) servent pour tous.
- Intelligent, car les centraux sont capables de gérer une signalisation bien plus riche que celle du téléphone classique.
- Souple et simple, car le RNIS a la vocation d’héberger la grande majorité des services de communication et fait un pas vers la transparence des réseaux avec son accès universel aux services de télécommunication.
Rappel sur les modes de connexion :
Mode connecté : blocs acheminés sur le même chemin physique
Mode non-connecté : blocs acheminés indépendamment les uns des autres
Mode orienté connexion : blocs acheminés sur le même chemin virtuel
Les protocoles hauts débits utilisent le mode orienté connexion qui préserve le séquencement des informations et allège le travail des terminaux.
Pour assurer le support de ces applications, on a défini une certaine qualité de service (QoS) basée sur deux critères :
- La transparence temporelle (délai de transfert et variation du délai (gigue)
- La transparence sémantique (respect de la signification des informations)
Commutation de circuits
Réseau à commutation de circuits
Commutation de paquets
Réseau à commutation de paquets
Multiplexage spatial ou fréquentiel (FDM : Frequency Division Multiplexing)
Multiplexage temporel (TDM : Time Division Multiplexing)
Multiplexage de position ou d’étiquette
Pour éviter d’acheminer des données erronées, le réseau effectue souvent un contrôle de validité et élimine les blocs où une erreur est détectée. La reprise d’information (inutile pour le temps réel) est laissée aux couches supérieures des organes d’extrémité.
Deux approches sont possibles pour le contrôle d’erreur :
- Un contrôle sur l’ensemble du bloc de données, méthode qui se justifie uniquement sur les réseauxà fort taux d’erreur.
- Un contrôle sur l’en-tête du bloc, méthode qui s’applique parfaitement à la transmission de donnéesde faible taille.
Le contrôle d’intégrité prévoit aussi le contrôle de la validité des fanions, la taille du bloc et la vraisemblance de l’identification (élimination des blocs dont le numéro de voie logique est inconnu).
La congestion est statistiquement inévitable sur un réseau.
Elle résulte de l’augmentation des délais d’acheminement. Si la taille des files d’attente augmente dans les commutateurs, les blocs ne sont pas acheminés dans les délais et sont donc retransmis, ce qui augmente encore le trafic.
Pour prévenir la congestion, il faut mettre en place un contrôle d’admission (ne pas admettre dans le réseau plus de trafic que celui-ci ne peut supporter) et un contrôle de flux (asservir le débit de la source aux capacités de traitement du nœud).
Contrôle d’admission : En X25, on réserve les ressources nécessaires lors de la mise en place du circuit, mais ceci est incompatible avec un trafic en rafale.
Pour garantir la QoS, une connexion ne doit être acceptée que si le réseau est apte à la satisfaire. Les demandes de connexion seront donc accompagnées par des informations comme le débit moyen et le débit de pointe nécessaire.
Contrôle de flux : En mode connecté, le contrôle de flux se fait par fenêtre glissante. La fenêtre est le nombre de blocs que la source peut émettre sans avoir reçu d’acquittement. Plus la fenêtre est importante, plus l’émission peut-être continue mais le contrôle de la source est faible.
Etant donné la rapidité du passage des informations sur un réseau haut débit, il ne peut y avoir de contrôle de flux par fenêtre glissante. Celui-ci est assuré par les couches supérieures.
Pour éviter les congestions non prévenues, il existe des contrats de trafic établis à chaque connexion qui permet, en cas de congestion importante, au commutateur d’accès de supprimer des blocs entrants ou de les mettre en attente.
Le Frame Relay est une évolution de la commutation par paquets X25. Il établit, en mode connecté, une liaison virtuelle entre les deux extrémités. Cette liaison est soit permanente (PVC : Permanent Virtual Circuit), soit établie à la demande (SVC : Switched Virtual Circuit).
Le Frame Relay couvre les couches 1 et 2 du modèle OSI mais n’est pas conforme à ce dernier.
Les normes relatives au Frame Relay sont les suivantes :
Organisme de normalisation | ||
Objet | UIT | ANSI |
Description des services | I.233 | T1.606 |
Fonctions de base | Q.933 | T1.617 |
Accès et signalisation | Q.933 | T1.617 |
La couche physique utilise du bit stuffing (transparence binaire) : insertion d’un zéro tous les cinq 1 à l’émission et suppression du 0 suivant cinq 1 à la réception. Cette technique est pénalisante car elle introduit une irrégularité dans le débit utile. Elle est utilisée afin de s'assurer que la suite de bits 01111110 (0x7E, fanion des trames du Frame Relay) ne puisse apparaître « par hasard ».
L’interface physique n’est pas précisée par la norme, elle dépendra du constructeur ou de l’opérateur.
La couche liaison de données est subdivisée en 2 sous-couches, le noyau (Core) et une sous-couche complémentaire et facultative non normalisée dont les fonctionnalités sont laissées à la discrétion des utilisateurs (EOP : Element Of Procedure). Une utilisation typique est l’utilisation de la procédure HDLC LAP-B comme sous-couche EOP. Cette sous-couche est utilisée uniquement par les équipements terminaux.
La trame utilisée par le Frame Relay au niveau 2 (Noyau) est de type HDLC (High Level Data Link Control) dérivée de LAP-D et délimitée par deux fanions 0x7E. Son format est le suivant :
Le champ adresse (DLCI : Data Link Connection Identifier) est divisé en 2 blocs dans la version de base, un bloc de 6 bits et un autre de 4 bits.
Le champ EA (End Address) indique si le champ adresse à une suite (EA = 0) ou s’il est le dernier (EA = 1).
Dans les versions étendues , le champ adresse est incrémenté d’un octet (7 bits plus le bit EA). L’adresse peut donc être exprimée sur 10, 17 (en-tête de 3 octets), ou 24 (en-tête de 4 octets).
Le champ C/R (Command/Response) indique s’il s’agit d’une trame de commande ou de réponse.
Les bits FECN (Forward Explicit Congestion Notification) et BECN (Backward Explicit Congestion Notification) permettent d’éviter les congestions. Ils sont utilisés lorsque le seuil de congestion est pratiquement atteint dans un sens ou dans l’autre de l’échange de trame. L’utilisateur qui reçoit ces avertissements se doit de réduire ses échanges en diminuant son débit ou la taille de ses fenêtres glissantes.
Le bit DE (Discard Eligibility) permet aux organes du réseaux de marquer les trames à éliminer en priorité lors d’une congestion.
De même que pour un réseau X25, on établit la connexion à travers une liaison virtuelle. La particularité par rapport à X25 est d’être unidirectionnel, la machine distante devant établir son propre circuit virtuel de retour.
Un circuit virtuel est identifié par un identificateur de lien virtuel (DLCI) équivalent au NVL (Numéro de voie logique) d’X25. Dans la version de base de 2 octets, le DLCI permet d’adresser 1024 liaisons virtuelles dont seules 992 sont utilisables.
DLCI | Utilisation |
0 1 – 15 16 – 1007 1008 – 1018 1019 – 1022 1023 | Etablissement de circuit (Q.931) Réservés DLCI utilisateurs (PVC, SVC) Réservés Multicast Signalisation de la congestion et états des liens |
Chaque commutateur n’assure qu’une vérification d’intégrité de la trame par le contrôle de la délimitation, de la validité du DLCI et le contrôle d’erreur FCS. Les trames non valides sont éliminées. Le traitement des erreurs est reporté aux organes d’extrémité sur les protocoles de niveau supérieur qui devront numéroter les blocs de données pour détecter les pertes et gérer la reprise sur temporisation et sur erreur.
Les gains du relais de trames par rapport à X25 en terme de vitesse de commutation est de l’ordre de 10 grâce à la simplification du protocole et la suppression de contrôles redondants.
X25 | Frame Relay | |
Niveau 1 | Délimitation des trames et transparence binaire | |
Niveau 2 | Type de trames Validité et contrôle d’erreurs Contrôle de séquencement Gestion de la fenêtre et des temporisations Acquittement éventuel | Validité et contrôle d’erreur Validité du DLCI Acheminement Positionnement des bits ED, EFCN, BFCN |
Niveau 3 | Type de paquets Contrôle de séquencement Gestion de la fenêtre et des temporisations Acquittement éventuel Routage |
Un accès relais de trame est caractérisé par 3 grandeurs :
- le CIR (Committed Information Rate) ou débit garanti.
- l’EIR (Excess Information Rate) ou débit maximal autorisé.
- le Tc (Committed rate measurement interval) ou intervalle de temps de détermination des volumesadmis (Volume = débit x Tc)
Le réseau fait donc appel à l’autodiscipline pour prévenir les congestions en marquant les trames excédantes. Lorsque le débit dépasse le CIR, les trames en excédent sont marquées par les organes de commutation en positionnant le bit DE à 1. S’il y a congestion, elles seront éliminées. Si le débit dépasse l’EIR, les trames sont directement éliminées.
Le bit FECN est positionné à 1 par l’organe de commutation en état de congestion. Dans la réponse à une trame dont le bit FECN est à 1, le récepteur marquera le bit BECN à 1 pour avertir l’émetteur de la congestion.
Ce procédé étant injuste pour les hôtes n’ayant pas provoqué la congestion, le protocole CLLM a été développé pour y remédier.
Ce protocole permet aux nœuds en état de congestion d’en avertir ses voisins ainsi que la source de la congestion. Le format du message CLLM est le suivant :
Drapeau 0x7E
Champ adresse
DLCI = 1023 Type de message
Champ de contrôle Status enquiry = 0x75
Trame non numérotée = 0x3 Identificateur de message
Discriminateur de protocole Type de rapport = 0x51
LMI = 0x8 (CVP) Longueur = 1
Q.931 = 0x9 (CVC) Type de rapport Référence d'appel Status complet = 0
Type de message Identificateur de message
Identificateur de message Vérification d'intégrité = 0x53 exemple Longueur = 2
Longueur
Element d'information Numéro séquence émis (Ns)
Numéro séquence reçu (Nr)
FCS (2 octets)
Drapeau 0x7E
Ce protocole permet à l’utilisateur (FRAD : Frame Relay Access Device) de connaître l’état des CVP, du lien physique ou de la modification du statut d’un lien.
Le champ discriminateur de protocole permet de distinguer le type d’architecture des couches précédentes. Le champ référence d’appel est toujours à 0 sauf pour le protocole Q.931 pour l’établissement des CVC.
Les messages d’établissement des circuits virtuels sont acheminés sur le DLCI 0. Ce sont des messages complexes puisqu’ils doivent préciser les paramètres de la liaison demandée. L’échange de trames est le suivant au cours d’une communication :
Le format du message de Setup est le suivant :
La référence d’appel (2 octets éventuels) n’a qu’une valeur locale (Usager/Réseau) et est donc différente à chaque extrémité. Elle identifie tous les messages de supervision relatifs à une connexion. Le bit F (Flag) sert à repérer un message appelant (F=0) d’un message appelé (F=1).
Le champ relatant les capacités du réseau support (Bearer Capability) n’est présent que pour les compatibilités futures et indique actuellement le codage en mode CCITT standard, le mode binaire transparent et l’utilisation du noyau LAP-D.
Le relais de trames est parfaitement adapté à l’interconnexion de réseaux locaux pour des protocoles divers et plus particulièrement pour X25 de façon transparente (encapsulation ou tunneling). Il est vu par les protocoles comme un support physique.
La segmentation est également prévue par le Frame Relay de façon transparente pour les utilisateurs du réseau. Si le réseau reçoit une unité dépassant son MTU (Maximum Transfert Unit), il la segmente et la réassemble en sortie après l’avoir encapsulée dans une trame Frame Relay (sauf le champ DLCI).
Si un fragment est perdu lors du processus de réassemblage, c’est l’ensemble de l’unité de données qui est rejetée.
Le Frame Relay permet un débit de 2 Mbit/s à 45 Mbit/s et des temps de réponse très faibles. Il est particulièrement bien adapté aux forts trafics aléatoires tels que les trafics d'interconnexion de réseaux locaux. Par contre les délais de transmission sont variables, le Frame Relay n'est pas adapté aux applications telles que la phonie.
Les MAN (Metropolitain Area Network) diffèrent des LAN par leur finalité qui est l’interconnexion de RLE pouvant appartenir à des entités différentes. Ils sont cependant utilisables en tant que réseaux locaux à haut débit (100 Mbps ou plus) ou de réseaux longue distance.
Les deux technologies concernées sont FDDI et DQDB. Elles sont sérieusement concurrencées par le Fast Ethernet qui à l’avantage d’utiliser les infrastructures déjà existantes. I – FDDI : Fiber Distibuted Data Interface
La technique FDDI est d’origine ANSI (X3T9.5), puis a été normalisée par l’ISO (9314). C’est un réseau en double anneau fondé sur une infrastructure fibre optique multimode. Le débit nominale est de 100 Mbps pour une distance maximale de 100 km. FDDI supporte jusqu’à 1000 stations distantes l’une de l’autre de moins de 2 km. Il existe une version de FDDI sur paire torsadée (TPDDI : Twisted Pair Distributed Data Interface) qui autorise des débits de 100 Mbps sur 100 m.
La méthode d’accès est similaire à celle du réseau 802.5 version 16 Mbps. Chaque station doit posséder l’unique jeton pour émettre puis pour générer un nouveau jeton. Les différences avec la version 802.5 sont qu’il n’y a pas de station monitrice, que la synchronisation ne se fait pas par une horloge unique (le réseau est plésiochrone) mais par une mémoire tampon (EB : Elasticity Buffer) qui limite les trames à 4500 octets, et enfin que les données sont séparés en deux catégories distinctes, les données urgentes à contrainte de débit (classe synchrone) et les données sporadiques à débit variable (classe asynchrone).
Un préambule de 6 à 8 octets permet de synchroniser les horloges d’émission et de réception.
Quatre variables d’état contrôle le jeton temporisé (Timed Token Protocol) :
- TTRT (Target Token Rotation Time) : C’est le temps maximum au bout duquel une station doit recevoir le jeton. A l’initialisation de l’anneau, chaque station propose une valeur maximale admissible de TTRT et la plus faible valeur proposée est retenue, elle correspond à la station qui a les plus fortes contraintes de trafic. Chaque station a un temps d’émission Ts réservé à l’émission de données de la classe synchrone tel que TTRT > Ts.N où N est le nombre de stations actives.
- La variable LC (Late Counter) autorise (LC = 0) ou interdit (LC = 1) l’émission de données asynchrone. LC est mis à 0 si le jeton arrive en avance. Si le jeton arrive en retard, le station réinitialise l’anneau.
- TRT (Token Rotation Timer) : Il est initialisé à la valeur de TTRT à la reception du jeton si LC = 0 puis décroit linéairement jusqu’à l’arrivée effective du jeton. Si le jeton arrive avant l’expiration du TRT, la station peut émettre des données asynchrone pendant le temps restant (THT) puis des données synchrone pendant le temps Ts.
- THT (Token Holding Timer) : Il mesure le temps d’émission de données asynchrones. Quand le jeton arrive en avance, THT est initialisé à TRT et TRT est initialisé à TTRT.
La couche physique est scindée en 2 sous-couches, PMD (Physical Medium Dependent) adapte les caractéristiques des organes d’émission en fonction du support physique, et l’autre gère le protocole physique (PHY : Physical layer protocol) et s’occupe du codage et de la synchronisation.
|
| |||||
|
| |||||
| ||||||
|
La couche MAC est chargée des fonctions habituelles (gestion du jeton, temporisation …). Le protocole SMT gère l’insertion et le retrait des stations, la configuration du réseau et le traitement des erreurs.
On utilise un codage Manchester de type NRZI (No Return to Zero Inverted). Il y a une transition à chaque 1 et pas de transition pour un 0. Cependant, pour éviter la perte de la synchronisation lors de longues séquences de zéros, FDDI utilise un double codage (code dit 4B/5B) : à chaque séquence de 4 bits, on fait correspondre une séquence de 5 bits telle qu’il existe au moins deux transitions par symbole.
Le codage de 5 bits permettant 32 combinaisons pour n’en représenter que 16, certaines combinaisons serviront de codes significatifs de l’état du réseau :
|
|
Le champFrame Control indique le type de trame :
Frame Control ( 8 bits ) | Signification | |||
C | L | TT | ZZZZ | |
1 | 0 | 00 | 0000 | Jeton libre |
1 | 1 | 00 | 0000 | Jeton réduit |
C | L | 00 | 0001 à 1111 | SMT (C=0) ou MAC (C=1) |
C | L | 01 | rPPP | Trame LLC de priorité PPP |
Le champ FC permet de distinguer le type de transfert effectué (bit C, classe de transfert). La longueur du champ adresse est précisé par le bit L. Les bits TT indiquent le type de trame et sont complétés par les bits ZZZZ qui peuvent éventuellement indiquer un niveau de priorité dans les trames de données.
Les champs d’adresses DA et SA peuvent donc être soit longs (6 octets ou 12 symboles), soit courts (2 octets ou 4 symboles) selon que le champ L est à 0 (adresse sur 16 bits) ou à 1 (adresse sur 48 bits).
Enfin, comme en 802.5, le champ Frame Status comporte les indications d’erreur, d’adresse reconnue et de trames recopiées. Il est composé d’au moins 3 symboles, E (erreur détectée), A (adresse reconnue) et C (trame recopiée). Ces symboles sont à 0 au départ de la trame. Dans le cas où aucune station n’a détecté d’erreur, que 3 stations se sont reconnues dans l’adresse (adresse de groupe) mais que seulement 2 ont correctement recopiées la trame, le champ FS est le suivant :
E | A | C | A | C | A | C | |
Etat | Reset | Set | Set | Set | Set | Set | Reset |
Binaire | 00111 | 11001 | 11001 | 11001 | 11001 | 11001 | 00111 |
Les stations peuvent à simple ou à double attachement selon qu’elles sont directement relié à l’anneau principal ou non.
Le double anneau autorise, en cas de défaillance d’un nœud FDDI, le rebouclage sur l’anneau secondaire. Pour les stations à simple attachement, c’est le concentrateur qui assure cette fonction.
A l’initialisation, sur détection d’inactivité, une station emet une trame Claim Token qui comporte l’indication du TTRT revendiqué. Chaque station compare la valeur du TTRT avec celle qu’elle désire. Si la valeur qu’elle désire est inférieure à celle proposée, la station substitue son TTRT à celui proposé. La station gagnante (celle qui voit revenir sa proposition) génère le premier jeton pour informer les stations du TTRT retenu. Puis elle emet les données à partir du deuxième jeton.
Une station qui a des données à émettre attend la réception du jeton. De même que pour le Token Ring, c’est la station qui émet une trame qui la retire de l’anneau lorsqu’elle lui revient.
Même si FDDI offre une bande passante minimale aux données des différentes stations
(classe synchrone), elle ne garantit une récurrence temporelle entre les différentes émissions. Cela empêche FDDI d’assurer les transfert isochrone (voix et vidéo).
Pour pallier cette limitation, une évolution de FDDI a été proposée.
FDDI–II multiplexe sur le support une voie asynchrone et une voie synchrone en mode paquet et une voie isochrone en mode circuit.
Si le trafic généré est uniquement du type paquet, une station FDDI-II fonctionne en mode de base. Lorsque du trafic paquet et du trafic isochrone sont multiplexés, elle fonctionne en mode hybride.
L’architecture générale des protocoles FDDI-II est le suivant :
|
Une station maître (Cycle Master) génère une trame ou cycle FDDI-II toutes les 125 µs, soit 12500 bits. Ce cycle est le suivant :
Un préambule de 2 à 8 symboles permet la synchronisation entre cycles.
L’en-tête de cycle (Cycle Header) de 24 symboles permet de numéroter les cycles et permet de préciser pour chaque canal WBC est utilisé en mode isochrone ou en mode paquet.
Le canal DPG (Dedicaced Packet data Group) de 12 octets d’un débit de 768 Kbps est notamment utilisé par la couche SMT pour la signalisation.
Les 16 canaux WBC (Wide Band Channel) de 96 octets sont utilisés en mode isochrone ou paquet. Le débit nominal de chaque canal est de 6,144 Mbps, ce qui fait un débit synchrone de 98,304 Mbps pour l’ensemble des canaux. Ces 16 canaux sont constitués d’un entrelacement d’octets répartis en 96 cyclic group.
Cette norme a été proposée à l’IEEE 802.6 qui a finalement préféré le protocole DQDB.
Développé par une université australienne et soutenu par Telecom Australia, ce protocole a été normalisé par l’IEEE 802.6 et l’ISO 8802.6 comme norme de réseau métropolitain. Il a été développé parallèlement à ATM et utilise le format des cellules de 53 octets dont 48 de charge utile.
DQDB permet des transfert isochrone et asynchrone en mode connecté ou non à des débits de 45 à 155 Mbps. Une version 622 Mbps devrait être disponible prochainement.
DQDB utilise un double bus unidirectionnel. Sur chaque bus, une tête de bus (HoB, Head of Bus) génère une trame toutes les 125 µs contenant n slots (cellules de 53 octets). Le nombre n de slots dépend du débit du réseau. Les têtes de bus sont généralement situées sur une même station.
Le premier bit de chaque slot (bit Busy) indique si le slot est libre ou occupé.
Les stations peuvent lire ou écrire des données au vol dans une cellule mais c’est la fin de bus qui a la fonction d’absorption des trames. Chaque station écrit dans le bus qui correspond à la direction de la station avec laquelle elles veulent communiquer, sauf en cas de broadcast où les données sont émises sur les deux bus.
Chaque station qui a des données à émettre les dépose dans un slot vide de manière statistique (données asynchrones) ou pré-affectée (pré-arbitrage pour les données isochrone).
L’allocation des cellules est gérée par la tête de bus. Un lien virtuel (VC, Virtual Connection) est établi à l’aide d’un protocole de signalisation (Q.931 du RNIS bande étroite) entre les stations participant à l’échange.
La tête de bus alloue une ou plusieurs cellules PA (Pre-Arbitrated) selon le débit requis par la station demandant l’établissement du lien, chaque cellule garantissant un débit de 3 Mbps. DQDB peut même multiplexer plusieurs connexion dans une même cellule, chaque octet garantissant un débit de 64 Kbps.
Cette connexion est entièrement déterminée par un identifiant de circuit (VCI, Virtual Circuit Identifier) et une position dans une cellule.
Le trafic asynchrone est géré par chaque station. En mode connecté, c’est la station qui fait la demande de connexion qui attribue le VCI. Une plage de VCI disponible est attribuée à chaque station à cet effet. En mode non connecté, les bits du VCI sont tous positionnés à 1.
Une station désirant émettre fait une requête de réservation sur le bus allant dans la direction opposé à la station cible. Pour situer la station cible, elle lui adresse un message sur les deux bus, et en fonction du bus d’où arrive la réponse, elle sait de quel côté elle est.
Si une station fait une requête sur le bus B pour obtenir N slots sur le bus A, la station suivante (et donc celle qui la précède dans l’autre sens) laisse passer N slots vide sur le bus A avant de déposer ses données dans le slot vide N+1.
Ce système n’est pas équitable car les stations en amont émettent leur requête de réservation avant les autres. Le mécanisme « Bandwidth Balancing Mechanism » tend à corriger ce défaut en obligeant les stations ayant émis N segments à laisser passer une cellule vide.
La couche MAC comprend un ensemble de fonctions spécifiques à chaque type de transfert :
MCF pour un service asynchrone sans connexion (transfert de données entre ordinateurs), COF pour les transfert asynchrones en mode connecté (applications conversationnelles) et enfin ICF pour le transfert isochrone (débit constant pour la voix et la vidéo).
L’accès au support partagé est géré par deux entités, celle qui s’occupe du trafic isochrone (PAF) et celle qui s’occupe du trafic asynchrone (QAF).
|
|
On rajoute un en-tête aux trames MAC pour donner les trames IMPDU qui sont ensuite découpées en DMPDU de 48 octets pour donner les cellules DQDB.
MAC Service Data Unit (MAC-SDU)
Initial MAC PDU (IMPDU)
Derived MAC PDU (DMPDU)
Cellule DQDB
Le format de la trame IM-PDU qui encapsule la trame MAC-SDU est le suivant :
Le Common PDU Header est un en-tête commun aux modes connecté et non connecté :
- l’octet RES est réservé pour une utilisation ultérieure.
- l’octet BE-tag (Beginning-End tag) correspond à la numérotation modulo 256 des trames IM-PDU et est utilisé pour le réassemblage.
- le champ BA-size (Buffer Allocation size) précise au récepteur la place à réserver en mémoire pour pouvoir recevoir toute la SDU.
Le champ MCP (MAC Convergence Protocol) n’est présent que pour le mode non connecté. Il contient :
- les adresses source et destination (SA et DA).
- la longueur du champ de bourrage de 0 à 3 octets (PL : Pad Length).
- le type de SDU (champ PI : Protocol Identifier). Il peut s’agir d’une SDU LLC ou de gestion.
- la qualité de service en terme de délai (Delay) et de suppression lors de congestion (Loss). Le bit CIB (CRC Indicator Bit) indique si le champ CRC est utilisé ou non.
- la longueur du champ d’extension d’en-tête en nombre de mots de 32 bits (HEL : Header Extension Length).
- Un champ de temps de vie (Bridging) qui, en cas d’interconnexion de réseaux DQDB, est décrémenté de 1 à chaque passage de pont jusqu’à ce que sa valeur atteigne 0 auquel cas la trame est détruite.
Le format de l’extension d’en-tête (Header extension) n’est pas défini à ce jour. Le champ PAD permet d’aligner l’IMPDU sur un multiple de 4 octets, sa longueur est précisée par le champ PL. Le champ CRC32 est facultatif et validé par le bit CIB.
La partie commune à la fin de la trame IM-PDU comporte un octet non utilisé RES, un octet BE-tag qui est la copie exact de celui d’en-tête ainsi que 2 octets Length qui indiquent la longueur totale des champs MCP Header, Header extension, Données, PAD et CRC. Cette indication autorise un contrôle lors du réassemblage.
Le champ d’adresse est particulier car DQDB peut utiliser plusieurs formats d’adresse :
Address Type 0100 1000 1100 1101 1110 1111 | Signification Adresse IEEE sur 16 bits Adresse IEEE sur 48 bits Adresse E164 (60 bits) publique, individuelle Adresse E164 (60 bits) privée, individuelle Adresse E164 (60 bits) publique de groupe Adresse E164 (60 bits) privée de groupe |
Segment type 00 : Continuation of Message (COM) 01 : End of Message (EOM) 10 : Beginning of Message (BOM) 11 : Single Segment Message (SSM) | Nombre unique sur le réseau commun à tous les fragments. Il identifie une communication |
BB 1 bit | ST 1 bit | Res 1 bit | PSR 1 bit | REQ0 à 3 4 bits |
Payload Length Indique la longueur utile du champ de données pour le dernier fragment
Segment Priority Contrôle de congestion lors d'un raccordement vers un réseau extérieur
L’octet de contrôle d’accès (ACF) fournit les informations suivantes :
- le bit BB (Busy Bit) indique si la cellule est libre (BB = 0) ou occupée.
- le bit ST (Slot Type) indique si le slot est de type QA (ST = 0) ou PA.
- le bit PSR (Previous Slot Recieved) est mis à 1 par la machine suivant le destinataire d’un slot afin qu’il puisse être réutilisé immédiatement (non utilisé pour le moment).
- le bit Res est réservé à une utilisation ultérieure.
- les quatre bits REQ (Request bit) permettent de formuler des requêtes de réservation suivant un certain niveau de priorité (REQ3, priorité haute).
Trois technologies seront traités dans ce chapitre, l’évolution d’Ethernet vers le haut débit, les réseaux 100 VG AnyLAN et les réseaux virtuels.
Pour rappel, le format d’une trame Ethernet est le suivant :
Préambule 7 octets | SFD 1 octet | @dest 6 octets | @source 6 octets | EtherType 2 octets | Données 46 - 1500 octets | FCS 4 octets |
Le champ EtherType donne l’identifiant du protocole supérieur (par exemple, 2048 est IP). C’est le seul champ qui varie par rapport à la trame 802.3 où il est remplacé par le champ « Longueur des données ».
Les différentes implémentations sont le 10 base 5 (10 Mbps en bande de base sur câble coaxial d’une longueur maximale par segment de 500 mètres) qui est la version d’origine d’Ethernet, le 10 base 2 (Thin Ethernet), sa version économique avec du câble coaxial souple et fin qui permet une longueur de segment de 185 mètres pour un débit de 10 Mbps, et la version 10 base T, sur paires torsadées où la longueur maximum des brins est de 100 à 150 mètres.
Avec un débit de 10 Mégabits par seconde, Ethernet 10 base X fait déjà partie des réseaux à hauts débits. La version 100 Mégabits est une évolution du 10 base T idéal pour les réseaux locaux d’entreprise.
La compatibilité de la vers 100 Mégabits est assurée par la reprise du protocole CSMA/CD et le maintien de la taille des trames. La topologie du réseau est la même que pour le 10 base T. Nous ne nous intéresserons, pour le Fast Ethernet, qu’à la partie interconnexion, soit le niveau physique puisqu’il n’y a que ce niveau qui change par rapport à Ethernet.
La fenêtre de collision (temps minimal pendant lequel une station émettrice doit écouter le réseau pour détecter la collision la plus tardive) est réduite à 5,12 µs, ce qui fait un silence inter-trame (IFG : InterFrame Gap) de 0,96 µs (96 bits). Ce ci induit de fortes contraintes sur le temps de propagation du signal et donc sur la distance maximale entre les deux stations les plus éloignées du réseau. La longueur d’un segment ne peut excéder 100 mètres.
Il existe deux classes de hubs différentes, le hubs de classe 1 qui régénèrent les signaux et les diffusent sur les autres ports selon le type de port (100 base TX ou 100 base T4) et les hubs de classe 2 qui répètent immédiatement les signaux reçus et donc qui autorisent une connexion avec une et uniquement une cascade avec une distance inter-hub de 5 mètres.
La norme 100 base T prévoit l’utilisation de 3 supports différents :
MAC CSMA/CD 802.3
Interface MII (Media Independent Interface)
100 base TX 2 paires type 5 UTP (unshielded twisted pair) | 100 base T4 4 paires type 3, 4, 5 UTP | 100 base FX Fibre optique |
Le 100 base T4 utilise un codage de type 8B/6T (8 bits sur 3 temps d’horloge). Trois paires sont utilisées pour la transmission de données, la quatrième pour la détection de collision.
Le 100 base TX et 100 base FX utilise la signalisation 4B/5B (16 symboles parmi 32) sur une paire ou fibre d’émission et une paire ou fibre de réception.
La fibre optique permet une longueur de segment de 400 mètres.
Le Gigabit Ethernet est une évolution naturelle de la technologie CSMA/CD. Son architecture générale est la suivante :
Le Gigabit Ethernet fonctionne en full-duplex dans le mode switch-to-switch et dans le mode switch-to-end-station (de commutateur à commutateur ou à station) et en half-duplex pour les stations raccordées directement à un hub.
Pour maintenir un diamètre de réseau suffisant en half-duplex (200 mètres), la fenêtre de collision a été modifiée, la trame minimale étant portée à 64 octets. l’IFG reste à 96 bits.
Le Gigabit Ethernet se présente comme une solution d’attente ou un complément plutôt qu’un concurrent d’ATM.
Ces deux évolutions d’Ethernet sont généralement utilisés comme backbone sur les réseaux locaux. Les machines ne travaillent pas nécessairement à 100 ou 1000 Mbps mais les commutateurs qui forment la partie centrale du réseau l’utilisent.
Pendant que qu’un groupe de travail autour de Cisco crée le Fast Ethernet, Helwett-Packard, soutenu par AT&T et IBM, développe une autre possibilité d’évolution vers le 100 Mégabits qui prend en charge l’évolution des réseaux Ethernet et Token Ring. Le 100VG Any LAN sera standardisé par la spécification IEEE 802.12.
L’appellation 100VG Any LAN provient de 100 Mbps, avec de 4 simples paires torsadées de qualité vocale (Voice Grade) et de sa double compatibilité Ethernet et Token Ring (Any LAN).
La topologie est identique à celle du 10 base T : une étoile hierarchisée autorisant jusqu’à 5 niveaux, soit 4 hubs . Le hub de tête est appelé « root hub ». Les distances maximum dépendent des câbles utilisés, soit 100 mètres pour les catégorie 3 et 4 et 150 mètres pour les câbles de catégorie 5 UTP. Certains câbles particuliers autorisent des longueur de segment de 200 mètres.
Les hubs utilisés sont particuliers à la norme et s’ils sont appelés hubs dans la spécification, ils se rapprochent plus du commutateur.
Lorsqu’une station désire émettre, elle fait une requête auprès du hub qui lui alloue ou non le support (Demand Priority Access Method ou DPAM). Les collisions sont donc impossible et le délai d’attente du aux jetons sont supprimés.
Les stations informent le hub de leur disponibilité en lui transmettant le signal « Idle ». La station désirant émettre formule une requête avec un niveau de priorité. Les autres machines raccordées sont averties par le hub que quelqu’un va émettre et se mettent en état de recevoir (signal Incomming, INC). Lorsque toutes les stations ont cessé l’émission du Idle, cela signifie qu’elles sont prêtes à recevoir et la station émettrice transmet sa trame. Le hub l’analyse et la transmet à la station intéressée et reprend l’émission du Idle.
Les signaux de signalisation sont émis en basse fréquence (30 Mhz), ils se composent de 2 tonalités. La première tonalité correspond à la transmission de 16 bits à 1 suivis de 16 bits à 0, se qui donne un signal de 0.9375 Mhz, la seconde tonalité alternent la transmission de 8 bits à 0 et 8 bits à 1, se qui donne un signal de 1.875 MHz.
Les différents signaux de signalisation sont reproduit dans le tableau suivant :
Tonalité | Hub vers Station | Station vers Hub |
Silence | Prêt à émettre ou à recevoir | |
1 et 1 | IDLE : Rien à envoyer ou à transmettre | |
1 et 2 | INC : Demande de passage en état de réception | NPR : Requête de priorité normale |
2 et 1 | HPR : Requête de priorité haute | |
2 et 2 | Initialisation INIT : déclenché pour connaître les adresses MAC des stations |
Les 4 paires étant nécessaire, le débit sur chaque paire est ramené à 25 Mbps. L’architecture des couches 1 et 2 du modèle OSI est représenté ci-après :
Cette méthode d’accès garantit que chaque station aura accès au support. Afin d’éviter un usage abusif des données prioritaires, le hub surveille les files d’attentes de requêtes de données normales et les transforment en priorité haute à l’échéance d’une temporisation (TTT : Target Transmission Time). Les stations sont donc sûre d’émettre après n.TTT secondes où n est le nombre de stations.
Le 100VG Any LAN est actuellement un des protocoles les plus performants sur les réseaux locaux. Le Fast Ethernet a cependant les faveurs du marché en raison de la possibilité de conserver une partie du parc à 10 Mbps.
Le tableau suivant rappelle les caractéristiques du Fast Ethernet et du 100VG Any LAN :
10 base T | 100 base T | 100VG Any LAN | |
Topologie | Etoile physique | Etoile physique | Etoile physique |
Diamètre du réseau | 900 m (3 niveaux) | 205 m (2 niveaux) | 2 km (5 niveaux) |
Distance Hub-Station | 100 à 150 mètres | 100 mètres | 100 à 150 mètres |
Câble multipaires | Oui | Non | Oui |
Débit théorique | 80% | 80% | 80% |
Débit pratique | 40 à 50% | 40 à 50% | 80% |
Format des trames | IEEE 802.3 | IEEE 802.3 | IEEE 802.3 et 802.5 |
Mode d’accès | CSMA/CD | CSMA/CD | DPAM |
Trafic isochrone | Non | Non | Envisageable |
Les réseaux virtuels (VLAN : Virtual Local Area Network) permettent de réaliser des réseaux axés sur l’organisation de l’entreprise en s’affranchissant de certaines contraintes techniques comme la localisation géographique. On peut ainsi définir des domaines de diffusion (domaines de broadcast) indépendamment de l’endroit où se situe les systèmes.
Les VLAN ne traduisent aucun protocole de haut débit mais sont souvent utilisés dans des réseaux locaux hauts débits. C’est à ce titre qu’ils sont rapidement évoqués dans ce cours.
Les normes 802.1Q et 802.1p décrivent respectivement les VLAN et la qualité de service associée. Quatre octets sont insérés dans la trame MAC des réseaux 802.3 juste après l’adresse source :
- le champ VPID (VLAN Protocol ID), équivalent du champ EtherType sur 2 octets
- le champ User Priority sur 3 bits (8 niveaux de priorité)
- un bit T qui indique si la trame transporte des données Token Ring - un champ VID (VLAN ID) sur 12 bits qui identifie le VLAN destination.
Les VLAN introduisent la notion de segmentation virtuelle, qui permet de constituer des sousréseaux logiques en fonction de critères prédéfinis comme les adresses MAC ou les numéros de ports de façon statique ou dynamique. Les échanges à l’intérieur d’un domaine sont automatiquement sécurisés, et les communications inter-domaines peuvent être contrôlées.
Il existe plusieurs niveaux de VLAN :
- Les VLAN de niveau 1 ou VLAN par port (Port-Based VLAN) qui regroupent les stations connectés à un même port du commutateur.
- Les VLAN de niveau 2 ou VLAN MAC (MAC Address-Based VLAN) qui associent des stations par leur adresse MAC selon des tables d’adresses introduites par l’administrateur.
- Les VLAN de niveau 3 ou VLAN d’adresses réseaux (Network Address-Based VLAN) qui associe des sous-réseaux IP par masque ou par adresse. Les utilisateurs sont affectés dynamiquement à un ou plusieurs VLAN.
On peut également créer des VLAN selon un protocole (IP, IPX,…), la communication ne pouvant s’établir qu’entre deux stations utilisant le même protocole, par application (n° de port TCP, par exemple), ou par mot de passe suivant le login de l’utilisateur.
Les communications intra-VLAN se déroulent comme si les machines se situaient sur le même segment IP, les commutateurs récupérant les trames de broadcast ARP pour les rediriger vers les machines du même VLAN. Après établissement d’un circuit virtuel, les échanges sont très efficaces puisque la commutation s’effectue au niveau MAC.
Pour les communications inter-VLAN, le protocole NHRP (Next Hop Resolution Protocol) a été défini. Il s’agit d’un mécanisme de résolution d’adresses entre systèmes n’appartenant pas au même VLAN.
Pour se faire, la station source ou le commutateur de rattachement émet une requête NHRP vers le routeur ou serveur NHS (Next Hop Server) qui transmet la requête à la station destination après avoir effectué les contrôles d’usage. Les stations peuvent ensuite échanger directement les informations sans passer par un tiers.
L’ATM faisant l’objet d’un autre cours, il ne sera développé ici que succinctement.
En traitant des données de longueur réduite et fixe (cellules), on peut assurer leur commutation au niveau physique (multiplexage). La commutation peut donc être assurée par des systèmes hardware et non plus logiciels, ce qui autorise des débits bien plus importants.
La cellule ATM suit cette logique en présentant une cellule de 53 octets, dont 5 octets d’en-tête et 48 octets de charge utile. L’architecture ATM est représentée dans la figure suivante :
La couche physique assure l’adaptation des cellules au système de transport utilisé. Trois modes de fonctionnement ont été définis au niveau physique : le modePDH (Plesiochronous Digital Hierarchy) ou mode tramé temporel qui utilise les infrastructure existantes, le modeSDH (Synchronous Digital Hierarchy) ou mode tramé synchrone (mode conteneur) qui devrait être le seul utilisé à terme, et le modecellule pour les réseaux privés où les cellules sont transmises directement sur le support de transmission.
La couche ATM s’occupe de la commutation et du multiplexage des cellules et la couche AAL (ATM Adaptation Layer) adapte les unités de données des couches supérieures à la couche ATM par segmentation et réassemblage. Elles seront vues plus en détails dans les paragraphes suivants.
Pour l’administration des réseaux ATM, le protocole ILMI (Interim Local Management Interface), qui s’appuie fortement sur SNMP, a été défini par l’ATM Forum (RFC 1695). L’agent SNMP renvoie les informations de la MIB ILMI directement sur la couche AAL5. Les commandes utilisées sont les commandes classiques de SNMP sur un VCC (Virtual Circuit Connection) réservé (VPI=0, VCI=16).
Une MIB ATM, extension de la MIB ILMI, autorise l’accès aux informations des commutateurs ATM.
La couche ATM est chargée de :
- de l’acheminement des cellules dans le réseau
- de l’ajout et du retrait des en-têtes ATM
- du contrôle de flux et de congestion
- de l’adaptation du débit (insertion ou suppression de cellules vides)
- du contrôle d’admission en fonction de la qualité de service requise- du lissage de trafic (Traffic Shopping).
L’en-tête de 5 octets que la couche ATM rajoute aux 48 octets de charge utile est la suivante :
0 3 4 7 0 3 4 7
GFC | VPI | VPI | ||||
VPI | VCI | VPI | VCI | |||
VCI | VCI | |||||
VCI | PT | CLP | VCI | PT | CLP | |
HEC | HEC | |||||
Cette en-tête est différente sur la liaison station-commutateur (UNI) et sur la liaison entre deux commutateurs (NNI). Le champ GFC étant inutile dans le réseau de commutateurs ATM, il est récupéré pour obtenir une plage d’adressage plus importante.
Le champ GFC (Generic Flow Control) contrôle l’accès au réseau. Il permet d’assurer des fonctions locales comme l’identification de plusieurs stations ayant un accès commun au réseau. Ce champ est généralement non utilisé.
Le champ VPI (Virtual Path Identifier) identifie une connexion permanente ou semi-permanente et le champ VCI (Virtual Channel Identifier) identifie une voie virtuelle semi-permanente ou établie lors de l’appel. Ces deux notions renvoie un adressage du chemin à suivre plutôt que de la station destination. L’ATM fonctionnant en mode connecté, les données ne sont acheminées qu’après l’établissement d’une voie virtuelle (VCC, Virtual Channel Connection) unicast (bidirectionnelle) ou multicast (unidirectionnelle).
Le champ PT (Payload Type) est sur 3 bits. Le premier bit définit si la cellule est d’origine utilisateur (0) ou de données internes au réseau (1). Dans le cas de données utilisateurs, le deuxième bit (EFCI :
Explicit Forward Congestion Indication) signale si au moins un nœud est congestionné dans le réseau (EFCI = 1), et le dernier bit indique la dernière cellule d’une trame AAL5.
Le bit CLP (Cell Loss Priority) indique lorsqu’il est à 1 une cellule à éliminer en priorité en cas de congestion.
Le champ HEC (Header Error Control), rajouté par la couche physique, permet un contrôle d’erreur et une autocorrection sur 1 bit.
Les mécanismes mis en œuvre pour prévenir et guérir la congestion sont identiques à ceux du relais de trames. Les cellules dont le CLP est à 1 sont détruites en priorité et les commutateurs peuvent positionner à 1 le bit CLP des cellules excédentaires au débit demandé lors de la connexion ou même les détruire directement. De plus, une connexion n’est acceptée que si le réseau peut la satisfaire en terme de qualité de service sans nuire aux autres connexions déjà actives.
De plus, le destinataire d’un message est prévenu de la congestion sur le réseau par le bit EFCI du champ PT. Le destinataire ou n’importe quel commutateur peut alors envoyer une cellule RM
(Resource Management) à la station source du message pour lui demander de réduire son débit (cellule RR, Relative Rate) ou pour l’informer du débit disponible (cellule ECR, Explicit Cell Rate). Le format des cellules RM ne seront pas détaillés ici.
En terme de contrôle d’admission, l’ATM Forum a défini plusieurs classes de service :
Services | Noms | Caractéristiques | Applications types |
CBR | Constant Bit Rate | Débit constant Flux isochrone | Voix et vidéo non compréssées |
VBR – rt | Variable Bit Rate real time | Débit variable Flux isochrone | Applications audio et vidéo compressées |
VBR – nrt | Variable Bit Rate non real time | Débit variable mais prévisible | Trnasactions |
ABR | Available Bit Rate | Débit sporadique Sans contrainte temporelle | Interconnexion de réseaux locaux |
UBR | Unspecified Bit Rate | Trafic non spécifié Best effort | Messagerie Remote Backup |
De ces classes de service ont été définis des contrats de service (CTD, Connection Traffic Descriptor)
Paramètres | Classes de service | |||||
CBR | VBR - rt | VBR – nrt | ABR | UBR | ||
CTD : Cell Transfert Delay | • | • | • | |||
CDV : Cell Delay Variation | • | • | ||||
CLR : Cell Loss Ratio | • | • | • | • | ||
PCR : Peak Cell Rate | • | • | • | • | ||
SCR : Sustainable Cell Rate | • | • | ||||
MBS : Maximum Burst Size | • | • | ||||
MCR : Minimum Cell Rate | • |
Pour affiner la qualité de service offerte aux applications, la couche AAL (ATM Adaptation Layer) a été rajoutée pour répondre aux 4 différentes classes d’applications :
Relation temporelle Elevée Faible
Débit Constant Variable
Mode Connecté Au choix Non connecté
Applications types Voix interactive Voix ou vidéo Données Interconnexion
Vidéo compressée de réseaux locaux
La couche AAL est subdivisée en deux sous-couches CS (Convergence Sublayer) et SAR (Segmentation And Reassembly) comme le montre la figure suivante :
|
La couche AAL1 : C’est celle qui permet le transfert isochrone par émulation de circuits. Le format de l’en-tête SAR est le suivant :
En-tête AAL1 1 octet | Charge utile 47 octets |
Guillaume Desgeorge – Réseaux hauts débits
Les cellules sont comptées modulo 8 (SNC) pour prévenir la perte ou l’insertion de cellules. Ce numéro est protégé par les champs CRC et Pty (bit de parité du CRC).
Le bit CSI autorise le transport dans les données d’une marque de temps (RTS, Real Time Stamp) sur 4 bits, soit 1 bit dans une cellule sur deux par 8 cellules. Cette marque de temps sera utilisée pour mesurer la gigue de cellule.
La couche AAL2 : Elle diffère de l’AAL1 par la possibilité de débit variable et donc de cellules incomplètes où rentre la notion de bourrage.
SN Sequence Number 4 bit | IT Information Type 4 bits | Charge utile 45 octets | LI Length Indicator 6 bits | CRC 10 bits |
Le champ SN est identique à celui de l’AAL1 (Champs CSI et SNC). Le champ IT permet de distinguer le début ou la fin d’un message (BOM, EOM), une cellule unique, etc Le champ LI indique la longueur des données utiles et enfin le champ CRC protège les données.
La couche AAL3/4 : Elle est utilisée pour le transport des données sans contrainte temporelle. Pour assurer la reprise sur erreur (mode assuré), la sous-couche CS a été subdivisée en 2 sous-couches, CPCS (Common Part Convergence Sublayer), commune aux modes assuré et non assuré et SSCS (Service Specific Convergence Sublayer), spécifique au mode assuré.
|
Les champs seront rapidement énumérés : CPI (Common Part Indicator) est une indication pour interpréter les champs suivants, Btag et Etag (Begin ou End Tag) est un numéro identifiant les unités appartenant à la même unité de données, BaSize (Buffer Allocation Size) indique comment dimensionner les buffers, AL (Alignment) est un drapeau de fin pour compléter la fin de la SDU à 32 bits, Len (Length) donne la taille des données utile de la SDU, ST (Segment Type) informe sur les segment de début ou de fin, MID (Multiplexing Identification) identifie les cellules d’origine différente sur une même connexion multiplexée, LID (Length Indicator) donne le nombre d’octets utiles dans l’unité de données et le CRC protège le champ de données.
La couche AAL5 : C’est une simplification de la couche AAL3/4, elle en adopte donc l’architecture.
|
|
Le champ UU (CPCS User-to-User) indique le début, la suite et la fin du bloc de données.
Le choix effectué lors du câblage a une grande importance par la suite : les coûts mis en jeu étant très importants, une erreur dans le choix peut être payée très cher. Ce choix sera fait en fonction de deux choses, le réseau qui sera implémenté et son évolution futur. I – Le cuivre et la fibre optique
Deux types de support cuivre coexistent, la paire torsadée et le câble coaxial. Le câble coaxial a une meilleure bande passante et une sensibilité aux perturbations plus faible mais il reste environ 8 fois plus cher que la paire torsadée et est donc souvent délaissée au profit de cette dernière. Le câble coaxial est également plus lourd et moins maniable.
La paire torsadée est composée de deux fils en spirale entouré chacun d’une gaine isolante en plastique. L’ensemble est peut-être blindé (STP, Shielded Twisted Pair) ou non-blindé (UTP, Unshielded Twisted Pair), mais le blindage a là aussi de lourdes conséquences sur le prix. Dans le cadre des hauts débits, le standard tant à devenir l’UTP de catégorie 5 avec 2 ou 4 paires.
Voici les cinq catégories de paires torsadées :
- Catégorie 1 : Elle n’a aucune contrainte et sert pour les communications bas débit.
- Catégorie 2 : Fréquence de 2 Mhz, de 2 à 25 paires. Dédié au transport de voix et bas débit.
- Catégorie 3 : Référence pour les réseaux locaux Ethernet et Token Ring, fréquence de 16 Mhz.
- Catégorie 4 : Complément de la catégorie 3 pour une plus grande sécurité.
- Catégorie 5 : Le standard le plus élevé avec une fréquence de transmission de 100 MHz.
Les inconvénients majeurs du cuivre sont un forte atténuation et une vitesse de transmission relativement faible, ce qui limite la distance maximum entre deux stations ou entre deux appareils d’interconnexion.
La fibre optique est un support privilégié pour les transmissions à haut débit, mais son coût est bien plus élevé que le support cuivre. La fibre optique se développe pourtant très bien et si les limites du cuivre sont dessinées, celles de la fibre optique sont encore loin.
Face à l’inconvénient du prix, on lui reconnaît de nombreux avantages : une bande passante de l’ordre de 1 GHz pour 1 km, un volume très faible pour un encombrement minimum, une grande légèreté, une très faible atténuation (1 dB/km) et donc une très bonne qualité de transmission, une indépendance presque totale face à la température et aux perturbations. Elle-même ne rayonne d’ailleurs pas.
Un autre avantage de la fibre optique est l’aspect sécurité : il est très difficile de brancher une écoute sur câble optique et une telle opération se traduit par une chute significative du signal dont la cause est facilement localisable.
Il existe deux types de fibre optique, la fibre monomode et la fibre multimode. La fibre monomode possède un cœur de très petit diamètre, de l’ordre de la longueur d’onde du signal transmis. La lumière transite donc le long de l’axe du câble et donc de plus longues distances possible (peu d’atténuation). La fibre multimode voit les rayons lumineux suivre des trajets différents suivant l’angle de réfraction. Les rayons peuvent donc arriver au bout de la ligne à des instants différents, d’où une certaine dispersion du signal.
Il est à noter que la fibre monomode est plus cher que la fibre multimode.
La technologie WDM est né au début des années 90 de l’idée d’injecter simultanément dans la même fibre optique plusieurs trains de signaux numériques à la même vitesse de modulation, mais chacun a une longueur d’onde distincte.
La norme IUT G692 a défini un peigne de longueurs d’onde autorisées dans la fenêtre de transmission 1530-1565 nm. Elle normalise l’espacement en nanomètre ou en GigaHertz entre deux longueurs d’onde permises de la fenêtre : 200 GHz ou 1,6 nm ou 100 GHz ou 0,8 nm.
La technologie WDM est dite dense (DWDM) lorsque l’espacement utilisé est égal ou inférieur à 100 GHz. Des systèmes à 50 GHz ou à 25 GHz ont déjà été testés.
Les systèmes commercialisés aujourd’hui comportent 4, 8, 16, 32 ou 80 canaux optiques, ce qui permet d’obtenir des débits de 200 Gbps en prenant un débit par canal de 2,5 Gbps. Pour fixer les idées, un système à 16 canaux de 2,5 Gbps permet de transmettre 500 000 conversations téléphoniques sur une seule fibre…
La SDH est actuellement très utilisée, elle constitue même le standard d’ATM au niveau physique. Pour comprendre les fondements de la hiérarchie synchrone (SDH, Synchronous Digital Hierarchy pour l’Europe et SONET, Synchronous Optical Network pour les Etats-Unis), il est préférables de voir ce qui se faisait dans les débuts du multiplexage temporel, c’est-à-dire, la hiérarchie plésiochrone.
Le Japon, l’Amérique du Nord et l’Europe ont défini des standards différents en terme de multiplexage temporel. Les français multiplexent 30 lignes à 64 Kbps alors que les deux autres n’en multiplexent que 24. Ces différences vont générer des standard différents dans chacun des trois pays à chaque niveau de multiplexage.
En effet, les lignes déjà multiplexées sont à nouveau multiplexées. De l’information est rajoutée à chaque niveau pour gérer ce multiplexage, c’est pour cela que le débit n’est pas exactement le multiple de ce qui rentre mais légèrement plus. C’est cela qui l’a qualifié de plésiochrone (en grec, plésio = presque, plésiochrone = presque synchrone).
Le principal défaut de cette technique de multiplexage est qu’elle ne permet pas d’avoir accès aux informations d’une voix directement sans démultiplexer l’ensemble des voies. Ce défaut était largement acceptable en téléphonie mais n’est pas admissible dans le cadre d’un réseau de services.
La SDH étant l’objet d’une autre présentation, seul le principe sera abordé.
Contrairement à la PDH, la SHD repose, elle, sur une trame numérique qui apporte, en plus d’un débit plus important, une facilité de brassage et d’insertion ou d’extraction, d’où une plus grande souplesse dans l’exploitation et la gestion des réseaux de transmission.
Ce concept est possible grâce à une structure en conteneur. En effet, chaque signal est encapsulé dans un conteneur qui, avec son surdébit (POH, Path Overhead) permettant le repérage des informations, forme un conteneur virtuel (VC). Ce sont ces conteneurs qui sont gérés dans le réseau de transmission SDH, indépendamment des signaux qu’ils transportent.
Dans la hiérarchie synchrone, un ensemble de conteneurs est défini, chacun correspondant à un débit PDH, sauf 8 Mbps. Ceci permet une migration de PDH vers SDH de façon très simple.
Conteneur | Débit PDH associé |
C-11 | 1544 Kbps |
C-12 | 2048 Kbps |
C-2 | 6312 Kbps |
C-3 | 34368 et 44736 Kbps |
C-4 | 139264 Kbps |
Le débit de base, compromis entre les intérêts américains, européens et japonais, est de 51.84 Mbps. Ce débit forme le premier niveau : STS-1 (Synchronous Transport Signal, level 1). Les niveaux supérieurs, STS-n, sont les multiples n-ièmes du niveau de base.
Une autre grandeur de débit, les niveaux STM-N, a été définie. Il s’agit de multiples du débit STM-1
(Synchronous Transfer Mode, level 1) de 155,520 Mbps, soit STS-3. Ainsi, les STM 1, 4, 16, 64, 128 et 256 ont été définis. Le STM-4 (622,080 Mbps) est le débit typique prévu pour ATM.
La trame de base (STM-1) d’un signal SDH est représenté sous la forme de 9 rangées de 270 octets (dont 9 octets de supervision), soit 261 octets d’information utile par rangée. Ces trames seront ensuite multiplexées en étant rangées dans des conteneurs plus grand, et ainsi de suite. En fonction des débits PDH de base, on rangera un certain nombre de trames dans les conteneurs STM-N.
Il existe donc différents types de conteneurs virtuels (qui peuvent eux-mêmes contenir d’autres conteneurs virtuels, VC-3 et VC-4). Ces VC sont rangés dans des STM-N ayant également un surdébit (SOH, Section Overhead) où l’on trouve notamment des pointeurs vers les différents VC.
De cette façon, chaque trame peut-être repérée et lu sans avoir besoin de démultiplexer l’ensemble du STM.
SDH et SONET se correspondent puisqu’elles ont été basées sur le même débit de base, soit 51,84 Mbps. Le niveau 1 de SDH (STM-1) correspond au niveau 3 de SONET (OC-3, Optical Carrier, level 3), la hiérarchie SDH étant la même norme que celle de SONET pour l’ATM.
OC-1 | 51.84 Mbps |
OC-3 | 155.52 Mbps |
OC-9 | 466.56 Mbps |
OC-12 | 622.08 Mbps |
OC-18 | 933.12 Mbps |
OC-24 | 1244.16 Mbps |
OC-36 | 1866.24 Mbps |
OC-48 | 2488.32 Mbps |
OC-96 | 4976.64 Mbps |
OC-192 | 9953.28 Mbps |
octet | octet | octet | 87 octets | |
90 octets
La trame de base OC-1 est composée de 9 rangées de 90 octets avec 3 octets de contrôle. Ces conteneurs virtuels seront à leur tour rangés dans des conteneurs de débit plus important, et ainsi de suite.
Le déploiement massif de la fibre optique jusque chez l’abonné, envisagé au début des années 90 s’est révélé un investissement trop onéreux à la rentabilité hypothétique. Il s’agit de trouver une autre solution à moindre coût.
Le but de la technologie DSL est de doper les paires téléphoniques de cuivre existantes en mixant le trafic de données, de voix et de vidéo en point à point sur le réseau téléphonique traditionnel. La barrière théorique des 300 – 3400 Hz de bande passante utilisée sur les lignes téléphoniques peut être repousser sous certaines conditions.
Afin d’augmenter le débit sans que la dissipation d’énergie et la diaphonie ne posent problème, il faut par exemple que la liaison entre l’abonné et la centrale la plus proche soit la plus courte possible, les signaux hautes fréquences étant atténués plus rapidement que les signaux basses fréquences et l’utilisation de répéteurs étant irréalisable. La clé se trouve dans la mise en œuvre de techniques de traitement du signal et notamment dans la modulation d’amplitude et de phase ou de fréquence.
Il existe plusieurs types de DSL :
- ADSL, Asymetric DSL : Elle est basée sur un débit asymétrique, le flux descendant (du réseau vers l’utilisateur) étant plus important que le flux montant. ADSL préserve le canal de voix et convient bien aux applications interactives du type « accès à Internet » ou « vidéo à la demande ».
- HDSL, High data rate DSL : Elle permet un canal T1 ou E1 sur une boucle locale sans répéteur. HDSL peut être utilisé par les opérateurs pour l’interconnexion de PABX, par exemple.
- SDSL, Single line DSL : C’est une version monoligne de HDSL (qui utilise les deux paires téléphoniques).
- VDSL, Very high data rate DSL : Elle est en cours de développement et devrait permettre des débits de l’ordre de 50 Mbps pour le flux descendant.
- RADSL, Rate Adoptive DSL : C’est une technique asymétrique qui a la particularité d’adapter le débit en fonction des capacités de la ligne.
Chacune de ces techniques utilise des modes de séparation des canaux différents (AdE, Annulateur d’écho et FDM, modulation de fréquence) et des codages différents (DMT, Discrete Multitone qui divise le signal en 256 sous-canaux, CAP, Carrierless Amplitude Modulation qui module en phase et en amplitude et le codage 2B1Q, 2 Binary 1 Quaternary qui est le codage à 4 états utilisé par RNIS).
Par exemple, l’ADSL (qui est de loin le plus utilisé) utilise les différentes fréquences de la façon suivante :
Les caractéristiques des différentes techniques DSL sont décrites dans le tableau suivant :
ADSL | HDSL | SDSL | VDSL | RADSL | |
Mode de transmission | Asymétrique | Symétrique | Symétrique | Asymétrique | Asymétrique |
Débit descendant (Mbps) | 1.544 à 9 | 1.544 à 2.048 | 0.768 | 13 à 51 | 0.6 à 7 |
Débit ascendant (Mbps) | 0.016 à 0.640 | 1.544 à 2.048 | 0.768 | 1.544 à 2.3 | 0.128 à 1.024 |
Codage | DMT, CAP | CAP, 2B1Q | CAP, 2B1Q | CAP, DMT | CAP |
Distance / Débit (km / Mbps) | 5.5 / 1.5 | 5.5 / 2.048 | 3.6 / 2.048 | 1.5 / 1.3 | 5.5 / 1.5 |
Séparation des canaux | FDM, AdE | AdE | AdE | FDM | FDM |
Les réseaux sans-fil se développent très rapidement et devraient représenter un marché énorme au début des années 2000. Il s’agit d’utiliser la voie hertzienne pour constituer ces réseaux sans-fil dans les entreprises et de nombreuses institutions.
On distingue deux types de réseaux sans-fil, le premier étant les réseaux locaux sans-fil (WLAN, Wireless LAN) et le deuxième étant les réseaux mobiles. Nous n’aborderons ici que le WLAN, qui ont pour avantages de ne pas poser de problème de roaming (changement de zone par un utilisateur), la taille limitée de l’entreprise permettant à une seule cellule d’être suffisante.
Plusieurs produits sont déjà commercialisés mais ils sont incompatibles entre eux par un manque de normalisation finalisée. Plusieurs solutions sont envisagées, la première étant d’avoir une seule borne qui effectue le relais entre les différentes stations par voie hertzienne, la deuxième étant d’avoir des microcellules (typiquement, chaque pièce) qui utilisent l’infrarouge. Les bornes sont dans ce cas interconnectés soit par voie hertzienne, soit par un réseau filaire classique. Deux grandes orientations se détachent dans le domaine : HiperLAN et IEEE 802.11.
Le nom est l’abréviation de High performance radio LAN. Les fréquences retenues se situent entre 5.15 et 5.30 GHz ainsi qu’une bande de 200 MHz autour de 17 GHz (HiperLAN 2). Les vitesses de transfert devraient être de 10 à 20 Mbps et les communications se font directement de station à station ou par l’intermédiaire d’un nœud central.
Les communications peuvent se faire sur 5 canaux distinctes de priorité différente. L’adaptation du CSMA/CD appelée EY-NPMA (Elimination Yield None Preemptive Priority Multiple Access) consiste à scruter les canaux par ordre de priorité jusqu’à trouver un canal libre pour émettre.
Le niveau 2 du modèle OSI est divisée en deux sous-couches, la sous-couche CAC (Channel Access Control) qui correspond à la partie physique de la technique d’accès (gestion des problèmes liés au canal hertzien ainsi que toute la transmission et réception) et la sous-couche MAC qui correspond à la partie logique, soit la mise en forme de la trame, le routage interne, les algorithmes de confidentialité, la gestion de priorité (QoS) et l’insertion et le retrait des stations.
Les communications peuvent se faire soit de station à station, soit par une borne de concentration. Une station ne peut par contre pas relayer les paquets vers une autre station terminale. Les débits sont de 1 ou 2 Mbps selon qu’on utilise le codage FHSS (Frequency Hopping Spread Spectrum) qui utilise un saut de fréquence ou le codage DSSS (Direct Sequence Sequence Spread Spectrum) qui code de façon continue. L’utilisation de l’infrarouge est également possible.
La technique d’accès est plus compliquée, il s’agit du CSMA/CA (Collision Avoidance). Pour éviter les collisions, plusieurs temporisateurs propres à chaque station sont attribués se qui limite la probabilités d’avoir deux stations émettant dans les mêmes microsecondes.