LES RESEAUX HAUTS DEBITS
« La décennie 90 sera celle de la revanche des télécommunications sur l’informatique. Devenues aussi indispensables que l’informatique au monde moderne, les télécommunications ont pourtant connu des progrès techniques moins rapide : alors que la puissance des ordinateurs doublait régulièrement tous les deux ans, il fallait plus de vingt ans au réseau public commuté pour passer de quelques Kilobits à une centaine de Kilobits par seconde. Mais d’ici à la fin du siècle, la situation va s’inverser : tandis que les progrès de l’informatique sont ralentis par la crise, ceux des télécommunications subissent une extraordinaire accélération, dont l’effet sera une multiplication des performances des réseaux par un facteur de centaines, voire milliers, en quelques années. Cette progression spectaculaire s’appuie sur des avancées technologiques décisives dans deux domaines : celui des supports physiques des télécommunications, d’une part (fibre optique, canaux hertziens ou infrarouges, composants hyperfréquences, hybrides ou optoélectronique), et celui des supports logiques d’autre part, l’architecture et les protocoles nécessaires pour maîtriser de tels débits et y intégrer des flux de caractéristiques aussi différentes que la voix, les données ou la vidéo. »
Jean-Jacques DUBY, 1992, Préface de « Réseaux ATM » aux éditions Eyrolles
Guillaume Desgeorge Novembre 1999
INTRODUCTION AUX RÉSEAUX À HAUTS DÉBITS .3
LE RELAIS DE TRAMES 8
I – PRINCIPES GÉNÉRAUX DU FRAME RELAY 8 Architecture générale 8
Mécanismes du Frame Relay ..9
LES RÉSEAUX D’INTERCONNEXION .13
I – FDDI : FIBER DISTIBUTED DATA INTERFACE ..13 Généralités .13
Protocoles et architecture ..14
FDDI–II .16
II – DQDB : DISTRIBUTED QUEUE DUAL BUS .18 Architecture et fonctionnement 18
Architecture des protocoles 19
LES RÉSEAUX LOCAUX .22
I - ETHERNET ET LE HAUT DÉBIT 22 Fast Ethernet 22
Gigabit Ethernet .23
Exemples d’architecture ..24
II – LE 100VG ANY LAN 25 Principe de l’accès par scrutation (polling) .25
Architecture et performances 25
III - LES RÉSEAUX LOCAUX VIRTUELS .26
L’ATM (ASYNCHRONOUS TRANSFER MODE) .28
LES SUPPORTS PHYSIQUES ..32
I – LE CUIVRE ET LA FIBRE OPTIQUE 32 Le cuivre ..32
La fibre optique ..32
Wavelength Division Multiplexing (WDM) 33
IV – LES RÉSEAUX SANS-FIL ..36 HiperLAN .36 IEEE 802.11 ..37
Pourquoi les réseaux hauts débits ?
Pour répondre à de nouveaux besoins, et ayant les possibilités technologiques de les satisfaire. Les architectures de type client – serveur et les applications multimédia (données, sons, images animées (applications futures) ) sont gourmandes en bande passante.
Est naturellement apparu un besoin de réseaux multiservices hauts débits.
A partir de quel débit parle-t-on de haut débit ?
Le terme « haut débit » ne précise pas de fourchette précise. Si le haut débit, il y a 15 ans, pouvait s’appliquer à des débits de l’ordre du Mégabit par seconde, il peut aujourd’hui s’appliquer à des débits de l’ordre du Gigabit par seconde…
Le cours qui est présenté ici présentera donc diverses techniques au débit supérieur à 1 Mbps… La liste n’est pas exhaustive et ce ne sont pas toutes les techniques supérieures au Mégabit par seconde qui seront traitées…
- Données informatiques : trafic asynchrone et sporadique (ou par rafale).
- Voix interactive : temps réel (temps de transfert <150 ms pour être indécelable)
La voix interactive nécessite un intervalle strict entre chaque échantillon (transfert isochrone). La commutation de circuits oblige à garder le même circuit pendant tout l’échange ce qui sous-utilise la bande passante alors que la commutation de paquets permet de récupérer les blancs dans la conversation (60% du temps). Dans ce cas, les paquets sont récupérés dans un buffer qui délivrera régulièrement les paquets au destinataire (émulation de circuit) ce qui introduit un délai supplémentaire.
La mise en paquet fournit également un délai supplémentaire : la source codée donne 1 octet par 125 µs, soit 8ms pour 32 octets. Il faut que le réseau supporte les paquets voix de petite taille. Sans oublier les délais de compression et de décompression. Par contre, un paquet perdu n’a aucune incidence sur la conversation et n’est pas détectable par l’oreille. Ces paquets sont soit ignorés, soit reconstitués (en recopiant le précédent).
- Vidéo : même problème que la voix (transfert isochrone) pour l’aspect temps réel. Par contre, il n’y a pas d’interactivité mais beaucoup plus d’information à fournir.
Pour envoyer une chaîne de télévision sur le réseau (720x576), il faut un débit minimal de 166Mbits par seconde (6 635 520 bits par image x 25 images) sans compression.
En MPEG (image réduite à 352x288), des débits de 1,5 à 2 Mbps sont nécessaires. En MPEG2, 10Mbps sont nécessaires.
On a donc rangé les données dans des classes d’applications en fonction de leurs besoins :
Classe A | Classe B | Classe C | Classe D | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Temps | Isochrone | Asynchrone | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Débit | Constant | Variable | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Mode | Connecté | Non connecté | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Applications types | Voix interactive Vidéo | Voix ou vidéo compressée | Données | Données Le RNIS est un réseau aux infrastructures flexibles dédié à l’intégration de voix, de données, de vidéo, d’images et d’autres applications. Il a été pensé pour remplacer les lignes téléphoniques analogiques actuelles. RNIS bande étroite (Narrowband ISDN) permet l’intégration de services pour des débits de 56 Kbps à 2 Mbps alors que RNIS large bande (Broadhand ISDN) est basé sur des cellules évoluées de la technologie ATM pour des débits de 2 à 600 Mbps. Le RNIS est une évolution du réseau téléphonique actuel. Il propose la continuité numérique de bout en bout. Ce n’est pas un réseau supplémentaire entrant en concurrence avec les réseaux existants comme le téléphonique traditionnel, les réseaux X25 ou les liaisons spécialisées. C’est plutôt un accès universel à ces réseaux ou plus exactement à ces services supports. En jouant sur son sigle, le RNIS apparaissait à l’époque comme un moyen de communication rapide, normalisé, intelligent et souple : - Rapide, car l’accès de base à 144 Kbps comporte 2 voies à 64 Kbps et une voie à 16 Kbps (2B+D). Les canaux B permettent, par exemple, de téléphoner tout en envoyant une télécopie rapide. Le canal D, pour sa part, convoie les signaux servant à l’établissement de la communication et toutes les informations de service ; il peut aussi transporter des informations à bas débit. Il existe des accès primaires qui comportent 30 canaux B et un canal D. - Normalisé, car tous les éléments d’accès au RNIS sont spécifiés par des normes internationales : même canal de base, même canal D, même câblage et même prise (RJ 45) servent pour tous. - Intelligent, car les centraux sont capables de gérer une signalisation bien plus riche que celle du téléphone classique. III – Techniques des réseaux hauts débitsRappel sur les modes de connexion : Mode connecté : blocs acheminés sur le même chemin physique Mode non-connecté : blocs acheminés indépendamment les uns des autres Mode orienté connexion : blocs acheminés sur le même chemin virtuel Les protocoles hauts débits utilisent le mode orienté connexion qui préserve le séquencement des informations et allège le travail des terminaux. Quality of ServicePour assurer le support de ces applications, on a défini une certaine qualité de service (QoS) basée sur deux critères : - La transparence temporelle (délai de transfert et variation du délai (gigue) - La transparence sémantique (respect de la signification des informations) Rappels sur les techniques de commutationCommutation de circuits Réseau à commutation de circuits Commutation de paquets Réseau à commutation de paquets Rappels sur les techniques de multiplexageMultiplexage spatial ou fréquentiel (FDM : Frequency Division Multiplexing) Multiplexage temporel (TDM : Time Division Multiplexing) Multiplexage de position ou d’étiquette Contrôle d’intégritéPour éviter d’acheminer des données erronées, le réseau effectue souvent un contrôle de validité et élimine les blocs où une erreur est détectée. La reprise d’information (inutile pour le temps réel) est laissée aux couches supérieures des organes d’extrémité. Deux approches sont possibles pour le contrôle d’erreur : - Un contrôle sur l’ensemble du bloc de données, méthode qui se justifie uniquement sur les réseauxà fort taux d’erreur. - Un contrôle sur l’en-tête du bloc, méthode qui s’applique parfaitement à la transmission de donnéesde faible taille. Contrôle de flux et de congestionLa congestion est statistiquement inévitable sur un réseau. Elle résulte de l’augmentation des délais d’acheminement. Si la taille des files d’attente augmente dans les commutateurs, les blocs ne sont pas acheminés dans les délais et sont donc retransmis, ce qui augmente encore le trafic. Pour prévenir la congestion, il faut mettre en place un contrôle d’admission (ne pas admettre dans le réseau plus de trafic que celui-ci ne peut supporter) et un contrôle de flux (asservir le débit de la source aux capacités de traitement du nœud). Contrôle d’admission : En X25, on réserve les ressources nécessaires lors de la mise en place du circuit, mais ceci est incompatible avec un trafic en rafale. Pour garantir la QoS, une connexion ne doit être acceptée que si le réseau est apte à la satisfaire. Les demandes de connexion seront donc accompagnées par des informations comme le débit moyen et le débit de pointe nécessaire. Contrôle de flux : En mode connecté, le contrôle de flux se fait par fenêtre glissante. La fenêtre est le nombre de blocs que la source peut émettre sans avoir reçu d’acquittement. Plus la fenêtre est importante, plus l’émission peut-être continue mais le contrôle de la source est faible. Etant donné la rapidité du passage des informations sur un réseau haut débit, il ne peut y avoir de contrôle de flux par fenêtre glissante. Celui-ci est assuré par les couches supérieures. Pour éviter les congestions non prévenues, il existe des contrats de trafic établis à chaque connexion qui permet, en cas de congestion importante, au commutateur d’accès de supprimer des blocs entrants ou de les mettre en attente. Le Frame Relay couvre les couches 1 et 2 du modèle OSI mais n’est pas conforme à ce dernier. Les normes relatives au Frame Relay sont les suivantes :
La couche physique utilise du bit stuffing (transparence binaire) : insertion d’un zéro tous les cinq 1 à l’émission et suppression du 0 suivant cinq 1 à la réception. Cette technique est pénalisante car elle introduit une irrégularité dans le débit utile. Elle est utilisée afin de s'assurer que la suite de bits 01111110 (0x7E, fanion des trames du Frame Relay) ne puisse apparaître « par hasard ». L’interface physique n’est pas précisée par la norme, elle dépendra du constructeur ou de l’opérateur. La couche liaison de données est subdivisée en 2 sous-couches, le noyau (Core) et une sous-couche complémentaire et facultative non normalisée dont les fonctionnalités sont laissées à la discrétion des utilisateurs (EOP : Element Of Procedure). Une utilisation typique est l’utilisation de la procédure HDLC LAP-B comme sous-couche EOP. Cette sous-couche est utilisée uniquement par les équipements terminaux. Format de la trame CSDU (Core-SDU)La trame utilisée par le Frame Relay au niveau 2 (Noyau) est de type HDLC (High Level Data Link Control) dérivée de LAP-D et délimitée par deux fanions 0x7E. Son format est le suivant : Le champ adresse (DLCI : Data Link Connection Identifier) est divisé en 2 blocs dans la version de base, un bloc de 6 bits et un autre de 4 bits. Le champ EA (End Address) indique si le champ adresse à une suite (EA = 0) ou s’il est le dernier (EA = 1). Le champ C/R (Command/Response) indique s’il s’agit d’une trame de commande ou de réponse. Les bits FECN (Forward Explicit Congestion Notification) et BECN (Backward Explicit Congestion Notification) permettent d’éviter les congestions. Ils sont utilisés lorsque le seuil de congestion est pratiquement atteint dans un sens ou dans l’autre de l’échange de trame. L’utilisateur qui reçoit ces avertissements se doit de réduire ses échanges en diminuant son débit ou la taille de ses fenêtres glissantes. Le bit DE (Discard Eligibility) permet aux organes du réseaux de marquer les trames à éliminer en priorité lors d’une congestion. Mécanismes du Frame RelayAdressageDe même que pour un réseau X25, on établit la connexion à travers une liaison virtuelle. La particularité par rapport à X25 est d’être unidirectionnel, la machine distante devant établir son propre circuit virtuel de retour. Un circuit virtuel est identifié par un identificateur de lien virtuel (DLCI) équivalent au NVL (Numéro de voie logique) d’X25. Dans la version de base de 2 octets, le DLCI permet d’adresser 1024 liaisons virtuelles dont seules 992 sont utilisables.
Traitement des erreursChaque commutateur n’assure qu’une vérification d’intégrité de la trame par le contrôle de la délimitation, de la validité du DLCI et le contrôle d’erreur FCS. Les trames non valides sont éliminées. Le traitement des erreurs est reporté aux organes d’extrémité sur les protocoles de niveau supérieur qui devront numéroter les blocs de données pour détecter les pertes et gérer la reprise sur temporisation et sur erreur.
II – La signalisation et l’interconnexion du Frame RelayContrôle de congestionUn accès relais de trame est caractérisé par 3 grandeurs : - le CIR (Committed Information Rate) ou débit garanti. - l’EIR (Excess Information Rate) ou débit maximal autorisé. - le Tc (Committed rate measurement interval) ou intervalle de temps de détermination des volumesadmis (Volume = débit x Tc) Le réseau fait donc appel à l’autodiscipline pour prévenir les congestions en marquant les trames excédantes. Lorsque le débit dépasse le CIR, les trames en excédent sont marquées par les organes de commutation en positionnant le bit DE à 1. S’il y a congestion, elles seront éliminées. Si le débit dépasse l’EIR, les trames sont directement éliminées. Le bit FECN est positionné à 1 par l’organe de commutation en état de congestion. Dans la réponse à une trame dont le bit FECN est à 1, le récepteur marquera le bit BECN à 1 pour avertir l’émetteur de la congestion. Ce procédé étant injuste pour les hôtes n’ayant pas provoqué la congestion, le protocole CLLM a été développé pour y remédier. Le protocole CLLM (Consolited Link Layer Management)Ce protocole permet aux nœuds en état de congestion d’en avertir ses voisins ainsi que la source de la congestion. Le format du message CLLM est le suivant : Le protocole LMI (Local Management Interface)Drapeau 0x7E Champ adresse Champ de contrôle Status enquiry = 0x75 Trame non numérotée = 0x3 Identificateur de message Discriminateur de protocole Type de rapport = 0x51 LMI = 0x8 (CVP) Longueur = 1 Q.931 = 0x9 (CVC) Type de rapport Référence d'appel Status complet = 0 Type de message Identificateur de message Identificateur de message Vérification d'intégrité = 0x53 exemple Longueur = 2 Longueur Element d'information Numéro séquence émis (Ns) Numéro séquence reçu (Nr) FCS (2 octets) Drapeau 0x7E Ce protocole permet à l’utilisateur (FRAD : Frame Relay Access Device) de connaître l’état des CVP, du lien physique ou de la modification du statut d’un lien. Le champ discriminateur de protocole permet de distinguer le type d’architecture des couches précédentes. Le champ référence d’appel est toujours à 0 sauf pour le protocole Q.931 pour l’établissement des CVC. Le format du message de Setup est le suivant : La référence d’appel (2 octets éventuels) n’a qu’une valeur locale (Usager/Réseau) et est donc différente à chaque extrémité. Elle identifie tous les messages de supervision relatifs à une connexion. Le bit F (Flag) sert à repérer un message appelant (F=0) d’un message appelé (F=1). Le champ relatant les capacités du réseau support (Bearer Capability) n’est présent que pour les compatibilités futures et indique actuellement le codage en mode CCITT standard, le mode binaire transparent et l’utilisation du noyau LAP-D. Interconnexion par Frame RelayLe relais de trames est parfaitement adapté à l’interconnexion de réseaux locaux pour des protocoles divers et plus particulièrement pour X25 de façon transparente (encapsulation ou tunneling). Il est vu par les protocoles comme un support physique. La segmentation est également prévue par le Frame Relay de façon transparente pour les utilisateurs du réseau. Si le réseau reçoit une unité dépassant son MTU (Maximum Transfert Unit), il la segmente et la réassemble en sortie après l’avoir encapsulée dans une trame Frame Relay (sauf le champ DLCI). Si un fragment est perdu lors du processus de réassemblage, c’est l’ensemble de l’unité de données qui est rejetée. Le Frame Relay permet un débit de 2 Mbit/s à 45 Mbit/s et des temps de réponse très faibles. Il est particulièrement bien adapté aux forts trafics aléatoires tels que les trafics d'interconnexion de réseaux locaux. Par contre les délais de transmission sont variables, le Frame Relay n'est pas adapté aux applications telles que la phonie. Les deux technologies concernées sont FDDI et DQDB. Elles sont sérieusement concurrencées par le Fast Ethernet qui à l’avantage d’utiliser les infrastructures déjà existantes. I – FDDI : Fiber Distibuted Data Interface GénéralitésLa technique FDDI est d’origine ANSI (X3T9.5), puis a été normalisée par l’ISO (9314). C’est un réseau en double anneau fondé sur une infrastructure fibre optique multimode. Le débit nominale est de 100 Mbps pour une distance maximale de 100 km. FDDI supporte jusqu’à 1000 stations distantes l’une de l’autre de moins de 2 km. Il existe une version de FDDI sur paire torsadée (TPDDI : Twisted Pair Distributed Data Interface) qui autorise des débits de 100 Mbps sur 100 m. La méthode d’accès est similaire à celle du réseau 802.5 version 16 Mbps. Chaque station doit posséder l’unique jeton pour émettre puis pour générer un nouveau jeton. Les différences avec la version 802.5 sont qu’il n’y a pas de station monitrice, que la synchronisation ne se fait pas par une horloge unique (le réseau est plésiochrone) mais par une mémoire tampon (EB : Elasticity Buffer) qui limite les trames à 4500 octets, et enfin que les données sont séparés en deux catégories distinctes, les données urgentes à contrainte de débit (classe synchrone) et les données sporadiques à débit variable (classe asynchrone). Un préambule de 6 à 8 octets permet de synchroniser les horloges d’émission et de réception. Principe du jeton temporiséQuatre variables d’état contrôle le jeton temporisé (Timed Token Protocol) : - La variable LC (Late Counter) autorise (LC = 0) ou interdit (LC = 1) l’émission de données asynchrone. LC est mis à 0 si le jeton arrive en avance. Si le jeton arrive en retard, le station réinitialise l’anneau. - TRT (Token Rotation Timer) : Il est initialisé à la valeur de TTRT à la reception du jeton si LC = 0 puis décroit linéairement jusqu’à l’arrivée effective du jeton. Si le jeton arrive avant l’expiration du TRT, la station peut émettre des données asynchrone pendant le temps restant (THT) puis des données synchrone pendant le temps Ts. - THT (Token Holding Timer) : Il mesure le temps d’émission de données asynchrones. Quand le jeton arrive en avance, THT est initialisé à TRT et TRT est initialisé à TTRT. Protocoles et architectureLes protocolesLa couche physique est scindée en 2 sous-couches, PMD (Physical Medium Dependent) adapte les caractéristiques des organes d’émission en fonction du support physique, et l’autre gère le protocole physique (PHY : Physical layer protocol) et s’occupe du codage et de la synchronisation.
La couche MAC est chargée des fonctions habituelles (gestion du jeton, temporisation …). Le protocole SMT gère l’insertion et le retrait des stations, la configuration du réseau et le traitement des erreurs. Le codage de 5 bits permettant 32 combinaisons pour n’en représenter que 16, certaines combinaisons serviront de codes significatifs de l’état du réseau :
Format des trames FDDILe champFrame Control indique le type de trame :
Le champ FC permet de distinguer le type de transfert effectué (bit C, classe de transfert). La longueur du champ adresse est précisé par le bit L. Les bits TT indiquent le type de trame et sont complétés par les bits ZZZZ qui peuvent éventuellement indiquer un niveau de priorité dans les trames de données. Les champs d’adresses DA et SA peuvent donc être soit longs (6 octets ou 12 symboles), soit courts (2 octets ou 4 symboles) selon que le champ L est à 0 (adresse sur 16 bits) ou à 1 (adresse sur 48 bits).
Architecture de l’anneauLes stations peuvent à simple ou à double attachement selon qu’elles sont directement relié à l’anneau principal ou non. Le double anneau autorise, en cas de défaillance d’un nœud FDDI, le rebouclage sur l’anneau secondaire. Pour les stations à simple attachement, c’est le concentrateur qui assure cette fonction. A l’initialisation, sur détection d’inactivité, une station emet une trame Claim Token qui comporte l’indication du TTRT revendiqué. Chaque station compare la valeur du TTRT avec celle qu’elle désire. Si la valeur qu’elle désire est inférieure à celle proposée, la station substitue son TTRT à celui proposé. La station gagnante (celle qui voit revenir sa proposition) génère le premier jeton pour informer les stations du TTRT retenu. Puis elle emet les données à partir du deuxième jeton. Une station qui a des données à émettre attend la réception du jeton. De même que pour le Token Ring, c’est la station qui émet une trame qui la retire de l’anneau lorsqu’elle lui revient. Même si FDDI offre une bande passante minimale aux données des différentes stations (classe synchrone), elle ne garantit une récurrence temporelle entre les différentes émissions. Cela empêche FDDI d’assurer les transfert isochrone (voix et vidéo). Pour pallier cette limitation, une évolution de FDDI a été proposée. FDDI–IIFDDI–II multiplexe sur le support une voie asynchrone et une voie synchrone en mode paquet et une voie isochrone en mode circuit. Si le trafic généré est uniquement du type paquet, une station FDDI-II fonctionne en mode de base. Lorsque du trafic paquet et du trafic isochrone sont multiplexés, elle fonctionne en mode hybride.
Une station maître (Cycle Master) génère une trame ou cycle FDDI-II toutes les 125 µs, soit 12500 bits. Ce cycle est le suivant : Un préambule de 2 à 8 symboles permet la synchronisation entre cycles. L’en-tête de cycle (Cycle Header) de 24 symboles permet de numéroter les cycles et permet de préciser pour chaque canal WBC est utilisé en mode isochrone ou en mode paquet. Le canal DPG (Dedicaced Packet data Group) de 12 octets d’un débit de 768 Kbps est notamment utilisé par la couche SMT pour la signalisation. Les 16 canaux WBC (Wide Band Channel) de 96 octets sont utilisés en mode isochrone ou paquet. Le débit nominal de chaque canal est de 6,144 Mbps, ce qui fait un débit synchrone de 98,304 Mbps pour l’ensemble des canaux. Ces 16 canaux sont constitués d’un entrelacement d’octets répartis en 96 cyclic group. Cette norme a été proposée à l’IEEE 802.6 qui a finalement préféré le protocole DQDB. II – DQDB : Distributed Queue Dual BusDéveloppé par une université australienne et soutenu par Telecom Australia, ce protocole a été normalisé par l’IEEE 802.6 et l’ISO 8802.6 comme norme de réseau métropolitain. Il a été développé parallèlement à ATM et utilise le format des cellules de 53 octets dont 48 de charge utile. DQDB permet des transfert isochrone et asynchrone en mode connecté ou non à des débits de 45 à 155 Mbps. Une version 622 Mbps devrait être disponible prochainement. Architecture et fonctionnementDQDB utilise un double bus unidirectionnel. Sur chaque bus, une tête de bus (HoB, Head of Bus) génère une trame toutes les 125 µs contenant n slots (cellules de 53 octets). Le nombre n de slots dépend du débit du réseau. Les têtes de bus sont généralement situées sur une même station. Le premier bit de chaque slot (bit Busy) indique si le slot est libre ou occupé. Chaque station qui a des données à émettre les dépose dans un slot vide de manière statistique (données asynchrones) ou pré-affectée (pré-arbitrage pour les données isochrone). Transfert isochroneL’allocation des cellules est gérée par la tête de bus. Un lien virtuel (VC, Virtual Connection) est établi à l’aide d’un protocole de signalisation (Q.931 du RNIS bande étroite) entre les stations participant à l’échange. La tête de bus alloue une ou plusieurs cellules PA (Pre-Arbitrated) selon le débit requis par la station demandant l’établissement du lien, chaque cellule garantissant un débit de 3 Mbps. DQDB peut même multiplexer plusieurs connexion dans une même cellule, chaque octet garantissant un débit de 64 Kbps. Cette connexion est entièrement déterminée par un identifiant de circuit (VCI, Virtual Circuit Identifier) et une position dans une cellule. Transfert asynchroneLe trafic asynchrone est géré par chaque station. En mode connecté, c’est la station qui fait la demande de connexion qui attribue le VCI. Une plage de VCI disponible est attribuée à chaque station à cet effet. En mode non connecté, les bits du VCI sont tous positionnés à 1. Une station désirant émettre fait une requête de réservation sur le bus allant dans la direction opposé à la station cible. Pour situer la station cible, elle lui adresse un message sur les deux bus, et en fonction du bus d’où arrive la réponse, elle sait de quel côté elle est. Si une station fait une requête sur le bus B pour obtenir N slots sur le bus A, la station suivante (et donc celle qui la précède dans l’autre sens) laisse passer N slots vide sur le bus A avant de déposer ses données dans le slot vide N+1. Architecture des protocolesLa couche MAC comprend un ensemble de fonctions spécifiques à chaque type de transfert : MCF pour un service asynchrone sans connexion (transfert de données entre ordinateurs), COF pour les transfert asynchrones en mode connecté (applications conversationnelles) et enfin ICF pour le transfert isochrone (débit constant pour la voix et la vidéo). L’accès au support partagé est géré par deux entités, celle qui s’occupe du trafic isochrone (PAF) et celle qui s’occupe du trafic asynchrone (QAF).
On rajoute un en-tête aux trames MAC pour donner les trames IMPDU qui sont ensuite découpées en DMPDU de 48 octets pour donner les cellules DQDB. MAC Service Data Unit (MAC-SDU) Initial MAC PDU (IMPDU) Derived MAC PDU (DMPDU) Cellule DQDB Format de la trame IM-PDULe format de la trame IM-PDU qui encapsule la trame MAC-SDU est le suivant : Le Common PDU Header est un en-tête commun aux modes connecté et non connecté : - l’octet RES est réservé pour une utilisation ultérieure. - l’octet BE-tag (Beginning-End tag) correspond à la numérotation modulo 256 des trames IM-PDU et est utilisé pour le réassemblage. - le champ BA-size (Buffer Allocation size) précise au récepteur la place à réserver en mémoire pour pouvoir recevoir toute la SDU. Le champ MCP (MAC Convergence Protocol) n’est présent que pour le mode non connecté. Il contient : - les adresses source et destination (SA et DA). - la longueur du champ de bourrage de 0 à 3 octets (PL : Pad Length). - la qualité de service en terme de délai (Delay) et de suppression lors de congestion (Loss). Le bit CIB (CRC Indicator Bit) indique si le champ CRC est utilisé ou non. - la longueur du champ d’extension d’en-tête en nombre de mots de 32 bits (HEL : Header Extension Length). - Un champ de temps de vie (Bridging) qui, en cas d’interconnexion de réseaux DQDB, est décrémenté de 1 à chaque passage de pont jusqu’à ce que sa valeur atteigne 0 auquel cas la trame est détruite. Le format de l’extension d’en-tête (Header extension) n’est pas défini à ce jour. Le champ PAD permet d’aligner l’IMPDU sur un multiple de 4 octets, sa longueur est précisée par le champ PL. Le champ CRC32 est facultatif et validé par le bit CIB. La partie commune à la fin de la trame IM-PDU comporte un octet non utilisé RES, un octet BE-tag qui est la copie exact de celui d’en-tête ainsi que 2 octets Length qui indiquent la longueur totale des champs MCP Header, Header extension, Données, PAD et CRC. Cette indication autorise un contrôle lors du réassemblage. Le champ d’adresse est particulier car DQDB peut utiliser plusieurs formats d’adresse :
Format de la trame DM-PDU
Format de la cellule DQDB
|