Support de cours d’initiation aux Réseaux et télécommunications
Sommaire
Introduction aux réseaux . 4
Nature des informations transmises . 4
Nature des transmissions .. 5
Définition de la qualité de service 8
Historique : les systèmes centralisés . 10
Historique : les réseaux de transmission . 10
Historique : le numérique et les réseaux multimédia 11
Exercices . 12
Annexe . 14
Références .. 14
Quelques corrigés .. 15
Constitution d’une liaison simple 17
Caractéristiques d’une transmission locale 17
Caractéristiques des supports de transmission . 19
Les supports de transmission 19
Techniques de transmission .. 22
Principe de la transmission par transposition en fréquence .. 24
Multiplexage . 25
Synthèse .. 26
Exercices . 26
Quelques corrigés .. 28
Les protocoles de liaison de données . 29
Généralités sur les protocoles de liaison de données 29
Rôles et fonctions d’un protocole de liaison de données 29
Méthode de contrôle de la validité : protection au niveau du code .. 30
Méthode de contrôle de la validité : protection au niveau de la trame 31
Du protocole utopique au protocole à fenêtre .. 32
Description du protocole HDLC . 38
Synthèse .. 41
Exercices . 41
Quelques corrigés .. 44
Les concepts généraux des réseaux 47
Réseaux à commutation .. 48
Différents types de commutation : la commutation de circuits .. 49
Différents types de commutation : commutation de messages 50
Différents types de commutation : commutation par paquets . 50
Différents types de commutation : commutation de trames . 52
Différents types de commutation : commutation de cellules 53
Notion de services dans un réseau à commutation 53
Fonctions de contrôle interne dans un réseau .. 55
Synthèse .. 58
Exercices . 58
Quelques corrigés .. 61
Réseaux locaux d'entreprise et interconnexion . 63
Les architectures de réseaux locaux .. 63
Description des réseaux de première génération 68
Couche Liaison de données .. 72
Interconnexion . 73
Interconnexion de réseaux locaux .. 74
L’évolution des réseaux locaux .. 75
Synthèse .. 77
Exercices . 77
Quelques corrigés .. 79
Introduction à Internet .. 80
Historique 80
Objectifs et hypothèses de bases d’Internet .. 80
Architecture en couches .. 82
Adresse IP .. 82
Protocole IP 82
Protocoles de transport . 83
Applications .. 83
Présentation du web .. 85
Standardisation . 85
Synthèse .. 86
Le protocole IP .. 87
Les classes d’adresse IP .. 87
Notion de sous-réseaux et de masque .. 88
Association des adresses Internet et des adresses physiques 89
Adresses IP privées et mécanisme NAT . 90
Format du datagramme IP .. 91
Protocole ICMP .. 92
Evolution d’Internet : le protocole IPv6 . 93
Synthèse .. 94
Exercices . 94
Quelques corrigés .. 96
Le routage . 100
RIP .. 100
OSPF .. 100
Protocoles TCP et UDP . 101
Le protocole TCP . 101
Le protocole UDP 102
Synthèse 102
Exercices .. 102
Quelques corrigés 103
Réseau d’entreprise - Intranet et Extranet . 104
Architecture Client / Serveur . 104
Les serveurs DNS 104
Gestion de la sécurité . 105
Réseaux privés virtuels . 111
Synthèse 112
Exercices .. 112
Quelques corrigés 114
Introduction aux réseaux
Toute entreprise possède aujourd’hui un ou plusieurs systèmes de télécommunication qui véhiculent les différentes informations nécessaires à sa vie et à son développement. Ces systèmes sont organisés en réseaux, qu’on peut définir comme des ensembles d’équipements et de supports de transmission dont une des fonctions est de permettre le transfert d’informations. Nous sommes entrés dans l’ère de la communication où le volume et la diversité de ces informations se font de plus en plus grands.
Dans les années 80, cette diversité conduisait à l’adoption de solutions de communication distinctes et différentes suivant la nature des informations à transmettre : réseau téléphonique pour la transmission de la voix, réseau spécialisé dans la transmission de données sur longue distance comme Transpac en France ou sur courte distance comme les réseaux locaux d’entreprise, réseau hertzien ou câblé pour la télévision.
Aujourd’hui les progrès de l’informatique rendent possible le traitement d’informations de natures différentes sur le même ordinateur : séquences vidéos et sonores, présentation de documents. C’est le domaine du multimédia.
De plus, les progrès des techniques de transmission permettent de transférer sur un même support (une fibre optique par exemple) ces informations variées. Les frontières entre les différents réseaux tendent à s’estomper. Par exemple, le réseau mondial Internet, initialement destiné exclusivement à la transmission de données, transmet des communications téléphoniques sur. Les solutions à un besoin de communication sont multiples et les progrès techniques rendent foisonnant le domaine des réseaux.
Nature des informations transmises
Nous parlerons d’applications téléphoniques, informatiques et téléinformatiques quelconques dans la mesure où la nature des informations peut être très variée :
- parole humaine et son haute fidélité,
- données alphanumériques, textes et autres données structurées en un ensemble de caractères,
- images fixes en noir et blanc ou en couleur,
- images animées, images de télévision par exemple,
- informations multimédia qui intègrent plusieurs types d’informations, telles que textes, sons, images fixes ou animées.
Par nature même, certaines informations sont analogiques, c’est-à-dire qu’elles correspondent à des signaux qui varient continûment dans le temps et qui peuvent prendre une infinité de valeurs distinctes.
La parole, la musique, les images animées de la télévision sont des informations de nature analogique.
D’autres informations sont par nature numériques. D’une façon générale, on considère qu’elles correspondent à des signaux qui varient de manière discrète dans le temps et qui prennent un ensemble fini de valeurs distinctes. Par exemple, un texte est une suite de caractères appartenant à un alphabet d’un nombre fini de symboles : c’est une information de nature numérique.
ci-dessus une information analogique : quatre syllabes de parole
ci-dessous une information numérique : une suite de 0 et de 1
01111010100010111010000011010101000101010
Les informations numériques sont facilement transformées en une suite de données binaires grâce à une opération de codage qui fait correspondre à chaque symbole de l’alphabet une configuration binaire particulière. Plusieurs codes existent pour l’ensemble des caractères courants (les vingt-six lettres de l’alphabet, les chiffres, les symboles de ponctuation, les symboles mathématiques,…), on en imagine également pour des symboles graphiques afin de créer des images fixes.
Nature des transmissions
La transmission des informations sur un support peut être analogique ou numérique selon que le signal transporté varie de manière continue ou discrète dans le temps, et que son espace de valeurs est infini ou non.
Un signal de parole module de manière analogique l’amplitude ou la fréquence d’une onde porteuse avec des variations dans le temps qui sont continues. On parle de transmission analogique. en haut un signal analogique, en bas une onde porteuse dont l’amplitude est celle du signal du haut
Une suite de données binaires permet de construire un signal qui prend, par exemple, deux valeurs 0 et 1 et qui varie dans le temps à des intervalles de temps réguliers kT où k est un entier. On parle de transmission numérique.
Mais la correspondance entre nature de l’information et nature de la transmission ne se réduit pas à une telle bijection. On sait transformer une information analogique pour la mettre sous forme numérique et ensuite la transmettre. Cette opération s’applique aussi bien à un signal de parole qu’à une image fixe, une bande son haute fidélité ou des images de télévision animées et en couleur.
Aujourd’hui la quasi-totalité des transmissions sont numériques. Seul l’accès au réseau téléphonique, c’est-à-dire la liaison entre le poste téléphonique et le réseau, est encore majoritairement analogique.
signal d'horloge associé
ci-dessus un signal numérique transportant la suite 01110001 et le signal d’horloge (rythme) associé
Exemple d’informations à transmettre : données alphanumériques
La transmission de données alphanumériques répond à de multiples besoins. Dans le cadre du courrier électronique, on cherche à transmettre le plus souvent de courts textes constitués de caractères. La méthode la plus simple pour le codage associe à chaque caractère un mot de 7 ou 8 bits comme avec le code ASCII. Si un caractère est codé par un octet, un courrier électronique de 40 lignes de 40 caractères tient en 1600 octets, soit 12,8 kbit. Une page de textes d’un livre imprimé fait typiquement 2400 octets.
Un chapitre de livre d’une trentaine de pages est codé en environ 600 kbit sans considérer la mise en forme. Le roman Les misérables comprend de l’ordre de 3 millions de caractères, soit 24 Mbit.
On voit donc que la taille de l’information peut considérablement varier. Dans certains cas, il est intéressant d’utiliser des techniques de compression pour réduire la taille des données à transmettre. Dans d’autres cas, on désire privilégier la simplicité en adoptant un codage très simple comme le code ASCII sans compression.
Exemple d’informations à transmettre : la voix et sa numérisation
Le flux d'air en provenance des poumons est modulé par les cordes vocales, créant des ondes de pression qui se propagent à travers le conduit vocal. Ce dernier, constitué des cavités orales et nasales, se comporte comme un “ filtre ” caractérisé par des fréquences de résonance.
Les sons de parole sont classés en 3 catégories :
les sons voisés : les cordes vocales vibrent de façon quasi-périodique. Le signal de parole est alors quasi-périodique et est caractérisé par sa fréquence fondamentale. Typiquement, la période fondamentale des différents sons voisés varie entre 2 et 20 ms.
'a'
'ou'
Sons voisés les sons non voisés : les cordes vocales ne vibrent pas. L'air passe à haute vitesse entre les cordes vocales.
Le signal produit est équivalent à un bruit blanc. les plosives : ces sons sont obtenus lorsqu'on libère soudainement l'air comprimé par fermeture totale du conduit vocal.
La première étape de numérisation consiste à échantillonner, c’est-à-dire prendre en compte seulement l’amplitude du signal à des intervalles de temps régulier T. La fréquence d’échantillonnage est donc de f=1/T. Pour être capable de reconstituer le signal d’origine, le théorème de l’échantillonnage fourni par la théorie du signal dit que la fréquence d’échantillonnage doit être supérieure ou égale à 2f , soit dans max notre exemple 2*4000 = 8000 Hz. La période d’échantillonnage est donc de 1/8 ms soit 125 µs. Il faut ensuite quantifier le signal échantillonné, c’est-à-dire lui associer une valeur parmi un ensemble fini de valeurs. La quantification peut se faire sur 256 niveaux ; le codage du niveau, troisième étape, est finalement effectué sur 1 octet. La numérisation d’un signal vocal produit donc un flux régulier d’informations numériques de 1 octet toutes les 1/8 ms, soit un débit de 64 kbit/s. Cette technique, appelée MIC (Modulation par Impulsion et Codage), est utilisée dans le réseau téléphonique.
En résumé, la numérisation consiste en trois étapes fondamentales :
L'échantillonnage : le signal analogique est un signal continu qui par définition contient un nombre infini d'éléments. L'échantillonnage consiste à prélever un nombre déterminé d'éléments (échantillons) qui seront suffisants pour reconstituer à l'arrivée un signal analogique de qualité. Les différentes études ont montré qu'il suffit d'échantillonner à deux fois la fréquence supérieure contenue dans le signal. Ainsi, pour un signal de la parole où l'information est contenue dans une bande de 4000 Hz (0-4000), un échantillonnage à 8000 Hz suffit (c'est-à-dire toutes les 125 µs). Pour la musique haute fidélité où l’information est contenue dans la bande audible (20-2000 Hz), l’échantillonnage a été défini à 44,1 kHz.
Echantillonner à une fréquence plus faible conduit à un signal restitué de mauvaise qualité, et un échantillonnage plus élevé augmente le volume de données à transmettre sans augmentation significative de la qualité.
La quantification : elle attribue à chaque échantillon une valeur prise dans une échelle finie de valeurs.
L'erreur effectuée dans l'approximation est appelée bruit de quantification. Ce bruit ayant une répercussion importante pour les faibles niveaux, l'échelle n'est pas une échelle linéaire. Pour le signal de parole dans le réseau téléphonique, 256 niveaux ont été retenus.
Le codage : chaque échantillon sera codé sur un ensemble de bits. Pour permettre le codage des différentes valeurs, 8 bits sont nécessaires si l’on a retenu 256 niveaux.
un exemple simple (sur 3 bits donc 8 niveaux)
Une étude approfondie des caractéristiques de la parole montre qu’il est possible de la numériser à beaucoup plus faible débit. Dans les réseaux de téléphonie mobile GSM, la voix est ainsi transmise sur 13 kbit/s. Des codeurs récents atteignent 8 kbit/s avec une bonne qualité de restitution, voire 2400 bit/s pour des applications militaires où les contraintes de qualité sont moindres.
De plus, au cours d’une conversation, un interlocuteur parle statistiquement la moitié du temps. Les pauses au sein des phrases, le détachement des syllabes (voir schéma de l’échantillon de parole) montrent que le signal vocal est fréquemment réduit à un silence. La voix n’est donc plus numérisée comme un flux continu d’informations mais comme un flux sporadique : des périodes d’activités durant en moyenne 1,4 s suivies de silence de 1,75 s en moyenne. Avec un codage à 8 kbit/s, le flux obtenu a ainsi un débit moyen d’environ 4 kbit/s.
Exemple d’informations à transmettre : images fixes
Une image est une information de type analogique facilement numérisable par découpage en pixels, (contraction de “ picture element ”) puis association d’un niveau de gris ou d’une couleur à chaque pixel.
La taille d’un pixel est de 21x21 µm2 pour rendre la numérisation non détectable (résolution utilisée par les journaux). Une photographie de 15x10 cm2 contient donc 7000x4700 pixels environ.
La représentation la plus simple, appelé bit-map, associe à chaque pixel un niveau de gris ou une couleur.
En supposant la couleur codée sur 8 bits, notre photographie tient sur 260 Mbit environ ! Si une qualité moyenne est acceptée (taille du pixel plus importante), le codage est réduit à 1 Mbit.
Trois images avec des pixels de tailles différentes !
Un écran d’ordinateur 800x600 contient 480000 pixels ; si chaque pixel est codé sur 24 bits (8 bits pour chaque couleur rouge, vert et bleu), une image sur tout l’écran est numérisée en 11,5 Mbit. On imagine alors l’importance de la capacité d’une carte graphique dans des applications vidéo, voire des jeux.
Nous voyons que la taille des données peut être considérable, mais, de même que pour la voix, des techniques de compression sont possibles. En général, la couleur d’un pixel est corrélée avec la couleur du pixel voisin. De façon très simplifiée, il est plus économique de coder la différence de couleur entre un pixel et son voisin plutôt que la couleur de celui-ci. La norme JPEG (Joint Photographic Experts Group)représente des images fixes de qualité photographique en réduisant la taille de l’image d’un facteur 20 par rapport à une représentation bit-map.
Exemple d’informations à transmettre : images animées
Les séquences animées sont obtenues par une succession d’images fixes à un rythme typique de 25 images par seconde. Celui-ci est suffisamment rapide pour donner à l’œil une impression de variation continue (ce rythme fournit un mouvement sans saccades, par opposition aux premiers films tournés à 12 images/s, à la création du cinéma). En prenant une image non compressée à 11,5 Mbit, la séquence animée produit alors 25x11,5=288 Mbit/s. Le débit nécessaire est considérable.
En utilisant les techniques de compression de type JPEG combinés avec l’exploitation des corrélations temporelles, la norme MPEG-1 (Motion Picture Experts Group) réduit le débit produit à 1,2 Mbit/s. Si les images varient rapidement, le flux d’information est plus important ; si les images sont quasiment fixes, le flux est moins important.
Définition de la qualité de service
Le transfert d’une information élémentaire entre deux équipements fait intervenir de multiples autres équipements et provoquer la transmission de signaux de nature variée sur des supports également variés.
La grande réussite des télécommunications est celle de la transparence : l’utilisateur final ne connaît pas la nature des supports de transmission utilisés, il n’est concerné que par la qualité du service qui lui est offert et exprime des exigences dans ce domaine. La qualité de service est souvent appelée QOS, Quality of Service.
Quelques éléments de qualité de service peuvent être donnés :
– la disponibilité des moyens de transfert de l’information qui est liée au taux de panne des équipements et des liaisons,
– le taux d’erreur maximal, exprimé comme le rapport entre le nombre de bits dont la valeur est modifiée par rapport au nombre total de bits d’information émis,
– le débit de transfert,
– le délai, c’est-à-dire la durée entre la décision d’émettre l’information et la réception par le destinataire.
La qualité de service n’est pas une notion absolue. Elle est généralement liée à la nature des informations transmises et du type de besoin. Nous illustrons cette variété de la notion de qualité de service à l’aide de divers exemples.
Données alphanumériques, textes et images fixes
Un courrier électronique est une information en général courte. Il n’y a pas de contraintes de débit importantes. De plus on tolère que le courrier mette plusieurs minutes à être transmis. En revanche, l’usager exige que son message ne soit pas perdu par suite de la défaillance d’un équipement.
Imaginons que Victor Hugo écrive de nos jours Les misérables sur son ordinateur personnel et le transmette sous forme d’un fichier texte à son éditeur. Le fichier a une taille de 24 Mbit, sans aucune compression. Supposons qu’il utilise un moyen de télécommunication dont le taux d’erreur binaire (i.e. la probabilité qu’un bit soit mal transmis) soit 10-6. Si au cours de la transmission, un seul élément binaire est mal reçu, le texte est modifié. La probabilité que l’ensemble du livre soit bien transmis en une seule fois est de (1–10-6)24000000 = 4.10-11. Il est pratiquement certain qu’il y a une ou plusieurs erreurs dans le texte reçu par l’éditeur, si aucune vérification n’est faite. Si V. Hugo transfère le fichier pendant la nuit, un débit modéré peut convenir : à 9600 bit/s, le transfert dure une quarantaine de minutes. Le moyen de télécommunication rajoute un délai de plusieurs dizaines de minutes sans impact important pour l’éditeur.
Cet exemple illustre que le taux d’erreur est généralement le facteur principal de qualité de service pour la transmission de fichiers et que le délai n’a pas d’importance (l’importance du débit dépend étroitement de l’utilisation).
Les journaux sont maintenant composés directement par ordinateur. Ils comportent du texte et des images fixes mais, dans certaines parutions, textes comme photographies sont considérés comme des images et transmis tels quels (en bit-map). Un quotidien tient ainsi sur 220 Mo soit 1,8 Gbit. Comme dans l’exemple précédent, il y a une nécessité que l’information soit correctement transmise de l’atelier de composition à l’imprimeur. Notons cependant que la solution bit-map permet de supporter des erreurs de transmission isolées : un pixel erroné parmi des pixels corrects est non détectable. Un taux d’erreur de 10-6 est acceptable. L’exigence principale s’exprime avec la disponibilité : l’impression ne doit pas être retardée à cause de l’indisponibilité du réseau informatique. La qualité de service prend en compte ce facteur. Le transfert doit de plus être rapide, il faut donc un débit assez élevé : avec un liaison à 2 Mbit/s, le transfert du journal demande environ 15 minutes.
Lorsqu’on consulte un serveur Web, on est dans le cas d’une application interactive : on transmet quelques informations pour demander d’afficher une page d’écran que le serveur transfère ensuite. La qualité de service dépend de plusieurs paramètres : disponibilité, délai, rapidité de transmission de la page. Notons que les flux générés sont largement dissymétriques : une commande transmise vers le serveur peut être codée sur quelques dizaines d’octets ; en revanche, le chargement de la page peut demander la transmission de plusieurs centaines de kilo-octets s’il y a des images (à 64 kbit/s, le chargement est de 13 secondes pour 100 kilo-octets). Les flux sont de plus très sporadiques : on demande le chargement d’une page, puis on la regarde pendant quelques minutes au bout desquelles on consulte une nouvelle page. Le débit moyen exigé peut être faible (environ 500 bit/s si l’usager charge 1 page de 100 kilo-octets toutes les 2 minutes) mais le débit instantané doit être relativement important si on ne veut pas impatienter l’usager !
La voix
La voix est un flux produit par le locuteur, puis numérisé. Le débit produit peut être faible si les techniques de compression sont utilisées. Il est essentiel que le flux soit régénéré à l’arrivée avec le même rythme, sans quoi la conversation est inaudible. Cependant, on tolère un taux d’erreur assez important en conservant une bonne compréhension : l’auditeur entend, par exemple, des claquements ou un son métallique qui peuvent être désagréables mais n’empêche pas la communication.
Dans le cas d’une communication téléphonique, le délai doit être le plus réduit possible ; dans le cas, par exemple, d’une diffusion d’émission radiophonique, il a une valeur plus élevée mais doit être constant.
Un autre élément de la qualité de service pour les communications téléphoniques est la disponibilité des moyens de transmission. Un usager est empêché de téléphoner à cause de la panne d’un équipement mais aussi par manque de ressource dans le réseau. Pour faire un appel depuis un portable, il faut disposer d’un canal radio (une fréquence radio). Si au moment, où on tente de faire l’appel, aucun canal n’est disponible, l’appel échoue. La probabilité d’échec d’un appel intervient ici fortement dans la qualité de service.
Les images animées
De la même façon que pour la voix, la transmission d’images animées exige que le flux d’origine soit restitué au même rythme. Il y a donc des contraintes de délais. En revanche, le débit requis est beaucoup plus important.
En conclusion, définir la qualité de service nécessite une analyse précise du type d’utilisation recherchée et de la nature des informations à transmettre. La qualité de service dépend généralement de la disponibilité, du débit, du délai, du taux d’erreur mais l’importance respective de chaque aspect peut grandement varier suivant les applications.
Historique : les systèmes centralisés
Les circuits logiques et la mémoire qui supportaient l’intelligence des ordinateurs centraux ont longtemps été des éléments coûteux par rapport aux lignes de transmission et aux terminaux. On cherchait donc à les rentabiliser au mieux en les mettant en commun au service d’un nombre maximal d’utilisateurs dans des systèmes centralisés. La distribution des fonctions au sein d’un tel système était simple : le maximum dans le système central.
Dans les premiers systèmes téléinformatiques, les terminaux ne contenaient que des fonctions de gestion des transmissions et d’interface avec les utilisateurs. Le logiciel du système central assurait le contrôle du partage des ressources (mémoire, fichiers…) entre les différentes applications. L’accès à distance impliquait des outils de contrôle d’accès et de partage de mémoire ou de données.
D’autre part, le système central devait faire face à des défaillances éventuelles et donc contenir des mécanismes de reconfiguration. Il assurait également la gestion des terminaux qui lui étaient connectés et offrait des fonctions de protection des données. Les communications étaient gérées par des procédures de communication.
Le nombre de terminaux augmentant, la connexion directe de terminaux à l’ordinateur central devint problématique :
– le matériel nécessaire à la connexion d’un terminal à l’ordinateur représentait un coût non négligeable et la gestion des terminaux mobilise la puissance de l’ordinateur pour des tâches auxquelles il n’est pas toujours adapté ;
– les lignes de transmission elles-mêmes commençaient à représenter un coût important alors qu’elles avaient un faible taux d’utilisation (un terminal d’interrogation de bases de données est inactif entre 30 et 70% du temps où il est en communication).
On vit donc apparaître tout d’abord des liaisons multipoints où plusieurs terminaux partagent un même support, mais qui gardent l’ensemble des traitements au niveau du système central, puis des multiplexeurs et des concentrateurs et enfin des ordinateurs frontaux.
Les multiplexeurs ou les concentrateurs assurent à un moindre coût les fonctions de communication et de transport en “ concentrant ” le trafic de plusieurs terminaux (dits basse vitesse) sur un même support de transmission (dit haute vitesse). Le multiplexeur est souvent un équipement câblé qui conserve le trafic de chaque terminal tel quel (avec les silences, par exemple). Le concentrateur est un équipement plus “ intelligent ” qui assure plusieurs fonctions de contrôle de transmission sur la liaison haute vitesse (stockage, traitement des informations, compression, protection contre les erreurs …).
Les frontaux sont des mini-ordinateurs assurant les fonctions de contrôle des communications pour le compte de l’ordinateur central, déchargeant ainsi celui-ci. Le frontal est relié au système central par une liaison particulière, très rapide. Il assure des fonctions de stockage momentané des messages, il gère automatiquement les ordres d’échange d’informations vers les différents terminaux et les incidents liés aux transmissions.
Historique : les réseaux de transmission
L’introduction d’un réseau de données maillé permet de constituer des réseaux généraux dans lesquels :
– un terminal accède à différents ordinateurs pour bénéficier d’une variété de services ;
– il existe de multiples communications simultanées, les ressources du réseau étant partagées entre elles ;
– les communications entre ordinateurs autorisent des applications informatiques distribuées.
Cette étape coïncide avec l’apparition de terminaux intelligents capables d’assurer eux aussi des fonctions de traitement local des données et de mettre en œuvre des procédures de communication complexes. Dans un réseau maillé, on distingue donc :
– le sous-réseau de communication mettant en correspondance tout un ensemble d’usagers (munis d’équipements informatiques très variés) et partageant ainsi les ressources de communication entre ces usagers ;
– les usagers eux-mêmes, “ abonnés ” à un service de communication donné ou clients passagers et dûment identifiés.
Le sous-réseau de communication est formé d’un ensemble de lignes de transmission et de nœuds de commutation. Ceux-ci sont des mini-ordinateurs spécialisés : ils assurent des fonctions de surveillance du réseau, de collecte de statistiques, de choix des chemins… Ils sont donc généralement constitués d’un processeur spécialisé dans les fonctions de commutation et de gestion des transmissions et d’un processeur général chargé des autres fonctions (taxation par exemple).
Dans les années 70 et 80, on identifiait trois types de réseaux au sein d’une entreprise : le réseau informatique, le réseau bureautique et le réseau téléphonique.
Le réseau informatique reliait plusieurs terminaux ou mini-ordinateurs à une machine centrale sur laquelle s’exécutaient généralement tous les programmes (informatique de gestion de l’entreprise : paie, factures, bons de commande, gestion de stocks …). Cette structure centralisée était calquée sur l’organisation de l’entreprise elle-même et faisait apparaître des matériels souvent homogènes, provenant d’un même constructeur.
Le réseau bureautique était constitué de micro-ordinateurs semblables reliés en réseau local pour partager des ressources comme les imprimantes. Les informations circulant sur ce réseau local étaient le plus souvent saisies et traitées indépendamment de celles traitées par le réseau informatique, les deux réseaux étant séparés.
Le réseau téléphonique était une troisième infrastructure, souvent administrée par une autre direction que celle de l’informatique, utilisant des moyens techniques autonomes.
Devant la très grande variété de produits offerts par les constructeurs, chacun proposant des solutions de communication adaptées à sa propre gamme de machines et généralement incompatibles avec celles des autres, un besoin très fort de normalisation s’est fait sentir. En 1976 est né un modèle conceptuel pour l’interconnexion des systèmes ouverts structuré en sept couches pour construire une architecture de réseaux entre des machines hétérogènes. Ce modèle, normalisé au plan international par l’ISO (organisation internationale de normalisation), est appelé aussi modèle de référence ou modèle OSI (Open Systems Interconnection). Il s’applique principalement aux réseaux informatiques et bureautiques.
L’informatique a évolué dans le même temps vers une diversification des machines (concentrateurs, frontaux, ordinateurs, super-ordinateurs) avec, pour chacune d’entre elles, des logiciels puissants et aux nombreuses fonctionnalités. Remarquons enfin que l’entreprise s’est trouvée souvent malgré elle face à une informatique hétérogène du simple fait des fusions, rachats, réorganisations de sociétés. Le modèle de référence est alors une solution théorique au problème de l’hétérogénéité des installations réseaux et informatiques.
Historique : le numérique et les réseaux multimédia
De nombreux progrès techniques et technologiques ont fait évoluer les réseaux depuis le début des années 80 : l’apparition d’infrastructures de télécommunication numériques avec de hauts débits et le codage d’une information sous des formes de plus en plus réduites. La parole au début des années 80 était systématiquement codée sur 64 kbit/s et les débits possibles sur des liaisons longues distances étaient de l’ordre de 2 Mbit/s. La parole peut être codée à 8 kbit/s sans perte de qualité et une fibre optique offre un débit de 155 Mbit/s. Là où 30 communications téléphoniques étaient envisageables, on pourrait en faire passer maintenant plus de 15 000 !
Il est donc envisageable à l’heure actuelle d’avoir un même réseau pour transmettre des informations variées (communications téléphoniques, fichiers, images fixes ou animées,…). Celles-ci empruntent des artères de transmission à très haut débit, appelées souvent autoroutes de l’information.
Les solutions techniques ont donc évolué. Cependant, du point de vue architectural, elles reprennent toujours la philosophie en couches, concept de base des réseaux développé dans le modèle de référence qu’il est important de bien comprendre.