Histoire Des Techniques

Published on February 2017 | Categories: Documents | Downloads: 33 | Comments: 0 | Views: 416
of 61
Download PDF   Embed   Report

Comments

Content

Histoire des techniques
L’histoire des techniques est l’étude de toutes les réalisations techniques de l’Homme, de leur contexte d’apparition comme de leur impact sur la société. Les techniques répondent à des intentions, des projets et leur histoire est intimement liée à l’évolution des sociétés humaines comme à leurs besoins. Elle a toujours précédé, et cela jusqu’à peu (vers le milieu du XIX siècle), l’histoire des sciences. Ce n’est que très récemment, que les sciences ont permis de faire progresser les techniques.

Histoire de l’Energie
A l’origine, la notion d'énergie était liée à celle de force agissante capable de modifier un état préexistant- la force qui permet de déplacer un poids vers le haut, de bander un arc, de tirer une charrue. Elle ne pouvait provenir que du muscle humain ou animal. Les peuples de la mer furent les premiers à utiliser l'énergie du vent pour mouvoir les navires et, plus tard, les ailes des moulins à vent. Puis, l'homme découvrit la force de l'eau des rivières pour faire fonctionner les moulins à eau. Ce furent là ses principales sources d'énergie motrice jusqu'à la fin du XVIIIe s. Parallèlement, l'homme utilisait le feu et le bois pour se chauffer, travailler les métaux, etc., sans se rendre compte qu'il s'agissait là aussi d'énergie. Ce n'est qu'au début du XVIIIe s, avec l'apparition de la machine à vapeur, qu'on découvrit expérimentalement (Joule le prouvera 150 ans plus tard) que la chaleur peut produire de la force motrice, dans des quantités plus abondantes et à des coûts moindres que le muscle, le vent ou les chutes d'eau, et cela, malgré les faibles rendements (moins de 10 %) de la conversion. Pendant la plus grande partie du XVIIIe s, où les principales machines étaient les pompes des mines, le bois resta très utilisé et la houille ne fut employée que dans les régions où elle était particulièrement accessible.

Locomotive à vapeur "The Rocket" de Robert Stephenson" (1829)

Cependant, vers la fin du siècle, le nombre croissant des machines à vapeur et le développement des industries métallurgiques mirent en évidence le rôle économique essentiel de la houille dont la disponibilité conditionna, pour une grande part, l'essor industriel (décuplement de la production de houille de 1850 à 1900).
Histoire des Techniques Page 1

L'électricité d'origine thermique commença à jouer un rôle considérable à partir de 1875 avec l'invention de la dynamo, des moteurs industriels et de l'éclairage. La découverte du transformateur électrique (1881), qui élargit considérablement le rayon de distribution (lignes à haute tension), et celle de la turbine à vapeur, supérieure à la machine alternative pour la production d'électricité, ne firent que renforcer la demande en charbon, qui devint de plus en plus difficile à satisfaire.
La dynamo d’Edison

Deux autres formes d'énergie arrivèrent alors en renfort: le pétrole et l'hydroélectricité. Le pétrole, presque exclusivement nord-américain à l'origine (1860), d’abord utilisé principalement pour l'éclairage, étendit peu à peu son champ d'applications. Devenu, à partir de 1880, l'égal du charbon pour nombre d'applications industrielles et thermiques, il prit, avec l'avènement du moteur à explosion et de l'automobile, sa place de carburant par excellence, facile à stocker, à distribuer, à utiliser. A partir de 1900, son importance n'échappa à personne et il devint l'objet d'une prospection intense à l'échelle mondiale, accompagnée d'efforts politiques pour en contrôler la production. L'hydroélectricité, née vers la fin du XIXe s., fut favorisée par la diminution de l'offre en charbon et l'apparition, vers 1895, des turbines hydrauliques qui s'avéraient un excellent moyen d'entraînement des génératrices électriques, mais désavantagée par l'importance des investissements requis pour la construction des barrages et par le nombre limité de sites exploitables. La houille, le pétrole (auquel s'ajoutera son dérivé, le gaz naturel, après 1945) et l'hydroélectricité resteront les trois piliers du développement industriel jusqu'en 1960, d'où leur appellation d'énergies conventionnelles. Depuis 1973, date à laquelle le prix du pétrole est passé arbitrairement du simple au triple, les États dont l'économie dépend largement de cette ressource se sont préoccupés de trouver à court ou à moyen terme des énergies de substitution, d'où un regain d'intérêt pour certaines formes d'énergie chère, mais dont l'exploitation est susceptible de réduire la dépendance vis-àvis des combustibles fossiles: énergies solaire, géothermique, thermique des océans, des végétaux, du vent, etc. D'une façon générale, elles peuvent jouer un rôle non négligeable d'appoint. Nature de l'énergie L'énergie permet de mettre en mouvement, d'arrêter ou de soulever un objet. Equivalent de la chaleur et de la masse en mouvement, l'énergie peut prendre de multiples formes (chimique, électrique, nucléaire, etc), toutes transformables les unes dans les autres selon certaines lois et avec des rendements plus ou moins élevés; certaines sont stockables. Origines de l'énergie En l'état actuel des connaissances et des progrès techniques, elles sont au nombre de quatre : a- Le rayonnement solaire, phénomène résultant de la fusion thermonucléaire, fournit la plus grande partie de l'énergie sur Terre; il se manifeste sous forme de lumière ou sous forme de chaleur. Dans le premier cas, il permet la photosynthèse des végétaux; la lumière solaire est donc responsable, en fin de processus, de la constitution de nos réserves d'énergie directement exploitables (énergie musculaire, énergies fossiles). Dans le second cas, sous forme thermique, la chaleur provenant du Soleil est à l'origine de l'énergie hydraulique (évaporation), de l'énergie éolienne (échauffement différentiel des masses d'air), de l'énergie
Histoire des Techniques Page 2

thermique des océans (échauffement des eaux); de plus, elle contribue à maintenir la planète à température constante. b- Les matériaux fissiles et fertiles extraits de la Terre (uranium et thorium) constituent une source potentielle d'énergie (nucléaire) relativement bon marché, dont les réserves (en équivalent calorifique) sont du même ordre de grandeur que celles de la houille. c- L'énergie thermique du centre de la Terre (énergie géothermique) est peu exploitée, mais représente un potentiel virtuellement inépuisable. d- L'énergie cinétique de la Terre et de la Lune est à l'origine des marées qui sont susceptibles de fournir une énergie abondante (énergie marémotrice), à condition de trouver des moyens rentables d'exploitation.

Histoire de l'informatique
Quand on parle d’informatique on pense souvent ordinateur. Pourtant, l’informatique existe depuis plus longtemps. Il s’agit avant tout de méthode technique pour améliorer le calcul. Ensuite sont apparues les manipulations de données non calculatoires, et la recherche de l’Intelligence Artificielle.

Avant les ordinateurs : les calculateurs
Le mot calcul vient du latin calculus, qui signifie “petite pierre”. Les romains, comme beaucoup de peuples antiques, utilisaient couramment de petites pierres pour éviter de mémoriser les termes d’une addition. Cette pratique se perfectionna et donna naissance à la machine à calculer la plus ancienne connue : le boulier, ou abaque. Elle permet d’entrer les données d’une opération simple (telle l’addition) et même temps que l’opération est effectuée, et a été d’une utilisation presque universelle jusqu’à tout récemment.

Boulier chinois avec représentation du nombre 37 925

Un boulier élémentaire est toujours utilisé au Baby-foot

Histoire des Techniques

Page 3

Le boulier requiert quand même de compter les boules à manipuler, et il est serait plus simple d’inscrire sur une machine les nombres décimaux directement et de récolter le résultat avec le moins de manipulations possible. Des machines mécaniques visant précisément ceci furent mises au point dès le XVIIe siècle. La plus connue est la pascaline, construite par Blaise Pascal à l’âge de 19 ans pour soulager son père, collecteur d’impôts, du fardeau des calculs répétitifs. La mécanisme de la pascaline était à base de roues dentées et la machine était peu fiable; de plus, elle ne pouvait qu’additionner et soustraire. Avant Pascal, en 1623, un Allemand du nom de Wilhelm Schickard (1592/1635) avait déjà construit une machine supérieure. Après Pascal, Leibniz transforma la pascaline en une machine capable de multiplier, mais toujours sans la fiabilité requise. Il fallu attendre le milieu de XIXe siècle avant qu’une machine, inspirée de celle de Leibniz et construite par le Français C.X. Thomas de Colmar (1785/1870), fonctionne véritablement et connaisse un succès commercial. Le XIXe siècle est marqué par les efforts de l’Anglais Charles Babbage (1792/1871), qui travailla de longues années, soutenu par le gouvernement anglais, à mettre au point des calculateurs mécaniques plus perfectionnés. Sa première machine, appelée, difference engine, devait être utilisée pour calculer les tables de logarithmes. Elle ne fut pas complétée par Babbage lui-même, mais par un Suédois, P.G. Scheutz (1785/1873). Si Babbage avait abandonné la construction du difference engine, c’est qu’il s’était tourné vers un projet plus ambitieux : une machine pouvant effectuer toutes les opérations arithmétiques, surnommée analytical engine. Malheureusement, cette machine, conçue sur papier, ne fut jamais construite. Babbage avait prévu de pouvoir la programmer, c’est-à-dire de lui faire lire sur des cartes perforées les instructions du calcul et les données à traiter. A la suite de Babbage, les inventeurs seront plus modestes et commercialiseront des machines effectuant correctement les opérations élémentaires. Des inventeurs, tels le Français Bollée et l’Américain Burroughs, connaîtront un certain succès. Vers 1890, l’Américain Herman Hollerith (1860/1929) construira en plusieurs exemplaires une machine à cartes perforées destinée à compiler les résultats du recensement des ´Etats-Unis. Comme la machine de Jacquard, il ne s’agit pas d’un calculateur; c’est plutôt la première machine construite dans le but plus général de traiter l’information. En 1896, Hollerith fonde sa compagnie, la Tabulating Machines Corporation, qui deviendra en 1924 l’International Business Machines (IBM). La nécessité d’effectuer des calculs scientifiques motivera aussi la conception et la construction de machines dédiées à ce type de calcul. L’Américain Vannevar Bush (1890/1974), construira, dans les années 1930, un calculateur mécanique analogique. Ce calculateur n’effectuait pas d’opérations arithmétiques, mais simulait par un dispositif mécanique l’intégration d’une équation différentielle. Autrement dit, une équation différentielle pertinente au phénomène physique étudié était résolue par l’intermédiaire d’un système mécanique analogue. Ce type de machine sera utilisé pendant la deuxième guerre mondiale pour les besoins de la balistique. Plus tard, des ordinateurs analogiques seront construits sur la base de circuits électriques, plus fiables et surtout beaucoup plus simples que les systèmes mécaniques. Le principal désavantage des ces calculateurs analogiques est qu’ils ne pouvaient servir qu’`a résoudre une catégorie étroite de problèmes : ils n’´etaient pas universels. Les besoins des différentes armées lors de la deuxième guerre mondiale stimuleront la conception et la construction de calculateurs encore plus puissants. Aux Etats-Unis, l’armée contractera à la Moore School de l’Université de Pennsylvanie la mise au point d’un calculateur électronique, le plus puissant jamais réalisé. Appelé ENIAC (Electronic Numerator, Integrator, Analyser and Computer), sa conception dura un an et sa
Histoire des Techniques Page 4

construction un an et demi, au coût de 500 000$. Il ne fut terminé que trois mois après la fin de la guerre. Il comptait 17 468 lampes électroniques, 70 000 résistances, 10 000 capacités, 1500 relais et 6 000 commutateurs manuels. Il consommait 150 kW de puissance, l’équivalent d’une vingtaine de chauffages domestiques.

A droite, l’ENIAC. `A gauche, le premier microprocesseur, l’Intel 4004, d’une puissance comparable.

De nombreuses lampes ou relais devaient être remplacées souvent. Les relais étaient susceptibles d’être rendus inopérants quand un moustique s’y écrasait. L’ENIAC n’est pas un ordinateur, mais une calculatrice géante. Sa programmation, à refaire pour chaque calcul, requérait de refaire manuellement une partie des circuits et de changer l’état de plusieurs commutateurs manuels. Une fois ces instructions longuement codées, l’exécution était très rapide, car l’ENIAC était cadencé à 200 kHz, ce qui lui permettait d’effectuer environ 330 multiplications par seconde.

Premières machines programmables
La principale marque d’un ordinateur est sa programmabilité. Celle-ci permet à l’ordinateur d’émuler toute autre machine à calculer en changeant la séquence des instructions disponibles. En 1725, Basile Bouchon, un Lyonnais, met au point un système de programmation d’un métier à tisser à l’aide d’un ruban perforé. C’était le début de la programmation. Cette invention est perfectionnée en 1728 par son assistant, Jean-Baptiste Falcon, qui utilise une série de cartes perforées reliées entre elles. Jacques de Vaucanson reprend l’idée en remplaçant ruban et cartes par un cylindre métallique perforé. On crédite souvent JosephMarie Jacquard de l’invention des cartes perforées, mais il ne fit que perfectionner et commercialiser le métier à tisser automatique au début du XIXe siècle.

Histoire des Techniques

Page 5

Une carte perforée En 1833, Charles Babbage décrivit sa machine analytique. C’était un calculateur mécanique programmable utilisant des cartes perforées comme données et fonctionnant à la vapeur. Bien que sa théorie ait été correcte, le manque de pièces mécaniques suffisamment précises et de financement public firent obstacle à la construction de cette machine. Ada Lovelace créa une série de programmes (suite de cartes perforées) pour cette machine, ses efforts firent d’elle la première programmeuse du monde. Sur les conseils d’Herman Hollerith (qui allait créer IBM), le Bureau du recensement américain (United States Census Bureau) utilisa des cartes perforées pour le recensement de 1890. Au XIXe siècle et XXe siècle, l’électricité permit de motoriser les calculateurs mécaniques et de remplacer certains mécanismes, par de l'électromécanique.

L'essor de l'informatique au 20ème siècle
Un survol du 20ème siècle permet d'avancer plusieurs raisons à l'essor fulgurant de l'informatique : • Les progrès dans la réflexion sur les fondements de la Logique et des Mathématiques : la volonté de fonder les Mathématiques par la Logique aboutit à un échec. • Les progrès de l'électronique • La mobilisation massive de moyens militaro-industriels au moment de la seconde guerre mondiale dépasse l'ambition des programmes nationaux habituels d'aide au développement.

Les calculateurs analogiques
Avant la Seconde Guerre mondiale, les ordinateurs analogiques, qu’ils fussent mécaniques ou électriques, étaient considérés comme le dernier cri de la technologie et beaucoup pensaient qu’ils seraient le futur de l’informatique. Ces ordinateurs analogiques utilisaient des quantités physiques, telles que la tension, le courant ou la vitesse de rotation des axes, pour représenter les nombres. Ainsi, ils devaient être reprogrammés manuellement à chaque nouveau problème. Leur avantage par rapport aux premiers ordinateurs numériques était leur capacité à traiter des problèmes plus complexes, avec une certaine forme de parallélisme. Les calculateurs stochastiques, où la grandeur physique était remplacée par une probabilité, parurent sur le moment être l’avenir du calculateur analogique : ils étaient en effet bon marché, faciles à produire en masse, et rapides (en particulier pour les multiplications). Mais les ordinateurs numériques, plus faciles encore à programmer, remplacèrent ces ordinateurs analogiques.

Première génération d’ordinateurs (1936-1956)
En 1936, la publication de l'article fondateur de la science informatique On Computable Numbers with an Application to the Entscheidungsproblem par Alan Mathison Turing allait donner le coup d'envoi à la création de l'ordinateur programmable. Il y présente sa machine de
Histoire des Techniques Page 6

Turing, le premier calculateur universel programmable, et invente les concepts de programmation et de programme.

Enigma, une machine de chiffrement électromécanique à cylindres; la version ci-dessus est probablement militaire, mais est similaire à la version commerciale Enigma-D

L’ère des ordinateurs modernes commença avec les grands développements de la Seconde Guerre mondiale. Les circuits électroniques, tubes à vide, condensateurs et relais remplacèrent leurs équivalents mécaniques et le calcul numérique remplaça le calcul analogique. Les ordinateurs conçus à cette époque forment la première génération d’ordinateurs. Vers 1954, les mémoires magnétiques (tores de ferrite pour la mémoire vive, bandes, ensuite disques amovibles puis fixes pour la mémoire de masse) supplantèrent toute autre forme de stockage et étaient dominantes au milieu des années 1970. De nombreuses machines électromécaniques furent construites avec des capacités diverses. Elles n’eurent qu’un impact limité sur les constructions à venir.

Les premiers calculateurs programmables
En 1937, George Stibitz construisit le premier circuit binaire, un additionneur : le Model K. K, pour Kitchen. En effet, il construisit son appareil dans sa cuisine. En 1938, Konrad Zuse commença la construction des premières séries-Z, des calculateurs électromécaniques comportant une mémoire et une programmation limitée. Zuse fut soutenu par la Wehrmacht qui utilisa ces systèmes pour des missiles guidés. Les séries-Z furent les précurseurs de nombreuses avancées technologiques telles que l’arithmétique binaire et les nombres en virgule flottante. Konrad Zuse mit au point cette année-là le Z1 (ou Versuchsmodell), qui ne fonctionna jamais vraiment correctement faute de crédits de développement (le Troisième Reich ne croyait guère à l’idée de Zuse). La même année, John Vincent Atanasoff et Clifford E. Berry, de l’Université de l’État de l’Iowa, développèrent l’ordinateur Atanasoff-Berry, un additionneur 16 bits binaire. Cette machine avait pour but de résoudre des systèmes d’équations linéaires. La mémoire était stockée à l’aide de condensateurs fixés à un tambour rotatif. En novembre 1939, John Vincent Atanasoff et Clifford E. Berry achevèrent l’ABC (Atanasoff Berry Computer). Composé de lampes et de tambours pour la mémoire, il fut construit pour résoudre des systèmes d’équations linéaires. Bien que n’étant pas programmable,
Histoire des Techniques Page 7

il était basé sur trois idées propres aux ordinateurs modernes : l’utilisation du système binaire (plus fiable et plus simple à mettre au point que le système décimal), la séparation entre le calcul et la mémoire et l’utilisation de composants électroniques plutôt que des éléments mécaniques pour réaliser les calculs. Il pouvait stocker 60 mots de 50 bits dans ses deux tambours, fonctionnait à une vitesse d’horloge de 60 Hz et réalisait 30 additions par seconde. En 1940, George Stibitz et Samuel Williams achevèrent le Complex Number Computer (ou Model I), un calculateur à base de relais téléphoniques. Ce fut la première machine utilisée à distance via une ligne de téléphone. Il réalisait une multiplication en une minute. En 1941, Konrad Zuse construit le Z3. Il était basé sur 2 600 relais de téléphone, lisait les programmes sur bandes magnétiques et fonctionnait parfaitement, ce qui en fit le premier ordinateur programmable fonctionnel. Il utilisait l’arithmétique binaire et les nombres à virgule flottante. Le Z3 pouvait enregistrer 64 nombres de 22 bits, avait une fréquence de 5,33 Hz et réalisait quatre additions par seconde ou 15 multiplications en une minute. En 1944, le Harvard Mark I (ou l’ASCC, Automatic Sequence Controlled Calculator) fut mis au point par Howard H. Aiken chez IBM. C’était une machine de calcul décimal qui lisait les programmes depuis une bande de papier. Elle pesait cinq tonnes et occupait une place de 37 mètres carrés. Elle était composée de plusieurs calculateurs qui travaillaient en parallèle et réalisait trois opérations sur 23 chiffres par seconde. Pendant la Seconde Guerre mondiale, le Royaume-Uni fit de grands efforts à Bletchley Park pour déchiffrer les codes des communications militaires allemandes. Le principal système de chiffrement allemand, Enigma (et ses différentes variantes), fut attaqué avec l’aide de machines appelées bombes, créées par les services secrets polonais et améliorées par les Britanniques, qui permettaient de trouver les clés de chiffrement après que d’autres techniques en eurent réduit le nombre possible. Les Allemands créèrent également une autre série de systèmes de chiffrement (appelés FISH par les Britanniques) très différents d’Enigma. Pour casser ces systèmes, le professeur Max Newman et ses collègues fabriquèrent Colossus ou la « bombe de Turing », il n'était pas Turing-complet bien qu'Alan Turing ait travaillé au projet. À la fin de la guerre, il fut démonté et caché à cause de son importance stratégique. Colossus était la première machine totalement électronique, elle utilisait uniquement des tubes à vide et non des relais. Elle était composée de 2 000 tubes à vide et lisait des rubans perforés à la vitesse de 5 000 caractères par seconde. Colossus implémentait les branchements conditionnels. Neuf machines ont été construites sur le modèle Mk II ainsi qu’une dixième lorsque la seule Mk I a été convertie en Mk II. L’existence de cette machine a été tenue secrète jusque dans les années 1970 ce qui explique pourquoi de nombreuses histoires de l’informatique n’en font pas mention. Il a été dit que Winston Churchill a personnellement donné l’ordre de leur destruction en pièces de moins de vingt centimètres pour conserver le secret.

Les premiers ordinateurs
Début 1946, Presper Eckert et John William Mauchly achevèrent l’ENIAC (Electronic Numerical Integrator and Computer), qui est le premier ordinateur entièrement électronique construit pour être Turing-complet. Il avait été commandé en 1942 par l’armée américaine afin d’effectuer les calculs de balistique. L’ENIAC utilisait des tubes à vide (au nombre de 17 468) contrairement au Z3 qui utilisait des relais mécaniques. Néanmoins, il faisait ses calculs en système décimal. Malgré la véhémence de ses détracteurs qui auguraient de sa fragilité (celles des tubes à vide), il était très fiable pour l’époque et pouvait calculer plusieurs heures entre deux pannes. Physiquement c’était un monstre: il pesait plus de 30 tonnes, occupait 72 m² et consommait une puissance de 160 kW. Il tournait à 100 kHz, était composé de 20 calculateurs fonctionnant en parallèle et pouvait effectuer 100 000 additions ou 357 multiplications par seconde.
Histoire des Techniques Page 8

À partir de 1948 apparurent les premières machines à architecture de von Neumann : contrairement à toutes les machines précédentes, les programmes étaient stockés dans la même mémoire que les données et pouvaient ainsi être manipulés comme des données. La première machine utilisant cette architecture était le SSEM (Small-Scale Experimental Machine) construit à l’université de Manchester en 1948. Le SSEM fut suivi en 1949 par le Manchester Mark I qui inaugura un nouveau type de mémoire composée de tubes cathodiques. La machine était programmée avec le programme stocké en mémoire dans un tube cathodique et les résultats étaient lus sur un deuxième tube cathodique. Parallèlement l’université de Cambridge développa l’EDSAC, inspiré des plans de l’EDVAC, le successeur de l’ENIAC. Contrairement à l’ENIAC qui utilisait le calcul en parallèle, l’EDVAC et l’EDSAC possédaient une seule unité de calcul. Il utilisait un type de mémoire différent du Manchester Mark I, constitué de lignes à retard de mercure. L’EDSAC tournait à une vitesse d’horloge de 0,5 MHz. On peut considérer que l’architecture de tous les ordinateurs actuels dérive de celle de Manchester Mark I / EDSAC / EDVAC. En 1950 naquît le premier ordinateur soviétique, le MESM (МЭСМ en russe, Small Electronic Calculating Machine), sous la direction de Sergei Alexeevich Lebedev à l’institut d’Électrotechnologie de Kiev. Il était composé de 6 000 tubes à vide, consommait 25 kW et réalisait 3 000 opérations par seconde. En février 1951, le premier modèle de Ferranti Mark I, version commerciale du Manchester Mark I et premier ordinateur commercial de l’histoire, est vendu. Il s’en vendra 9 jusqu’en 1957. Quatre mois plus tard, P. Eckert et J. Mauchly de Remington Rand commercialisèrent l’UNIVAC I (Universal Automatic Computer). Contrairement aux machines précédentes, il ne lisait pas des cartes perforées mais des cassettes métalliques. Il possédait 5 200 tubes à vide, avait une mémoire à lignes à retard de mercure de 1 000 mots de 72 bits et consommait 125 kW. Il exécutait 8 333 additions ou 555 multiplications par seconde. 46 exemplaires furent vendus au total, à plus d’un million de dollars l’unité. En avril 1952, IBM produit son premier ordinateur, l’IBM 701, pour la défense américaine. L’IBM 701 utilisait une mémoire à tubes cathodiques de 2 048 mots de 36 bits. Il effectuait 16 000 additions ou 2 200 multiplications par seconde. 19 machines seront installées au total. La même année, IBM est contacté pour mettre en chantier la production des ordinateurs du réseau SAGE. Une cinquantaine de machines, portant le nom AN/FSQ7, sera produite. Chaque machine comportait 75 000 tubes, pesait 275 tonnes et consommait 750 kW. En juillet 1953, IBM lance l’IBM 650, ordinateur scientifique comme tous ceux des séries 600 (son successeur sera le 1620). Il était composé de tubes à vide et avait une mémoire à tambour de 2 000 mots de 10 digits, mais était relativement lent. Environ 2 000 unités furent produites jusqu’en 1962. L’instabilité des résultats d’équations différentielles mise en évidence pour la première fois sur cette machine par Marion Créhange à l’université de Nancy aurait pu faire naître dès les années 1950 les questions relatives au chaos. En avril 1955, IBM lance l’IBM 704, premier ordinateur commercial capable aussi de calculer sur des nombres à virgule flottante. L’architecture du 704 a été significativement améliorée par rapport au 701. Il utilisait une mémoire à tores de ferrite de 32 768 mots de 36 bits, bien plus fiable et plus rapide que les tubes cathodiques et les autres systèmes utilisés jusqu’alors. D’après IBM, le 704 pouvait exécuter 40 000 instructions par seconde. 123 machines seront vendues jusqu’en 1960.

Histoire des Techniques

Page 9

Deuxième génération (1956-1963)
La deuxième génération d’ordinateurs est basée sur l’invention du transistor en 1947. Cela permit de remplacer le fragile et encombrant tube électronique par un composant plus petit et fiable. Les ordinateurs composés de transistors sont considérés comme la deuxième génération et ont dominé l’informatique dans la fin des années 1950 et le début des années 1960. Malgré l’utilisation de transistors et de circuits imprimés, ces ordinateurs étaient encore encombrants et seulement utilisables par les universités, gouvernements et grandes sociétés. Par exemple, l’IBM 650 de 1954 composé de tubes à vide pesait 900 kg et son alimentation environ 1 350 kg, chacun enfermé dans un module de près de 2,5 m³. Il coûtait 500 000 $ ou pouvait être loué 3 500 $ par mois. De plus sa mémoire n’était que de 2 000 mots de 10 digits. En 1955, Maurice Wilkes inventa la microprogrammation, désormais universellement utilisée dans la conception des processeurs. Le jeu d’instructions du processeur est défini par ce type de programmation. En 1956, IBM sortit son premier système de disque magnétique, RAMAC (Random Access Method of Accounting and Control). Il utilisait 50 disques de 24 pouces en métal, avec 100 pistes par face. Il pouvait enregistrer cinq mégaoctets de données et coûtait 10 000 $ par méga octet. Le premier langage de programmation universel de haut niveau à être implémenté, le Fortran (Formula Translator), fut aussi développé par IBM à cette période. (Le Plantalkül, langage de haut niveau développé par Konrad Zuse en 1945 n’avait pas encore été implémenté à cette époque.) En 1959, IBM lança l’IBM 1401 (commercial), qui utilisait des cartes perforées. Il fut le plus grand succès dans l’histoire de l’informatique avec 12 000 unités vendues. Il utilisait une mémoire magnétique de 4 000 caractères (étendue plus tard à 16 000 caractères). En 1960, IBM lança l’IBM 1620 (scientifique). Il écrivait à l’origine sur des rubans perforés, mais évolua rapidement pour utiliser des lecteurs de cartes perforées comme le 1442. 2 000 unités furent vendues. Il utilisait une mémoire magnétique de 60 000 caractères décimaux. Un exemplaire opérationnel fut longtemps présent au palais de la Découverte. En 1960, l’IBM 7000 est le premier ordinateur à base de transistors. La même année, Digital Equipment Corporation (DEC) lança le PDP-1 (Programmed Data Processor). Le PDP-1 était le premier ordinateur interactif et a lancé le concept de miniordinateur. Il avait une vitesse d’horloge de 0,2 MHz et pouvait stocker 4 096 mots de 18 bits. Il effectuait 100 000 opérations par seconde. Vendu pour seulement 120 000 $ environ.

Troisième génération (1963-1971)
La troisième génération d’ordinateurs est celle des ordinateurs à circuit intégré. C’est à cette date que l’utilisation de l’informatique a explosé. En 1964 IBM annonça la série 360, première gamme d’ordinateurs compatibles entre eux et première gamme aussi à combiner par conception le commercial et le scientifique. Plus de 14 000 ordinateurs IBM 360 furent vendus jusqu’en 1970, date où on les remplaça par la série 370 beaucoup moins chère à puissance égale (mémoires bipolaires à la place des ferrites). Toujours en 1964, DEC lança le PDP-8, machine bien moins encombrante destinée aux laboratoires et à la recherche. Il avait une mémoire de 4 096 mots de 12 bits et tournait à 1 MHz. Il pouvait effectuer 100 000 opérations par seconde. Le PDP-8 se taillera rapidement une place de choix dans les laboratoires, aidé par son langage FOCAL facile à maîtriser. En 1966, Hewlett-Packard entra dans le domaine des ordinateurs universels (par opposition aux ordinateurs spécifiques) avec son HP-2115. Celui-ci supportait de nombreux langages, dont l’Algol et le Fortran, comme les « grands ». Le BASIC y sera adjoint plus tard.
Histoire des Techniques Page 10

En 1967, le gouvernement français lance le Plan Calcul destiné à assurer l’indépendance du pays en matière de gros ordinateurs. En 1969, Data General vendit un total de 50 000 ordinateurs Nova à 8 000 $ l’unité. Le Nova était l’un des premiers mini-ordinateurs 16 bits. La version Supernova qui lui succédera en 1971 effectuait une multiplication en une microseconde, performance spectaculaire à l’époque. Le processeur principal était contenu sur un circuit imprimé de 15 pouces. Dans le même temps, grâce à une politique de mise en commun gratuite de logiciels particulièrement novatrice, l’IBM 1130 se tailla la part du lion dans les écoles d’ingénieurs du monde entier. Le circuit intégré a été inventé par Jack St. Clair Kilby en 1958. Le premier circuit intégré a été produit en septembre 1958 mais les ordinateurs l’utilisant ne sont apparus qu’en 1963. L’un de leurs premiers usages était dans les systèmes embarqués, notamment par la NASA dans l’ordinateur de guidage d’Apollo et par les militaires dans le missile balistique intercontinental LGM-30. Le circuit intégré autorisa le développement d’ordinateurs plus compacts. On les appela les mini-ordinateurs. À noter que Philips (marque hollandaise bien connue de produits grand public) lança une série d’ordinateurs du type « 360 » pour concurrencer IBM, ils étaient plus rapides et largement aussi fiables, mais comme ils utilisaient un système d’exploitation spécifique, ils disparurent rapidement du marché. Siemens, Digital Equipment, HP, tentèrent également de supplanter IBM sur ce créneau du « 360 » mais sans grand succès. Seuls Control-Data et Cray purent rivaliser avec les hauts de gammes d’IBM dans les années 70-80.

« Mini-ordinateurs », à partir de 1973
Le mini-ordinateur a été une innovation des années 1970 qui devint significative vers la fin de celles-ci. Il apporta la puissance de l’ordinateur à des structures décentralisées, non seulement grâce à un encombrement plus commode, mais également en élargissant le nombre de constructeurs d’ordinateurs. DEC devint dans les années 1980 le deuxième fabricant d’ordinateurs derrière IBM grâce à ses ordinateurs populaires PDP (surtout le PDP-11, première machine de DEC à utiliser des mémoires de 16 bits et non de 12, et machine sur laquelle et pour laquelle fut développé le langage C) et VAX, qui apportera le confort du système VMS. En 1973, le TV Typewriter de Don Lancaster permit le premier d’afficher des informations alphanumériques sur une télévision ordinaire. Il était composé de 120 $ de composants électroniques, incluait deux cartes mémoires et pouvait générer et stocker 512 caractères. Une cassette optionnelle fournissait une capacité de 100 pages de textes supplémentaires. Clive Sinclair se basera plus tard sur cette approche pour construire son Sinclair ZX80. Dans les années 1970 IBM a sorti une série de mini-ordinateurs. La série 3 : 3/6, 3/8, 3/10, 3/12, 3/15. Ensuite dans les années 1980 la série 30 : 32, 34, 36, 38. Une troisième série a succédé à la série 30 : les AS/400.

Quatrième génération (1971 à nos jours)
Une définition non universellement acceptée associe le terme de quatrième génération à l’invention du microprocesseur par Marcian Hoff. En pratique et à la différence des autres changements de génération, celui-ci constitua plus une évolution (presque passée inaperçue) qu’une révolution : les circuits s’étaient miniaturisés de plus en plus depuis l’invention du circuit intégré, ils continuaient simplement à le faire comme par le passé. C’est pour cette raison que certains considèrent que les générations sont devenues des questions de type de logiciel :
• •

Première génération : codage machine direct en binaire Deuxième génération : langage assembleur Page 11

Histoire des Techniques

• •



Troisième génération : langages évolués (Fortran, COBOL, Simula, APL, etc.) Quatrième génération : langages évolués de deuxième génération comme Pascal et C++, dit « structurés », apparition des langages « Objets » et langages d’interrogation de très haut niveau comme SQL Un projet de cinquième génération japonaise avait été lancé par le MITI au tout début des années 1980. Il devait être articulé sur les moteurs d’inférence et le langage Prolog, mais en dépit de budgets importants le projet n’aboutit pas.

Les microprocesseurs
Le 15 novembre 1971, Intel dévoile le premier microprocesseur commercial, le 4004. Il a été développé pour Busicom, un constructeur japonais. Les microprocesseurs regroupent la plupart des composants de calcul (horloge et mémoire mises à part pour des raisons techniques) sur un seul circuit. Couplé à un autre produit, la puce mémoire, le microprocesseur permet une diminution nouvelle des coûts. Le 4004 ne réalisait que 60 000 opérations par seconde.

Un microprocesseur

Les supercalculateurs
Les superordinateurs intégrèrent aussi des microprocesseurs. En 1976, le Cray-1 fut développé par Seymour Cray, qui avait quitté Control Data en 1972 pour créer sa propre compagnie. C’était l’un des premiers ordinateurs à mettre en pratique le traitement vectoriel, qui appliquait la même instruction à une série consécutive d’opérandes (évitant ainsi des coûts de décodage répétés). Le Cray-1 pouvait calculer 150 millions d’opérations à virgule flottante par seconde. 85 exemplaires furent vendus à cinq millions de dollars l’unité. Parmi ses clients en France :
• • •

L’École polytechnique (simulations et calculs numériques) Michelin (étude de résistance des pneumatiques par des méthodes d’éléments finis) Peugeot (simulations intensives de déformations de l’habitacle d’une voiture en cas de choc frontal ou latéral)

Les contrôleurs de communication
Eux aussi bénéficièrent de l’usage des microprocesseurs et l’on peut même dire que la généralisation des réseaux informatiques n’a été possible que par l’invention des microprocesseurs. Les contrôleurs 3745 (IBM) utilisaient intensivement cette technologie. Dans le même temps, aux États-Unis, la compagnie AT&T se rendit compte qu’avec tous ses standards téléphoniques interconnectés, elle se trouvait sans l’avoir cherché disposer du plus grand réseau d’ordinateurs des États-Unis (un standard téléphonique, depuis l’invention des microprocesseurs, tient beaucoup plus de l’ordinateur que du dispositif câblé, et nombre d’entre eux se commandent en UNIX).
Histoire des Techniques Page 12

L’ordinateur personnel
Au Sicob 1973 est apparu un micro-ordinateur allemand. Le DIEHL Alphatronic. Il comprenait une unité centrale équipée d’un 8008 (4 ko extensible à 16 ko), d’un lecteur enregistreur de mini-cassette magnétique et d’une imprimante à boule IBM. Il ne comportait pas d’écran. La programmation en mini-basic était visualisée sur une mini imprimante (bande papier en rouleau). Prix de vente de l’ensemble 4 573 €. Au même Sicob est présenté le premier micro-ordinateur français, le Micral conçu par François Gernelle de la société R2E dirigée par André Truong Trong Thi. Il utilise lui aussi le microprocesseur Intel 8008. La machine ne survécut pas au rachat de R2E par Bull. En janvier 1975 sort l’Altair. Développé par des amateurs, frustrés par la faible puissance et le peu de flexibilité des quelques ordinateurs en kit existant sur le marché à l’époque, ce fut certainement le premier ordinateur personnel en kit produit en masse. Il était le premier ordinateur à utiliser un processeur Intel 8080. L’Altair inaugura le bus S-100. Ce fut un énorme succès et 10 000 unités furent vendues. C’est l’Altair qui inspira le développement de logiciels à Bill Gates et Paul Allen, qui développèrent un interpréteur BASIC pour cette machine. En 1975 sortira aussi l’IBM 5100, machine totalement intégrée avec son clavier et son écran, qui se contente d’une prise de courant pour fonctionner. Toujours en 1975, le fabricant de terminaux programmables TRW se rend compte que son terminal Datapoint 2200 à disquettes (de huit pouces) est un ordinateur si on l’équipe d’un langage évolué (BASIC) et d’un système d’exploitation (CP/M), et commence à le commercialiser comme tel, en inventant le premier réseau local pour micros : ARCnet. Ce système, commercialisé en France par Matra, ne sera cependant jamais proposé au grand public. Le processeur Intel 8080 mena à la première vague d’ordinateurs personnels, à la fin des années 1970. La plupart d’entre eux utilisait le bus S-100 et le système d’exploitation CP/M-80 de Digital Research. CP/M-80 était le premier système d’exploitation à être utilisé par plusieurs fabricants d’ordinateurs différents, et de nombreux logiciels furent développés pour lui. Le système MS-DOS de Microsoft, acheté par Microsoft à Tim Paterson de la société Seattle Computer Products (qu’il avait appelé QDOS pour Quick and Dirty Operating System). En 1976, Steve Wozniak, qui fréquentait régulièrement le Homebrew Computer Club, conçut l’Apple I, doté d’un processeur MOS Technology 6502 à 1 MHz. Il vendit avec Steve Jobs environ 200 machines à 666 $ l’unité. Il est doté d’un microprocesseur et d’un clavier. L’Apple II sortit en 1977. Malgré son prix élevé (environ 1 000 $), il prit rapidement l’avantage sur les deux autres machines lancées la même année, le TRS-80 et le Commodore PET, pour devenir le symbole du phénomène de l’ordinateur personnel. D’une très grande qualité, l’Apple II avait de gros avantages techniques sur ses concurrents : il avait une architecture ouverte, un lecteur de disquettes, et utilisait des graphismes en couleur. Grâce à l’Apple II, Apple domina l’industrie de l’ordinateur personnel entre 1977 et 1983. Plus de deux millions d’Apple II furent vendus au total. En 1978, devant le succès de l’Apple II, IBM décida de renouer avec le marché de l’ordinateur personnel. Frank Cary confia une équipe, un budget et donna carte blanche à Don Estridge. En août 1981 sortit l’IBM PC (Personnal Computer). Il utilisait un processeur Intel 8088 tournant à 4,77 MHz et pouvait faire tourner trois systèmes d’exploitation différents : PC-DOS, CP/M-86 et PC/IX. L’UCSD p-System sera également utilisable, mais non supporté par IBM.

Histoire des Techniques

Page 13

Un ordinateur familial Microsoft s’est réservé, contre réduction de la facture à IBM, le droit de commercialiser sa propre version du PC-DOS pour d’autres ordinateurs de marque non-IBM, et qui sera nommée le MS-DOS. L’ordinateur le plus vendu de tous les temps fut sans doute le Commodore 64, dévoilé par Commodore International en septembre 1982. Il utilisait un processeur MOS Technology 6510 à 1 MHz et coûtait 595 $. Il avait un écran 16 couleurs et possédait une carte son. Entre 17 et 25 millions d’unités furent vendues jusqu’en 1993. Après le 64, Commodore sortit l’Amiga. Ses possibilités exceptionnelles en matière de graphisme et la rapidité de son processeur permettaient de programmer des jeux, en particulier en utilisant le langage Amos. À cette époque apparurent les premiers « clones » compatibles, comme le Franklin 1000 compatible avec l’Apple II ou le premier PC compatible lancé par Compaq en mars 1983. Cette concurrence sur le marché des ordinateurs personnels permit de faire baisser les prix et de rendre ces machines populaires. En 1982, Intel lança le 80286, et IBM le PC/AT. C’est à cette époque que le PC devint l’architecture dominante sur le marché des ordinateurs personnels. Seul le Macintosh d’Apple continua à défier l’IBM PC, qui devinrent rapidement le standard. En 1983, Apple lance le Lisa, le premier ordinateur personnel doté d’une interface graphique. Le Lisa utilisait un processeur Motorola 68000, un disque dur de 5 Mo, deux lecteurs de disquette et 1 Mo de RAM. Son interface graphique s’inspirait de celle du Xerox Star. Malgré son caractère révolutionnaire pour l’époque, ce fut un échec commercial, principalement à cause de son prix élevé (10 000 $) et de sa relative lenteur.

Histoire des Techniques

Page 14

Ordinateurs avec écrans plats utilisés en 2006 à l’Université de Warwick.

Le 22 janvier 1984, Apple lance le Macintosh, le premier micro-ordinateur à succès utilisant une souris et une interface graphique. Il reprenait plusieurs caractéristiques du Lisa, comme le processeur Motorola 68000, mais pour un prix bien plus abordable : 2 500 $. Malgré ses nombreuses innovations dans le domaine, Apple perdit peu à peu des parts de marché pour se stabiliser à environ 4 % des ventes d’ordinateurs dans les années 2000. Et ce, malgré le succès de l’iMac, premier ordinateur conçu par des designers, qui s’écoula à plus de six millions d’exemplaires, en en faisant le modèle d’ordinateur personnel le plus vendu au monde. Parallèlement, le PC Compatible s’imposa de plus en plus au grand public avec des assembleurs tel que Hewlett-Packard, Compaq, Dell ou NEC.

Histoire des télécommunications
L'histoire des télécommunications commence sans doute avec les moyens primitifs, puis les premiers services postaux organisés, le développement du télégraphe, du téléphone, des communications sans fil puis numériques. C'est sans doute un des domaines où la technologie a évolué le plus rapidement.

Origine des télécommunications
Les premiers procédés de télécommunications furent les signaux de fumée, utilisés par les peuples amérindiens d’Amérique du Nord et du Sud, et les tambours dont se servaient les peuples d’Afrique, de Nouvelle Guinée et d’Amérique du Sud. Ces signaux permettaient de transmettre des informations parfois complexes. Au Moyen Age, des chaînes de tours placées sur les sommets permettaient de transmettre les ordres et renseignements stratégiques, mais l’information était limitée à l’équivalent d’un bit moderne comme : « l’ennemi est en vue ». En 1792, l’ingénieur français Claude Chappe réalisa le premier système de télégraphie optique par sémaphore entre Paris et Lille. Celui-ci demandait des opérateurs habiles et des tours coûteuses espacées de dix à trente kilomètres, mais permettait de transmettre les messages en quelques heures dans toute la France. Après la découverte du télégraphe électrique, la dernière ligne Chappe fut abandonnée en 1880.

Histoire des Techniques

Page 15

Une réplique d'une tour de télégraphe de Chappe.

Le télégraphe et le téléphone
Le premier télégraphe était optique et totalement manuel. A la fin du XVIIIème siècle, les premiers usages du télégraphe de Chappe étaient dédiés à la communication militaire. Les messages pouvaient être transmis sur une longue distance par l'intermédiaire de relais espacés d'une dizaine de kilomètres et situés sur des hauteurs. Le développement de l'électricité fit naître l'ère du télégraphe électrique. En 1832 Samuel Morse s'inspira des travaux de ses prédécesseurs pour inventer un système simple et robuste. Plusieurs inventeurs ont contribués par leurs travaux à la conception du télégraphe électrique dont le diplomate russe Pavel Schilling, l’Anglais William Fothergill Cooke qui servait dans l’armée des Indes, et le physicien Charles Wheatstone. Mais c’est l’américain Samuel F.B. Morse qui déposa une demande de brevet pour le télégraphe électrique le 28 septembre 1838. La première ligne télégraphique de Morse fut ouverte le 1 janvier 1845 entre Washington et Baltimore. Le premier message envoyé était "What hath God wrought". On lui doit aussi le célèbre code Morse permettant de transmettre un texte à l'aide de série d'impulsions longues ou courtes correspondant à un alphabet.

Télégraphe de Morse (1837)

Histoire des Techniques

Page 16

Le premier service commercial de télégraphe électrique fut construit par Charles Wheatstone et William Fothergill Cooke, et ouvrit en 1839. C’était une amélioration du télégraphe électromagnétique déjà inventé auparavant. Samuel Morse développa indépendamment une version de télégraphe électrique, qu’il montra pour la première fois le 2 septembre 1837. Le télégraphe de Morse représentait une avancée importante par rapport au télégraphe de Wheatstone, en raison notamment du code et du dispositif de transcription sur papier utilisés. Le téléphone classique fut inventé indépendamment par Alexander Bell et Elisha Gray en 1876. Mais c’est Antonio Meucci qui conçut le premier dispositif pouvant transmettre la voix par une ligne électrique en 1849. Le 14 février 1876, Bell déposa une demande de brevet et pu obtenir par la suite un crédit financier important pour perfectionner son invention. La première ligne téléphonique fut ouverte en 1880 entre Boston et Providence.

L'ancêtre des téléphones Le téléphone a été exploité commercialement aux États-Unis dès 1877 et, en France dès 1879. En 1912, on compte 12 millions de postes téléphoniques dans le monde dont 8 millions aux États-Unis. Il y avait un abonné pour 12 habitants aux États-Unis, 1 pour 71 en GrandeBretagne et dans l'Empire Allemand et 1 pour 183 en France. C'est seulement à partir de 1927 que les premiers services de téléphonie publique transatlantique furent ouverts.

De la radio à la télévision
En 1832, James Lindsay fit une démonstration de télégraphie sans fil (TSF) à ses élèves. En 1854, il réussit à communiquer entre Dundee et Woodhaven en Écosse, sur 3 km, en utilisant l’eau comme milieu de transmission.

Histoire des Techniques

Page 17

Expérience de radio

En décembre 1901, Guglielmo Marconi réalisa la première transmission radio entre St. John's de Terre-Neuve-et-labrador (Canada) et Poldhu dans le sud du comté des Cornouailles (Angleterre), ce qui lui valut le prix Nobel en 1909, partagé avec Karl ferdinand Braun. La première communication à courte distance par radio avait cependant déjà été démontrée en 1893 par Nikola Tesla. Les premiers programmes quotidiens de radiodiffusion débutèrent en 1920 en Angleterre (Marconi company), aux États-Unis à Washington (KDKA) et Pittsburgh, ainsi qu'en URSS. En Décembre 1921 Radio Tour Eiffel diffusa un premier concert avec un émetteur de 900 W à la longueur d'onde de 2 650 m. La radio est utilisée pour la première fois pour une campagne électorale en 1925 par Herbert Hoover, et en 1938 Orson Welles diffusa une émission de science fiction sur une attaque martienne, si réaliste que les auditeurs affolés descendent dans la rue. En mars 1925, John Logie Baird démontra la transmission d’images mobiles dans le magasin londonien Selfridges. Le dispositif de Baird utilisait un disque de Nipkov et devint connu comme la « télévision mécanique », qui fut diffusée expérimentalement par la BBC en 1929. Cependant, la télévision ne put se développer pendant tout le vingtième siècle que grâce à l’invention du tube cathodique par Karl Braun. La première version de télévision utilisable fut produite par Philo Farnsworth et démontrée à sa famille en septembre 1927.

La deuxième guerre mondiale et les télécommunications
Pendant la Seconde Guerre mondiale, les laboratoires des belligérants perfectionnèrent des applications nouvelles. D'abord le radar qui était quasiment prêt dans sa forme actuelle à l'aube de la Seconde Guerre mondiale. Il manquait cependant l'expérience opérationnelle au combat qui a poussé les ingénieurs allemands, anglais et américains à trouver de nombreuses améliorations techniques. Les premiers radars en VHF permettaient de détecter les raids aériens, comme l'attaque sur Pearl Harbor. L'invention du magnétron fut la clé du développement des radars modernes.
Histoire des Techniques Page 18

Puis la radionavigation avec le gonio automatique à cadre croisé, le LORAN et le CONSOL qui permettaient déjà une précision de navigation de l'ordre du mille nautique nécessaire aux raids aériens. Enfin, le DECCA autorisant un positionnement avec une précision de 100m dans la Manche, préparatoire au débarquement. Des milliers d'émetteurs-récepteurs mobiles équipèrent chars, avions et commandement. Le problème de l'alimentation en 12 V ou 24 V fut résolu par le convertisseur tournant « dynamotor » ou par des convertisseurs à vibreurs et transformateurs. Le Talkie-walkie fit son apparition en 1941 sous forme d'un émetteur-récepteur radio réellement portatif pour des liaisons radiophoniques sur de courtes distances. Déjà, s'annonçait l'ère de la miniaturisation par la découverte du transistor (effet transistor) en 1947 qui remplacera le tube électronique.

Juillet 1944. Un soldat américain utilise un talkie-walkie durant la bataille de Noemfoor.

De 1945 à l'avènement d'Internet
Tandis que des milliers d'émetteurs et de récepteurs militaires déclassés permettent aux radioamateurs de s'équiper dans les « surplus », avec les « Fug » allemands et les « command set » américains, la radio se développe et le récepteur grand public se standardise. Le récepteur « toutes ondes » couvrant GO PO et OC est dans toutes les familles. C'est un superhétérodyne à 5 ou 6 tubes avec antenne cadre orientable interne, une entrée « pick-up » pour écouter les premiers microsillons, un « œil magique » pour le réglage, un cadran à aiguille et ficelle commandant un condensateur variable d'accord, une façade en tissus et bois vernis. Les premiers postes à transistor dans les années 1960, vite appelés « transistors », permettent d'écouter la radio partout, en vacances, dans la rue, sur la plage, la radio n'est plus familiale mais individuelle. Dans le monde professionnel, le transistor remplace progressivement les tubes, ouvrant la voie à la miniaturisation.

Histoire des Techniques

Page 19

Poste à « transistors » (1959) Parallèlement, Le développement de la télévision ne s’accéléra qu'avec l’invention des premiers dispositifs de prise de vue à balayage électronique, qui permirent enfin d’atteindre une définition d’image acceptable, plusieurs centaines de lignes et dizaines d’images par seconde. Les premiers récepteurs en "441 lignes" puis "819 lignes" en France en 1950 étaient de type à amplification directe, avec un seul canal en bande VHF basse, l'antenne était en forme de H, faite de deux dipôles verticaux couplés. Ils comportaient une dizaine de tubes "octal".

téléviseur 1950 L'apparition de la couleur a obligé les spectateurs à remplacer leur récepteur par la première génération de téléviseurs couleur des années 60, munis du tube cathodique à masque (shadow mask). Egalement, l'apparition de nouvelles chaînes et l'extension aux bandes UHF fit ajouter le module UHF d'abord à tubes, puis avec les premiers transistors, dont le réglage s'effectuait par un cadran. D'autre part, alors qu'à ses débuts le réseau téléphonique est entièrement manuels nécessitant l'intervention d'une opératrice, celui-ci passe en automatique permettant d'établir directement la communication entre usagers. Avec l'apparition des transistors puis des circuits intégrés, les ordinateurs prennent de moins en moins de place. Déjà, J.C.R. Licklider du Massachusetts Institute of Technology décrivait en 1962 les interactions sociales qui seraient possibles avec un réseau d'ordinateurs. En 1965, Larry Roberts avec Thomas Merrill réalise la première connexion informatique à longue distance montrant que des ordinateurs pouvaient communiquer à distance. Le résultat montra que des ordinateurs pouvaient travailler ensemble à distance, mais que le mode de télécommunication par établissement de circuit du système téléphonique était inadapté. Le concept de communication par paquets de Kleinrock s'imposa.
Histoire des Techniques Page 20

C'est pour les besoins de l'armée américaine (le but était de pouvoir maintenir les télécommunications en cas d'attaque éventuellement atomique) et de la recherche universitaire que fut conçu ARPANET, l'ancêtre d'Internet qui allait devenir le réseau de communication mondialisé que nous connaissons aujourd'hui.

Les télécommunications aujourd'hui Le déploiement d'Internet à grande échelle
En 1966, Larry Roberts fut engagé par Robert Taylor au DARPA pour concevoir l'ARPANET. Il publia les plans en 1967. De là est né le concept d'Internet. L'idée était de permettre la connexion entre des réseaux divers : ARPANET, des communications avec les satellites, des communications par radio. Cette idée fut introduite par Robert Kahn en 1972 sous le nom de Internetting et développa un nouveau protocole connu sous le terme de TCP/IP. La version initiale de TCP ne permettait que la communication en établissant un circuit virtuel.

Visualisation des multiples chemins à travers une portion de l'Internet. A partir de TCP/IP « Internet » prit le sens nouveau d'un réseau mondial étendu utilisant ce protocole, ce qui à l'époque signifiait NSFNet et ARPANET. Auparavant « internet » et « internetwork » (inter-réseau en français) étaient utilisés de manière équivalente, et « protocole internet » faisant référence aux autres systèmes réseaux comme le Xerox Network Services. Grâce à l'intérêt grandissant pour les vastes réseaux de communication et à l'arrivée de nouvelles applications, les technologies d'Internet se diffusèrent sur le reste du globe. La vision TCP/IP d'Internet se privant de réseau, amena une facilité d'utilisation de tout type de réseaux existants, tel que X.25 d'IPSS, pour transporter les messages. En 1984, l'University College de Londres remplaça sa liaison transatlantique satellite par le réseau IPSS utilisant le protocole TCP/IP. Internet avait engendré une communauté importante dévouée à l'idée que ce réseau de communication n'appartenait et n'était régi par aucune personne, aucun groupe, aucune entreprise et aucune organisation. Cependant, des standardisations et un contrôle étaient nécessaires pour le bon fonctionnement du système. La création de l'organisme ICANN répondait à cette exigence La procédure de publication libre de RFC (Demande de commentaire en français) sema la confusion dans le système de standardisation d'Internet, et introduisit un haut degré de
Histoire des Techniques Page 21

formalisme dans l'acceptation des standards officiels. L'IETF décida en janvier 1986 de mettre en place des réunions trimestrielles avec les chercheurs. Dès la quatrième assemblée, en octobre de la même année, l'IETF convia des représentants d’organisations non-gouvernementales C'est à la fin des années 1980, que les premières entreprises fournisseur d'accès furent fondées. Des entreprises comme PSINet, UUNET, Netcom, et Portal Software virent le jour afin d'offrir assistance aux réseaux de recherche régionaux et de fournir au particulier des accès au réseau, courriels et nouvelles Usenet. Le premier fournisseur d'accès à Internet par le réseau téléphonique, The World ouvrit en 1989.

La généralisation du téléphone mobile
Les premiers téléphones mobiles non cellulaires sont apparus dès 1945 et fonctionnaient en mode analogique. Cette génération zéro (0G) de téléphones mobiles ne permettait pas de se déplacer d'une station de base à une autre.

Sommet d'une tour de téléphonie mobile cellulaire Jusqu'à la fin des années 1970, la téléphonie mobile autorisait des déplacements que dans une aire régionale desservie par une station de base de forte puissance. Cependant, AT&T en décembre 1971 présenta une proposition de service cellulaire à la Federal Communications Commission qui approuva celle-ci en 1982 après des années d'audiences. Le premier lancement commercial de télécommunications cellulaires a été réalisé par NTT (Nippon Telegraph and Telephone) au japon dans la ville de Tokyo en 1979. En 1981, Nordic Mobile Telephone (NMT) lance au Danemark, en Finlande, en Suède et en Norvège le premier téléphone mobile "itinérant" utilisant une technologie analogique dite de première génération (1G). A partir de ces années 1980, les téléphones mobiles commencèrent à se diffuser grâce au déploiement des réseaux cellulaires. Ce sont des stations de base (ou des relais) voisinent les unes des autres et qui permettent l'automatisation du transfert des communications d'une station à une autre. En France vers la fin des années 1980 apparaissait le premier système de téléphonie mobile Radiocom 2000 qui fonctionnait dans la bande de fréquences des 400 Mhz. Dans les années 1990, la deuxième génération (2G) de téléphonie mobile fait son apparition. Ce sont les systèmes GSM, Digital AMPS, iDEN et IS-95. Le premier lancement commercial
Histoire des Techniques Page 22

de ce type de téléphone cellulaire en mode numérique a été réalisé par les Etats-Unis en 1990 qui utilisait une bande de fréquences inférieure à la bande de fréquence européenne avoisinant les 900 Mhz. Avec la mise en place de la technologie 2G, apparaissait la nécessité de disposer de téléphones mobiles plus légers dont le poids devait osciller entre 200 et 300 grammes. Ce changement a été rendu possible grâce a des améliorations technologiques relatives à la réduction de l'encombrement des batteries. La technologie de deuxième génération présente aussi une nouvelle variante comme la messagerie SMS par texte dont le premier message fut envoyé en Finlande en 1993.

Téléphone mobile Peu de temps après la mise en place des réseaux cellulaires de deuxième génération apparaissait la 3G autorisant des communications numérisés avec des débits de 384 Kbits/s à 2 Mbits/s. Le premier lancement commercial d'un tel réseau fut fait par NTT DoCoMo au japon dans la région de Tokyo en mai 2001 et en utilisant la technologie W-CDMA. Grâce au développement de cette technologie numérique de troisième génération, le téléphone mobile a pu avoir accès à des services comme le mulimédia ou la connexion par Internet. Il y avait à la fin de 2007, 295 millions d'abonnés à des réseaux 3G à travers le monde. Actuellement, la technologie de quatrième génération 4G est en train de faire son apparition permettant une transmission à des débits supérieurs à la 3G et autorisant ainsi une meilleure fluidité des communications et des services plus étendus.

Histoire d'Internet
L'histoire d'Internet remonte au développement des premiers réseaux de télécommunication. L'idée d'un réseau informatique, permettant aux utilisateurs de différents ordinateurs de communiquer, se développa par de nombreuses étapes successives. La somme de tous ces développements conduisit au « réseau des réseaux » (network of network) que nous connaissons aujourd'hui en tant qu’Internet. Il est le fruit à la fois de
Histoire des Techniques Page 23

développements technologiques et du regroupement d'infrastructures réseau existantes et de systèmes de télécommunication. Les premières versions mettant en place ces idées apparurent à la fin des années 1950. L'application pratique de ces concepts commença à la fin des années 1960. Dès les années 1980, les technologies que nous reconnaissons maintenant comme les fondements de l'Internet moderne commencèrent à se répandre autour du globe. Dans les années 1990 sa popularisation passa par l'apparition du World Wide Web.

Le premier serveur web, actuellement au musée du CERN, étiqueté « This machine is a server. DO NOT POWER DOWN!! » Ce qui signifie : « Cette machine est un serveur. NE PAS ÉTEINDRE !! » L'infrastructure d'Internet se répandit autour du monde pour créer le large réseau mondial d'ordinateurs que nous connaissons aujourd'hui. Il se répandit au travers des pays occidentaux puis frappa à la porte des pays en voie de développement, créant ainsi un accès mondial à l'information et aux communications sans précédent ainsi qu'une fracture numérique.

Principales dates de l'histoire de l'Internet
Anné Événement e 1962 Début de la recherche par ARPA, un projet du ministère de la Défense américain 1967 Première conférence sur ARPANET 1969 Connexion des premiers ordinateurs entre 4 universités américaines 1971 23 ordinateurs sont reliés sur ARPANET 1972 Naissance du Inter Networking Working Group, organisme chargé de la gestion d'Internet 1973 L'Angleterre et la Norvège rejoignent le réseau Internet avec chacun 1 ordinateur 1979 Création des NewsGroups (forums de discussion) par des étudiants américains 1981 Apparition du Minitel en France 1982 Définition du protocole TCP/IP et du mot "Internet" 1983 Premier serveur de noms de sites Histoire des Techniques Page 24

1984 1987 1989 1990 1991 1992 1993 1996 1999 2000 2005 2007

1 000 ordinateurs connectés 10 000 ordinateurs connectés 100 000 ordinateurs connectés Disparition d'ARPANET Annonce publique du World Wide Web 1 000 000 d'ordinateurs connectés Apparition du Navigateur web NCSA Mosaic 10 000 000 ordinateurs connectés 200 000 000 utilisateurs dans le monde Explosion de la Bulle internet 1 000 000 000 utilisateurs dans le monde 2 320 000 000 utilisateurs dans le monde

Avant Internet Manque de connexions inter-réseaux
Avant la propagation des connexions inter-réseaux qui amena l'Internet actuel, la plupart des réseaux de communication étaient limités de par leur nature à des communications entre les postes du réseau. Quelques réseaux avaient des passerelles ou des ponts les reliant entre eux, mais la plupart du temps ils étaient limités ou conçus pour un usage unique. Une méthode déjà utilisée dans les réseaux de télécommunication reposait sur l'utilisation d'un ordinateur central, permettant simplement à ses terminaux d'être raccordés via de longues lignes.

Les réseaux qui conduisirent à Internet ARPANET
Promu à la tête du bureau de traitement de l'information à l'ARPA (Advanced Research Projects Agency, soit « agence pour les projets de recherche avancée »), Robert Taylor avait pour but de concrétiser les idées de J.C.R. Licklider sur les systèmes de réseaux interconnectés. Introduisant Larry Roberts du MIT, il commença le projet de réalisation d'un tel réseau. Le premier lien ARPANET (Advanced Research Projects Agency Network) fut établi entre l'Université de Californie à Los Angeles et le Stanford Research Institute le 21 novembre 1969. Dès le 5 décembre 1969, en y ajoutant l'Université d'Utah et l'Université de Californie à Santa Barbara, un réseau à 4 nœuds voyait le jour. À partir de 1972, ARPANET (construit sur les idées développées en ALOHAnet) se développa rapidement jusqu'en 1981, date à laquelle le nombre d'hôtes s'élevait à 213 avec un rythme de croissance soutenu atteignant alors un nouvel hôte tous les 20 jours environ.

Histoire des Techniques

Page 25

Leonard Kleinrock et le premier Interface Message Processor.

ARPANET devint le cœur technique de ce qu'est devenu Internet, ainsi qu'un outil primaire de développement de cette nouvelle technologie. Le développement d'ARPANET fut recentré sur les processus RFC (Requests For Comment, littéralement demande de commentaires), toujours utilisés de nos jours pour proposer et distribuer les protocoles et système Internet. RFC 1, dénommé « Host Software » (littéralement « Logiciel Hôte »), fût codé par Steve Crocker de l'Université de Californie à Los Angeles, et publié le 7 avril 1969.

Steve Crocker, auteur de la RFC 1, titrée « Logiciel hôte » Les collaborations internationales sur le projet ARPANET restèrent rares. Pour diverses raisons politiques, les développeurs européens travaillaient sur le développement du réseau X.25. Avec quelques exceptions tels que : Norwegian Seismic Array (NORSAR) en 1972, suivi en 1973 par la Suède et sa liaison satellite entre Tanum et l'University College de Londres.

X.25 et accès public
Les réseaux à ordonnance de paquet ont été développés par l'Union internationale des télécommunications en poursuivant les recherches de la DARPA et en utilisant les formes de réseau X.25 (X.25 n'est pas un protocole de communication mais plutôt une recommandation normalisé par commutation de paquets en mode point à point offrant de nombreux services). En 1974, le X.25 sert de base au développement du SERCnet reliant les académiciens anglais avec leurs sites de recherche. Le SERCnet deviendra ensuite JANET lors de son association avec le Joint Academic NETwork.
Histoire des Techniques Page 26

En mars 1976 l'Union internationale des télécommunications lance le premier standard en X.25. Le Bureau de poste anglais, Western Union International et Tymnet participèrent à la création de l'International Packet Switched Service, le premier réseau international à aiguillage de paquets; c'était en 1978. Ce réseau s'étendit depuis l'Europe et les États-Unis pour couvrir en 1981 le Canada, Hong Kong et l'Australie. Dès le courant des années 1990, il fournissait une infrastructure réseau mondiale. Contrairement à l'ARPANET, le X.25 était disponible dans le monde de l'entreprise. Le X.25 sera utilisé pour les premiers réseaux téléphoniques publics, tels CompuServe et Tymnet. En 1979 CompuServe fut le premier service capable de proposer un courrier électronique ainsi qu'un support technique aux utilisateurs d'Ordinateur personnel. Cette société repoussa une nouvelle fois les barrières des télécommunications en proposant l'année suivante des discussions en temps réel grâce à son CB Simulator, un simulateur radio. Il y eut aussi les réseaux America Online (AOL) et Prodigy ainsi que de nombreux réseaux BBS comme The WELL et FidoNet. Ce dernier était particulièrement populaire dans le milieu des hackers (Hackers est un film américain réalisé par Iain Softlev, sorti en 1995) et radioamateurs.

Unification des réseaux et la création d'Internet Protocole TCP/IP
« TCP ( Transmission Control Protocol) et IP (Internet Protocol) » L'abondante diversité des méthodes de communications réseau amena un besoin d'uniformisation. Robert E. Kahn (DARPA et ARPANET) recruta Vinton G. Cerf de l'Université de Stanford dans le but de travailler ensemble sur ce problème. En 1973, ils avaient déjà réalisé une reformulation profonde, dans laquelle les différences entre les protocoles s'estompaient par l'utilisation d'un protocole de communication : au lieu d'assoir la fiabilité du réseau sur les connexions, comme avec l'ARPANET, les hôtes en étaient maintenant responsables. Vinton G. Cerf attribua à Hubert Zimmerman et Louis Pouzin (développeurs du réseau Cyclades) un important travail de développement. Avec le rôle du réseau physique réduit à son strict minimum, il devint alors possible de fusionner à peu près tous types de réseau sans tenir compte de leurs caractéristiques et ainsi résoudre le problème que s'était posé Robert E. Kahn à ses débuts. DARPA accepta de financer le développement du logiciel prototype, et après plusieurs années de travail, la première démonstration quelque peu rustique de ce qu'était alors devenu le TCP/IP eu lieu en juillet 1977. Cette nouvelle méthode se répandit au travers des réseaux, et le 1er janvier 1983 les protocoles TCP/IP devenaient officiellement le seul protocole sur l'ARPANET, remplaçant le précédent protocole NCP (Network Control Program)

De l'ARPANET au NSFNet
Après que l'ARPANET avait été en service pendant plusieurs années, ARPA chercha une autre entité pour prendre en charge le réseau car cela dépassait ses attributions initiales : ARPA était censé financer la recherche et le développement et non entretenir un réseau de télécommunication. Finalement en juillet 1975 le réseau passa sous la responsabilité de la Defense Communications Agency, partie intégrante du Département de la Défense. En 1983 la partie de l'ARPANET appartenant aux Forces armées des États-Unis fut séparée du reste du réseau et devint le MILNET (Military Network). Les réseaux construits autour de l'ARPANET étaient financés par le gouvernement et de ce fait restreints à une utilisation non commerciale et en particulier la recherche, toute utilisation commerciale sans fondement était alors strictement interdite.
Histoire des Techniques Page 27

Les connexions étaient initialement restreintes aux sites de l'armée et aux universités. Dans les années 1980, les connexions se sont étendues à de nombreuses institutions éducatives ainsi qu'à un nombre croissant de sociétés telles que Digital Equipment Corporation et HewlettPackard, qui participaient aux projets de recherche ou offraient leurs services aux connectés. Une autre partie de l'Administration américaine, la National Science Foundation (NSF), s'impliqua largement dans la recherche et commença le développement du successeur de l'ARPANET. En 1984, ceci aboutit au premier réseau étendu conçu spécialement pour l'utilisation du TCP/IP. Celui-ci s'agrandit au travers de la dorsale Internet [Une dorsale Internet (Internet backbone en anglais), est un réseau informatique faisant partie des réseaux longue distance de plus haut débit d'Internet] NSFNet, mise en place en 1986, qui avait pour but de raccorder et fournir l'accès à un nombre de centre de superordinateurs mis en place par la NSF.

Transition en vue d'un Internet
C'est à l'époque où l'ARPANET commença à fusionner avec le NSFNet que le terme « Internet » apparut, « un internet » signifiant alors un réseau utilisant le protocole TCP/IP. « Internet » prit le sens nouveau d'un réseau mondial étendu utilisant le protocole TCP/IP, ce qui à l'époque signifiait NSFNet et ARPANET. Auparavant « internet » et « internetwork » (inter-réseau en français) étaient utilisés de manière équivalente, et « protocole internet » faisant référence aux autres systèmes réseaux comme le Xerox Network Services. Grâce à l'intérêt grandissant pour les vastes réseaux de communication et à l'arrivée de nouvelles applications, les technologies d'Internet se propagèrent sur le reste du globe. La vision TCP/IP d'Internet se privant de réseau, amena une facilité d'utilisation de tout type de réseaux existants, tel que le réseau X.25 d'IPSS, pour transporter les messages. En 1984, l'University College de Londres remplaça sa liaison transatlantique satellite par le réseau IPSS utilisant le protocole TCP/IP. De nombreux sites incapables de se raccorder directement à l'Internet commencèrent la création de portail simple permettant le routage du courrier, l'application la plus importante à l'époque. Les sites possédant uniquement des connexions intermittentes utilisaient les réseaux UUCP(Unix to Unix Copy Protocol est un ensemble de programmes qui permettent à deux machines d'échanger des fichiers et d'exécuter des commandes sur la machine distante en passant par une ligne téléphonique (modem), mais aussi sur une couche TCP/IP. Le mode modem reste cependant le cas de figure le plus utilisé) ou FidoNet et reposaient sur les portails entre ces derniers et l'Internet. Certains portails allèrent au delà du simple acheminement d'email et proposèrent l'accès à des sites FTP via l'UUCP ou le courrier électronique.

Le protocole TCP/IP devient mondial
La première connexion sortant du territoire américain fut établie avec NORSAR en Norvège peu de temps avant le raccordement avec la Grande-Bretagne. Ces liaisons furent converties en TCP/IP en 1982, avec le reste du réseau ARPANET.

L'Internet européen et le lien à travers le Pacifique
En 1984, l'Europe commença sa conversion vers une utilisation plus étendue du protocole TCP/IP, et le réseau du CERN (Conseil Européen pour la Recherche Nucléaire) ne fit pas exception. Cependant il resta isolé du reste de l'Internet jusqu'en 1989. En 1988, Daniel Karrenberg du CWI (Centrum voor Wiskunde en Informatica) d'Amsterdam rendit visite à Ben Segal, coordinateur TCP/IP au CERN, il cherchait des conseils concernant la transition du réseau UUCP Usenet européen (dont la majeure partie tournait avec les liens X.25) vers le TCP/IP. En 1987 Ben Segal avait rencontré Len Bosack de chez Cisco, encore une petite entreprise à l'époque, spécialisé dans les routeurs TCP/IP; il fut capable de conseiller Daniel Karrenberg et le dirigea vers Cisco pour ses besoins matériels. Ceci développa la partie européenne de
Histoire des Techniques Page 28

l'Internet au travers du réseau UUCP existant, et en 1989 le CERN ouvrit sa première connexion TCP/IP externe. Ceci coïncida avec la création du RIPE, au départ un groupe d'administrateurs de réseaux IP qui se réunissaient régulièrement pour parler de leurs travaux communs. Plus tard, en 1992, le RIPE (Réseaux IP Européens) fut formellement enregistré en tant que société coopérative à Amsterdam. Alors que le réseau européen s'érigeait, un autre réseau voyait le jour entre ARPA et les universités australiennes basé lui sur différentes technologies comme le X.25 et l'UUCPNet. Ce dernier était limité en connexion aux réseaux mondiaux de par le coût des communications individuelles via l'UUCP ou le X.25. C'est en 1989 que les universités australiennes rejoignirent l'élan d'uniformisation lancé par l'apparition du protocole IP. L'AARNet fût formé en 1989 par l'Australian Vice-Chancellors' Committee et fournit une base IP dédiée au réseau australien. Internet commença son entrée en Asie à la fin des années 1980. Le Japon qui fondait en 1984 le JUNET, un réseau construit autour du réseau UUCP, se raccorda au NSFNet en 1989. Kobe reçu la rencontre annuelle de l'Internet Society, baptisée INET'92. Singapour développa son réseau TECHNET en 1990, la Thaïlande reçu en 1992 une connexion Internet mondiale entre l'université Chulalongkorn et l'UUNET.

Fracture numérique
Alors que les pays développés accédaient à Internet avec leurs infrastructures technologiques, les pays en voie de développement commencèrent à souffrir d'une fracture numérique les privant d'Internet. Dans le début des années 1990, les pays africains utilisaient le X.25 et le modem 2400 bauds UUCP pour les liens internationaux et internetworks. En 1996 un projet lancé par l'agence d'aide au développement américaine, le Leland initiative commença par développer une connexion complète pour tout le continent. La Guinée, le Mozambique, Madagascar et le Rwanda reçurent des stations satellites en 1997, suivent la Côte d'Ivoire et le Bénin en 1998. En 1991, la Chine avait un premier réseau TCP/IP, le TUNET de l'université de Tsinghua. La Chine poursuivit et développa sa première connexion Internet en 1994, elle reliait l'électrospectromètre de Pékin et l'accélérateur linéaire de l'université de Stanford.

Histoire des Techniques

Page 29

Ouverture du réseau au commerce

L'intérêt pour l'utilisation commerciale d'Internet devint un sujet de débats houleux. Même si l'utilisation commerciale restait interdite, sa définition exacte pouvait être obscure et subjective. Tous étaient d'accord sur le fait qu'une entreprise envoyant une facture à une autre entreprise faisait une utilisation commerciale d'Internet, mais tout le reste était sujet à discussion. L'UUCP et le X.25 ne possédaient pas de telles restrictions qui auraient pu se concrétiser en l'interdiction d'utilisation de l'ARPANET et du NSFNet par l'UUCP. Cependant les liens UUCP restèrent actifs et les administrateurs fermèrent les yeux sur leurs activités. C'est à la fin des années 1980, que les premières entreprises fournisseur d'accès furent fondées. Des entreprises comme PSINet, UUNET, Netcom, et Portal Software virent le jour afin d'offrir assistance aux réseaux de recherche régionaux et de fournir au particulier des accès au réseau, courriels et nouvelles Usenet. Le premier fournisseur d'accès à Internet par le réseau téléphonique, The World ouvrit en 1989. Ceci sema la controverse parmi les utilisateurs universitaires, qui étaient outrés à l'idée d'utiliser le réseau à des fins non éducatives. Finalement ce sont les fournisseurs d'accès qui permirent aux collèges et autres écoles d'accéder aux nouvelles aires d'éducation et de recherche par la baisse des tarifs de connexion. C'est en 1990 que l'ARPANET fût dépassé et remplacé par des technologies plus récentes, ainsi le projet ARPANET pris fin. En 1994 le NSFNet, renommé ANSNET (Advanced Networks and Service pour Réseaux avancés et service) et qui permettait l'accès aux sociétés à but non lucratif, perdit sa place d'épine dorsale d'Internet. À la fois les institutions gouvernementales et les fournisseurs créèrent leurs propres épines dorsales et liaisons. Les points d'accès régionaux au réseau (NAP en anglais) devinrent les liens principaux entre les nombreux réseaux et la dernière restriction commerciale tomba.

Courrier Electronique et Usenet :
Histoire des Techniques Page 30

Le développement de forums de texte
Le Courrier électronique (email, courriel) est souvent considéré comme la Killer application d'Internet, ( Killer application désigne un programme informatique si attrayant qu'il justifie à lui seul, pour de nombreux consommateurs, l'achat ou l'adoption d'un type particulier d'ordinateur, de console de jeu, ou de système d’exploitation). Même si en réalité il précéda la naissance d'Internet et fût un outil crucial pour sa création. Les courriels virent le jour en 1965 en tant que moyen de communication entre les différents utilisateurs d'un ordinateur central à temps partagé. Même si l'histoire n'est pas très précise à ce sujet, parmi les systèmes possédant de telles ressources on compte : le Q32 {AN/FSQ-32 était un ordinateur construit par IBM (International Business Machines) en 1960 et 1961 pour le Strategic Air Command (SAC). IBM l'appela « 4020 ». Un seul Q-32 a été construit} de chez System Development Corporation (SDC) ainsi que le CTSS {Compatible Time-Sharing System (système compatible à temps partagé), est l'un des premiers systèmes d’exploitation à temps partagé} du Massachusetts Institute of Technology. Le réseau d'ordinateur ARPANET contribua largement au développement du courrier électronique. En 1971, Ray Tomlinson créa ce qui devait devenir le standard du format d'adressage de courrier, en utilisant l'arobase @ (également appelé arrobase, arrobe, arobas, arrobas ou a commercial) pour séparer le nom utilisateur du nom d'hôte. Un certain nombre de protocoles ont été développés afin de permettre le routage du courrier parmi les groupes d'ordinateurs à temps partagé en utilisant des systèmes de distribution différents comme l'UUCP et le système de courrier VNET d’IBM. Le courrier électronique pouvait ainsi passer d'un réseau à un autre et également être transmis à des hôtes qui étaient raccordés sur d'autres sites au travers de l'UUCP. De plus, l'UUCP permettait la publication de fichiers texte pouvant être lus par beaucoup d'autres. Le logiciel News (Nouvelles en français), développé par Steve Daniel et Tom Truscott en 1979, fut utilisé pour l'acheminement de nouvelles et la parution de messages de type petites-annonces. Ceci dérivant rapidement vers des groupes de discussion, connus maintenant en tant que newsgroup, abordant des sujets divers et variés.

Histoire de l'électricité
Les premières machines
En 1799, Alessandro Volta

Histoire des Techniques

Page 31

(Physicien italien) invente la pile électrique en empilant alternativement des disques de métaux différents (cuivre, zinc) séparés par des disques de feutre (une étoffe faite de poils d'animaux agglomérés ensemble par pression et ébouillantage) imbibés d’acide.

Pile de Volta

Peter Barlow (1776-1862) {mathématicien et physicien britannique}

Histoire des Techniques

Page 32

construit en 1822 ce qui peut être considéré comme le premier moteur électrique de l'histoire : la « roue de Barlow » qui est un simple disque métallique découpé en étoile et dont les extrémités plongent dans un godet contenant du mercure qui assure l'arrivée du courant.

Le schéma de la roue de Barlow

Le professeur russe Hermann von Jacobi
Histoire des Techniques Page 33

construit en 1834 un moteur d'une puissance d'un cheval-vapeur (735,49875 watts) qui propulsera un bateau à roue à aubes sur la Neva, à Saint-Pétersbourg. L'inducteur et l'induit sont des électroaimants en fer à cheval portés par une couronne mobile et une couronne fixe en regard l'une de l'autre. Le commutateur appelé « gyrotrope » inverse aux positions convenables l'excitation des électro-aimants mobiles. Mais ce moteur est encombrant et, finalement, c'est l'américain Thomas Davenport qui sera le véritable inventeur de ce genre de machine. On doit à Jacobi la notion de « force contre-électromotrice ». Nicholas Joseph Callan réalise en 1837 le premier transformateur composé d'un primaire et d'un secondaire. Charles Grafton Page construit en 1838 une bobine d'induction qui peut être considérée comme l'ancêtre de la bobine de Ruhmkorff. Construction d’un moteur électrique semblable au piston simple effet des machines à vapeur, la vapeur étant remplacée par deux électroaimants en U. 1840 voit l'arrivée du moteur électrique de Bourbouze. Les pistons d'une machine à vapeur sont remplacés par des électroaimants excités alternativement grâce à des contacts commandés par un tiroir « distributeur ».

Histoire des Techniques

Page 34

Électromoteur de Gustave Froment 1844

Gustave Froment (1815-1865) construit la première machine à réluctance variable en 1845. Il s'agit d'un moteur rotatif comportant une couronne d'électro-aimants fixes qui attirent des barres de fer portées par une roue. Heinrich Ruhmkorff met au point en 1856 la bobine qui porte son nom en se basant sur les travaux de ses prédécesseurs et en fait un instrument scientifique performant qu'il commercialise.

Histoire des Techniques

Page 35

Gaston Planté (1834-1889)

invente en 1859 l'accumulateur ou « pile réversible ». La même année Antonio Pacinotti (1841-1912) met au point une machine électrique constituée d'un anneau d'acier entouré d'un fil de cuivre, « l'anneau de Pacinotti ». C'est la base du moteur électrique et de la dynamo. Antonio Pacinotti publie en 1865, dans le n°19 de la revue Nuovo Cimento, une communication sur un anneau tournant dans un champ magnétique.

Cette invention préfigure l'induit des machines électriques dont il envisage l'utilisation aussi bien en génératrices qu'en moteurs. N'ayant pu dépasser le stade expérimental, ses réalisations restent sans suite. L'Anglais Wilde réalise en 1868 la première machine dynamoélectrique ou dynamo. Il remplace, à la suite des travaux de Werner von Siemens, l'aimant permanent par un électroaimant alimenté par une machine auxiliaire.
Histoire des Techniques Page 36

En 1869, l'inventeur belge Zénobe Gramme (1826-1901), né à Jehay-Bodegnée (province de Liège),

rend possible la réalisation des génératrices à courant continu en imaginant le collecteur. Il améliore les premières versions archaïques d'alternateurs (1867) et devient célèbre en retrouvant le principe de l'induit en anneau de Pacinotti. En 1871, il présente à l'Académie des sciences de Paris la première génératrice industrielle de courant continu, que l'on appela machine de Gramme et qui était en fait une magnéto.

La diffusion de l'électricité
En 1878, Thomas Alva Edison, inventeur américain, fonde l'Edison Electric Light Co. à New York. En 1879, il présente sa première lampe électrique à incandescence (avec filaments de carbone) qui reste allumée 45 heures.

Première lampe électrique à incandescence

En 1879, une centrale hydraulique de 7 kW est construite à Saint-Moritz. En 1881, la France organise, entre le 1er août et le 15 novembre, une Exposition internationale d'électricité qui consacre la naissance de l'électrotechnique, soulignée par un Congrès international des électriciens qui siège à Paris du 15 septembre au 19 octobre. La grande nouveauté est l'emploi industriel de la dynamo Gramme. En 1882, Thomas Edison
Histoire des Techniques Page 37

inaugure les premières « usines électriques » (production de tensions continues) construites à Londres (Holborn Viaduct) et New York (Pearl Street : 110 V, 30 kW). Première ligne de transport d'énergie électrique en Allemagne en courant continu : d'une longueur de 59 km elle alimente sous 2 400 V. En 1883, une expérience de transport d'électricité est lancée à Grenoble sur une distance de 14 km. En 1884, Lucien Gaulard (1850-1888), jeune électricien français, chimiste de formation, présente à la Société française des électriciens un « générateur secondaire », dénommé depuis transformateur. Devant le scepticisme de ses compatriotes, il s'adresse à l'Anglais Gibbs et démontre à Londres le bien-fondé de son invention. En 1883, Lucien Gaulard et John Dixon Gibbs réussissent à transmettre pour la première fois, sur une distance de 40 km, du courant alternatif sous une tension de 2 000 volts à l'aide de transformateurs avec un noyau en forme de barres. En 1884, Lucien Gaulard met en service une liaison bouclée de démonstration (133 Hz) alimentée par du courant alternatif sous 2 000 volts et faisant l'aller-retour de Turin à Lanzo (80 km). On finit alors par admettre l'intérêt du transformateur, qui permet d'élever la tension délivrée par un alternateur et facilite ainsi le transport de l'énergie électrique par des lignes à haute tension. La reconnaissance de Gaulard interviendra trop tardivement car, entre-temps, des brevets ont été pris aussi par d'autres. Le premier brevet de Gaulard en 1882 n'a même pas été délivré en son temps, sous prétexte que l'inventeur prétendait pouvoir faire « quelque chose de rien » ! Gaulard attaque, perd ses procès, il est ruiné et finit ses jours dans un asile d'aliénés. Le transformateur de Gaulard de 1886 n'a pas grand chose à envier aux transformateurs actuels, son circuit magnétique fermé (le prototype de 1884 comportait un circuit magnétique ouvert, d'où un bien médiocre rendement) est constitué d'une multitude de fils de fer annonçant le circuit feuilleté à tôles isolées. Ainsi, en 1885, les Hongrois Károly Zipernowsky, Miksa Déry et Otto Titus Bláthy mettent au point un transformateur avec un noyau annulaire commercialisé dans le monde entier par la firme Ganz à Budapest. Aux États-Unis d'Amérique, W. Stanley développe des transformateurs. En 1885, Galileo Ferraris, ingénieur italien, introduit le principe du champ tournant dans la construction des moteurs électriques.
Histoire des Techniques Page 38

Production et distribution : le temps des ingénieurs
Les travaux d'un grand nombre de scientifiques entre 1860 et 1890 conduisirent à l'apparition de machines capables de produire de l'énergie électrique en grande quantité, ainsi qu'à la possibilité de la transporter sur de longues distances

Nikola Tesla

Les conflits internationaux de cette époque expliquent pourquoi il est difficile d'attribuer à telle ou telle personne la paternité d'une invention : des scientifiques comme Nikola Tesla ou Lucien Gaulard dont on est sûr qu'ils ont inventé respectivement les machines à courant alternatif et le transformateur (éléments essentiels de la production et du transport électrique) sont morts dans la misère, dépossédés de leurs brevets par d'autres ingénieurs bien meilleurs financiers. On peut considérer que l'invention de la machine à courant continu, brevetée par le Belge Zénobe Gramme doit beaucoup aux travaux de l'italien Antonio Pacinotti et de l'Allemand Ernst Werner von Siemens. Améliorée et commercialisée aux États-Unis par Thomas Edison, son emploi fut défendu en Europe par de nombreux ingénieurs (dont Marcel Deprez) et des financiers qui y avaient intérêt. Face aux tenants de la production et du transport en courant alternatif, ce lobby puissant fit son possible pour imposer le courant continu. Edison, par exemple, en déconseillait formellement l'usage en ville en raison d'un « risque d'électrocution par induction » pour les utilisateurs du téléphone. C'est Lucien Gaulard et John Dixon Gibbs qui, en 1883, réussissent les premiers à transporter de l'énergie électrique sur une distance de 40 km grâce à un courant alternatif généré sous une tension de 2 000 volts. Le transformateur, inventé par Gaulard, permet d'augmenter fortement la tension au détriment de l'intensité du courant et donc de diminuer énormément les pertes par effet Joule lors du transport sur de grandes distances. En 1886 George Westinghouse (1846-1914),

Histoire des Techniques

Page 39

inventeur et industriel américain né à Central Bridge (État de New York), s'intéresse à l'électricité industrielle et fonde la Westinghouse Electric Corporation. Après avoir obtenu en 1887 un brevet pour un transformateur, il réalise à Buffalo un premier réseau à courant alternatif pour l'éclairage. Aux États-Unis, il obtient face à Edison le contrat d’installation de toute l’infrastructure électrique. C'est ainsi que dans le monde entier s'impose le courant alternatif pour la distribution de l'électricité. Cette invention va permettre de distribuer l'énergie dans tout le territoire des pays développés et provoquer une seconde révolution industrielle. Aujourd'hui son groupe est devenu le numéro deux américain du secteur de la production de matériel électrique et électronique, derrière General Electric. Il fabrique également des appareils ménagers et des postes de télévision, et a développé ses activités dans le nucléaire : le groupe a détenu le procédé PWR (Pressured Water Reactor) de production d'énergie nucléaire, qui est l'ancêtre du procédé mis en œuvre en France par EDF. En 1886, la ville lumière de Bourganeuf en Creuse est la première en France, voire en Europe, à inaugurer un éclairage électrique de l'ensemble des rues de la localité avec un site de production éloigné des lieux de consommation. En 1887 Nikola Tesla (1856-1943), ingénieur en électronique yougoslave né à Smiljan, en Croatie, fonde une société pour la construction des alternateurs. Grâce à ses travaux, le courant alternatif va gagner la bataille du transport à distance et de l'utilisation du courant alternatif. Tesla préconise d'abord l'utilisation des courants polyphasés (1882) et réussit à créer un champ magnétique tournant qui permet d'entraîner en rotation une armature mobile tournante. En 1891, la première expérience pour le transport d'énergie à grande échelle est faite en Allemagne. C'est la réalisation d'une ligne longue de 175 kilomètres entre Lauffen-sur-leNeckar et Francfort-sur-le-Main. Et le rendement atteint est déjà de 75 % ! Il imagine en 1890 le premier montage produisant un courant à haute fréquence. Tesla poursuit des travaux de recherches. On lui doit le fameux montage Tesla dans le domaine de la radioélectricité mais cela n'empêche pas, malgré d'autres inventions, qu'il ne finisse lui aussi ses jours dans la misère. On a donné son nom à l'unité d'induction magnétique dans le système SI, le tesla (symbole T). Michail Ossipowitsch Doliwo-Dobrowolski, électricien russe,

invente en 1889 le premier moteur asynchrone à courant triphasé à cage d'écureuil (construit industriellement à partir de 1891). En fait le moteur asynchrone était « dans l'air ». Qui fut réellement son inventeur ? Tesla, Ferraris ou Doliwo-Doborwolski ? Cette même année voit la mise en service de la première ligne de transport en courant alternatif aux États-Unis : Oregon city - Portland. D'une longueur de 21 km, elle alimente sous 4 kV. 1890 Mise en service de la première locomotive électrique de métro à Londres.
Histoire des Techniques Page 40

1891 Allemagne : première installation de transmission de courant triphasé (15 kV, 40 Hz) entre une centrale hydraulique située à Lauffen-sur-le-Neckar et Francfort sur une distance de 175 km (pertes de transport de 25 %). 1894 Électrification des tramways zurichois. 1899 Premier chemin de fer d'Europe entièrement électrifié des Chemins de fer BerthoudThoune (40 km ; 750 V ; 40 Hz). 1897, Joseph John Thomson démontre l'existence et le rôle de l’électron.

La fée électricité entre dans les foyers
• • •

• • • • •

1887 : François Borel, ingénieur constructeur suisse, conçoit le premier compteur à induction à courant triphasé. 1888 : Friedrich Wilhelm Schindler-Jenny résidant en Autriche conçoit le premier fer à repasser électrique. 1893 : Friedrich Wilhelm Schindler-Jenny présente la première cuisinière électrique à l'exposition mondiale de Chicago. Première ligne de transport triphasé aux États-Unis en Californie, 12 km, sous 2,3 kV. 1896 : Les entreprises électriques installent les premiers compteurs à tarif unique chez leurs clients. 1903 : La firme Landis & Gyr fabrique le premier compteur à double tarif. 1906 : Le premier aspirateur électrique est commercialisé sous le nom de « pompe à dépoussiérage ». 1911 : Première ligne 110 kV, de Lauchhammer à Riesa en Allemagne 1920 : Les machines à laver sont équipées d'un moteur électrique.

Développement du réseau
- 1923 Une ligne aérienne à 220 kV est mise en service pour la première fois aux États-Unis. - 1924 Début de la construction d'une ligne aérienne nord-sud à 110 kV reliant les centrales allemandes à charbon situées près du Rhin aux centrales hydrauliques alpines. Le premier tronçon de Neuenahr à Rheinau est équipé de pylônes à 380 kV — une augmentation ultérieure de la puissance étant ainsi garantie (mise en service partielle en 1929 avec 110 kV et en 1930 avec 220 kV). - 1932 Première ligne 287 kV, aux États-Unis de Boulder Dam à Los Angeles. - 1937 Le premier turbo-alternateur refroidi à l'hydrogène est mis en service aux États-Unis (puissance de 100 MW). - 1952 Première ligne 380 kV, en Suède de Harsprånget à Halsberg. - 1960 Première ligne 525 kV en URSS, de Moscou à Volgograd. - 1965 Première ligne 735 kV, au Canada de Montréal à Manicouagan. - 1965 « Black-out » : le 9 novembre, New York est restée 13 heures sans électricité après que la foudre fût tombée sur une ligne à 345 kV.
Histoire des Techniques Page 41

- 1967 Raccordement au réseau de la première centrale marémotrice du monde (240 MW) située sur l'estuaire de la Rance (France). - 1967 Les réseaux à très haute tension (380 kV) de la France, de la République fédérale d'Allemagne et de la Suisse sont interconnectés pour la première fois à Laufenbourg. - 1983 Mise en service de la première grande installation éolienne à Growian près Brunsbüttel (Allemagne) (rotor de 100 m de diamètre ; arrêt en 1986 à la suite de problèmes de matériau). - 2003 14 août : Black out aux États-Unis, environ 50 millions de personnes sont restées sans électricité durant deux jours. - 2003 28 septembre : en Italie, 57 millions de personnes sans électricité pendant deux heures. - 2006 4 novembre : Environ 10 % de la population française a été plongée dans le noir pendant près d'une heure. En Allemagne plusieurs centaines de milliers d'habitants en Rhénanie-Westphalie ont été touchés, de même en Belgique et en Italie du nord.

L'électronucléaire
- 1955 En Angleterre, mise en exploitation commerciale de la première centrale nucléaire (9 MW) à Calder Hall. - 1978 Un grave incident survient dans la centrale nucléaire de Three Mile Island près de Harrisburg (États-Unis) (sans conséquences pour l'environnement). - 1986 26 Avril, Un grave accident survient dans la centrale nucléaire de Tchernobyl (République d'Ukraine).

Vue de la centrale nucléaire depuis la ville de Pripyat, toute proche

Histoire des Techniques

Page 42

Histoire de l'enregistrement sonore
En 1877 Charles Cros, savant et poète français, imagine un système capable d'enregistrer le son sur un disque ou un cylindre. Quelques mois après lui, l'Américain Thomas Alva Edison le réalise et le fait breveter en 1878. Son système, appelé phonographe, fonctionne avec un cylindre de cire gravé et manipulé à la main.

Par la suite, Edison motorise la rotation du cylindre pour obtenir une vitesse régulière et duplique le cylindre en produisant un moule.

Travaillant sur le principe de l'enregistrement magnétique décrit par Oberlin Smith en 1888, un ingénieur danois nommé Valdemar Poulsen dépose en 1898 le brevet d'un système d'enregistrement sonore électromagnétique. Son Télégraphone utilise des rouleaux de fil de fer ou de fins rubans métalliques. Réalisée en 1878 avec le phonographe d'Edison puis en 1888 avec le gramophone de Berliner, l'idée du paléophone de Charles Cros (1842-1888) est le premier moyen permettant de capturer le son pour le conserver (1877).

Histoire des Techniques

Page 43

Le Disque
En 1888, Émile Berliner fabrique le gramophone. Ce système utilise un disque plat sur lequel le son est gravé en une spirale. Si le son est de moins bonne qualité qu'avec le phonographe, le disque est plus facilement reproductible. Berliner travaille alors à améliorer la qualité de ses enregistrements, au point que son gramophone vient concurrencer puis évincer le système d'Edison.

C'est la musique qui profite surtout de cette invention, à partir de 1901, sans doute parce qu'elle n'est pas contrainte par les barrières de la langue ; traversant les frontières, son marché est immense ! Après l'amélioration de la qualité de reproduction du gramophone, le disque devient un standard parce que sa duplication est plus simple et coûte moins cher que celle du cylindre d'Edison. En 1920, le phonographe est complètement évincé. Écouter un disque sonore est un divertissement très populaire, jusqu'à l'avènement de la radio (1920) et surtout après 1930. Cette concurrence fait souffrir la production de disques car le coût est quasiment nul pour l'auditeur, et il ne s'agit plus seulement de musique. À cette époque, le phonographe existait déjà depuis longtemps. Le principe utilisé était de graver un sillon dans un disque qui tourne puis convertir les signaux en sons. On fabriquait alors les disques avec un métal appelé shellac, dont la capacité était de 5 minutes à 78 tours par minute. Avec l'apparition du disque de vinyle, ses performances se sont grandement améliorées. Aussi, puisque c'était un liquide, l'impression devint plus facile. Quelques années plus tard, en 1948, un groupe de travailleurs de CBS inventa le LP (long play) qui pouvait maintenant contenir 20 minutes de musique à 33 révolutions par minute (rpm). Pour permettre une telle capacité, les sillons étaient rapprochés à 127 microns (0,005 pouce), ceci étant impossible à réaliser sur les disques en shellac. Peu après RCA Victor introduisit un plus petit disque à 45 rpm. Il fonctionnait comme le LP, mais il ne contenait que quelques minutes de musique. C'est pourquoi il devint le support favori pour les enregistrements d'une seule chanson.

Histoire des Techniques

Page 44

Le 33 tours LP, le 45 tours, la stéréophonie

C'est indirectement que l'industrie du disque connaît son second âge d'or. Après la deuxième guerre mondiale, la naissance de la télévision vole aux ondes radio leurs programmes en y ajoutant l'image. Les émissions de radio se rabattent donc sur la musique, qu'elles diffusent 24 heures sur 24, lui assurant une forte promotion à l'aide de Top 40, etc. Arrivent enfin le disque longue durée, ou LP (Long Play) et l'enregistrement haute-fidélité (Hi-Fi). Le 33 tours long play (LP)(33 tours 1/3 par minute) est inventé en 1948 par la Columbia Records. Puis RCA propose le 45 tours, qui devient le média le plus populaire. L'égalisation du son permet de renforcer les fréquences maltraitées par le média. Ainsi, le disque, qui est fabriqué maintenant en vinyle, est capable de reproduire toute la gamme de fréquence audible. En 1930, l'ingénieur anglais Blumlein travaille sur la stéréophonie. L'industrie du disque n'adopte l'idée qu'en 1958, où le disque enregistre les deux signaux (gauche et droit, chacun sur une paroi du sillon) en conservant la compatibilité avec le système monaural.

L'enregistrement magnétique
Inventé au seuil du XX° siècle par Poulsen (1898), l'enregistrement magnétique ne progresse qu'à partir de 1928, en Allemagne, avec une bande de papier recouverte de particules de métal. En 1935, BASF et AEG Telefunken produisent, le premier une bande magnétique plastique, et le second le Magnetophon. Cette machine permet d'enregistrer le son et de le reproduire aussitôt. On est à la veille de la seconde guerre mondiale, et le monde n'est pas informé de l'existence du magnétophone. Lorsque, pendant la guerre, on peut entendre un discours d'Hitler depuis une radio de Brême puis la même voix sur une autre radio à Munich un quart d'heure après, on ne comprend pas : 500 Km séparent les deux villes !

Histoire des Techniques

Page 45

Le magnétophone

Après la guerre et sur le modèle du Magnetophon allemand, la société californienne Ampex produit des magnétophones à bandes d'un quart de pouce qui se vendent dans le monde entier. Les avantages de la bande magnétique sont appréciés : Avant l'intermédiaire du magnétophone (avant 1950), la gravure du "master" d'un disque est faite en une seule prise, si possible sans erreur. La bande magnétique permet d'enregistrer les morceaux séparément et de recommencer les prises de sons si nécessaire. Et c'est par découpage et collage des meilleures séquences que l'on prépare la bande qui est gravée sur le master. Le magnétophone est transportable. Il permet des enregistrements en extérieur, de bruits, de concerts en public et dans des lieux réputés... La copie est aussi un avantage indéniable, bien que les éditeurs n'en soient pas convaincus ! La copie illicite est tellement prospère que des taxes sont imposées sur la vente de bandes vierges pour être reversées sous forme de droits d'auteur. Bientôt vint au monde la cassette à bande magnétique, qui fonctionnait grâce à l'électromagnétisme. Pour enregistrer, on envoyait un courant électrique, ce qui produisait un champ magnétique sur la bande. Pour lire la cassette, il suffisait de faire l'inverse. La cassette offrait une meilleure qualité de son et était effaçable et ré-enregistrable. Elle a non seulement développé une nouvelle industrie, mais elle a aussi influencé celle du disque. En effet, il devint chose courante d'enregistrer d'abord la musique sur cassette et de la reproduire sur LP. Cette technique était plus avantageuse, car si une erreur était commise sur la cassette, on n'avait qu'à couper cette partie et la coller sur une autre bande.

Les premiers magnétophones numériques
Le numérique révolutionne l'enregistrement magnétique avant de s'attaquer au disque. - Dans les années 50, déjà, Les Bell Telephone Laboratories y travaillent. - En 60, la bande magnétique est utilisée pour les données scientifiques et surtout pour l'image vidéo. - En 70, naissent des systèmes, mais qui restent très chers ; la plupart des studios d'enregistrement s'équipent tout de même. - C'est Sony, en 1981, qui met sur le marché un premier système peu cher. Le convertisseur PCM-F1 utilise une cassette vidéo (VCR ou Video Cassette Recorder) sur
Histoire des Techniques Page 46

-

laquelle il code uniquement du son. Ce PCM reste tout de même un équipement professionnel ou semi-professionnel. La cassette DAT, ou Digital Audio Tape, vit le jour chez Sony en 1986. C'était une cassette sur laquelle on enregistrait des données binaires, surtout utilisée dans le domaine professionnel, encore considérée comme un support très stable en sauvegardes.

Progressivement, on améliore le système. L'égalisation du son permet un meilleur équilibre des fréquences. Au fur et à mesure que l'on apprend à fabriquer des têtes de lecture magnétiques de plus en plus petites, on réduit la largeur de la bande ou on augmente le nombre de pistes (4 pistes sur 1/4 de pouce en 1950, 24 ou 32 pistes en 1980 sur une largeur de 2 pouces). Philips met au point la cassette compacte en 1964. Le succès de la "K7" est dû en grande partie à sa maniabilité : la petite boîte de plastique évite de manipuler directement la bande. Conçu au départ comme un Dictaphone ou destiné aux enfants, la K7 atteint la haute-fidélité en 70, grâce à l'amélioration de la qualité des bandes et aux traitements de l'électronique. Les systèmes employant la K7 se multiplient : lecteur pour voiture dans les années 70, système portable en 80, miniaturisé jusqu'au "Walkman" ou Baladeur, mais aussi répondeur téléphonique, dictaphone (avant la micro-cassette), stockage économique de données informatiques.

Les disques numériques
Les années 70 voient différentes tentatives essayant de promouvoir la quadriphonie. Mais les offres sont incompatibles entres elles et avec les standards du marché. Il faut le renfort des technologies numériques pour détrôner la "galette de vinyle". Le Disque Compact Audionumérique apparaît en 83 sur le marché. L'enregistrement numérique a déjà fait ses premières armes avec la bande magnétique. Depuis 78 en Hollande, Philips développe le système Laser vision destiné à lire un signal vidéo numérique enregistré sur un disque, grâce à la réflexion d'un rayon laser. A partir du Laser vision, et aidé par le japonais Sony, Philips met au point le CD-Audio de 12 cm (1 h 14 mn de musique maximum) qui est adopté comme standard international. Le véritable ancêtre du disque compact est le disque de vinyle. Mais auparavant, entre les deux Guerres, on avait déjà fait un certain progrès dans le domaine du son depuis la machine à parler de Thomas Edison et le téléphone d'Alexander Graham Bell. En effet, des compagnies telles que Western Electric et General Electric, par leur contribution à l'invention de microphones et de haut-parleurs électromagnétiques, ainsi que Bell Telephone, qui a produit la première stéréophonie, ont joué un grand rôle dans l'apparition et le développement du disque en vinyle et de la bande magnétique.
Histoire des Techniques Page 47

Au début des années 1980, des laboratoires de Philips et Sony, apparaissait le disque compact. Mais ce n'est qu'après quelques années qu'il s'implanta dans les marchés. De même avec le développement de l'informatique les disques dur installés sur les ordinateurs pouvaient aussi être utilisés pour enregistrer des sons sous forme de fichiers aux formats VOC, MID, Wav, etc.. Le disque compact est une technique de stockage par sillons. Il mesure 12 cm de diamètre. Il s'agit de faire tourner le disque sur lui-même pendant qu'on grave un sillon de l'extérieur vers l'intérieur. Mais contrairement au disque de vinyle gravé directement, on veut ici creuser une très mince spirale dans une couche réflective. De la même manière, alors qu'on lit le vinyle avec une aiguille qui suit le sillon, c'est un laser qui balaie le disque compact et qui sera réfléchi vers un photo-détecteur.

Pour lire un CD, le laser a besoin de moins de puissance, soit 0,8 milliwatt. Un faisceau balaye la surface du disque. Lorsqu'il atteint la couche de cianine, il est plus ou moins réfléchi en fonction de la présence ou non de cuvettes en direction d'un photodétecteur. Frappé par les photons, celui-ci génère une charge électrique correspondant à la présence de données. Par décodage de ce signal grâce à un microprocesseur, on arrive à lire les informations. Par la présence ou l'absence de cuvettes dans la couche réflective, les données sont enregistrées dans un CD par code binaire. En effet, pour un code 1, le laser d'écriture crée une cuvette; pour un 0, il n'est pas émis. Parallèlement, s'il y a une cuvette à la lecture, c'est 1 qui est transmis au processeur; si au contraire le laser est réfléchi, c'est 0. Le convertisseur annexé pourra ensuite convertir les données binaires en texte, en sons, en images, etc. Remarquons également qu'une partie des circuits d'un lecteur CD est réservée pour la détection et la correction d'erreurs de lecture de bits, qui peuvent être causées par la poussière, les égratignures, les marques de doigts. Les CD audio contiennent des données enregistrées depuis un mode audio qualité CD. Ils sont inscrits par la gravure d'un sillon directement convertissable en sons. Ils sont lisibles par un lecteur CD audio ainsi que par tous les lecteurs CD-ROM. On peut enregistrer sur un seul CD jusqu'à 75 minutes de son. Le disque compact doit sa grande popularité à plusieurs avantages que ses ancêtres n'offraient pas, dont la plupart ont été rendus possibles grâce à la digitalisation. En effet, il permet une meilleure précision et une plus grande clarté, puisqu'il est plus détaillé que les anciens systèmes analogiques. À cause de ces avantages, il est utilisé dans de nombreux domaines. Il comporte des applications domestiques, commerciales, industrielles et scientifiques. Les compagnies de disques l'utilisent pour les enregistrements finals. En effet, le CD offre une meilleure qualité de son. Il est beaucoup plus fiable que ses compétiteurs, car rien ne peut être effacé ou modifié, étant donné que les sillons creusés ne peuvent être remplis. Ainsi on
Histoire des Techniques Page 48

peut garantir au consommateur une version intégrale et à l'artiste une protection contre les modifications. Par contre, ce peut être aussi considéré comme un inconvénient pour ceux qui veulent l'utiliser comme support personnel. Le CD surpasse à la volée les anciens disques et la cassette à bande magnétique. Il se démarque par sa qualité de son plus uniforme et de plus grande fréquence, par une absence complète de bruits de fond et par un champ dynamique plus grand. Enfin, en utilisant le laser, on évite tout contact mécanique entre les pièces, donc l'usure, ce qui donne au lecteur et au disque une plus grande espérance de vie. Si l'on se fie à l'expansion actuelle de l'informatique, le DVD Monopoli sera sûrement les marchés de stockage portatif. Bien plus, les DVD réinscriptibles devraient envahir les marchés; ainsi la cassette audio disparaîtra bientôt. Ainsi, le DVD audio sera le seul support ouvert au grand public. Parallèlement, Sony a inventé en 1992 le MiniDisc, un disque compact de 6,35 cm de diamètre, tout en contenant jusqu'à 75 minutes de musique. Sa petite taille a été rendue possible grâce à un système de réduction de données utilisant les principes psycho-acoustiques pour éliminer l'information normalement non entendue par l'auditeur. Par contre, les MiniDiscs ne peuvent être lus que par leurs propres lecteurs et gravés que par leurs propres graveurs, développés aussi par Sony. Le MiniDisc n'a pas été aussi populaire qu'on le croyait.

Les circuits électroniques
Les sons numérisés (mp3,wma,voc,wav,...) sont stockés dans une mémoire électronique.

Grâce à l'enregistrement numérique d'autres solutions techniques se développent dans les années 90 : enregistreur de poche, petites mémoires sous forme de carte "SmartMédia" utilisées par exemple dans les modems, répondeurs téléphoniques, etc...

Présentation du format MP3
Le format MP3 (« MPEG-1 Audio layer 3 ») est un format de compression de données audio par destruction de données, développé par l'organisation de standardisation internationale (ISO - International Standard Organization). Ce format permet de compresser à un taux de 1:12 les formats audio habituels (WAV ou CD audio). Il permet de faire tenir l'équivalent en fichiers de douze albums de musique sur un seul CDROM. De plus, le format MP3 n'altère que faiblement le son pour l'oreille humaine.

Histoire des Techniques

Page 49

Le contexte
En fait la compression MPEG layer 3 consiste à retirer des données audio les fréquences inaudibles pour l'auditeur moyen dans des conditions habituelles d'écoute. La compression vise donc à analyser les composantes spectrométriques d'un signal audio, et de leur appliquer un modèle psychoacoustique pour ne conserver que les sons « audibles ». L'oreille humaine est capable de discerner, en moyenne, des sons entre 0.02 kHz et 20 kHz, sachant que sa sensibilité est maximale pour des fréquences entre 2 et 5 kHz (la voix humaine est entre 0.5 et 2 kHz), suivant une courbe donnée par la loi de Fletcher et Munson. La compression consiste à déterminer les sons que nous n'entendons pas et à les supprimer, il s'agit donc d'une compression destructive, c'est-à-dire avec une perte d'information.

Les procédés L'effet de masque
Gabriel Bouvigne explique : « Lorsque vous regardez le soleil et qu'un oiseau passe dans son axe, vous ne le voyez pas car la lumière provenant du soleil est trop importante. En acoustique, c'est similaire. Lorsqu'il y a des sons de fort volume sonore, vous n'entendez pas les sons faibles. Prenez l'exemple d'un orgue : lorsqu'un organiste ne joue pas, vous entendez le souffle dans les tuyaux, et quand il joue, vous ne l'entendez plus car il est masqué. Il n'est donc pas essentiel d'enregistrer tous les sons, c'est la première propriété utilisée par le format MP3 pour gagner de la place. »

Le réservoir de bytes
Souvent, certains passages d'une musique ne peuvent pas être encodés sans altérer la qualité. Le mp3 utilise donc un petit réservoir de bytes qui agit en utilisant des passages qui peuvent être encodés à un taux inférieur au reste des données.

Le joint stereo
Dans beaucoup de chaînes hi-fi, il y a un boomer unique (qui produit les basses). Cependant on n'a pas l'impression que le son vient de ce boomer mais plutçt des haut-parleurs satellites. En effet, en dessous d'une fréquence donnée l'oreille humaine est incapable de localiser l'origine du son. Le format mp3 peut exploiter (en option) cette astuce en utilisant la méthode du joint stereo. C'est-à-dire que certaines fréquences sont enregistrées en mono mais elles sont accompagnées d'informations complémentaires afin de restituer un minimum d'effet spatial.

Le code Huffman
La technique de l'algorithme Huffman est un algorithme de codage (et non de compression), qui agit à la fin de la compression, en créant des codes de longueurs variables sur un grand nombre de bits. Les codes ont l'avantage d'avoir un préfixe unique, ils peuvent toutefois être décodés correctement malgré leur longueur variable, et rapidement grâce à une correspondance de tables. Ce type d'encodage permet de gagner en moyenne un peu moins de 20% d'espace. Lorsque les sons sont « purs » (lorsqu'il n'y a pas de masquage) l'algorithme Huffman est très efficace car le son digitalisé contient de nombreux sons redondants.

Histoire des Techniques

Page 50

Les résultats
Ainsi, une minute d'un CD-audio (à une fréquence de 44.1 kHz, 16 bits, stéréo) ne prendra qu'un seul Mo. Une chanson fait donc en moyenne 3 ou 4 Mo, ce qui rend son téléchargement possible même avec un modem.

Bande passante Mode 11.025 Mono 22.050 Stéréo 44.100 Stéréo 44.100 Stéréo 44.100 Stéréo

Débit 8 kbps 64 kbps 96 kbps 128 kbps 196 kbps

Qualité Très mauvaise Mauvaise Acceptable Bonne Très bonne

Compression 200:1 25:1 16:1 12:1 12:1

Le décodage d'un fichier MP3 est relativement peu coûteuse en utilisation du processeur, tandis que l'encodage est plus gourmand.

La législation
Le format MP3 n'est pas illégal, car il représente uniquement une façon de compresser des données numériques. Par contre son utilisation peut l'être. Lors de l'utilisation de fichiers Mp3, veillez à respecter les droits d'auteur : vous pouvez faire une copie (de sauvegarde) d'une chanson dont vous possédez l'original, mais vous ne pouvez pas télécharger ou archiver une musique d'un artiste dont les droits d'utilisation ne sont pas libérés. Il est ainsi fort peu probable que la chanson que vous rêvez de télécharger (chanson diffusée à la radio, ...) puisse légalement l'être. Il existe des plateformes de téléchargement légal, permettant d'acquérir des MP3 moyennant quelques euros. Attention toutefois, les MP3 ainsi téléchargés peuvent être protégés par des DRM (Digital Right Management), c'est-à-dire un dispositif permettant d'assurer aux ayants-droits que le MP3 ne sera pas copié sur un autre support, limitant ainsi son utilisation et pouvant empêcher sa lecture sur certains appareils.

Logiciels supportant le format MP3
La liste (non exhaustive) de logiciels ci-dessous permet de travailler avec des fichier au format MP3 : • Lecteurs audio : VLC, Windows Media Player, iTunes, RealPlayer, Winamp, Foobar2000 ; • Edition audio : Audacity, Fruity Loops, MP3DirectCut, MP3Gain ; • Conversion et extraction audio : CDex, Free Mp3 Wma Converter, Switch, GX::Transcoder; Le Compact Disc a été inventé par Sony et Philips en 1981 afin de constituer un support audio compact de haute qualité permettant un accès direct aux pistes numériques. Il a été officiellement lancé en octobre 1982. En 1984, les spécifications du Compact Disc ont été étendues (avec l'édition du Yellow Book) afin de lui permettre de stocker des données numériques.

La géométrie du CD

Histoire des Techniques

Page 51

Le CD (Compact Disc) est un disque optique de 12 cm de diamètre et de 1.2 mm d'épaisseur (l'épaisseur peut varier de 1.1 à 1.5 mm) permettant de stocker des informations numériques, c'est-à-dire correspondant à 650 Mo de données informatiques (soient 300 000 pages dactylographiées) ou bien jusqu'à 74 minutes de données audio. Un trou circulaire de 15 mm de diamètre en son milieu permet de le centrer sur la platine de lecture.

La composition du CD
Le CD est constitué d'un substrat en matière plastique (polycarbonate) et d'une fine pellicule métallique réfléchissante (or 24 carat ou alliage d'argent). La couche réfléchissante est recouverte d'une laque anti-UV en acrylique créant un film protecteur pour les données. Enfin, une couche supplémentaire peut être ajoutée afin d'obtenir une face supérieure imprimée.

La couche réfléchissante possède de petites alvéoles. Ainsi lorsque le laser traverse le substrat de polycarbonate, la lumière est réfléchie sur la couche réfléchissante, sauf lorsque le laser passe sur une alvéole, c'est ce qui permet de coder l'information. Cette information est stockée sur 22188 pistes gravées en spirales (il s'agit en réalité d'une seule piste concentrique).

Les CD achetés dans le commerce sont pressés, c'est-à-dire que les alvéoles sont réalisées grâce à du plastique injecté dans un moule contenant le motif inverse. Une couche métallique est ensuite coulée sur le substrat en polycarbonate, et cette couche métallique est elle-même prise sous une couche protectrice. Les CD vierges par contre (CD-R) possèdent une couche supplémentaire (située entre le substrat et la couche métallique) composée d'un colorant organique (en anglais dye) pouvant
Histoire des Techniques Page 52

être marqué (le terme brûler est souvent utilisé) par un laser de forte puissance (10 fois celle nécessaire pour la lecture). C'est donc la couche de colorant qui permet d'absorber ou non le faisceau de lumière émis par le laser.

Les colorants les plus souvent utilisés sont :
• • •

La cyanine de couleur bleue, donnant une couleur verte lorsque la couche métallique est en or La pthalocyanine de couleur "vert clair", donnant une couleur dorée lorsque la couche métallique est en or L'AZO, de couleur bleu foncé

Etant donné que l'information n'est plus stockée sous forme de cavité mais par une marque "colorée", une pré-spirale (en anglais pre-groove) est présente dans le support vierge afin d'aider le graveur à suivre le chemin en spirale, ce qui évite la présence d'une mécanique de précision sur les graveurs de CD-R. D'autre part, cette spirale ondule selon une sinusoïdale, appelée wobble, possédant une amplitude de +/-0.03µm (30nm) et une fréquence de 22,05kHz. Le wobble permet de donner une information au graveur sur la vitesse à laquelle il doit graver. Cette information est appelée ATIP (Absolute Time in PreGroove).

Fonctionnement
La tête de lecture est composée d'un laser (Light Amplification by Stimulated Emission of Radiation) émettant un faisceau lumineux et d'une cellule photoélectrique chargée de capter le rayon réfléchi. Le laser utilisé par les lecteurs de CD est un laser infrarouge (possédant une longueur d'onde de 780 nm) car il est compact et peu coûteux. Une lentille située à proximité du CD focalise le faisceau laser sur les alvéoles. Un miroir semi réfléchissant permet à la lumière réfléchie d'atteindre la cellule photoélectrique, comme expliqué sur le dessin suivant :

Histoire des Techniques

Page 53

Un chariot est chargé de déplacer le miroir de façon à permettre à la tête de lecture d'accéder à l'intégralité du CD-ROM. On distingue généralement deux modes de fonctionnement pour la lecture de CD :




La lecture à vitesse linéaire constante (notée CLV soit constant linear velocity). Il s'agit du mode de fonctionnement des premiers lecteurs de CD-ROM, basé sur le fonctionnement des lecteurs de CD audio ou bien même des vieux tourne-disques. Lorsqu'un disque tourne, la vitesse des pistes situées au centre est moins importante que celle des pistes situées sur l'extérieur, ainsi il est nécessaire d'adapter la vitesse de lecture (donc la vitesse de rotation du disque) en fonction de la position radiale de la tête de lecture. Avec ce procédé la densité d'information est la même sur tout le support, il y a donc un gain de capacité. Les lecteurs de CD audio possèdent une vitesse linéaire comprise entre 1.2 et 1.4 m/s. La lecture à vitesse de rotation angulaire constante (notée CAV pour constant angular velocity) consiste à ajuster la densité des informations selon l'endroit où elles se trouvent afin d'obtenir le même débit à vitesse de rotation égale en n'importe quel point du disque. Cela crée donc une faible densité de données à la périphérie du disque et une forte densité en son centre.

La vitesse de lecture du lecteur de CD-ROM correspondait à l'origine à la vitesse de lecture d'un CD audio, c'est-à-dire un débit de 150 ko/s. Cette vitesse a par la suite été prise comme référence et notée 1x. Les générations suivantes de lecteurs de CD-ROM ont été caractérisées par des multiples de cette valeur. Le tableau suivant donne les équivalences entre les multiples de 1x et le débit : Débit 150 1x k o / s 400 à 600 ms Temps de répons e

Histoire des Techniques

Page 54

300 2x 450 3x 600 4x 900 6x 1200 8x 1500 10x 1800 12x 2400 16x 3000 20x 3600 24x 32x 4500 k Histoire des Techniques Page 55 k o / s 70 à 90 ms 70 à 90 ms k o / s 75 à 100 ms k o / s 80 à 120 ms k o / s 90 à 150 ms k o / s 100 à 160 ms k o / s 120 à 180 ms k o / s 140 à 200 ms k o / s 150 à 220 ms k o / s 180 à 240 ms k o / s 200 à 400 ms

o / s 6000 40x 7800 52x k o / s 60 à 80 ms k o / s 60 à 80 ms

Le codage des informations
La piste physique est en fait constituée d'alvéoles d'une profondeur de 0,168µm, d'une largeur de 0,67µm et de longueur variable. Les pistes physiques sont écartées entre elles d'une distance d'environ 1.6µm. On nomme creux (en anglais pit) le fond de l'alvéole et on nomme plat (en anglais land) les espaces entre les alvéoles.

Le laser utilisé pour lire les CD a une longueur d'onde de 780 nm dans l'air. Or l'indice de réfraction du polycarbonate étant égal à 1.55, la longueur d'onde du laser dans le polycarbonate vaut 780 / 1.55 = 503nm = 0.5µm.
Histoire des Techniques Page 56

La profondeur de l'alvéole correspond donc à un quart de la longueur d'onde du faisceau laser, si bien que l'onde se réfléchissant dans le creux parcourt une moitié de longueur d'onde de plus (un quart à l'aller plus un quart au retour) que celle se réfléchissant sur le plat. De cette façon, lorsque le laser passe au niveau d'une alvéole, l'onde et sa réflexion sont déphasées d'une demi-longueur d'onde et s'annulent (interférences destructrices), tout se passe alors comme si aucune lumière n'était réfléchie. Le passage d'un creux à un plat provoque une chute de signal, représentant un bit. C'est la longueur de l'alvéole qui permet de définir l'information. La taille d'un bit sur le CD, notée "T", est normalisée et correspond à la distance parcourue par le faisceau lumineux en 231.4 nanosecondes, soit 0.278µm à la vitesse standard minimale de 1.2 m/s. D'après le standard EFM (Eight-to-Fourteen Modulation), utilisé pour le stockage d'information sur un CD, il doit toujours y avoir au minimum deux bits à 0 entre deux bits consécutifs à 1 et il ne peut y avoir plus de 10 bits consécutifs à zéro entre deux bits à 1 pour éviter les erreurs. C'est pourquoi la longueur d'une alvéole (ou d'un plat) correspond au minimum à la longueur nécessaire pour stocker la valeur OO1 (3T, c'est-à-dire 0.833µm) et au maximum à la longueur correspondant à la valeur 00000000001 (11T, soit 3.054µm).

Standards
Il existe de nombreux standards décrivant la façon selon laquelle les informations doivent être stockées sur un disque compact, selon l'usage que l'on désire en faire. Ces standards sont référencés dans des documents appelés books (en français livres) auxquels une couleur a été affectée :




Red book (livre rouge appelé aussi RedBook audio): Développé en 1980 par Sony et Philips, il décrit le format physique d'un CD et l'encodage des CD audio (notés parfois CD-DA pour Compact Disc Digital Audio). Il définit ainsi une fréquence d'échantillonnage de 44.1 kHz et une résolution de 16 bits en stéréo pour l'enregistrement des données audio. Yellow book (livre jaune): il a été mis au point en 1984 afin de décrire le format physique des CD de données (CD-ROM pour Compact Disc - Read Only Memory). Il comprend deux modes : o CD-ROM Mode 1 , utilisé pour stocker des données avec un mode de correction d'erreurs (ECC, pour Error Correction Code) permettant d'éviter les pertes de données dûes à une détérioration du support o CD-ROM Mode 2, permettant de stocker des données graphiques, vidéo ou audio compressées. Pour pouvoir lire ce type de CD-ROM un lecteur doit être compatible Mode 2. Page 57

Histoire des Techniques

• •

• •

Green book (livre vert): format physique des CD-I (CD Interactifs de Philips) Orange book (livre orange): format physique des CD inscriptibles. Il se décline en trois parties : o Partie I: le format des CD-MO (disques magnéto-optiques) o Partie II: le format des CD-WO (Write Once, désormais notés CD-R) o Partie III: le format des CD-RW (CD ReWritable ou CD réinscriptibles) White book (livre blanc): format physique des CD vidéo (VCD ou VideoCD) Blue book (livre bleu): format physique des CD extra (CD-XA)

Structure logique
Un CD-R, qu'il soit audio ou CD-ROM, est constitué, d'après le Orange Book, de trois zones constituant la zone d'information (information area) :






La zone Lead-in Area (parfois notée LIA) contenant uniquement des informations décrivant le contenu du support (ces informations sont stockées dans la TOC, Table of Contents). La zone Lead-in s'étend du rayon 23 mm au rayon 25 mm. Cette taille est imposée par le besoin de pouvoir stocker des informations concernant un maximum de 99 pistes. La zone Lead-in sert au lecteur de CD à suivre les creux en spirale afin de se synchroniser avec les données présentes dans la zone programme La zone Programme (Program Area) est la zone contenant les données. Elle commence à partir d'un rayon de 25 mm, s'étend jusqu'à un rayon de 58mm et peut contenir l'équivalent de 76 minutes de données. La zone programme peut contenir un maximum de 99 pistes (ou sessions) d'une longueur minimale de 4 secondes. La zone Lead-Out (parfois notée LOA) contenant des données nulles (du silence pour un CD audio) marque la fin du CD. Elle commence au rayon 58 mm et doit mesurer au moins O.5 mm d'épaisseur (radialement). La zone lead-out doit ainsi contenir au minimum 6750 secteurs, soit 90 secondes de silence à la vitesse minimale (1X).

Histoire des Techniques

Page 58

Un CD-R contient, en plus des trois zones décrites ci-dessus, une zone appelée PCA (Power Calibration Area) et une zone PMA (Program Memory Area) constituant à elles deux une zone appelé SUA (System User Area). La PCA peut être vue comme une zone de test pour le laser afin de lui permettre d'adapter sa puissance au type de support. C'est grâce à cette zone qu'est possible la commercialisation de supports vierges utilisant des colorants organiques et des couches réfléchissantes différents. A chaque calibration, le graveur note qu'il a effectué un essai. Un maximum de 99 essais par media est autorisé.

Systèmes de fichiers
Le format de CD (ou plus exactement le système de fichiers) s'attache à décrire la manière selon laquelle les données sont stockées dans la zone programme. Le premier système de fichiers historique pour les CD est le High Sierra Standard. Le format ISO 9660 normalisé en 1984 par l'ISO (International Standards Organization) reprend le High Sierra Standard afin de définir la structure des répertoires et des fichiers sur un CD-ROM. Il se décline en trois niveaux :


Niveau 1 : Un CD-ROM formaté en ISO 9660 Level 1 ne peut contenir que des fichiers dont le nom est en majuscule (A-Z), pouvant contenir des chiffres (0-9) ainsi que le caractère "_". L'ensemble de ces caractères est appelé d-characters. Les répertoires ont un nom limité à 8 d-characters et une profondeur Page 59

Histoire des Techniques





limitée à 8 niveaux de sous-répertoires. De plus la norme ISO 9660 impose que chaque fichier soit stocké de manière continue sur le CDROM, sans fragmentation. Il s'agit du niveau le plus restrictif. Le respect du niveau 1 permet ainsi de s'assurer que le média sera lisible sur un grand nombre de plates formes. Niveau 2 : Le format ISO 9660 Level 2 impose que chaque fichier soit stocké comme un flux continu d'octets, mais permet un nommage de fichiers plus souple en acceptant notamment les caractères @ - ^ ! $ % & ( ) # ~ et une profondeur de 32 sousrépertoires maximum. Niveau 3 : Le format ISO 9660 Level 3 n'impose aucune restriction de noms de fichiers ou de répertoires.

Microsoft a également défini le format Joliet, une extension au format ISO 9660 permettant d'utiliser des noms de fichiers longs (LFN, long file names) de 64 caractères comprenant des espaces et des caractères accentués selon le codage Unicode. Le format ISO 9660 Romeo est une option de nommage proposée par Adaptec, indépendante donc du format Joliet, permettant de stocker des fichiers dont le nom peut aller jusqu'à 128 caractères mais ne supportant pas le codage Unicode. Le format ISO 9660 RockRidge est une extension de nommage au format ISO 9660 lui permettant d'être compatible avec les systèmes de fichiers UNIX. Afin de pallier les limitations du format ISO 9660 (le rendant notamment inapproprié pour les DVD-ROM), l'OSTA (Optical Storage Technology Association) a mis au point le format ISO 13346, connu sous le nom de UDF (Universal Disk Format).

Les méthodes d'écriture




• •

• •

Monosession : Cette méthode crée une seule session sur le disque et ne donne pas la possibilité de rajouter des données ultérieurement. Multisession : Contrairement à la méthode précédente, cette méthode permet de graver un CD en plusieurs fois, en créant une table des matières (TOC pour table of contents) de 14Mo pour chacune des sessions Multivolume : C'est la gravure Multisession qui considère chaque session comme un volume séparé. Track At Once : Cette méthode permet de désactiver le laser entre deux pistes, afin de créer une pause de 2 secondes entre chaque piste d'un CD audio. Disc At Once : Contrairement à la méthode précédente, le Disc At Once écrit sur le CD en une seule traite (sans pause). Packet Writing : Cette méthode permet la gravure par paquets.

Histoire des Techniques

Page 60

Caractéristiques techniques
Un lecteur CD-ROM est caractérisé par les éléments suivants :


• •

Vitesse: la vitesse est calculée par rapport à la vitesse d'un lecteur de CD-Audio (150 Ko/s). Un lecteur allant à 3000Ko/s sera qualifié de 20X (20 fois plus rapide qu'un lecteur 1X). Temps d'accès : il représente le temps moyen pour aller d'une partie du CD à une autre. Interface : ATAPI (IDE) ou SCSI ;

Histoire des Techniques

Page 61

Sponsor Documents

Or use your account on DocShare.tips

Hide

Forgot your password?

Or register your new account on DocShare.tips

Hide

Lost your password? Please enter your email address. You will receive a link to create a new password.

Back to log-in

Close