mardi 20 septembre 2011

Carte mère






La carte mère est un matériel informatique (composé de circuits imprimés et de ports de connexion) servant à interconnecter tous les composants d’un micro-ordinateur.

Description

==============

L'élément constitutif principal de l'ordinateur est la carte mère (en anglais « mainboard » ou « motherboard », parfois abrégé en « mobo »). La carte mère est le socle permettant la connexion de l'ensemble des éléments essentiels de l'ordinateur. En électronique ce type de carte se nomme la carte « fond de panier » car elle se charge d’interconnecter toutes les autres cartes et périphériques. Encore aujourd’hui elle se fixe au fond du boîtier. Au cours de son évolution, la carte mère a intégré certaines fonctions et en a perdu d’autres ; La mémoire cache du processeur fut intégré à celui-ci par contre les cartes contrôleuses de disques durs, la carte son, la carte USB ou la carte réseau et même parfois la carte graphique font maintenant partie intégrante du chipset, mais des puces peuvent venir s'ajouter pour offrir de nouvelle fonctionnalités (comme l'USB 3.0 ou le S-ATA 2.0 pour le chipset AMD 870, qui ne les gère pas nativement). On peut donc dire que toutes les cartes mères du marché sont différentes par les options qu’elles proposent. Pour interconnecter toutes ces fonctions la carte mère utilise des circuits spéciaux appelés Chipset, composés du northbridge, pour les pérphériques "rapides" (processeur, PCI-express, etc) et du southbridge pour les périphériques "lents" (PCI, disques durs et SSD, etc, etc...). Ces derniers ont pour rôles de faire dialoguer le processeur, la RAM, les disques durs et tous les périphériques ensemble. Certains de ces périphériques demandent à être configurés, pour cela la carte mère dispose d’un BIOS (Basic Input/Output System), un programme de démarrage qui permet de tester le matériel et le périphérique présent et de leur appliquer des paramètres de configuration. Le BIOS cherche enfin le BOOT du disque dur et lance le système d’exploitation ; on dit que le PC démarre (boot en anglais). Si pour une raison quelconque un périphérique, la RAM, ou une carte d’extension est défectueuse ou ne s’initialise pas, la carte mère émet un certain nombre de Beep pour indiquer le dysfonctionnement, en fonction du modèle du BIOS (certaines cartes mères ASUS parlent…).

Les éléments

==============

 

Voici les éléments qu'on peut trouver sur une carte mère, certains n'étant plus présents sur les cartes mères vendues en 2009.
  • Un ou plusieurs connecteurs d’alimentation électrique : Par ces connecteurs une alimentation électrique fournit à la carte mère les diverses tensions électriques nécessaires à son fonctionnement ;
  • Le support du micro-processeur (souvent appelé socket) : il s’agit d’un réceptacle qui reçoit le micro-processeur et le relie au reste du micro-ordinateur ;
  • Les connecteurs de la mémoire vive (memory slot en anglais) au nombre de 2, 3, 4 ou 6 sur les cartes mères communes ;
  • Le chipset : Un ou plusieurs circuit électronique, qui gère les transferts de données entre les différentes composantes de l’ordinateur (micro-processeur, mémoire vive, disque dur, etc.) ;
  • Une horloge : elle cadence la vitesse d’exécution des instructions du microprocesseur et des périphériques internes ;
  • Le CMOS : Une petite mémoire conservant certaines informations importantes (comme la configuration de l’ordinateur, la date et l’heure) même lorsque l’ordinateur n’est pas alimenté en électricité ;
  • La pile ou batterie d’accumulateurs du CMOS : Elle fournit l’électricité nécessaire au fonctionnement du circuit ;
  • Le BIOS : Un programme enregistré dans une mémoire morte (ROM). Ce programme, spécifique à la carte, gère l’interface de bas niveau entre le micro-processeur et certains périphériques. Il récupère, puis fait exécuter, les instructions du master boot record enregistrées dans une mémoire de masse (disque dur), lors du démarrage du micro-ordinateur ;
  • Le bus système (aussi appelé bus interne ou Front Side Bus (FSB) en anglais) : Il relie le micro-processeur au chipset ;
  • Le bus mémoire relie le chipset à la mémoire vive ;
  • Le bus d’extension (aussi appelé bus d’entrées/sorties) : Il relie le micro-processeur aux connecteurs d’entrée/sortie et aux connecteurs d’extension ;
  • Les connecteurs d’entrée/sortie qui respectent le plus souvent la norme PC 99 : ces connecteurs incluent :
  • Les connecteurs d’extension : ce sont des réceptacles pouvant accueillir des cartes d’extension (ces cartes sont utilisées pour ajouter des fonctionnalités ou augmenter la performance d’un micro-ordinateur, par exemple une carte graphique peut être ajoutée à un ordinateur pour améliorer les performances de l’affichage 3D sur le moniteur). Ces ports peuvent être des ports ISA (vieille interface), PCI (Peripheral Component Interconnect), AGP ou, plus récent, le PCI Express, qui existe sous forme de PCI-e x1, x4, x8, et x16, ce port étant souvent occupé par une carte graphique.
Avec l’évolution des ordinateurs, de plus en plus de fonctionnalités ont été intégrées à la carte mère, comme des circuits électroniques permettant la gestion de la vidéo (IGP pour Integrated Graphic Processor), du son ou des réseaux (10/100 Mbps/1 Gbps), évitant ainsi l’adjonction de cartes d’extension.

Les fabricants

===============

Plusieurs constructeurs se partagent le marché des cartes mères tel que Abit, Albatron, Aopen, Asrock, ASUS, ATI, Biostar, Chaintech, DFI, Elite, Epox, EVGA, Foxconn, Gigabyte Technology, Intel, MSI, NVIDIA, QDI, Sapphire, Soltek, Super Micro, Tyan, Via, XFX.
Certains conçoivent et fabriquent une ou plusieurs composantes de la carte mère tandis que d’autres assemblent les éléments que des partenaires ont conçus et fabriqués.

Carte multi-processeurs

=======================

C’est un type de carte mère capable d’accueillir plusieurs processeur (généralement 2, 4, 8 ou plus). Ces cartes mères multiprocesseurs disposant de plusieurs supports de micro-processeur (sockets), ce qui permet de leur enficher plusieurs micro-processeurs physiquement distincts (par opposition aux processeurs double cœur).
Lorsque deux processeurs sont présents sur une carte, il y a deux manières de les gérer :
  • La manière asymétrique, où chaque processeur se voit attribuer une tâche différente. Cette méthode n’accélère pas les traitements, mais permet de confier une tâche à un processeur pendant que l’autre est occupé à une tâche différente.
  • La manière symétrique, dite SMP (Symmetric MultiProcessing) où chaque tâche est répartie symétriquement entre les deux processeurs.
Le système d’exploitation Linux fut le premier à gérer les architectures bi-processeur sur x86. Toutefois, la gestion de plusieurs processeurs existait bien avant sur d’autres plates-formes et d’autres systèmes d’exploitation.
Le système Linux 2.6.x gère parfaitement les multiprocesseurs symétriques, ainsi que les architectures à mémoire non-uniformément répartie (NUMA).
Certains fabricants de cartes mères fabriquent des cartes mères pouvant accueillir jusqu'à 8 processeurs (en l’occurrence sur socket 939 pour AMD Opteron et sur socket 604 pour Intel Xeon).

Processeur







Le processeur, ou CPU (de l'anglais Central Processing Unit, « Unité centrale de traitement »), est le composant de l'ordinateur qui exécute les programmes informatiques. Avec la mémoire notamment, c'est l'un des composants qui existent depuis les premiers ordinateurs et qui sont présents dans tous les ordinateurs. Un processeur construit en un seul circuit intégré est un microprocesseur.
L'invention du transistor en 1948 a ouvert la voie à la miniaturisation des composants électroniques.
Les processeurs des débuts étaient conçus spécifiquement pour un ordinateur d'un type donné. Cette méthode coûteuse de conception des processeurs pour une application spécifique a conduit au développement de la production de masse de processeurs qui conviennent pour un ou plusieurs usages. Cette tendance à la standardisation qui débuta dans le domaine des ordinateurs centraux (mainframes à transistors discrets et mini-ordinateurs) a connu une accélération rapide avec l'avènement des circuits intégrés. Les circuits intégrés ont permis la miniaturisation des processeurs. La miniaturisation et la standardisation des processeurs ont conduit à leur diffusion dans la vie moderne bien au-delà des usages des machines programmables dédiées.

L'introduction du microprocesseur dans les années 1970 a marqué de manière significative la conception et l'implémentation des unités centrales de traitement. Depuis l'introduction du premier microprocesseur (Intel 4004) en 1971 et du premier microprocesseur employé couramment (Intel 8080) en 1974, cette classe de processeurs a presque totalement dépassé toutes les autres méthodes d'implémentation d'unité centrale de traitement. Les fabricants d'ordinateurs centraux (mainframe et miniordinateurs) de l'époque ont lancé leurs propres programmes de développement de circuits intégrés pour mettre à niveau les architectures anciennes de leurs ordinateurs et ont par la suite produit des microprocesseurs à jeu d'instructions compatible en assurant la compatibilité ascendante avec leurs anciens modèles. Les générations précédentes des unités centrales de traitement comportaient un assemblage de composants discrets et de nombreux circuits faiblement intégrés sur une ou plusieurs cartes électroniques. Les microprocesseurs sont construits avec un très petit nombre de circuits très fortement intégrés (ULSI), habituellement un seul. Les microprocesseurs sont implémentés sur une seule puce électronique, donc de dimensions réduites, ce qui veut dire des temps de commutation plus courts liés à des facteurs physiques comme par exemple la diminution de la capacité parasite des portes. Ceci a permis aux microprocesseurs synchrones d'augmenter leur fréquence de base de quelques dizaines de mégahertz à plusieurs gigahertz. De plus, à mesure que la capacité à fabriquer des transistors extrêmement petits sur un circuit intégré a augmenté, la complexité et le nombre de transistors dans un seul processeur ont considérablement crû. Cette tendance largement observée est décrite par la loi de Moore, qui s'est avérée être jusqu'ici un facteur prédictif assez précis de la croissance de la complexité des processeurs (et de tout autre circuit intégré).
Les processeurs multi cœurs (multicores) récents comportent maintenant plusieurs cœurs dans un seul circuit intégré. Leur efficacité dépend grandement de la topologie d'interconnexion entre les cœurs. De nouvelles approches, comme la superposition de la mémoire et du cœur de processeur (memory stacking), sont à l'étude, et devraient conduire à un nouvel accroissement des performances. En se basant sur les tendances des dix dernières années, les performances des processeurs devraient atteindre le Pétaflop, vers 2010 pour les serveurs, et à l'horizon 2030 dans les PC.[réf. nécessaire]
Début juin 2008, le supercalculateur militaire IBM Roadrunner est le premier à franchir cette barre symbolique du Pétaflop. Puis, en novembre 2008, c'est au tour du supercalculateur Jaguar de Cray. En avril 2009, ce sont les deux seuls supercalculateurs à avoir dépassé le Petaflop.
Tandis que la complexité, la taille, la construction, et la forme générale des processeurs ont fortement évolué au cours des soixante dernières années, la conception et la fonction de base n'ont pas beaucoup changé. Presque tous les processeurs communs d'aujourd'hui peuvent être décrits très précisément comme machines à programme enregistré de von Neumann. Alors que la loi de Moore, mentionnée ci-dessus, continue de se vérifier, des questions ont surgi au sujet des limites de la technologie des circuits intégrés à transistors. La miniaturisation des portes électroniques est si importante que les effets de phénomènes comme l'électromigration (dégradation progressive des interconnexions métalliques entraînant une diminution de la fiabilité des circuits intégrés) et les courants de fuite (leur importance augmente avec la réduction des dimensions des circuits intégrés ; ils sont à l'origine d'une consommation d'énergie électrique pénalisante), auparavant négligeables, deviennent de plus en plus significatifs. Ces nouveaux problèmes sont parmi les nombreux facteurs conduisant les chercheurs à étudier, d'une part, de nouvelles technologies de traitement telles que l'ordinateur quantique ou l'usage du calcul parallèle et, d'autre part, d'autres méthodes d'utilisation du modèle classique de von Neumann.

Flashage de BIOS

Le flashage du BIOS est une mise à jour du BIOS par voie logicielle, c'est-à-dire un remplacement de la version du BIOS grâce à un programme.
Le terme BIOS regroupe vulgairement l'aspect logiciel d'une part (l'ensemble des données nécessaires à gérer, coordonner et paramétrer les divers composants d'un ordinateur) et d'autre part l'aspect matériel puisque ces données sont contenues dans une puce dédiée (EEPROM de type CMOS).
Sur les premiers PC les BIOS étaient des mémoires mortes soudées à la carte mère, les EPROM difficilement modifiables. Certains fabricants proposaient toutefois des correctifs logiciels (appelés patchs) qui étaient stockés sur le disque dur et se chargeaient en mémoire vive (RAM) pour corriger les éventuels bugs. Ils ne pouvaient toutefois agir qu'après le démarrage du PC.
Par la suite les BIOS insérables sur des supports pouvaient être changés matériellement, mais leur prix était très élevé. Puis vint l'apparition des mémoires programmables électroniquement, c'est-à-dire une mémoire pouvant être modifiée grâce à une machine envoyant des impulsions électriques par des connecteurs prévus à cet effet. Ce type de programmateur de puce était cependant rare, si bien que l'opération était relativement coûteuse pour l'utilisateur.
Il existe désormais des cartes-mères comportant des mémoires flash (variété d'EEPROM), mémoires pouvant être modifiées directement par logiciel. Les BIOS situés sur des cartes-mères comportant ce type de mémoire peuvent être mis à jour grâce à un utilitaire propre au fabricant, destiné à permettre le remplacement d'une version du BIOS par une autre version, plus récente ou plus ancienne (utile dans certains cas). S'il était difficile de se procurer ces mises à jour, internet remédia vite à ce problème. Ces mises à jour sont disponibles sous la forme d'un fichier binaire contenant une image du BIOS accompagné d'un utilitaire.

Mémoire vive

La mémoire vive, mémoire système ou mémoire volatile, aussi appelée RAM de l'anglais Random Access Memory (que l'on traduit en français par mémoire à accès direct1 ), est la mémoire informatique dans laquelle un ordinateur place les données lors de leur traitement. Les caractéristiques de cette mémoire sont :
  • sa rapidité d'accès (cette rapidité est essentielle pour fournir rapidement les données au processeur) ;
  • sa volatilité (cette volatilité implique que les données sont perdues dès que l'ordinateur cesse d'être alimenté en électricité).++
La mémoire vive (RAM) est généralement définie en opposition à la mémoire morte (ROM) : les données contenues dans la mémoire vive sont perdues lorsque l'alimentation électrique est coupée alors que la mémoire morte conserve ses données en absence d'alimentation électrique. La mémoire morte n'est donc pas volatile, ce qui la rend nécessaire lors du démarrage d'un ordinateur. En effet, la mémoire vive est dans un état indéterminé lors du démarrage.
Plus rarement, on utilise le sigle RWM (pour Read Write Memory, soit mémoire en lecture écriture) pour désigner la RAM en mettant l'accent sur la possibilité d'écriture plutôt que l'accès arbitraire.
Le sens littéral des termes RAM et mémoire vive peut prêter à confusion. En effet, le terme RAM implique la possibilité d'un accès arbitraire aux données, c'est-à-dire un accès à n'importe quelle donnée n'importe quand, par opposition à un accès séquentiel, comme l'accès à une bande magnétique, où les données sont nécessairement lues dans un ordre défini à l'avance. Or les ROM et les mémoires flash jouissent de la même caractéristique d'accès direct, mais contrairement aux RAM ne sont pas volatiles.

Chipset

Un chipset (de l'anglais, signifiant littéralement ensemble de puces (électroniques)) est un jeu de composants électroniques intégré dans un circuit intégré préprogrammé permettant de gérer les flux de données numériques entre le ou les processeur(s), la mémoire et les périphériques. On en trouve dans des appareils électroniques de type micro-ordinateur, console de jeux vidéo, téléphone mobile, appareil photo numérique, GPS, etc.


Bus informatique

Un bus informatique est un système de communication entre les composants d'un ordinateur. Ce terme regroupe donc indifféremment les systèmes matériels constituant le support de communication (câble, fibre optique, etc), mais aussi le logiciel et le protocole associé. Ces deux aspects, matériel et immatériel, sont en réalité fortement liés, les capacités du support matériel conditionnant en partie le type de communication.
Par exemple, le front side bus relie le microprocesseur à la mémoire vive sur de nombreux ordinateurs, et le bus PCI relie soit le microprocesseur ou bien un autre composant appelé chipset d'un ordinateur aux connecteurs d’extension du même nom, et à la carte qui y est insérée.

Les bus sont situés à l'intérieur d'un même ordinateur et permettent de connecter les différentes parties fonctionnelles de cet ordinateur entre elles.
Les informations transmises peuvent être les informations utiles à échanger entre les dispositifs ou des informations de contrôle permettant de gérer l'état du bus lui-même.
Un bus est souvent caractérisé par une fréquence et le nombre de bits d'informations qu'il peut transmettre simultanément. Lorsqu'un bus peut transmettre plus d'un bit d'information simultanément on parlera d'un bus parallèle, sinon d'un bus série. La fréquence donnée est tantôt la fréquence du signal électrique sur le bus, tantôt la cadence de transmission des informations, qui peut être un multiple de la fréquence du signal.
Ainsi un bus de 32 bits dont le signal a une fréquence de 331/3 mégahertz peut transmettre 32 × 33,33 × 106 bits par seconde soit 1,0666 × 109 bits par seconde, soit 133Mo/s. Ce résultat doit encore être multiplié si la cadence des informations est un multiple du signal.
Les technologies utilisées pour fabriquer les bus sont variées, conducteurs électriques gravés sur un circuit imprimé, câble, fibre optique etc.

Carte graphique

Une carte graphique ou carte vidéo (anciennement par abus de langage une carte VGA), ou encore un adaptateur graphique, est une carte d’extension d’ordinateur dont le rôle est de produire une image affichable sur un écran. La carte graphique envoie à l’écran des images stockées dans sa mémoire, à une fréquence et dans un format qui dépendent d’une part de l’écran branché et du port sur lequel il est branché (grâce au Plug and Play) et de sa configuration interne d’autre part.

Note : Cette section ne concerne que l'historique des machines accessibles au grand public ; les solutions développées par les constructeurs d'ordinateurs tel que Norsk Data (en) à l'époque, ne sont pas prises en compte.
Les premières cartes graphiques ne permettaient, au début de l'ère informatique, qu’un affichage en 2D et se connectaient sur un port Industry standard architecture (ISA) 8 bits ; ce sont les cartes Monochrome Display Adapter (MDA).
Bien que dénommées « cartes graphiques », elles n'affichaient, en monochrome, que de caractères simples codés sur 8 bits, dont une partie était réservée au graphisme ; c'est l'adressage direct en mode ASCII (mode encore utilisé au démarrage par le BIOS de la plupart des ordinateurs en 2009).
Les premières cartes graphique pouvant adresser un point individuel de l'affichage n'apparaissent qu'en 1981 pour le grand public, avec les cartes CGA, ou Color Graphic Adapter, qui permettaient un adressage de points dans une résolution de 320 colonnes sur 200 lignes en 4 couleurs différentes.
Suivent alors une succession de cartes dédiées au graphisme sur ordinateur poussant de plus en plus loin le nombre de lignes et de colonnes adressables, ainsi que de le nombre de couleurs simultanées pouvant être affichées ; ce sont les modes graphiques utilisables.
De plus en plus de fonctions assurées par le processeur sont petit à petit gérées par le contrôleur graphique des cartes. Comme, par exemple, le tracé de lignes, de surfaces pleines, de cercles, etc. ; fonctions très utiles pour accompagner la naissance des systèmes d'exploitation basés sur des interfaces graphiques et en accélérer l'affichage.
Avec l'évolution des techniques, le port ISA est remplacé par le port PCI pour augmenter la vitesse de transfert entre le processeur et la carte graphique.
En plus des cartes graphiques d'affichage en 2D, apparaissent dans les années 1990 des cartes dédiées à la gestion et l'affichage d'éléments représentés en 3 dimensions, comme les cartes 3DFX.
Puis apparurent les cartes graphiques 2D-3D ayant l’avantage de n’occuper qu’un seul connecteur AGP ou PCI au lieu de deux (pour les configurations courantes de l’époque, c’est-à-dire avant 1998). En effet, jusqu’alors, les cartes 2D étaient proposées séparément des cartes dites accélératrice 3D (comme les premières 3dfx), chacune ayant un processeur graphique spécifique.
Depuis la sortie des premières cartes 2D/3D intégrées par ATI en 1996, toutes les cartes graphiques modernes gèrent le 2D et la 3D au sein d'un seul circuit intégré.

Les usages pour une carte graphique[modifier]

Depuis la fin des années 1995, les cartes graphiques ont fortement évolué. Autrefois, la fonction essentielle d’une carte graphique était de transmettre les images produites par l’ordinateur à l’écran. C’est encore sa fonction principale sur beaucoup de machines à vocation bureautique où l’affichage d’images en 3D n’offre que peu d’intérêt. Toutefois aujourd’hui même les cartes graphiques les plus simples gèrent aussi le rendu d’images en 3D. C’est une activité très coûteuse en termes de calculs et en termes de bande passante mémoire. Le GPU (pour Graphical Processing Unit) est donc devenu un composant très complexe, très spécialisé et presque imbattable dans sa catégorie (rendu d’images en 3 dimensions). Hormis pour les jeux vidéo ou quelques usages en infographie, les possibilités des cartes graphiques ne sont que très peu exploitées en pratique. Ainsi, ce sont essentiellement les joueurs qui achètent et utilisent des GPU de plus en plus puissants.
Depuis les années 2000, la puissance de calcul des cartes graphiques est devenue tellement importante pour un coût finalement très réduit (100 à 700 € pour les modèles grand public) que les scientifiques sont de plus en plus nombreux à vouloir en exploiter le potentiel dans d’autres domaines. Il peut s’agir de faire tourner des simulations de modèles météo, financiers ou toute opération parallélisable et nécessitant une très grande quantité de calcul. NVIDIA et ATI/AMD, les 2 principaux fabricants de cartes graphiques haute performance grand public proposent chacun des solutions propriétaires afin de pouvoir utiliser leur produit pour du calcul scientifique ; pour NVIDIA, on pourra se référer au projet CUDA et pour AMD au projet ATI Stream. On parle à ce titre de General-Purpose Processing on Graphics Processing Units (ou GPGPU).
Dès 1996, les cartes graphiques commencent à intégrer des fonctions de décompression vidéo, comme pour la Rage-Pro du fabricant ATI qui intègre déjà en 1996 certaines fonctions de décompression des fluxs MPEG2. Sous des appellations variées, se sont depuis développées des technologies qui permettent de soulager le processeur de la charge incombant à la décompression d'une image 25 (PAL/SECAM) ou 30 (NTSC) fois par seconde dans des définitions toujours plus élevées.
La prise en charge partielle, ou totale, par les GPU des flux vidéos permet le visionnage de films en haute définition sur des plateformes matérielles aux ressources processeur relativement modestes ; ce qui serait impossible sans eux au regard du nombre d'informations à traiter presque simultanément.

Lecteur de disquette

Un lecteur de disquette est un périphérique informatique, inventé par une équipe d'IBM dirigée par David Noble, destiné à la lecture et l'écriture sur une disquette.
Au début des années 2000, le lecteur de disquette disparaît progressivement des configurations de matériel neuf, la disquette étant elle-même devenue obsolète et remplacée principalement par la clé USB.
Les disquettes sont aujourd'hui très peu utilisées à cause de leur faible capacité (2,88 mégaoctets) et de leur lenteur. Les disquettes sont restées longtemps le moyen le plus populaire de stockage externe des fichiers informatiques. Si les disquettes n'ont pas encore disparu, c'est principalement pour leur facilité d'utilisation avec d'anciens systèmes d'exploitation (comme Windows 98, qui nécessite l'installation de pilotes pour l'utilisation d'une clé USB) et la facilité de démarrage. La gestion de l'USB est complexe, elle n'est donc pas présente dans tous les BIOS.
En avril 2010, Sony annonce la fin de la production. C'était le dernier constructeur à produire encore des disquettes, et il avait déjà cessé la fabrication de lecteurs de disquettes en 20091.

CD-ROM

Un CD-ROM (abréviation de Compact Disc - Read Only Memory) ou cédérom1 est un disque optique utilisé pour stocker des données sous forme numérique destinées à être lues par un ordinateur.
Le CD-ROM est une évolution du disque compact original, qui est lui dédié aux données numériques musicales prévues pour un lecteur de CD de chaîne Hi-fi ou de baladeur. Grâce à leur grande capacité de stockage et leur compacité, les cédéroms ont supplanté les disquettes dans la distribution des logiciels et autres données informatiques.

Inventé par Philips en 1979, il sera lancé pour l'audio en 1982 par Philips et Sony. En 1984, les spécifications du Compact Disc ont été étendues (avec l'édition du Yellow Book) afin de lui permettre de stocker des données numériques.


CD-ROM est l’abréviation de l'anglais Compact Disc Read-Only Memory, soit disque compact à mémoire morte (non modifiable). L’abréviation CD est communément utilisée en français, bien que ce soit l’abréviation de Compact Disc et qu’en français la traduction disque compact est recommandée. Le logo Compact Disc Digital Audio est commun sur les disques compacts.
Le terme cédérom, francisation officielle de CD-ROM, provient simplement de la lecture phonétique de ce mot anglais. Depuis lors (1996), cédérom et cd-rom, en minuscules, sont considérés comme des noms communs en français, et prennent donc un s au pluriel. Certains utilisateurs de l'internet, essentiellement en France parmi les informaticiens, considèrent cette francisation comme inappropriée voire proche du langage SMS. Il s'agit ici d'une opinion qui montre que le terme reste controversé malgré sa validation par l'Académie française en métropole et l'Office québécois de la langue française.[réf. nécessaire]

Disque dur

Un disque dur est une mémoire de masse magnétique utilisée principalement dans les ordinateurs, mais également dans des baladeurs numériques, des caméscopes, des lecteurs/enregistreurs de DVD de salon, des consoles de jeux vidéo, des assistants numériques personnels et des téléphones mobiles.

Les ingénieurs d’IBM n’étaient pas satisfaits des systèmes de stockage sur tambours magnétiques : l’efficacité volumétrique était très faible, les tambours occupaient beaucoup d’espace pour peu de capacité. En 1953, un ingénieur récemment embauché eut l’idée de superposer des plateaux le long d’un axe et d’y adjoindre une tête de lecture/écriture mobile, située sur un axe parallèle à celui des plateaux. Cette tête venait s’insérer entre les plateaux pour lire les informations, mais devait se retirer complètement pour passer d’un plateau à un autre. Un prototype fut construit avec une vitesse de rotation de 1 200 tours par minute et avait un débit de transfert de 8,8 Ko/s. À cette vitesse de rotation, il était compliqué de maintenir les têtes au-dessus de la surface des plateaux. L’idée fut alors d’injecter de l’air sous pression au travers de la tête de lecture, ce qui la maintenait au-dessus du plateau. La distance tête-plateau était de 20 μm.
En 1956, le premier système de ce type, le RAMAC 305 (Ramac pour Random Access Method of Accounting and Control), a été dévoilé au public par IBM. La production commerciale commença en juin 1957. Jusqu’en 1961, plus d’un millier d’unités furent vendues. Son prix : 10 000 dollars (de l’époque) par mégaoctet.
Le RAMAC 305 était constitué de 50 disques de 24 pouces de diamètre, deux têtes de lecture/écriture qui pouvaient se déplacer d’un plateau à un autre en moins d’une seconde. La capacité totale était de cinq millions de caractères.
Le RAMAC avait déjà un concurrent : le Univac File Computer, composé de 10 tambours magnétiques chacun d’une capacité de 180 000 caractères. Bien que ce dernier ait eu une vitesse supérieure, c’est le RAMAC, qui pouvait stocker trois fois plus d’informations, qui avait le rapport coût/performance le plus intéressant pour le plus grand nombre d’applications.
En juin 1954, J. J. Hagopian, ingénieur IBM, a l’idée de faire « voler » les têtes de lecture/écriture au-dessus de la surface des plateaux, sur un coussin d’air. Il propose le design de la forme de ces têtes. En septembre 1954, il dessine l’équivalent des disques durs actuels : des plateaux superposés et un axe sur lequel sont fixées les têtes de lecture/écriture. Cela deviendra un produit commercial en 1961 sous la dénomination « IBM 1301 Disk Storage ».
Fin 1969, trois ingénieurs réfléchissent à ce qui pourrait être pour eux le système disque idéal. Ils tombent d’accord sur un modèle composé de deux disques de 30 Mo chacun, l’un amovible, l’autre fixe. On le nomme « 30 - 30 », nom qui est aussi un modèle de carabine Winchester. Le nom est resté, et encore aujourd’hui un disque Winchester désigne un disque dur non amovible (soit quasiment tous les disques produits aujourd’hui).
Il a existé dans les années 1970, des disques durs à têtes fixes : un certain nombre de têtes permettaient un accès piste à piste très rapide avec, certes, une capacité inférieure aux disques à tête mobile. Moins fragiles mécaniquement, ils ont été utilisés pour les applications embarquées, notamment en sismique réflexion.
Dans les années 1980, certains prédisaient la fin du disque dur remplacé par le Solid State Drive...
En 1998, année où l’on commémorait le centenaire de l’enregistrement magnétique (inventé par le Danois Valdemar Poulsen), IBM commercialisa le premier disque dur de 25 gigaoctets (Deskstar 25 GP), capacité présentée à l’époque par la presse comme disproportionnée par rapport aux besoins réels des particuliers. En 50 ans, la capacité des disques durs a été multipliée par un facteur de 1 000 000 puisqu’un disque dur de 2009 peut atteindre 2 To.
Plus de 3,5 millions de téra-octets (3.5 exa-octets) sont stockés chaque année sur des périphériques de stockage de masse de type disques durs magnétiques1. La surface occupée par un bit d’information sur le disque s’est vue réduite d’un facteur 100 000 en trente ans de recherches et d’innovations, améliorant fondamentalement les capacités de stockage, les temps d’accès, l’encombrement et le coût de stockage.
En 29 ans, le prix du mégaoctet a été divisé par 1,3 million. Le constructeur Seagate a par exemple livré son premier disque dur en 1979. Baptisé ST-506, il pouvait stocker 5 Mo de données et coûtait à l’époque 1 500 dollars, soit 300 dollars par mégaoctet. En 2008, alors que ce constructeur en est à son milliardième disque dur livré, le mégaoctet d’un disque dur ne coûte plus que 0,00022 dollar, soit un cinquantième de cent environ2.
Le disque dur a remplacé efficacement dans les années 1970 les tambours (aujourd’hui obsolètes) et les bandes, reléguant peu à peu ces dernières à de simples supports d’archivage et de sauvegarde dans les années 1990. Dans les années 2000, il se met à concurrencer ces dernières en raison de la baisse de son coût au gigaoctet et de sa plus grande commodité d’accès ; vers la fin de cette même décennie, il commence à être remplacé lui-même comme mémoire de masse, pour les petites capacités (4 à 32 Go), par des stockages à mémoire flash qui, bien que plus onéreux, n’imposent pas le délai de latence dû à la rotation des plateaux.
Les disques durs ont été développés à l’origine pour les ordinateurs. Tout d’abord en attachement local, ils peuvent être aujourd’hui organisés en réseaux (NAS et SAN) de capacité et de fiabilité croissantes. Les disques durs font l’objet de multiples usages au-delà des ordinateurs, on peut les retrouver notamment dans des caméscopes, des lecteurs/enregistreurs de DVD de salon, des consoles de jeux vidéo, des assistants numériques personnels et des téléphones mobiles.

VGA

Video Graphics Array (VGA) est un standard d'affichage pour ordinateurs. Il a été lancé en 1987 par IBM sous le nom MCGA en tant qu'amélioration des standards EGA et CGA à l'occasion de la mise sur le marché de la gamme PS/2. VGA appartient à une famille de standards d'IBM et reste compatible avec les précédents formats.
Comme d'autres réalisations d'IBM, VGA a été très largement cloné par d'autres fabricants. Bien que sa forme fût obsolète, dépassée par le standard XGA, c'est le dernier standard IBM que la majorité des fabricants ont décidé de suivre pour les architectures PC. Il fut ensuite dépassé par le standard SVGA.
Le terme VGA désigne aussi bien un mode d'affichage (640 × 480, etc.) qu'une connectique (connecteur VGA).

Le format utilise 256 kiloctets (Kio) de mémoire vidéo et fonctionne selon deux modes : 16 couleurs ou 256 couleurs choisies parmi une palette de 262 144 couleurs. La définition maximum est de 720 colonnes par 480 lignes (720 × 480) avec un taux de rafraîchissement de 70.
Le standard VGA supporte également 4 plans vidéo, le scrolling matériel, la division de l'écran en zones indépendantes et des polices de caractères définies par logiciel.
Les modes graphiques standard sont :
  • 640 × 480 × 4 (16 couleurs)
  • 640 × 400 × 4 (16 couleurs)
  • 320 × 200 × 4 (16 couleurs)
  • 320 × 200 × 8 (256 couleurs) ou Mode 13h
Il supporte également les précédents standards : EGA, CGA et MDA, et d'autres non documentés. Un autre mode graphique appelé Mode X permet d'autres solutions techniques et définitions qui ne sont pas disponibles en Mode 13h.
Le mode texte alphanumérique est de 80×25 ou 43×25 caractères. Chaque cellule peut être définie en utilisant 16 couleurs de texte qui peut être rendu clignotant. Dans ce cas, seules 8 couleurs sont disponibles pour le fond contre 16 si le texte n'est pas clignotant. Bien qu'un mode monochrome soit disponible, la plupart des programmeurs utilisent le mode couleur avec un texte gris et un fond noir.
Matérielle-0xBFFFF. En mode couleur, chaque cellule de l'écran est associée à deux octets l'un pour le caractère et l'autre utilisé pour ses attributs (clignotement, police, couleur …).

eSATA

Standardized in 2004, eSATA (e standing for external) provides a variant of SATA meant for external connectivity. While it has revised electrical requirements and the connectors and cables are not identical with SATA, the protocol and logical signaling are compatible on the (internal) SATA level:
  • Minimum transmit potential increased: Range is 500–600 mV instead of 400–600 mV.
  • Minimum receive potential decreased: Range is 240–600 mV instead of 325–600 mV.
  • Identical protocol and logical signaling (link/transport-layer and above), allowing native SATA devices to be deployed in external enclosures with minimal modification
  • Maximum cable length of 2 metres (6.6 ft) (USB and FireWire allow longer distances.)
  • The external cable connector equates to a shielded version of the connector specified in SATA 1.0a with these basic differences:
    • The external connector has no "L"-shaped key, and the guide features are vertically offset and reduced in size. This prevents the use of unshielded internal cables in external applications and vice-versa.
    • To prevent ESD damage, the design increased insertion depth from 5 mm to 6.6 mm and the contacts are mounted farther back in both the receptacle and plug.
    • To provide EMI protection and meet FCC and CE emission requirements, the cable has an extra layer of shielding, and the connectors have metal contact-points.
    • The connector shield has retention springs in on both the top and bottom surfaces.
    • The external connector and cable have a design-life of over five thousand insertions and removals, whereas the internal connector is specified to withstand only fifty.
Aimed at the consumer market, eSATA enters an external storage market served also by the USB and FireWire interfaces. Most external hard-disk-drive cases with FireWire or USB interfaces use either PATA or SATA drives and "bridges" to translate between the drives' interfaces and the enclosures' external ports; this bridging incurs some inefficiency. Some single disks can transfer 157 MB/s during real use,[8] about four times the maximum transfer rate of USB 2.0 or FireWire 400 (IEEE 1394a) and almost twice as fast as the maximum transfer rate of FireWire 800. The S3200 FireWire 1394b spec reaches ~400 MB/s (3.2 Gbit/s), and USB 3.0 has a nominal speed of 5 Gbit/s. Some low-level drive features, such as S.M.A.R.T., may not operate through some USB [2] or FireWire or USB+FireWire bridges; eSATA does not suffer from these issues provided that the controller manufacturer (and its drivers) presents eSATA drives as ATA devices, rather than as "SCSI" devices, as has been common with Silicon Image, JMicron, and NVIDIA nForce drivers for Windows Vista. In those cases SATA drives will not have low-level features accessible. Firewire's future 6.4 Gb/s (768 MB/s) will be faster than eSATA I. The eSATA version of SATA 6G will operate at 6.0 Gb/s (the term SATA III is being eschewed by the SATA-IO to avoid confusion with SATA II 3.0 Gbit/s, which was colloquially referred to as "SATA 3G" [bps] or "SATA 300" [MB/s] since 1.5 Gbit/s SATA I and 1.5 Gbit/s SATA II were referred to as both "SATA 1.5G" [b/s] or "SATA 150" [MB/s]). Therefore, they will operate with negligible differences between them.[21] Once an interface can transfer data as fast as a drive can handle them, increasing the interface speed does not improve data transfer.
Most computers have USB ports, and many computers and consumer electronic appliances have FireWire ports, but few devices have external SATA connectors. For small form-factor devices (such as external 2.5-inch (64 mm) disks), a PC-hosted USB or FireWire link can usually supply sufficient power to operate the device. However, eSATA connectors cannot supply power, and require a power supply for the external device. The related eSATAp (but mechanically incompatible) connector adds power to an external SATA connection, so that an additional power supply is not needed.[22] Some e-sata ports double as eSATA/USB.
Desktop computers without a built-in eSATA interface can install an eSATA host bus adapter (HBA); if the motherboard supports SATA, an externally-available eSATA connector can be added. Notebook computers can be upgraded with Cardbus[23] or ExpressCard[24] versions of an eSATA HBA. With passive adapters, the maximum cable length is reduced to 1 metre (3.3 ft) due to the absence of compliant eSATA signal-levels.

FireWire

FireWire est le nom commercial donné par Apple à une interface série multiplexée, aussi connue sous la norme IEEE 1394 et également connue sous le nom d'interface i.LINK, nom commercial utilisé par Sony. Il s'agit d'un bus informatique véhiculant à la fois des données et des signaux de commandes des différents appareils qu'il relie.
Plug and Play, on peut l'utiliser pour brancher toutes sortes de périphériques gourmands en bande passante et qui demandent un débit de données stable, notamment des disques durs et des caméscopes numériques. Elle permet l'alimentation du périphérique, ainsi que le raccordement de 63 périphériques par bus et leur branchement/débranchement à chaud. On peut raccorder jusqu'à 1 024 bus par l'intermédiaire de passerelles.
FireWire a été inventé par Apple au début des années 1990 et peut atteindre des débits de plusieurs dizaines de Mo/s.

FireWire utilise un multiplexage temporel : le temps est découpé en tranches de 125 microsecondes (8 000 cycles par seconde), les données étant découpées en paquets. Dans chaque tranche sont tout d'abord transmis les paquets isochrones (son, vidéo…) puis les paquets asynchrones (données informatiques). Ce système garantit la bande passante pour les flux vidéo évitant ainsi des effets de saccades et autres pertes de qualité. Les flux isochrones sont identifiés par un canal (maximum : 63), et doivent tous avoir un paquet par tranche ; une fois les paquets isochrones émis le reste du cycle est utilisé pour les paquets asynchrones identifiés non pas par un canal mais par l'identifiant du périphérique émetteur et l'identifiant du périphérique destinataire.

S/PDIF



Le format S/PDIF (acronyme de Sony/Philips Digital InterFace, Interface numérique Sony/Philips), ou IEC-958, permet de transférer des données audionumériques. Ce standard conçu par les sociétés Sony et Philips peut être considéré comme la version grand public du format audionumérique professionnel AES/EBU.

  • Le standard S/PDIF existe sous différentes formes :
  • Connecteur RCA (utilisant un câble coaxial (cuivre)) d’une impédance de 75 Ω.
  • Connecteur Toslink (utilisant la fibre optique). Le principal avantage de ce format réside dans son immunité totale face aux perturbations électromagnétiques.
  • Connecteur Mini-Toslink (utilisant la fibre optique). Identique à la technologie sus-mentionnée, seul le connecteur change, il ressemble à un minijack 3,5 mm standard (0,5 mm plus court pour empêcher de se tromper et de toucher la DEL).
  • Résolutions : jusqu’à 24 bits
  • Fréquences d'échantillonnage rencontrées:
  • 96 kHz - Applications professionnelles et semi-professionnelles : échantillonneurs (samplers), synthétiseurs/workstations, interfaces et enregistreurs audionumériques…
  • 48 kHz - DAT (Digital Audio Tape)
  • 44,1 kHz - CD

Webcam

Une webcam, parfois cybercaméra1 ou webcaméra2, est une caméra conçue pour être utilisée comme un périphérique d'ordinateur, et qui produit une vidéo dont la finalité n'est pas d'atteindre une haute qualité, mais de pouvoir être transmise en direct au travers d'un réseau, typiquement Internet.

Une webcam peut se connecter à un ordinateur via :
La caméra est de standard PAL vidéo-composite de type filaire habituel ou caméra sans fil utilisant la bande des 2,4 GHz (bande L).
Certains appareils photo numériques intègrent également une fonction webcam. Ceux qui n'en disposent pas peuvent être utilisés comme webcam s'ils disposent d'une sortie vidéo, et que l'ordinateur dispose d'une entrée vidéo.

Clavier d'ordinateur

Un clavier d’ordinateur est une interface homme-machine, un périphérique d’entrée de l’ordinateur composé de touches envoyant des instructions à la machine une fois actionnées. Les touches sont un ensemble d’interrupteurs électroniques similaires aux boutons d’une souris, d’une télécommande ou d’une manette sur une console de jeu. Elles sont fréquemment imprimées ou gravées de symboles, lettres, chiffres, mots ou images et permettent essentiellement à un utilisateur de saisir des caractères pour écrire du texte avec l’alphabet d’un langage. La dactylographie permet d’apprendre à taper sur un clavier d’ordinateur de manière optimisée en utilisant tous les doigts comme sur une machine à écrire. Un clavier est parfois accompagné de pédales, de la même manière que peut l’être le clavier d’un instrument de musique.

Les premiers claviers informatiques sont apparus au début des années 1960, en même temps que les premiers systèmes utilisables en ligne de commande. Ils se répartissaient en quatre classes :
  • terminaux à boules, avec ou sans mise en tampon d’une ligne de texte avant envoi (exemple IBM 2741) ;
  • claviers couplés à un écran-tampon ;
  • claviers de type télétype, avec ou sans lecteur/perforateur de ruban (ASR33, KSR33) ;
  • claviers couplés à des écrans full-screen à zones programmables (série IBM 327x).
Vers la fin des années 1970, le texte prenant de plus en plus d’importance dans les données traitées, les claviers furent systématiquement personnalisés en fonction des pays, soit par les grands constructeurs eux-mêmes, soit par des entreprises locales (il n’en coûtait que le brûlage d’une ROM et la sérigraphie de quelques touches).
Les claviers informatiques sont similaires en apparence, et parfois dans leur fonctionnement, aux claviers des machines à écrire afin de ne pas dérouter les utilisateurs. Dans les années 1980, chaque ordinateur familial avait le clavier intégré dans l’unité centrale. Ceci signifie que chaque ordinateur avait potentiellement un clavier différent. Cependant, des particularités nationales ont fini par apparaître.
Le clavier PC a été repris par IBM, suivi par tous les constructeurs, d’après les préconisations du rapport d’Yves Neuville1, qui a débouché sur la norme ISO régissant la disposition des claviers. Les claviers des machines fonctionnant avec Mac OS et Sun ont été conçus par leurs firmes respectives (Apple et Sun).
Des ajouts successifs ont eu lieu : pavé numérique, touches de fonctions, touches multimédia.
La majorité des claviers d’ordinateur commercialisés sont des claviers « droits ». Cette appellation est trompeuse car leur forme est un héritage des machines à écrire et les rangées de touches sont décalées de deux manières : la rangée du haut est plus haute que celle du bas et les touches sont en escalier ; les rangées sont décalées. Cette forme est reconnue pour ne pas être ergonomique. Des alternatives récentes proposent des claviers plats à l’image des claviers d’ordinateur portable, des claviers où les touches sont placées en matrice et non en escalier, des claviers optimisés pour la saisie avec une seule main ou encore des claviers à très peu de touches fonctionnant par accords, pour le braille notamment.
Les claviers se transforment physiquement et prennent des formes nouvelles pour s’adapter aux nouveaux « ordinateurs » : clavier d’un téléphone portable, clavier en forme de manette, écrans tactiles sur de nombreux objets électroniques, pavés numériques optimisés pour la saisie des nombres, ajout de pédales pour faciliter la saisie du texte… Dans l’industrie, on utilise des claviers très variés sur les machines-outils assistées par ordinateur. Ce sont généralement de grands pavés de touches disposées en matrice et programmées pour des tâches plus spécifiques que pour l’utilisation d’un ordinateur personnel.