mardi 20 septembre 2011

Carte mère






La carte mère est un matériel informatique (composé de circuits imprimés et de ports de connexion) servant à interconnecter tous les composants d’un micro-ordinateur.

Description

==============

L'élément constitutif principal de l'ordinateur est la carte mère (en anglais « mainboard » ou « motherboard », parfois abrégé en « mobo »). La carte mère est le socle permettant la connexion de l'ensemble des éléments essentiels de l'ordinateur. En électronique ce type de carte se nomme la carte « fond de panier » car elle se charge d’interconnecter toutes les autres cartes et périphériques. Encore aujourd’hui elle se fixe au fond du boîtier. Au cours de son évolution, la carte mère a intégré certaines fonctions et en a perdu d’autres ; La mémoire cache du processeur fut intégré à celui-ci par contre les cartes contrôleuses de disques durs, la carte son, la carte USB ou la carte réseau et même parfois la carte graphique font maintenant partie intégrante du chipset, mais des puces peuvent venir s'ajouter pour offrir de nouvelle fonctionnalités (comme l'USB 3.0 ou le S-ATA 2.0 pour le chipset AMD 870, qui ne les gère pas nativement). On peut donc dire que toutes les cartes mères du marché sont différentes par les options qu’elles proposent. Pour interconnecter toutes ces fonctions la carte mère utilise des circuits spéciaux appelés Chipset, composés du northbridge, pour les pérphériques "rapides" (processeur, PCI-express, etc) et du southbridge pour les périphériques "lents" (PCI, disques durs et SSD, etc, etc...). Ces derniers ont pour rôles de faire dialoguer le processeur, la RAM, les disques durs et tous les périphériques ensemble. Certains de ces périphériques demandent à être configurés, pour cela la carte mère dispose d’un BIOS (Basic Input/Output System), un programme de démarrage qui permet de tester le matériel et le périphérique présent et de leur appliquer des paramètres de configuration. Le BIOS cherche enfin le BOOT du disque dur et lance le système d’exploitation ; on dit que le PC démarre (boot en anglais). Si pour une raison quelconque un périphérique, la RAM, ou une carte d’extension est défectueuse ou ne s’initialise pas, la carte mère émet un certain nombre de Beep pour indiquer le dysfonctionnement, en fonction du modèle du BIOS (certaines cartes mères ASUS parlent…).

Les éléments

==============

 

Voici les éléments qu'on peut trouver sur une carte mère, certains n'étant plus présents sur les cartes mères vendues en 2009.
  • Un ou plusieurs connecteurs d’alimentation électrique : Par ces connecteurs une alimentation électrique fournit à la carte mère les diverses tensions électriques nécessaires à son fonctionnement ;
  • Le support du micro-processeur (souvent appelé socket) : il s’agit d’un réceptacle qui reçoit le micro-processeur et le relie au reste du micro-ordinateur ;
  • Les connecteurs de la mémoire vive (memory slot en anglais) au nombre de 2, 3, 4 ou 6 sur les cartes mères communes ;
  • Le chipset : Un ou plusieurs circuit électronique, qui gère les transferts de données entre les différentes composantes de l’ordinateur (micro-processeur, mémoire vive, disque dur, etc.) ;
  • Une horloge : elle cadence la vitesse d’exécution des instructions du microprocesseur et des périphériques internes ;
  • Le CMOS : Une petite mémoire conservant certaines informations importantes (comme la configuration de l’ordinateur, la date et l’heure) même lorsque l’ordinateur n’est pas alimenté en électricité ;
  • La pile ou batterie d’accumulateurs du CMOS : Elle fournit l’électricité nécessaire au fonctionnement du circuit ;
  • Le BIOS : Un programme enregistré dans une mémoire morte (ROM). Ce programme, spécifique à la carte, gère l’interface de bas niveau entre le micro-processeur et certains périphériques. Il récupère, puis fait exécuter, les instructions du master boot record enregistrées dans une mémoire de masse (disque dur), lors du démarrage du micro-ordinateur ;
  • Le bus système (aussi appelé bus interne ou Front Side Bus (FSB) en anglais) : Il relie le micro-processeur au chipset ;
  • Le bus mémoire relie le chipset à la mémoire vive ;
  • Le bus d’extension (aussi appelé bus d’entrées/sorties) : Il relie le micro-processeur aux connecteurs d’entrée/sortie et aux connecteurs d’extension ;
  • Les connecteurs d’entrée/sortie qui respectent le plus souvent la norme PC 99 : ces connecteurs incluent :
  • Les connecteurs d’extension : ce sont des réceptacles pouvant accueillir des cartes d’extension (ces cartes sont utilisées pour ajouter des fonctionnalités ou augmenter la performance d’un micro-ordinateur, par exemple une carte graphique peut être ajoutée à un ordinateur pour améliorer les performances de l’affichage 3D sur le moniteur). Ces ports peuvent être des ports ISA (vieille interface), PCI (Peripheral Component Interconnect), AGP ou, plus récent, le PCI Express, qui existe sous forme de PCI-e x1, x4, x8, et x16, ce port étant souvent occupé par une carte graphique.
Avec l’évolution des ordinateurs, de plus en plus de fonctionnalités ont été intégrées à la carte mère, comme des circuits électroniques permettant la gestion de la vidéo (IGP pour Integrated Graphic Processor), du son ou des réseaux (10/100 Mbps/1 Gbps), évitant ainsi l’adjonction de cartes d’extension.

Les fabricants

===============

Plusieurs constructeurs se partagent le marché des cartes mères tel que Abit, Albatron, Aopen, Asrock, ASUS, ATI, Biostar, Chaintech, DFI, Elite, Epox, EVGA, Foxconn, Gigabyte Technology, Intel, MSI, NVIDIA, QDI, Sapphire, Soltek, Super Micro, Tyan, Via, XFX.
Certains conçoivent et fabriquent une ou plusieurs composantes de la carte mère tandis que d’autres assemblent les éléments que des partenaires ont conçus et fabriqués.

Carte multi-processeurs

=======================

C’est un type de carte mère capable d’accueillir plusieurs processeur (généralement 2, 4, 8 ou plus). Ces cartes mères multiprocesseurs disposant de plusieurs supports de micro-processeur (sockets), ce qui permet de leur enficher plusieurs micro-processeurs physiquement distincts (par opposition aux processeurs double cœur).
Lorsque deux processeurs sont présents sur une carte, il y a deux manières de les gérer :
  • La manière asymétrique, où chaque processeur se voit attribuer une tâche différente. Cette méthode n’accélère pas les traitements, mais permet de confier une tâche à un processeur pendant que l’autre est occupé à une tâche différente.
  • La manière symétrique, dite SMP (Symmetric MultiProcessing) où chaque tâche est répartie symétriquement entre les deux processeurs.
Le système d’exploitation Linux fut le premier à gérer les architectures bi-processeur sur x86. Toutefois, la gestion de plusieurs processeurs existait bien avant sur d’autres plates-formes et d’autres systèmes d’exploitation.
Le système Linux 2.6.x gère parfaitement les multiprocesseurs symétriques, ainsi que les architectures à mémoire non-uniformément répartie (NUMA).
Certains fabricants de cartes mères fabriquent des cartes mères pouvant accueillir jusqu'à 8 processeurs (en l’occurrence sur socket 939 pour AMD Opteron et sur socket 604 pour Intel Xeon).

Processeur







Le processeur, ou CPU (de l'anglais Central Processing Unit, « Unité centrale de traitement »), est le composant de l'ordinateur qui exécute les programmes informatiques. Avec la mémoire notamment, c'est l'un des composants qui existent depuis les premiers ordinateurs et qui sont présents dans tous les ordinateurs. Un processeur construit en un seul circuit intégré est un microprocesseur.
L'invention du transistor en 1948 a ouvert la voie à la miniaturisation des composants électroniques.
Les processeurs des débuts étaient conçus spécifiquement pour un ordinateur d'un type donné. Cette méthode coûteuse de conception des processeurs pour une application spécifique a conduit au développement de la production de masse de processeurs qui conviennent pour un ou plusieurs usages. Cette tendance à la standardisation qui débuta dans le domaine des ordinateurs centraux (mainframes à transistors discrets et mini-ordinateurs) a connu une accélération rapide avec l'avènement des circuits intégrés. Les circuits intégrés ont permis la miniaturisation des processeurs. La miniaturisation et la standardisation des processeurs ont conduit à leur diffusion dans la vie moderne bien au-delà des usages des machines programmables dédiées.

L'introduction du microprocesseur dans les années 1970 a marqué de manière significative la conception et l'implémentation des unités centrales de traitement. Depuis l'introduction du premier microprocesseur (Intel 4004) en 1971 et du premier microprocesseur employé couramment (Intel 8080) en 1974, cette classe de processeurs a presque totalement dépassé toutes les autres méthodes d'implémentation d'unité centrale de traitement. Les fabricants d'ordinateurs centraux (mainframe et miniordinateurs) de l'époque ont lancé leurs propres programmes de développement de circuits intégrés pour mettre à niveau les architectures anciennes de leurs ordinateurs et ont par la suite produit des microprocesseurs à jeu d'instructions compatible en assurant la compatibilité ascendante avec leurs anciens modèles. Les générations précédentes des unités centrales de traitement comportaient un assemblage de composants discrets et de nombreux circuits faiblement intégrés sur une ou plusieurs cartes électroniques. Les microprocesseurs sont construits avec un très petit nombre de circuits très fortement intégrés (ULSI), habituellement un seul. Les microprocesseurs sont implémentés sur une seule puce électronique, donc de dimensions réduites, ce qui veut dire des temps de commutation plus courts liés à des facteurs physiques comme par exemple la diminution de la capacité parasite des portes. Ceci a permis aux microprocesseurs synchrones d'augmenter leur fréquence de base de quelques dizaines de mégahertz à plusieurs gigahertz. De plus, à mesure que la capacité à fabriquer des transistors extrêmement petits sur un circuit intégré a augmenté, la complexité et le nombre de transistors dans un seul processeur ont considérablement crû. Cette tendance largement observée est décrite par la loi de Moore, qui s'est avérée être jusqu'ici un facteur prédictif assez précis de la croissance de la complexité des processeurs (et de tout autre circuit intégré).
Les processeurs multi cœurs (multicores) récents comportent maintenant plusieurs cœurs dans un seul circuit intégré. Leur efficacité dépend grandement de la topologie d'interconnexion entre les cœurs. De nouvelles approches, comme la superposition de la mémoire et du cœur de processeur (memory stacking), sont à l'étude, et devraient conduire à un nouvel accroissement des performances. En se basant sur les tendances des dix dernières années, les performances des processeurs devraient atteindre le Pétaflop, vers 2010 pour les serveurs, et à l'horizon 2030 dans les PC.[réf. nécessaire]
Début juin 2008, le supercalculateur militaire IBM Roadrunner est le premier à franchir cette barre symbolique du Pétaflop. Puis, en novembre 2008, c'est au tour du supercalculateur Jaguar de Cray. En avril 2009, ce sont les deux seuls supercalculateurs à avoir dépassé le Petaflop.
Tandis que la complexité, la taille, la construction, et la forme générale des processeurs ont fortement évolué au cours des soixante dernières années, la conception et la fonction de base n'ont pas beaucoup changé. Presque tous les processeurs communs d'aujourd'hui peuvent être décrits très précisément comme machines à programme enregistré de von Neumann. Alors que la loi de Moore, mentionnée ci-dessus, continue de se vérifier, des questions ont surgi au sujet des limites de la technologie des circuits intégrés à transistors. La miniaturisation des portes électroniques est si importante que les effets de phénomènes comme l'électromigration (dégradation progressive des interconnexions métalliques entraînant une diminution de la fiabilité des circuits intégrés) et les courants de fuite (leur importance augmente avec la réduction des dimensions des circuits intégrés ; ils sont à l'origine d'une consommation d'énergie électrique pénalisante), auparavant négligeables, deviennent de plus en plus significatifs. Ces nouveaux problèmes sont parmi les nombreux facteurs conduisant les chercheurs à étudier, d'une part, de nouvelles technologies de traitement telles que l'ordinateur quantique ou l'usage du calcul parallèle et, d'autre part, d'autres méthodes d'utilisation du modèle classique de von Neumann.

Flashage de BIOS

Le flashage du BIOS est une mise à jour du BIOS par voie logicielle, c'est-à-dire un remplacement de la version du BIOS grâce à un programme.
Le terme BIOS regroupe vulgairement l'aspect logiciel d'une part (l'ensemble des données nécessaires à gérer, coordonner et paramétrer les divers composants d'un ordinateur) et d'autre part l'aspect matériel puisque ces données sont contenues dans une puce dédiée (EEPROM de type CMOS).
Sur les premiers PC les BIOS étaient des mémoires mortes soudées à la carte mère, les EPROM difficilement modifiables. Certains fabricants proposaient toutefois des correctifs logiciels (appelés patchs) qui étaient stockés sur le disque dur et se chargeaient en mémoire vive (RAM) pour corriger les éventuels bugs. Ils ne pouvaient toutefois agir qu'après le démarrage du PC.
Par la suite les BIOS insérables sur des supports pouvaient être changés matériellement, mais leur prix était très élevé. Puis vint l'apparition des mémoires programmables électroniquement, c'est-à-dire une mémoire pouvant être modifiée grâce à une machine envoyant des impulsions électriques par des connecteurs prévus à cet effet. Ce type de programmateur de puce était cependant rare, si bien que l'opération était relativement coûteuse pour l'utilisateur.
Il existe désormais des cartes-mères comportant des mémoires flash (variété d'EEPROM), mémoires pouvant être modifiées directement par logiciel. Les BIOS situés sur des cartes-mères comportant ce type de mémoire peuvent être mis à jour grâce à un utilitaire propre au fabricant, destiné à permettre le remplacement d'une version du BIOS par une autre version, plus récente ou plus ancienne (utile dans certains cas). S'il était difficile de se procurer ces mises à jour, internet remédia vite à ce problème. Ces mises à jour sont disponibles sous la forme d'un fichier binaire contenant une image du BIOS accompagné d'un utilitaire.

Mémoire vive

La mémoire vive, mémoire système ou mémoire volatile, aussi appelée RAM de l'anglais Random Access Memory (que l'on traduit en français par mémoire à accès direct1 ), est la mémoire informatique dans laquelle un ordinateur place les données lors de leur traitement. Les caractéristiques de cette mémoire sont :
  • sa rapidité d'accès (cette rapidité est essentielle pour fournir rapidement les données au processeur) ;
  • sa volatilité (cette volatilité implique que les données sont perdues dès que l'ordinateur cesse d'être alimenté en électricité).++
La mémoire vive (RAM) est généralement définie en opposition à la mémoire morte (ROM) : les données contenues dans la mémoire vive sont perdues lorsque l'alimentation électrique est coupée alors que la mémoire morte conserve ses données en absence d'alimentation électrique. La mémoire morte n'est donc pas volatile, ce qui la rend nécessaire lors du démarrage d'un ordinateur. En effet, la mémoire vive est dans un état indéterminé lors du démarrage.
Plus rarement, on utilise le sigle RWM (pour Read Write Memory, soit mémoire en lecture écriture) pour désigner la RAM en mettant l'accent sur la possibilité d'écriture plutôt que l'accès arbitraire.
Le sens littéral des termes RAM et mémoire vive peut prêter à confusion. En effet, le terme RAM implique la possibilité d'un accès arbitraire aux données, c'est-à-dire un accès à n'importe quelle donnée n'importe quand, par opposition à un accès séquentiel, comme l'accès à une bande magnétique, où les données sont nécessairement lues dans un ordre défini à l'avance. Or les ROM et les mémoires flash jouissent de la même caractéristique d'accès direct, mais contrairement aux RAM ne sont pas volatiles.

Chipset

Un chipset (de l'anglais, signifiant littéralement ensemble de puces (électroniques)) est un jeu de composants électroniques intégré dans un circuit intégré préprogrammé permettant de gérer les flux de données numériques entre le ou les processeur(s), la mémoire et les périphériques. On en trouve dans des appareils électroniques de type micro-ordinateur, console de jeux vidéo, téléphone mobile, appareil photo numérique, GPS, etc.


Bus informatique

Un bus informatique est un système de communication entre les composants d'un ordinateur. Ce terme regroupe donc indifféremment les systèmes matériels constituant le support de communication (câble, fibre optique, etc), mais aussi le logiciel et le protocole associé. Ces deux aspects, matériel et immatériel, sont en réalité fortement liés, les capacités du support matériel conditionnant en partie le type de communication.
Par exemple, le front side bus relie le microprocesseur à la mémoire vive sur de nombreux ordinateurs, et le bus PCI relie soit le microprocesseur ou bien un autre composant appelé chipset d'un ordinateur aux connecteurs d’extension du même nom, et à la carte qui y est insérée.

Les bus sont situés à l'intérieur d'un même ordinateur et permettent de connecter les différentes parties fonctionnelles de cet ordinateur entre elles.
Les informations transmises peuvent être les informations utiles à échanger entre les dispositifs ou des informations de contrôle permettant de gérer l'état du bus lui-même.
Un bus est souvent caractérisé par une fréquence et le nombre de bits d'informations qu'il peut transmettre simultanément. Lorsqu'un bus peut transmettre plus d'un bit d'information simultanément on parlera d'un bus parallèle, sinon d'un bus série. La fréquence donnée est tantôt la fréquence du signal électrique sur le bus, tantôt la cadence de transmission des informations, qui peut être un multiple de la fréquence du signal.
Ainsi un bus de 32 bits dont le signal a une fréquence de 331/3 mégahertz peut transmettre 32 × 33,33 × 106 bits par seconde soit 1,0666 × 109 bits par seconde, soit 133Mo/s. Ce résultat doit encore être multiplié si la cadence des informations est un multiple du signal.
Les technologies utilisées pour fabriquer les bus sont variées, conducteurs électriques gravés sur un circuit imprimé, câble, fibre optique etc.

Carte graphique

Une carte graphique ou carte vidéo (anciennement par abus de langage une carte VGA), ou encore un adaptateur graphique, est une carte d’extension d’ordinateur dont le rôle est de produire une image affichable sur un écran. La carte graphique envoie à l’écran des images stockées dans sa mémoire, à une fréquence et dans un format qui dépendent d’une part de l’écran branché et du port sur lequel il est branché (grâce au Plug and Play) et de sa configuration interne d’autre part.

Note : Cette section ne concerne que l'historique des machines accessibles au grand public ; les solutions développées par les constructeurs d'ordinateurs tel que Norsk Data (en) à l'époque, ne sont pas prises en compte.
Les premières cartes graphiques ne permettaient, au début de l'ère informatique, qu’un affichage en 2D et se connectaient sur un port Industry standard architecture (ISA) 8 bits ; ce sont les cartes Monochrome Display Adapter (MDA).
Bien que dénommées « cartes graphiques », elles n'affichaient, en monochrome, que de caractères simples codés sur 8 bits, dont une partie était réservée au graphisme ; c'est l'adressage direct en mode ASCII (mode encore utilisé au démarrage par le BIOS de la plupart des ordinateurs en 2009).
Les premières cartes graphique pouvant adresser un point individuel de l'affichage n'apparaissent qu'en 1981 pour le grand public, avec les cartes CGA, ou Color Graphic Adapter, qui permettaient un adressage de points dans une résolution de 320 colonnes sur 200 lignes en 4 couleurs différentes.
Suivent alors une succession de cartes dédiées au graphisme sur ordinateur poussant de plus en plus loin le nombre de lignes et de colonnes adressables, ainsi que de le nombre de couleurs simultanées pouvant être affichées ; ce sont les modes graphiques utilisables.
De plus en plus de fonctions assurées par le processeur sont petit à petit gérées par le contrôleur graphique des cartes. Comme, par exemple, le tracé de lignes, de surfaces pleines, de cercles, etc. ; fonctions très utiles pour accompagner la naissance des systèmes d'exploitation basés sur des interfaces graphiques et en accélérer l'affichage.
Avec l'évolution des techniques, le port ISA est remplacé par le port PCI pour augmenter la vitesse de transfert entre le processeur et la carte graphique.
En plus des cartes graphiques d'affichage en 2D, apparaissent dans les années 1990 des cartes dédiées à la gestion et l'affichage d'éléments représentés en 3 dimensions, comme les cartes 3DFX.
Puis apparurent les cartes graphiques 2D-3D ayant l’avantage de n’occuper qu’un seul connecteur AGP ou PCI au lieu de deux (pour les configurations courantes de l’époque, c’est-à-dire avant 1998). En effet, jusqu’alors, les cartes 2D étaient proposées séparément des cartes dites accélératrice 3D (comme les premières 3dfx), chacune ayant un processeur graphique spécifique.
Depuis la sortie des premières cartes 2D/3D intégrées par ATI en 1996, toutes les cartes graphiques modernes gèrent le 2D et la 3D au sein d'un seul circuit intégré.

Les usages pour une carte graphique[modifier]

Depuis la fin des années 1995, les cartes graphiques ont fortement évolué. Autrefois, la fonction essentielle d’une carte graphique était de transmettre les images produites par l’ordinateur à l’écran. C’est encore sa fonction principale sur beaucoup de machines à vocation bureautique où l’affichage d’images en 3D n’offre que peu d’intérêt. Toutefois aujourd’hui même les cartes graphiques les plus simples gèrent aussi le rendu d’images en 3D. C’est une activité très coûteuse en termes de calculs et en termes de bande passante mémoire. Le GPU (pour Graphical Processing Unit) est donc devenu un composant très complexe, très spécialisé et presque imbattable dans sa catégorie (rendu d’images en 3 dimensions). Hormis pour les jeux vidéo ou quelques usages en infographie, les possibilités des cartes graphiques ne sont que très peu exploitées en pratique. Ainsi, ce sont essentiellement les joueurs qui achètent et utilisent des GPU de plus en plus puissants.
Depuis les années 2000, la puissance de calcul des cartes graphiques est devenue tellement importante pour un coût finalement très réduit (100 à 700 € pour les modèles grand public) que les scientifiques sont de plus en plus nombreux à vouloir en exploiter le potentiel dans d’autres domaines. Il peut s’agir de faire tourner des simulations de modèles météo, financiers ou toute opération parallélisable et nécessitant une très grande quantité de calcul. NVIDIA et ATI/AMD, les 2 principaux fabricants de cartes graphiques haute performance grand public proposent chacun des solutions propriétaires afin de pouvoir utiliser leur produit pour du calcul scientifique ; pour NVIDIA, on pourra se référer au projet CUDA et pour AMD au projet ATI Stream. On parle à ce titre de General-Purpose Processing on Graphics Processing Units (ou GPGPU).
Dès 1996, les cartes graphiques commencent à intégrer des fonctions de décompression vidéo, comme pour la Rage-Pro du fabricant ATI qui intègre déjà en 1996 certaines fonctions de décompression des fluxs MPEG2. Sous des appellations variées, se sont depuis développées des technologies qui permettent de soulager le processeur de la charge incombant à la décompression d'une image 25 (PAL/SECAM) ou 30 (NTSC) fois par seconde dans des définitions toujours plus élevées.
La prise en charge partielle, ou totale, par les GPU des flux vidéos permet le visionnage de films en haute définition sur des plateformes matérielles aux ressources processeur relativement modestes ; ce qui serait impossible sans eux au regard du nombre d'informations à traiter presque simultanément.