Une carte graphique ou carte vidéo (anciennement par abus de langage une carte VGA), ou encore un adaptateur graphique, est une carte d’extension d’ordinateur dont le rôle est de produire une image affichable sur un écran. La carte graphique envoie à l’écran des images stockées dans sa mémoire, à une fréquence et dans un format qui dépendent d’une part de l’écran branché et du port sur lequel il est branché (grâce au Plug and Play) et de sa configuration interne d’autre part.
Note : Cette section ne concerne que l'historique des machines accessibles au grand public ; les solutions développées par les constructeurs d'ordinateurs tel que Norsk Data (en) à l'époque, ne sont pas prises en compte.
Les premières cartes graphiques ne permettaient, au début de l'ère informatique, qu’un affichage en 2D et se connectaient sur un port Industry standard architecture (ISA) 8 bits ; ce sont les cartes Monochrome Display Adapter (MDA).
Bien que dénommées « cartes graphiques », elles n'affichaient, en monochrome, que de caractères simples codés sur 8 bits, dont une partie était réservée au graphisme ; c'est l'adressage direct en mode ASCII (mode encore utilisé au démarrage par le BIOS de la plupart des ordinateurs en 2009).
Les premières cartes graphique pouvant adresser un point individuel de l'affichage n'apparaissent qu'en 1981 pour le grand public, avec les cartes CGA, ou Color Graphic Adapter, qui permettaient un adressage de points dans une résolution de 320 colonnes sur 200 lignes en 4 couleurs différentes.
Suivent alors une succession de cartes dédiées au graphisme sur ordinateur poussant de plus en plus loin le nombre de lignes et de colonnes adressables, ainsi que de le nombre de couleurs simultanées pouvant être affichées ; ce sont les modes graphiques utilisables.
De plus en plus de fonctions assurées par le processeur sont petit à petit gérées par le contrôleur graphique des cartes. Comme, par exemple, le tracé de lignes, de surfaces pleines, de cercles, etc. ; fonctions très utiles pour accompagner la naissance des systèmes d'exploitation basés sur des interfaces graphiques et en accélérer l'affichage.
Avec l'évolution des techniques, le port ISA est remplacé par le port PCI pour augmenter la vitesse de transfert entre le processeur et la carte graphique.
En plus des cartes graphiques d'affichage en 2D, apparaissent dans les années 1990 des cartes dédiées à la gestion et l'affichage d'éléments représentés en 3 dimensions, comme les cartes 3DFX.
Puis apparurent les cartes graphiques 2D-3D ayant l’avantage de n’occuper qu’un seul connecteur AGP ou PCI au lieu de deux (pour les configurations courantes de l’époque, c’est-à-dire avant 1998). En effet, jusqu’alors, les cartes 2D étaient proposées séparément des cartes dites accélératrice 3D (comme les premières 3dfx), chacune ayant un processeur graphique spécifique.
Depuis la sortie des premières cartes 2D/3D intégrées par ATI en 1996, toutes les cartes graphiques modernes gèrent le 2D et la 3D au sein d'un seul circuit intégré.
Depuis les années 2000, la puissance de calcul des cartes graphiques est devenue tellement importante pour un coût finalement très réduit (100 à 700 € pour les modèles grand public) que les scientifiques sont de plus en plus nombreux à vouloir en exploiter le potentiel dans d’autres domaines. Il peut s’agir de faire tourner des simulations de modèles météo, financiers ou toute opération parallélisable et nécessitant une très grande quantité de calcul. NVIDIA et ATI/AMD, les 2 principaux fabricants de cartes graphiques haute performance grand public proposent chacun des solutions propriétaires afin de pouvoir utiliser leur produit pour du calcul scientifique ; pour NVIDIA, on pourra se référer au projet CUDA et pour AMD au projet ATI Stream. On parle à ce titre de General-Purpose Processing on Graphics Processing Units (ou GPGPU).
Dès 1996, les cartes graphiques commencent à intégrer des fonctions de décompression vidéo, comme pour la Rage-Pro du fabricant ATI qui intègre déjà en 1996 certaines fonctions de décompression des fluxs MPEG2. Sous des appellations variées, se sont depuis développées des technologies qui permettent de soulager le processeur de la charge incombant à la décompression d'une image 25 (PAL/SECAM) ou 30 (NTSC) fois par seconde dans des définitions toujours plus élevées.
La prise en charge partielle, ou totale, par les GPU des flux vidéos permet le visionnage de films en haute définition sur des plateformes matérielles aux ressources processeur relativement modestes ; ce qui serait impossible sans eux au regard du nombre d'informations à traiter presque simultanément.
Note : Cette section ne concerne que l'historique des machines accessibles au grand public ; les solutions développées par les constructeurs d'ordinateurs tel que Norsk Data (en) à l'époque, ne sont pas prises en compte.
Les premières cartes graphiques ne permettaient, au début de l'ère informatique, qu’un affichage en 2D et se connectaient sur un port Industry standard architecture (ISA) 8 bits ; ce sont les cartes Monochrome Display Adapter (MDA).
Bien que dénommées « cartes graphiques », elles n'affichaient, en monochrome, que de caractères simples codés sur 8 bits, dont une partie était réservée au graphisme ; c'est l'adressage direct en mode ASCII (mode encore utilisé au démarrage par le BIOS de la plupart des ordinateurs en 2009).
Les premières cartes graphique pouvant adresser un point individuel de l'affichage n'apparaissent qu'en 1981 pour le grand public, avec les cartes CGA, ou Color Graphic Adapter, qui permettaient un adressage de points dans une résolution de 320 colonnes sur 200 lignes en 4 couleurs différentes.
Suivent alors une succession de cartes dédiées au graphisme sur ordinateur poussant de plus en plus loin le nombre de lignes et de colonnes adressables, ainsi que de le nombre de couleurs simultanées pouvant être affichées ; ce sont les modes graphiques utilisables.
De plus en plus de fonctions assurées par le processeur sont petit à petit gérées par le contrôleur graphique des cartes. Comme, par exemple, le tracé de lignes, de surfaces pleines, de cercles, etc. ; fonctions très utiles pour accompagner la naissance des systèmes d'exploitation basés sur des interfaces graphiques et en accélérer l'affichage.
Avec l'évolution des techniques, le port ISA est remplacé par le port PCI pour augmenter la vitesse de transfert entre le processeur et la carte graphique.
En plus des cartes graphiques d'affichage en 2D, apparaissent dans les années 1990 des cartes dédiées à la gestion et l'affichage d'éléments représentés en 3 dimensions, comme les cartes 3DFX.
Puis apparurent les cartes graphiques 2D-3D ayant l’avantage de n’occuper qu’un seul connecteur AGP ou PCI au lieu de deux (pour les configurations courantes de l’époque, c’est-à-dire avant 1998). En effet, jusqu’alors, les cartes 2D étaient proposées séparément des cartes dites accélératrice 3D (comme les premières 3dfx), chacune ayant un processeur graphique spécifique.
Depuis la sortie des premières cartes 2D/3D intégrées par ATI en 1996, toutes les cartes graphiques modernes gèrent le 2D et la 3D au sein d'un seul circuit intégré.
Les usages pour une carte graphique[modifier]
Depuis la fin des années 1995, les cartes graphiques ont fortement évolué. Autrefois, la fonction essentielle d’une carte graphique était de transmettre les images produites par l’ordinateur à l’écran. C’est encore sa fonction principale sur beaucoup de machines à vocation bureautique où l’affichage d’images en 3D n’offre que peu d’intérêt. Toutefois aujourd’hui même les cartes graphiques les plus simples gèrent aussi le rendu d’images en 3D. C’est une activité très coûteuse en termes de calculs et en termes de bande passante mémoire. Le GPU (pour Graphical Processing Unit) est donc devenu un composant très complexe, très spécialisé et presque imbattable dans sa catégorie (rendu d’images en 3 dimensions). Hormis pour les jeux vidéo ou quelques usages en infographie, les possibilités des cartes graphiques ne sont que très peu exploitées en pratique. Ainsi, ce sont essentiellement les joueurs qui achètent et utilisent des GPU de plus en plus puissants.Depuis les années 2000, la puissance de calcul des cartes graphiques est devenue tellement importante pour un coût finalement très réduit (100 à 700 € pour les modèles grand public) que les scientifiques sont de plus en plus nombreux à vouloir en exploiter le potentiel dans d’autres domaines. Il peut s’agir de faire tourner des simulations de modèles météo, financiers ou toute opération parallélisable et nécessitant une très grande quantité de calcul. NVIDIA et ATI/AMD, les 2 principaux fabricants de cartes graphiques haute performance grand public proposent chacun des solutions propriétaires afin de pouvoir utiliser leur produit pour du calcul scientifique ; pour NVIDIA, on pourra se référer au projet CUDA et pour AMD au projet ATI Stream. On parle à ce titre de General-Purpose Processing on Graphics Processing Units (ou GPGPU).
Dès 1996, les cartes graphiques commencent à intégrer des fonctions de décompression vidéo, comme pour la Rage-Pro du fabricant ATI qui intègre déjà en 1996 certaines fonctions de décompression des fluxs MPEG2. Sous des appellations variées, se sont depuis développées des technologies qui permettent de soulager le processeur de la charge incombant à la décompression d'une image 25 (PAL/SECAM) ou 30 (NTSC) fois par seconde dans des définitions toujours plus élevées.
La prise en charge partielle, ou totale, par les GPU des flux vidéos permet le visionnage de films en haute définition sur des plateformes matérielles aux ressources processeur relativement modestes ; ce qui serait impossible sans eux au regard du nombre d'informations à traiter presque simultanément.
Aucun commentaire:
Enregistrer un commentaire