Wikilivres frwikibooks https://fr.wikibooks.org/wiki/Accueil MediaWiki 1.45.0-wmf.8 first-letter Média Spécial Discussion Utilisateur Discussion utilisateur Wikilivres Discussion Wikilivres Fichier Discussion fichier MediaWiki Discussion MediaWiki Modèle Discussion modèle Aide Discussion aide Catégorie Discussion catégorie Transwiki Discussion Transwiki Wikijunior Discussion Wikijunior TimedText TimedText talk Module Discussion module Livre de cuisine/Diots 0 18498 745959 620873 2025-07-05T07:22:16Z 77.128.85.138 /* Préparation */ + illustration 745959 wikitext text/x-wiki {{Livre de cuisine}} Les '''diots''' (avec l'accent prononcez "djo") sont des saucisses à cuire savoyardes. La préparation qui suit est dite ''à la savoyarde''. == Ingrédients == * 4 {{i|diot}}s * 4 {{i|'=oui|échalote|échalotes}} * 2 {{i|'=oui|oignon|oignons}} * {{i|vin blanc}} sec * 10 g de {{i|farine}}. === Préparation === [[Fichier:Viens faire un tour à Chambé.jpg|vignette|upright|Les '''crozets''', produits à Chambéry, sont un excellent accompagnement.]] * Dans une sauteuse, faire blondir les échalotes et les oignons émincés * Ajouter les diots, rissoler, saupoudrer de farine, et mouiller au vin blanc sec * Terminer la cuisson en laissant mijoter 20 min (si nécessaire, continuer à mouiller au vin blanc) == Notes == * Servir chauds accompagnés de {{i|pomme de terre|pommes de terre}}, de {{i|crozet|crozets}} ou de [[Livre de cuisine/Polenta|Polenta]]. * Il existe différentes variétés de diots : pur porc, fumés, aux choux. Elles doivent être cuites avant d'être consommées, mais elles peuvent être dégustées chaudes ou froides. * Froides, avec de la [[moutarde]], ou tranchées dans une salade ou un sandwich. {{Sur Wikipédia|Diot}} [[Catégorie:Cuisine savoyarde]] 9arur5pz2rzfsojky0tkk0vro9wb7da Livre de cuisine/Raclette franc-comtoise 0 20133 745958 329964 2025-07-05T06:51:12Z 77.128.85.138 /* Ingrédients */ + illustration 745958 wikitext text/x-wiki {{Livre de cuisine}} == Ingrédients == [[Fichier:Raclette pour les nuls.jpg|vignette|upright|La '''raclette''' permet, à la base, de se remplir l'estomac. Il y a cependant un minimum de règles à respecter... au risque, justement, de ne pas se faire que des ami(e)s !]] * 800 g de {{i|fromage}} à {{i|raclette}} dont : ** 400 g de fromage à raclette affiné au {{i|vin}} d'Arbois ** 200 g de bleu de Gex au {{i|lait}} cru ** 200 g de Morbier au lait cru * charcuterie : ** jambon braisé ** jambon fumé ** {{i|saucisse}} de Morteau ** saucisse de Montbéliard ** Bresi ** lard * 8 {{i|pomme}}s de terre * divers accompagnements : ** {{i|cornichon}}s **oignons au {{i|vinaigre}} == Préparation == Il suffit seulement de cuire les pommes de terre et de couper le fromage en lamelles. [[Catégorie:Plat principal|Raclette franc-comtoise]] [[Catégorie:Recettes de cuisine à base de fromage|Raclette franc-comtoise]] [[Catégorie:Cuisine franc-comtoise|Raclette franc-comtoise]] cne8o6bhwheq0c4lutv8ft0kpvg1x8g Astrologie/Les différents facteurs astrologiques 0 54639 745955 745629 2025-07-05T06:16:20Z Kad'Astres 30330 745955 wikitext text/x-wiki #[[/Les Planètes/]] #[[/Les Signes/]] #[[/Les Maisons/]] #[[/Les Aspects/]] #[[/Les trois Croix et les quatre Éléments/]] #[[/Autres facteurs d'Interprétation/]] [[Catégorie:Astrologie]] prhdisi6gq38knc7yks1v8ag8z3zva6 Astrologie/Les différents facteurs astrologiques/Les Signes 0 54640 745917 745636 2025-07-04T12:56:46Z Kad'Astres 30330 745917 wikitext text/x-wiki #[[/Le zodiaque sidéral/]] #[[/Le zodiaque tropical/]] #[[/La précession des équinoxes/]] #[[/Les planètes rétrogrades/]] #[[/Significations traditionnelles attribuées à chaque Signe/]] #[[/Les Dignités planétaires autres que les Maîtrises/]] [[Catégorie:Astrologie]] 0i5bka6btj7368xofbjx9yjwvcozmux 745919 745917 2025-07-04T13:12:48Z Kad'Astres 30330 745919 wikitext text/x-wiki #[[/Le zodiaque sidéral/]] #[[/Le zodiaque tropical/]] #[[/La précession des équinoxes/]] #[[/Les planètes rétrogrades/]] #[[/Significations traditionnelles attribuées à chaque Signe/]] #[[/Les Dignités planétaires autres que les Maîtrises #[[/La Réception mutuelle/]] [[Catégorie:Astrologie]] e44elehxedethwoufx1mjkhftyn5e0a 745924 745919 2025-07-04T13:23:55Z Kad'Astres 30330 745924 wikitext text/x-wiki #[[/Le zodiaque sidéral/]] #[[/Le zodiaque tropical/]] #[[/La précession des équinoxes/]] #[[/Les planètes rétrogrades/]] #[[/Significations traditionnelles attribuées à chaque Signe/]] #[[/Les Dignités planétaires autres que les Maîtrises/]] #[[/La Réception mutuelle/]] [[Catégorie:Astrologie]] 7wpf7bp4ohjsic27ksf1c37p8pz7gqv Astrologie/Les différents facteurs astrologiques/Les Aspects 0 54854 745918 743731 2025-07-04T13:06:59Z Kad'Astres 30330 745918 wikitext text/x-wiki En astrologie, tout est question d''''angles''' de points de vue. Les [[Astrologie/Les différents facteurs astrologiques/Les Signes|signes du zodiaque]], les [[Astrologie/Les différents facteurs astrologiques/Les Maisons|maisons]] et les '''conjonctions''', '''oppositions''', '''carrés''', '''trigones''' et '''sextiles''' ne sont que des angles vus de la Terre. Le nombre '''12''', multiple de '''3''' et de '''4''', rythme aussi bien les angles entre les Signes (''Trigones'' = Feu, Terre, Air, Eau; ''Carrés'' = Cardinal, Fixe, Mutable) qu'entre les Maisons :<br/> - ''Trigones'' = Angulaire, Succédente, Cadente<br/> - ''Carrés'' : voir le SORI (Sujet - Objet - Relation - Intégration) de Jean-Pierre Nicola. #[[/Les orbes/]] #[[/Aspects appliquants et aspects séparants/]] [[Catégorie:Astrologie]] epf6o1ejs4xy91cbyx3agtfukb10yt7 745921 745918 2025-07-04T13:18:45Z Kad'Astres 30330 745921 wikitext text/x-wiki En astrologie, tout est question d''''angles''' de points de vue. Les [[Astrologie/Les différents facteurs astrologiques/Les Signes|signes du zodiaque]], les [[Astrologie/Les différents facteurs astrologiques/Les Maisons|maisons]] et les '''conjonctions''', '''oppositions''', '''carrés''', '''trigones''' et '''sextiles''' ne sont que des angles vus de la Terre. Le nombre '''12''', multiple de '''3''' et de '''4''', rythme aussi bien les angles entre les Signes (''Trigones'' = Feu, Terre, Air, Eau; ''Carrés'' = Cardinal, Fixe, Mutable) qu'entre les Maisons :<br/> - ''Trigones'' = Angulaire, Succédente, Cadente<br/> - ''Carrés'' : voir le SORI (Sujet - Objet - Relation - Intégration) de Jean-Pierre Nicola. #[[/Les orbes/]] #[[/Aspects appliquants et aspects séparants/]] #[[/Les Mi-points/]] [[Catégorie:Astrologie]] r5wdye7cqkx8k4nnaz21g8um0urnxv1 745936 745921 2025-07-05T03:45:38Z Kad'Astres 30330 745936 wikitext text/x-wiki En astrologie, tout est question d''''angles''' de points de vue. Les [[Astrologie/Les différents facteurs astrologiques/Les Signes|signes du zodiaque]], les [[Astrologie/Les différents facteurs astrologiques/Les Maisons|maisons]] et les '''conjonctions''', '''oppositions''', '''carrés''', '''trigones''' et '''sextiles''' ne sont que des angles vus de la Terre. Le nombre '''12''', multiple de '''3''' et de '''4''', rythme aussi bien les angles entre les Signes (''Trigones'' = Feu, Terre, Air, Eau; ''Carrés'' = Cardinal, Fixe, Mutable) qu'entre les Maisons :<br/> - ''Trigones'' = Angulaire, Succédente, Cadente<br/> - ''Carrés'' : voir le SORI (Sujet - Objet - Relation - Intégration) de Jean-Pierre Nicola. #[[/Les orbes/]] #[[/Aspects appliquants et aspects séparants/]] #[[/Les planètes non aspectées/]] #[[/Les Mi-points/]] [[Catégorie:Astrologie]] 0mb8z711ns4p0ftzdkwr6yq53psap83 745937 745936 2025-07-05T03:54:54Z Kad'Astres 30330 745937 wikitext text/x-wiki En astrologie, tout est question d''''angles''' de points de vue. Les [[Astrologie/Les différents facteurs astrologiques/Les Signes|signes du zodiaque]], les [[Astrologie/Les différents facteurs astrologiques/Les Maisons|maisons]] et les '''conjonctions''', '''oppositions''', '''carrés''', '''trigones''' et '''sextiles''' ne sont que des angles vus de la Terre. Le nombre '''12''', multiple de '''3''' et de '''4''', rythme aussi bien les angles entre les Signes (''Trigones'' = Feu, Terre, Air, Eau; ''Carrés'' = Cardinal, Fixe, Mutable) qu'entre les Maisons :<br/> - ''Trigones'' = Angulaire, Succédente, Cadente<br/> - ''Carrés'' : voir le SORI (Sujet - Objet - Relation - Intégration) de Jean-Pierre Nicola. #[[/Les orbes/]] #[[/Aspects harmoniques et aspects dissonants/]] #[[/Aspects appliquants et aspects séparants/]] #[[/Les planètes non aspectées/]] #[[/Les Mi-points/]] #[[/La Part de Fortune/]] [[Catégorie:Astrologie]] fss51il0ip42h74jcu5ijqg52ijx4m9 Astrologie/L'érection d'un thème astral 0 54863 745916 745170 2025-07-04T12:52:38Z Kad'Astres 30330 745916 wikitext text/x-wiki Le temps sidéral est un angle (notion géométrique) qui mesure le déplacement de la voûte céleste (sphère céleste) en un lieu donné par rapport au méridien local. Un jour sidéral est la durée qui s'écoule entre deux passages du point vernal dans le plan du même méridien. Une rotation terrestre correspond à 24 heures de temps sidéral, mais ne s'effectue pas en 24 heures de temps des horloges. Pour dresser le thème de naissance, on convertit l'heure des horloges en temps sidéral local (TSL) à partir du temps sidéral au méridien de Greenwich à l'instant observé (angle mesuré sur l'équateur) et de l'écart en longitude (angle mesuré sur l'équateur) du lieu de naissance par rapport à ce méridien. Le plus souvent, on dresse un thème natal simplifié en ne considérant que les ''longitudes écliptiques '' (connues à partir du temps sidéral) des différents facteurs du thème. Certains complètent l'analyse par une étude des positions célestes en ''[[/domitude/]]'' (mesure prise grâce au premier vertical, à savoir le grand cercle de la sphère céleste qui passe par le zénith et qui coupe le grand cercle de l'horizon au point indiquant l'Est géographique). [[Catégorie:Astrologie]] n2r8dgsj5zxl3tm54ec3owl2vi4hv0q 745922 745916 2025-07-04T13:21:00Z Kad'Astres 30330 745922 wikitext text/x-wiki Le temps sidéral est un angle (notion géométrique) qui mesure le déplacement de la voûte céleste (sphère céleste) en un lieu donné par rapport au méridien local. Un jour sidéral est la durée qui s'écoule entre deux passages du point vernal dans le plan du même méridien. Une rotation terrestre correspond à 24 heures de temps sidéral, mais ne s'effectue pas en 24 heures de temps des horloges. Pour dresser le thème de naissance, on convertit l'heure des horloges en temps sidéral local (TSL) à partir du temps sidéral au méridien de Greenwich à l'instant observé (angle mesuré sur l'équateur) et de l'écart en longitude (angle mesuré sur l'équateur) du lieu de naissance par rapport à ce méridien. Le plus souvent, on dresse un thème natal simplifié en ne considérant que les ''longitudes écliptiques '' (connues à partir du temps sidéral) des différents facteurs du thème. Certains complètent l'analyse par une étude des positions célestes en ''[[/domitude/]]'' (mesure prise grâce au premier vertical, à savoir le grand cercle de la sphère céleste qui passe par le zénith et qui coupe le grand cercle de l'horizon au point indiquant l'Est géographique). #[[/La Domification/]] [[Catégorie:Astrologie]] 0mlao5jsnq6dox595k7iewxr6qrlxl1 Astrologie/L'interprétation d'un thème astral 0 55034 745935 743735 2025-07-05T03:34:07Z Kad'Astres 30330 745935 wikitext text/x-wiki On distingue l'interprétation du ''thème radical'' (astrologie statique) de l'interprétation du ''thème évolutif'' (astrologie dynamique). En pratique, les astrologues admettent être guidés à la fois par leur intuition et par leurs connaissances techniques pour l'interprétation d'un thème astral. Les éléments techniques à prendre en compte sont les suivants: '''Astrologie statique''' : différentes grilles de lecture existent pour dégager la '''dominante''' du thème ([[Astrologie/L'interprétation d'un thème astral/Astrologie statique/Sceau personnel|sceau personnel]] d'Arielle Aumont ou encore "Maître de nativité" d'Alexandre Volguine notamment). Pour déterminer l'essentiel, Marc Edmund Jones, s'attache, lui, aux [[Astrologie/L'interprétation d'un thème astral/Astrologie statique/Dessins planétaires|dessins planétaires]] (géométrie du thème astral dans son ensemble). '''Astrologie dynamique''' : étude notamment des [[Astrologie/L'interprétation d'un thème astral/Astrologie dynamique/transit|transits]] (méthode jugée la plus fiable par André Barbault), des [[Astrologie/L'interprétation d'un thème astral/Astrologie dynamique/directions secondaires|progressions secondaires]] et (dans une moindre mesure) des [[Astrologie/L'interprétation d'un thème astral/Astrologie dynamique/révolution solaire|révolutions solaires]]. Ces dernières seront étudiées soit au lieu de naissance, soit au lieu où se passe l'anniversaire. [[Catégorie:Astrologie]] c795furv47xqijaqn7lx98ow6tkt322 745938 745935 2025-07-05T04:14:51Z Kad'Astres 30330 745938 wikitext text/x-wiki On distingue l'interprétation du ''thème radical'' (astrologie statique) de l'interprétation du ''thème évolutif'' (astrologie dynamique). En pratique, les astrologues admettent être guidés à la fois par leur intuition et par leurs connaissances techniques pour l'interprétation d'un thème astral. Les éléments techniques à prendre en compte sont les suivants: '''Astrologie statique''' : différentes grilles de lecture existent pour dégager la '''dominante''' du thème ([[Astrologie/L'interprétation d'un thème astral/Astrologie statique/Sceau personnel|sceau personnel]] d'Arielle Aumont ou encore "Maître de nativité" d'Alexandre Volguine notamment). Pour déterminer l'essentiel, Marc Edmund Jones, s'attache, lui, aux [[Astrologie/L'interprétation d'un thème astral/Astrologie statique/Dessins planétaires|dessins planétaires]] (géométrie du thème astral dans son ensemble). L'analyse plus en détails peut être effectuée en suivant la [[Astrologie/L'interprétation d'un thème astral/Astrologie statique/Méthode d'interprétation détaillée|Méthode d'interprétation détaillée suivante]] : * [[Astrologie/L'interprétation d'un thème astral/Astrologie statique/Méthode d'interprétation détaillée/Les Planètes dans les Signes|Les Planètes dans les Signes]] ; * [[Astrologie/L'interprétation d'un thème astral/Astrologie statique/Méthode d'interprétation détaillée/Les Planètes dans les Maisons|Les Planètes dans les Maisons]] ; * [[Astrologie/L'interprétation d'un thème astral/Astrologie statique/Méthode d'interprétation détaillée/Les Maisons dans les Signes|Les Maisons dans les Signes]]. '''Astrologie dynamique''' : étude notamment des [[Astrologie/L'interprétation d'un thème astral/Astrologie dynamique/transit|transits]] (méthode jugée la plus fiable par André Barbault), des [[Astrologie/L'interprétation d'un thème astral/Astrologie dynamique/directions secondaires|progressions secondaires]] et (dans une moindre mesure) des [[Astrologie/L'interprétation d'un thème astral/Astrologie dynamique/révolution solaire|révolutions solaires]]. Ces dernières seront étudiées soit au lieu de naissance, soit au lieu où se passe l'anniversaire. [[Catégorie:Astrologie]] t50qxa1xw6tx2borqsm50zg4gmcszlg 745939 745938 2025-07-05T04:15:29Z Kad'Astres 30330 745939 wikitext text/x-wiki On distingue l'interprétation du ''thème radical'' (astrologie statique) de l'interprétation du ''thème évolutif'' (astrologie dynamique). En pratique, les astrologues admettent être guidés à la fois par leur intuition et par leurs connaissances techniques pour l'interprétation d'un thème astral. Les éléments techniques à prendre en compte sont les suivants: '''Astrologie statique''' : différentes grilles de lecture existent pour dégager la '''dominante''' du thème ([[Astrologie/L'interprétation d'un thème astral/Astrologie statique/Sceau personnel|sceau personnel]] d'Arielle Aumont ou encore "Maître de nativité" d'Alexandre Volguine notamment). Pour déterminer l'essentiel, Marc Edmund Jones, s'attache, lui, aux [[Astrologie/L'interprétation d'un thème astral/Astrologie statique/Dessins planétaires|dessins planétaires]] (géométrie du thème astral dans son ensemble). L'analyse plus en détails peut être effectuée en suivant la [[Astrologie/L'interprétation d'un thème astral/Astrologie statique/Méthode d'interprétation détaillée|Méthode d'interprétation détaillée suivante]] : * [[Astrologie/L'interprétation d'un thème astral/Astrologie statique/Méthode d'interprétation détaillée/Les Planètes dans les Signes|Les Planètes dans les Signes]] ; * [[Astrologie/L'interprétation d'un thème astral/Astrologie statique/Méthode d'interprétation détaillée/Les Planètes dans les Maisons|Les Planètes dans les Maisons]] ; * [[Astrologie/L'interprétation d'un thème astral/Astrologie statique/Méthode d'interprétation détaillée/Les Maisons dans les Signes|Les Maisons dans les Signes]]. '''Astrologie dynamique''' : étude notamment des [[Astrologie/L'interprétation d'un thème astral/Astrologie dynamique/transit|transits]] (méthode jugée la plus fiable par André Barbault), des [[Astrologie/L'interprétation d'un thème astral/Astrologie dynamique/directions secondaires|progressions secondaires]] et (dans une moindre mesure) des [[Astrologie/L'interprétation d'un thème astral/Astrologie dynamique/révolution solaire|révolutions solaires]]. Ces dernières seront étudiées soit au lieu de naissance, soit au lieu où se passe l'anniversaire. [[Catégorie:Astrologie]] 7ftie8ykl3b1ivlz7vfqqfvg0vm4fvh Les cartes graphiques/Les cartes d'affichage 0 67388 745911 745910 2025-07-04T12:00:21Z Mewtow 31375 /* Un PC avec plusieurs GPU : la commutation de GPU */ 745911 wikitext text/x-wiki Les cartes graphiques sont des cartes qui communiquent avec l'écran, pour y afficher des images. Les cartes graphiques modernes incorporent aussi des circuits de calcul pour accélérer du rendu 2D ou 3D. Dans ce chapitre, nous allons faire une introduction et expliquer ce qu'est une carte graphique et surtout : nous allons voir ce qu'il y a à l'intérieur, du moins dans les grandes lignes. ==Les cartes graphiques dédiées, intégrées et soudées== Vous avez sans doute déjà démonté votre PC pour en changer la carte graphique, vous savez sans doute à quoi elle ressemble. Sur les PC modernes, il s'agit d'un composant séparé, qu'on branche sur la carte mère, sur un port spécialisé. Du moins, c'est le cas si vous avez un PC fixe assez puissant. Mais il y a deux autres possibilités. [[File:PX7800 GTX (557505323).jpg|centre|vignette|Carte graphique dédiée PX 7800 GTX I]] La première est celle où la carte graphique est directement intégrée dans le processeur de la machine ! C'est quelque chose qui se fait depuis les années 2000-2010, avec l'amélioration de la technologie et la miniaturisation des transistors. Il est possible de mettre tellement de transistors sur une puce de silicium que les concepteurs de processeur en ont profité pour mettre une carte graphique peut puissante dans le processeur. Une autre possibilité, surtout utilisée sur les consoles de jeu et les PC portables, est celle où la carte graphique est composée de circuits soudés à la carte mère. Pour résumer, il faut distinguer trois types de cartes graphiques différentes : * Les '''cartes graphiques dédiées''', séparées dans une carte d'extension qu'on doit connecter à la carte mère via un connecteur dédié. * Les '''cartes graphiques intégrées''', qui font partie du processeur. * Les '''cartes graphiques soudées''' à la carte mère. Vous avez sans doute vu qu'il y a une grande différence de performance entre une carte graphique dédiée et une carte graphique intégrée. La raison est simplement que les cartes graphiques intégrées ont moins de transistors à leur disposition, ce qui fait qu'elles contiennent moins de circuits de calcul. Les cartes graphiques dédiées et soudées n'ont pas de différences de performances notables. Les cartes soudées des PC portables sont généralement moins performantes car il faut éviter que le PC chauffe trop, vu que la dissipation thermique est moins bonne avec un PC portable (moins de gros ventilos), ce qui demande d'utiliser une carte graphique moins puissante. Mais les cartes soudées des consoles de jeu n'ont pas ce problème : elles sont dans un boitier bien ventilés, on peut en utiliser une très puissante. ===Un PC avec plusieurs GPU : la commutation de GPU=== De nos jours, il y a de très fortes chances que votre ordinateur intègre plusieurs cartes graphique, peu importe que ce soit un PC portable ou fixe. Tous les PC ont une carte graphique intégrée, de faible performance, qui consomme peu d'énergie/électricité. Et si je dis presque tous, c'est parce que tous les processeurs commerciaux modernes incorporent une carte graphique intégrée. Le marché du processeur grand public est ainsi, seuls quelques processeurs dédiés aux serveurs n'ont pas de carte graphique intégrée. Et en plus de la carte intégrée, une bonne partie des PC intègrent aussi soit une carte dédiée, soit une carte soudée. Soudée sur les PC portables, dédiée sur les PC fixe. Dans le passé, il était possible de mettre plusieurs cartes graphiques dédiées dans un même PC, mais avec des conditions drastiques. ATI/AMD et NVIDIA avaient ajouté des fonctionnalités de multi-GPU, qui permettaient à deux GPU de travailler ensemble, afin de presque doubler les performances. Mais cela ne marchait qu'avec deux GPU NVIDIA ou deux GPU ATI/AMD, utiliser deux GPU de deux marques différentes ne marchait pas. Un chapitre entier sera dédié à ces techniques, mais nous n'en parlerons pas ici, car elles sont tombées en désuétude, aucun GPU grand public ne supporte ces technologies. S'il y a deux cartes graphiques, cela ne signifie pas que les deux sont utilisées en même temps. En effet, selon les circonstances, le PC va privilégier l'une ou l'autre. Dans les années 2010, le choix se faisait dans le BIOS : une des deux carte graphique était désactivée pour de bon, typiquement la carte intégrée. Les PC avec une carte dédiée désactivaient la carte intégrée dans le processeur, pour éviter tout conflit entre les deux cartes. De nos jours, les deux sont utilisables, juste pas en même temps. Le système d'exploitation, Windows ou linux, utilise la carte intégrée, soit sur la carte dédiée, suivant les besoins. La carte dédiée est utilisée quand on a besoin de performance, mais elle consomme beaucoup d'énergie/électricité et chauffe plus. La carte graphique intégrée fait l'inverse : ses performances sont basses, mais elle consomme très peu et chauffe moins. La carte dédiée est donc utilisée quand on a besoin de performance, l'intégrée est utilisée quand elle suffit, afin de faire des économies. Prenons l'exemple d'un jeu vidéo : un jeu ancien et peu gourmand sera exécuté sur la carte intégrée, alors qu'un jeu récent/gourmand sera exécuté sur la carte dédiée. Le rendu du bureau de Windows/linux est réalisé par la carte graphique intégrée, pour économiser de l'énergie. Prenons un PC fixe avec deux cartes graphiques, une intégrée et une dédiée. En général, il y a deux connecteurs pour l'écran, un qui est relié à la carte graphique intégrée, un autre qui est sur la carte dédiée proprement dite. Suivant là où vous brancherez l'écran, vous n'utiliserez pas la même carte graphique. Le système d'exploitation se charge d'envoyer les images à afficher à la carte graphique adéquate. Sur un PC portable ''gaming'', les choses sont différentes. Il n'y a qu'un seul connecteur pour l'écran, pas deux. Et dans ce cas, il y a deux possibilités. La première est la plus simple : une seule carte graphique est connectée à l'écran, généralement la carte intégrée. Si la carte dédiée est utilisée, les images qu'elle calcule sont envoyées à la carte intégrée pour ensuite être affichées à l'écran. On passe par un intermédiaire, mais le câblage est plus simple. L'autre solution fait le compromis inverse. Les deux cartes graphiques sont reliées à ce connecteur, par l'intermédiaire d'un circuit multiplexeur. Le circuit multiplexeur reçoit les images à afficher de la part des deux cartes graphiques et choisit l'une d'entre elle. C'est la solution la plus performante, car la carte dédiée peut afficher directement ses images à l'écran, sans avoir à les envoyer à la carte intégrée. Mais elle complexifie le câblage et demande d'ajouter un circuit multiplexeur, ce qui n'est pas gratuit. ==Les cartes d'affichage et leur architecture== Vous vous demandez comment est-ce possible qu'une carte graphique soit soudée ou intégrée dans un processeur. La raison est que les trois types de cartes graphiques sont très similaires, elles sont composées des mêmes types de composants, ce qu'il y a à l'intérieur est globalement le même, comme on va le voir dans ce qui suit. Au tout début de l'informatique, le rendu graphique était pris en charge par le processeur. Il calculait l'image à afficher et l'envoyait à l'écran, pixel par pixel. Le problème est que le processeur devait se synchroniser avec l'écran, pour envoyer les pixels au bon moment. Pour simplifier la vie des programmeurs, les fabricants de matériel ont inventé des cartes vidéo. Avec celles-ci, le processeur calcule l'image à envoyer à l'écran et la transmet à la carte d'affichage, sans avoir à se synchroniser avec l'écran. L'avantage est que le processeur n'a pas à se synchroniser avec l'écran, juste à envoyer l'image à une carte d'affichage. Les cartes d'affichage ne géraient pas le rendu 3D. Le processeur calculait une image, la copiait dans la mémoire vidéo, puis la carte d'affichage l'envoyait à l'écran au bon moment. Il n'y avait pas de circuits de calcul graphique, ni de circuits de décodage vidéo. Juste de quoi afficher une image à l'écran. Et mine de rien, il est intéressant d'étudier de telles cartes graphiques anciennes. De telles cartes graphiques sont ce que j'ai décidé d'appeler des '''cartes d'affichage'''. ===L'intérieur d'une carte d'affichage=== Une carte d'affichage contient plusieurs sous-circuits, chacun dédié à une fonction précise. * La '''mémoire vidéo''' est une mémoire RAM intégrée à la carte graphique, qui a des fonctions multiples. * L''''interface écran''', ou ''Display interface'', regroupe les connecteurs et tous les circuits permettant d'envoyer l'image à l'écran. * Le '''circuit d'interface avec le bus''' existe uniquement sur les cartes dédiées et éventuellement sur quelques cartes soudées. Il s'occupe des transmissions sur le bus PCI/AGP/PCI-Express, le connecteur qui relie la carte mère et la carte graphique. * Un circuit de contrôle qui commande le tout, appelé le '''''Video Display Controler'''''. [[File:Carte d'affichage - architecture.png|centre|vignette|upright=2|Carte d'affichage - architecture.]] La mémoire vidéo mémorise l'image à afficher, les deux circuits d'interfaçage permettent à la carte d'affichage de communiquer respectivement avec l'écran et le reste de l'ordinateur, le ''Video Display Controler'' commande les autres circuits. Le ''Video Display Controler'' sert de chef d'orchestre pour un orchestre dont les autres circuits seraient les musiciens. Le circuit de contrôle était appelé autrefois le CRTC, car il commandait des écrans dit CRT, mais ce n'est plus d'actualité de nos jours. La carte graphique communique via un bus, un vulgaire tas de fils qui connectent la carte graphique à la carte mère. Les premières cartes graphiques utilisaient un bus nommé ISA, qui fût rapidement remplacé par le bus PCI, plus rapide, lui-même remplacé par le bus AGP, puis le bus PCI-Express. Ce bus est géré par un contrôleur de bus, un circuit qui se charge d'envoyer ou de réceptionner les données sur le bus. Les circuits de communication avec le bus permettent à l'ordinateur de communiquer avec la carte graphique, via le bus PCI-Express, AGP, PCI ou autre. Il contient quelques registres dans lesquels le processeur pourra écrire ou lire, afin de lui envoyer des ordres du style : j'envoie une donnée, transmission terminée, je ne suis pas prêt à recevoir les données que tu veux m'envoyer, etc. Il y a peu à dire sur ce circuit, aussi nous allons nous concentrer sur les autres circuits. Le circuit d'interfaçage écran est au minimum un circuit d’interfaçage électrique se contente de convertir les signaux de la carte graphique en signaux que l'on peut envoyer à l'écran. Il s'occupe notamment de convertir les tensions et courants : si l'écran demande des signaux de 5 Volts mais que la carte graphique fonctionne avec du 3,3 Volt, il y a une conversion à faire. De même, le circuit d'interfaçage électrique peut s'occuper de la conversion des signaux numériques vers de l'analogique. L'écran peut avoir une entrée analogique, surtout s'il est assez ancien. Les anciens écrans CRT ne comprenaient que des données analogiques et pas le binaire, alors que c'est l'inverse pour la carte graphique, ce qui fait que le circuit d'interfaçage devait faire la conversion. La conversion était réalisée par un circuit qui traduit des données numériques (ici, du binaire) en données analogiques : le '''convertisseur numérique-analogique''' ou DAC (''Digital-to-Analogue Converter''). Au tout début, le circuit d’interfaçage était un DAC combiné avec des circuits annexes, ce qu'on appelle un RAMDAC (''Random Access Memory Digital-to-Analog Converter''). De nos jours, les écrans comprennent le binaire sous réserve qu'il soit codé suivant le standard adapté et les cartes graphiques n'ont plus besoin de RAMDAC. Il y a peu à dire sur les circuits d'interfaçage. Leur conception et leur fonctionnement dépendent beaucoup du standard utilisé. Sans compter qu'expliquer leur fonctionnement demande de faire de l'électronique pure et dure, ce qui est rarement agréable pour le commun des mortels. Par contre, étudier le circuit de contrôle et la mémoire vidéo est beaucoup plus intéressant. Plusieurs chapitres seront dédiés à leur fonctionnement. Mais parlons maintenant des GPU modernes et passons à la section suivante. ===Un historique rapide des cartes d’affichage=== Les cartes d'affichages sont opposées aux cartes accélératrices 2D et 3D, qui permettent de décharger le processeur d'une partie du rendu 2D/3D. Pour cela, elles intègrent des circuits spécialisés. Vous imaginez peut-être que les cartes d'affichage sont apparues en premier, puis qu'elles ont gagné en puissance et en fonctionnalités pour devenir d'abord des cartes accélératrices 2D, puis des cartes 3D. C'est une suite assez logique, intuitive. Et ce n'est pas du tout ce qui s'est passé ! Les cartes d'affichage pures, sans rendu 2D, sont une invention des premiers PC. Elles sont arrivées alors que les consoles de jeu avaient déjà des cartes hybrides entre carte d'affichage et cartes de rendu 2D depuis une bonne décennie. Sur les consoles de jeu ou les microordinateurs anciens, il n'y avait pas de cartes d'affichage séparée. A la place, le système vidéo d'un ordinateur était un ensemble de circuits soudés sur la carte mère. Les consoles de jeu, ainsi que les premiers micro-ordinateurs, avaient une configuration fixée une fois pour toute et n'étaient pas upgradables. Mais avec l'arrivée de l'IBM PC, les cartes d’affichages se sont séparées de la carte mère. Leurs composants étaient soudés sur une carte qu'on pouvait clipser et détacher de la carte mère si besoin. Et c'est ainsi que l'on peut actuellement changer la carte graphique d'un PC, alors que ce n'est pas le cas sur une console de jeu. La différence entre les deux se limite cependant à cela. Les composant d'une carte d'affichage ou d'une console de jeu sont globalement les mêmes. Aussi, dans ce qui suit, nous parlerons de carte d'affichage pour désigner cet ensemble de circuits, peu importe qu'il soit soudé à la carte mère ou placé sur une carte d’affichage séparée. C'est un abus de langage qu'on ne retrouvera que dans ce cours. ===Les différents types de cartes d'affichage=== Dans la suite du cours, nous allons voir que toutes les cartes d'affichage ne fonctionnent pas de la même manière. Et ces différences font qu'on peut les classer en plusieurs types distincts. Leur classement s'explique par un fait assez simple : une image prend beaucoup de mémoire ! Par exemple, prenons le cas d'une image en niveaux de gris d'une résolution de 320 par 240 pixels, chaque pixel étant codé sur un octet. L'image prend alors 76800 octets, soit environ 76 kiloctets. Mine de rien, cela fait beaucoup de mémoire ! Et si on ajoute le support de la couleur, cela triple, voire quadruple la taille de l'image. Les cartes graphiques récentes ont assez de mémoire pour stocker l'image à afficher. Une partie de la mémoire vidéo est utilisée pour mémoriser l'image à afficher. La portion en question s'appelle le ''framebuffer'', '''tampon d'image''' en français. Il s'agit là d'une solution très simple, mais qui demande une mémoire vidéo de grande taille. Les systèmes récents peuvent se le permettre, mais les tout premiers ordinateurs n'avaient pas assez de mémoire vidéo. Les cartes d'affichages devaient se débrouiller avec peu de mémoire, impossible de mémoriser l'image à afficher entièrement. Pour compenser cela, les cartes d'affichage anciennes utilisaient diverses optimisations assez intéressantes. La première d'entre elle utilise pour cela le fonctionnement des anciens écrans CRT, qui affichaient l'image ligne par ligne. Pour rappel, l'image a afficher à l'écran a une certaine résolution : 320 pixels pour 240 pixels, par exemple. Pour l'écran CRT, l'image est composée de plusieurs lignes. Par exemple, pour une résolution de 640 par 480, l'image est découpée en 480 lignes, chacune faisant 640 pixels de long. L'écran est conçu pour qu'on lui envoie les lignes les unes après les autres, avec une petite pause entre l'affichage/envoi de deux lignes. Précisons que les écrans LCD ont abandonné ce mode de fonctionnement. L'idée est alors la suivante : la mémoire vidéo ne mémorise que la ligne en cours d'affichage par l'écran. Le processeur met à jour la mémoire vidéo entre l'affichage de deux lignes. La mémoire vidéo n'est alors pas un tampon d'image, mais un '''tampon de ligne'''. Le défaut de cette technique est qu'elle demande que le processeur et la carte d'affichage soient synchronisés, de manière à ce que les lignes soient mises à jour au bon moment. L'avantage est que la quantité de mémoire vidéo nécessaire est divisée par un facteur 100, voire plus, égal à la résolution verticale (le nombre de lignes). Une autre méthode, appelée le '''rendu en tiles''', est formellement une technique de compression d'image particulière. L'image à afficher est stockée sous un format compressé en mémoire vidéo, mais est décompressée pixel par pixel lors de l'affichage. Il nous est difficile de décrire cette technique maintenant, mais un chapitre entier sera dédié à cette technique. Le chapitre en question abordera une technique similaire, appelée le rendu en mode texte, qui servira d'introduction propédeutique. Le rendu en tiles et l'usage d'un tampon ligne sont deux optimisations complémentaires. Il est ainsi possible d'utiliser soit l'une, soit l'autre, soit les deux. En clair, cela donne quatre types de cartes d'affichage distincts : * les cartes d'affichage à tampon d'image ; * les cartes à tampon d'images en rendu à tiles ; * les cartes d'affichage à tampon de ligne ; * les cartes d'affichage à tampon de ligne en rendu à tiles. {|class="wikitable" |- ! ! Rendu normal ! Rendu à tile |- ! Tampon d'image | Cartes graphiques post-années 90, standard VGA sur PC | Consoles de jeu 8 bits et 16 bits, standards CGA, MGA |- ! Tampon de ligne | Consoles de jeu ATARI 2600 et postérieures | Console de jeu néo-géo |} Lez prochains chapitres porteront surtout sur les cartes d'affichages à tampon d'image, plus simples à, expliquer. Deux chapitres seront dédiés respectivement aux cartes à rendu en tile, et aux cartes à tampon de ligne. ==Les cartes graphiques actuelles sont très complexes== Les cartes graphiques actuelles sont des cartes d'affichage améliorées auxquelles on a ajouté des circuits annexes, afin de leur donner des capacités de calcul pour le rendu 2D et/ou 3D, mais elles n'en restent pas moins des cartes d'affichages. La seule différence est que le processeur n’envoie pas une image à la mémoire vidéo, mais que l'image à afficher est calculée par la carte graphique 2D/3D. Les calculs autrefois effectués sur le CPU sont donc déportés sur la carte graphique. Si vous analysez une carte graphique récente, vous verrez que les circuits des cartes d'affichage sont toujours là, bien que noyés dans des circuits de rendu 2D/3D. On retrouve une mémoire vidéo, une interface écran, un circuit d'interface avec le bus, un ''Video Display Controler''. L'interface écran est par contre fusionnée avec le ''Video Display Controler''. Mais à ces circuits d'affichage, sont ajoutés un '''GPU''' (''Graphic Processing Unit''), qui s'occupe du rendu 3D, du rendu 2D, mais aussi d'autres fonctions comme du décodage de fichiers vidéos. [[File:Architecture d'une carte graphique avec un GPU.png|centre|vignette|upright=2|Architecture d'une carte graphique avec un GPU]] ===L'intérieur d'un GPU=== Le GPU est un composant assez complexe, surtout sur les cartes graphiques modernes. Il regroupe plusieurs circuits aux fonctions distinctes. * Un '''''Video Display controler''''' est toujours présent, mais ne sera pas représenté dans ce qui suit. * Des '''circuit de rendu 2D''' séparés peuvent être présents, mais sont la plupart du temps intégrés au VDC. * Les '''circuits de rendu 3D''' s'occupent du rendu 3D. * Les '''circuits de décodage vidéo''', pour améliorer la performance du visionnage de vidéos. Les trois circuits précédents sont gouvernés par un '''processeur de commande''', un circuit assez difficile à décrire. Pour le moment, disons qu'il s'occupe de répartir le travail entre les différents circuits précédents. Le processeur de commande reçoit du travail à faire, envoyé par le CPU via le bus, et le redistribue dans les trois circuits précédents. Par exemple, si on lui envoie une vidéo encodée en H264, il envoie le tout au circuit vidéo. De plus, il le configure pour qu'il la décode correctement : il dit au circuit que c'est une vidéo encodée en H264, afin que le circuit sache comment la décoder. Ce genre de configuration est aussi présente sur les circuits de rendu 2D et 3D, bien qu'elle soit plus compliquée. [[File:Microarchitecture simplifiée d'un GPU.png|centre|vignette|upright=2|Microarchitecture simplifiée d'un GPU]] Un GPU contient aussi un contrôleur mémoire, qui est une interface entre le GPU et la mémoire vidéo. Interface électrique, car GPU et mémoire n'utilisent pas les mêmes tensions et qu'en plus, leur interconnexion demande de gérer pas mal de détails purement électriques. Mais aussi interface de communication, car communiquer entre mémoire vidéo et GPU demande de faire pas mal de manipulations, comme gérer l'adressage et bien d'autres choses qu'on ne peut pas encore détailler ici. Un GPU contient aussi d'autres circuits annexes, comme des circuits pour gérer la consommation électrique, un BIOS vidéo, etc. L'interface écran et l'interface avec le bus sont parfois intégrées au GPU. [[File:Generic block diagram of a GPU.svg|centre|vignette|upright=3|Architecture d'une carte graphique moderne.]] ===Un historique simplifié des pipelines 2D/3D/vidéo=== Avant les années 90, les cartes graphiques des ordinateurs personnels et des consoles de jeux se résumaient à des circuits d'accélération 2D, elles n'avaient pas de décodeurs vidéos ou de circuits de rendu 3D. C'est dans les années 90 qu'elles ont commencé à incorporer des circuits d'accélération 3D. Puis, après les années 2000-2010, elles ont commencé à intégrer des circuits de décodage vidéo, aux alentours des années 2010. En parallèle, les circuits de rendu 2D ont progressivement été réduits puis abandonnés. Les circuits de rendu 2D sont des circuits qui ne sont pas programmables, mais qu'on peut configurer. On dit aussi que ce sont des '''circuits fixes'''. Ils sont opposés aux circuits programmables, basés sur des processeurs. Les circuits de rendu 3D étaient initialement des circuits fixes eux aussi, mais sont devenus de plus en plus programmables avec le temps. Les GPU d'après les années 2000 utilisent un mélange de circuits programmables et fixes assez variable. Nous reviendrons là-dessus dans un chapitre dédié. [[File:Microarchitecture globale d'un GPU.png|centre|vignette|upright=2|Microarchitecture globale d'un GPU]] Pour les circuits de décodage vidéo, les choses sont assez complexes. Initialement, ils s'agissait de circuits fixes, qu'on pouvait programmer. Un GPU de ce type est illustré ci-dessus. Mais de nos jours, les calculs de décodage vidéo sont réalisés sur les processeurs de shaders. Les circuits de rendu 3D et de décodage vidéo ont chacun des circuits fixes dédiés, mais partagent des processeurs. [[File:GPU avec processeurs de shaders partagés entre rendu 3D et décodage vidéo.png|centre|vignette|upright=2|GPU avec processeurs de shaders partagés entre rendu 3D et décodage vidéo]] Les cinq prochains chapitres vont parler des cartes d'affichage et des cartes accélératrices 2D, les deux étant fortement liées. C'est seulement dans les chapitres qui suivront que nous parlerons des cartes 3D. Les cartes 3D sont composées d'une carte d'affichage à laquelle on a rajouté des circuits de calcul, ce qui fait qu'il est préférable de faire ainsi : on voit ce qui est commun entre les deux d'abord, avant de voir le rendu 3D ensuite. De plus, le rendu 3D est plus complexe que l'affichage d'une image à l'écran, ce qui fait qu'il vaut mieux voir cela après. {{NavChapitre | book=Les cartes graphiques | next=Le Video Display Controler | nextText=Le Video Display Controler }}{{autocat}} 7pa865hjed7f3q92ny7njzkeovwzmqh 745912 745911 2025-07-04T12:02:00Z Mewtow 31375 /* Un PC avec plusieurs GPU : la commutation de GPU */ 745912 wikitext text/x-wiki Les cartes graphiques sont des cartes qui communiquent avec l'écran, pour y afficher des images. Les cartes graphiques modernes incorporent aussi des circuits de calcul pour accélérer du rendu 2D ou 3D. Dans ce chapitre, nous allons faire une introduction et expliquer ce qu'est une carte graphique et surtout : nous allons voir ce qu'il y a à l'intérieur, du moins dans les grandes lignes. ==Les cartes graphiques dédiées, intégrées et soudées== Vous avez sans doute déjà démonté votre PC pour en changer la carte graphique, vous savez sans doute à quoi elle ressemble. Sur les PC modernes, il s'agit d'un composant séparé, qu'on branche sur la carte mère, sur un port spécialisé. Du moins, c'est le cas si vous avez un PC fixe assez puissant. Mais il y a deux autres possibilités. [[File:PX7800 GTX (557505323).jpg|centre|vignette|Carte graphique dédiée PX 7800 GTX I]] La première est celle où la carte graphique est directement intégrée dans le processeur de la machine ! C'est quelque chose qui se fait depuis les années 2000-2010, avec l'amélioration de la technologie et la miniaturisation des transistors. Il est possible de mettre tellement de transistors sur une puce de silicium que les concepteurs de processeur en ont profité pour mettre une carte graphique peut puissante dans le processeur. Une autre possibilité, surtout utilisée sur les consoles de jeu et les PC portables, est celle où la carte graphique est composée de circuits soudés à la carte mère. Pour résumer, il faut distinguer trois types de cartes graphiques différentes : * Les '''cartes graphiques dédiées''', séparées dans une carte d'extension qu'on doit connecter à la carte mère via un connecteur dédié. * Les '''cartes graphiques intégrées''', qui font partie du processeur. * Les '''cartes graphiques soudées''' à la carte mère. Vous avez sans doute vu qu'il y a une grande différence de performance entre une carte graphique dédiée et une carte graphique intégrée. La raison est simplement que les cartes graphiques intégrées ont moins de transistors à leur disposition, ce qui fait qu'elles contiennent moins de circuits de calcul. Les cartes graphiques dédiées et soudées n'ont pas de différences de performances notables. Les cartes soudées des PC portables sont généralement moins performantes car il faut éviter que le PC chauffe trop, vu que la dissipation thermique est moins bonne avec un PC portable (moins de gros ventilos), ce qui demande d'utiliser une carte graphique moins puissante. Mais les cartes soudées des consoles de jeu n'ont pas ce problème : elles sont dans un boitier bien ventilés, on peut en utiliser une très puissante. ===Un PC avec plusieurs GPU : la commutation de GPU=== De nos jours, il y a de très fortes chances que votre ordinateur intègre plusieurs cartes graphique, peu importe que ce soit un PC portable ou fixe. Tous les PC ont une carte graphique intégrée, de faible performance, qui consomme peu d'énergie/électricité. Et si je dis presque tous, c'est parce que tous les processeurs commerciaux modernes incorporent une carte graphique intégrée. Le marché du processeur grand public est ainsi, seuls quelques processeurs dédiés aux serveurs n'ont pas de carte graphique intégrée. Et en plus de la carte intégrée, une bonne partie des PC intègrent aussi soit une carte dédiée, soit une carte soudée. Soudée sur les PC portables, dédiée sur les PC fixe. Dans le passé, il était possible de mettre plusieurs cartes graphiques dédiées dans un même PC, mais avec des conditions drastiques. ATI/AMD et NVIDIA avaient ajouté des fonctionnalités de multi-GPU, qui permettaient à deux GPU de travailler ensemble, afin de presque doubler les performances. Mais cela ne marchait qu'avec deux GPU NVIDIA ou deux GPU ATI/AMD, utiliser deux GPU de deux marques différentes ne marchait pas. Un chapitre entier sera dédié à ces techniques, mais nous n'en parlerons pas ici, car elles sont tombées en désuétude, aucun GPU grand public ne supporte ces technologies. S'il y a deux cartes graphiques, cela ne signifie pas que les deux sont utilisées en même temps. En effet, selon les circonstances, le PC va privilégier l'une ou l'autre. Dans les années 2010, le choix se faisait dans le BIOS : une des deux carte graphique était désactivée pour de bon, typiquement la carte intégrée. Les PC avec une carte dédiée désactivaient la carte intégrée dans le processeur, pour éviter tout conflit entre les deux cartes. De nos jours, les deux sont utilisables, mais pas en même temps. Le système d'exploitation, Windows ou linux, utilise soit la carte intégrée, soit la carte dédiée, suivant les besoins. La carte dédiée a de bonnes performance, mais elle consomme beaucoup d'énergie/électricité et chauffe plus. La carte graphique intégrée fait l'inverse : ses performances sont basses, mais elle consomme très peu et chauffe moins. La carte dédiée est donc utilisée quand on a besoin de performance, l'intégrée est utilisée quand elle suffit, afin de faire des économies. Prenons l'exemple d'un jeu vidéo : un jeu ancien et peu gourmand sera exécuté sur la carte intégrée, alors qu'un jeu récent/gourmand sera exécuté sur la carte dédiée. Le rendu du bureau de Windows/linux est réalisé par la carte graphique intégrée, pour économiser de l'énergie. Prenons un PC fixe avec deux cartes graphiques, une intégrée et une dédiée. En général, il y a deux connecteurs pour l'écran, un qui est relié à la carte graphique intégrée, un autre qui est sur la carte dédiée proprement dite. Suivant là où vous brancherez l'écran, vous n'utiliserez pas la même carte graphique. Le système d'exploitation se charge d'envoyer les images à afficher à la carte graphique adéquate. Sur un PC portable ''gaming'', les choses sont différentes. Il n'y a qu'un seul connecteur pour l'écran, pas deux. Et dans ce cas, il y a deux possibilités. La première est la plus simple : une seule carte graphique est connectée à l'écran, généralement la carte intégrée. Si la carte dédiée est utilisée, les images qu'elle calcule sont envoyées à la carte intégrée pour ensuite être affichées à l'écran. On passe par un intermédiaire, mais le câblage est plus simple. L'autre solution fait le compromis inverse. Les deux cartes graphiques sont reliées à ce connecteur, par l'intermédiaire d'un circuit multiplexeur. Le circuit multiplexeur reçoit les images à afficher de la part des deux cartes graphiques et choisit l'une d'entre elle. C'est la solution la plus performante, car la carte dédiée peut afficher directement ses images à l'écran, sans avoir à les envoyer à la carte intégrée. Mais elle complexifie le câblage et demande d'ajouter un circuit multiplexeur, ce qui n'est pas gratuit. ==Les cartes d'affichage et leur architecture== Vous vous demandez comment est-ce possible qu'une carte graphique soit soudée ou intégrée dans un processeur. La raison est que les trois types de cartes graphiques sont très similaires, elles sont composées des mêmes types de composants, ce qu'il y a à l'intérieur est globalement le même, comme on va le voir dans ce qui suit. Au tout début de l'informatique, le rendu graphique était pris en charge par le processeur. Il calculait l'image à afficher et l'envoyait à l'écran, pixel par pixel. Le problème est que le processeur devait se synchroniser avec l'écran, pour envoyer les pixels au bon moment. Pour simplifier la vie des programmeurs, les fabricants de matériel ont inventé des cartes vidéo. Avec celles-ci, le processeur calcule l'image à envoyer à l'écran et la transmet à la carte d'affichage, sans avoir à se synchroniser avec l'écran. L'avantage est que le processeur n'a pas à se synchroniser avec l'écran, juste à envoyer l'image à une carte d'affichage. Les cartes d'affichage ne géraient pas le rendu 3D. Le processeur calculait une image, la copiait dans la mémoire vidéo, puis la carte d'affichage l'envoyait à l'écran au bon moment. Il n'y avait pas de circuits de calcul graphique, ni de circuits de décodage vidéo. Juste de quoi afficher une image à l'écran. Et mine de rien, il est intéressant d'étudier de telles cartes graphiques anciennes. De telles cartes graphiques sont ce que j'ai décidé d'appeler des '''cartes d'affichage'''. ===L'intérieur d'une carte d'affichage=== Une carte d'affichage contient plusieurs sous-circuits, chacun dédié à une fonction précise. * La '''mémoire vidéo''' est une mémoire RAM intégrée à la carte graphique, qui a des fonctions multiples. * L''''interface écran''', ou ''Display interface'', regroupe les connecteurs et tous les circuits permettant d'envoyer l'image à l'écran. * Le '''circuit d'interface avec le bus''' existe uniquement sur les cartes dédiées et éventuellement sur quelques cartes soudées. Il s'occupe des transmissions sur le bus PCI/AGP/PCI-Express, le connecteur qui relie la carte mère et la carte graphique. * Un circuit de contrôle qui commande le tout, appelé le '''''Video Display Controler'''''. [[File:Carte d'affichage - architecture.png|centre|vignette|upright=2|Carte d'affichage - architecture.]] La mémoire vidéo mémorise l'image à afficher, les deux circuits d'interfaçage permettent à la carte d'affichage de communiquer respectivement avec l'écran et le reste de l'ordinateur, le ''Video Display Controler'' commande les autres circuits. Le ''Video Display Controler'' sert de chef d'orchestre pour un orchestre dont les autres circuits seraient les musiciens. Le circuit de contrôle était appelé autrefois le CRTC, car il commandait des écrans dit CRT, mais ce n'est plus d'actualité de nos jours. La carte graphique communique via un bus, un vulgaire tas de fils qui connectent la carte graphique à la carte mère. Les premières cartes graphiques utilisaient un bus nommé ISA, qui fût rapidement remplacé par le bus PCI, plus rapide, lui-même remplacé par le bus AGP, puis le bus PCI-Express. Ce bus est géré par un contrôleur de bus, un circuit qui se charge d'envoyer ou de réceptionner les données sur le bus. Les circuits de communication avec le bus permettent à l'ordinateur de communiquer avec la carte graphique, via le bus PCI-Express, AGP, PCI ou autre. Il contient quelques registres dans lesquels le processeur pourra écrire ou lire, afin de lui envoyer des ordres du style : j'envoie une donnée, transmission terminée, je ne suis pas prêt à recevoir les données que tu veux m'envoyer, etc. Il y a peu à dire sur ce circuit, aussi nous allons nous concentrer sur les autres circuits. Le circuit d'interfaçage écran est au minimum un circuit d’interfaçage électrique se contente de convertir les signaux de la carte graphique en signaux que l'on peut envoyer à l'écran. Il s'occupe notamment de convertir les tensions et courants : si l'écran demande des signaux de 5 Volts mais que la carte graphique fonctionne avec du 3,3 Volt, il y a une conversion à faire. De même, le circuit d'interfaçage électrique peut s'occuper de la conversion des signaux numériques vers de l'analogique. L'écran peut avoir une entrée analogique, surtout s'il est assez ancien. Les anciens écrans CRT ne comprenaient que des données analogiques et pas le binaire, alors que c'est l'inverse pour la carte graphique, ce qui fait que le circuit d'interfaçage devait faire la conversion. La conversion était réalisée par un circuit qui traduit des données numériques (ici, du binaire) en données analogiques : le '''convertisseur numérique-analogique''' ou DAC (''Digital-to-Analogue Converter''). Au tout début, le circuit d’interfaçage était un DAC combiné avec des circuits annexes, ce qu'on appelle un RAMDAC (''Random Access Memory Digital-to-Analog Converter''). De nos jours, les écrans comprennent le binaire sous réserve qu'il soit codé suivant le standard adapté et les cartes graphiques n'ont plus besoin de RAMDAC. Il y a peu à dire sur les circuits d'interfaçage. Leur conception et leur fonctionnement dépendent beaucoup du standard utilisé. Sans compter qu'expliquer leur fonctionnement demande de faire de l'électronique pure et dure, ce qui est rarement agréable pour le commun des mortels. Par contre, étudier le circuit de contrôle et la mémoire vidéo est beaucoup plus intéressant. Plusieurs chapitres seront dédiés à leur fonctionnement. Mais parlons maintenant des GPU modernes et passons à la section suivante. ===Un historique rapide des cartes d’affichage=== Les cartes d'affichages sont opposées aux cartes accélératrices 2D et 3D, qui permettent de décharger le processeur d'une partie du rendu 2D/3D. Pour cela, elles intègrent des circuits spécialisés. Vous imaginez peut-être que les cartes d'affichage sont apparues en premier, puis qu'elles ont gagné en puissance et en fonctionnalités pour devenir d'abord des cartes accélératrices 2D, puis des cartes 3D. C'est une suite assez logique, intuitive. Et ce n'est pas du tout ce qui s'est passé ! Les cartes d'affichage pures, sans rendu 2D, sont une invention des premiers PC. Elles sont arrivées alors que les consoles de jeu avaient déjà des cartes hybrides entre carte d'affichage et cartes de rendu 2D depuis une bonne décennie. Sur les consoles de jeu ou les microordinateurs anciens, il n'y avait pas de cartes d'affichage séparée. A la place, le système vidéo d'un ordinateur était un ensemble de circuits soudés sur la carte mère. Les consoles de jeu, ainsi que les premiers micro-ordinateurs, avaient une configuration fixée une fois pour toute et n'étaient pas upgradables. Mais avec l'arrivée de l'IBM PC, les cartes d’affichages se sont séparées de la carte mère. Leurs composants étaient soudés sur une carte qu'on pouvait clipser et détacher de la carte mère si besoin. Et c'est ainsi que l'on peut actuellement changer la carte graphique d'un PC, alors que ce n'est pas le cas sur une console de jeu. La différence entre les deux se limite cependant à cela. Les composant d'une carte d'affichage ou d'une console de jeu sont globalement les mêmes. Aussi, dans ce qui suit, nous parlerons de carte d'affichage pour désigner cet ensemble de circuits, peu importe qu'il soit soudé à la carte mère ou placé sur une carte d’affichage séparée. C'est un abus de langage qu'on ne retrouvera que dans ce cours. ===Les différents types de cartes d'affichage=== Dans la suite du cours, nous allons voir que toutes les cartes d'affichage ne fonctionnent pas de la même manière. Et ces différences font qu'on peut les classer en plusieurs types distincts. Leur classement s'explique par un fait assez simple : une image prend beaucoup de mémoire ! Par exemple, prenons le cas d'une image en niveaux de gris d'une résolution de 320 par 240 pixels, chaque pixel étant codé sur un octet. L'image prend alors 76800 octets, soit environ 76 kiloctets. Mine de rien, cela fait beaucoup de mémoire ! Et si on ajoute le support de la couleur, cela triple, voire quadruple la taille de l'image. Les cartes graphiques récentes ont assez de mémoire pour stocker l'image à afficher. Une partie de la mémoire vidéo est utilisée pour mémoriser l'image à afficher. La portion en question s'appelle le ''framebuffer'', '''tampon d'image''' en français. Il s'agit là d'une solution très simple, mais qui demande une mémoire vidéo de grande taille. Les systèmes récents peuvent se le permettre, mais les tout premiers ordinateurs n'avaient pas assez de mémoire vidéo. Les cartes d'affichages devaient se débrouiller avec peu de mémoire, impossible de mémoriser l'image à afficher entièrement. Pour compenser cela, les cartes d'affichage anciennes utilisaient diverses optimisations assez intéressantes. La première d'entre elle utilise pour cela le fonctionnement des anciens écrans CRT, qui affichaient l'image ligne par ligne. Pour rappel, l'image a afficher à l'écran a une certaine résolution : 320 pixels pour 240 pixels, par exemple. Pour l'écran CRT, l'image est composée de plusieurs lignes. Par exemple, pour une résolution de 640 par 480, l'image est découpée en 480 lignes, chacune faisant 640 pixels de long. L'écran est conçu pour qu'on lui envoie les lignes les unes après les autres, avec une petite pause entre l'affichage/envoi de deux lignes. Précisons que les écrans LCD ont abandonné ce mode de fonctionnement. L'idée est alors la suivante : la mémoire vidéo ne mémorise que la ligne en cours d'affichage par l'écran. Le processeur met à jour la mémoire vidéo entre l'affichage de deux lignes. La mémoire vidéo n'est alors pas un tampon d'image, mais un '''tampon de ligne'''. Le défaut de cette technique est qu'elle demande que le processeur et la carte d'affichage soient synchronisés, de manière à ce que les lignes soient mises à jour au bon moment. L'avantage est que la quantité de mémoire vidéo nécessaire est divisée par un facteur 100, voire plus, égal à la résolution verticale (le nombre de lignes). Une autre méthode, appelée le '''rendu en tiles''', est formellement une technique de compression d'image particulière. L'image à afficher est stockée sous un format compressé en mémoire vidéo, mais est décompressée pixel par pixel lors de l'affichage. Il nous est difficile de décrire cette technique maintenant, mais un chapitre entier sera dédié à cette technique. Le chapitre en question abordera une technique similaire, appelée le rendu en mode texte, qui servira d'introduction propédeutique. Le rendu en tiles et l'usage d'un tampon ligne sont deux optimisations complémentaires. Il est ainsi possible d'utiliser soit l'une, soit l'autre, soit les deux. En clair, cela donne quatre types de cartes d'affichage distincts : * les cartes d'affichage à tampon d'image ; * les cartes à tampon d'images en rendu à tiles ; * les cartes d'affichage à tampon de ligne ; * les cartes d'affichage à tampon de ligne en rendu à tiles. {|class="wikitable" |- ! ! Rendu normal ! Rendu à tile |- ! Tampon d'image | Cartes graphiques post-années 90, standard VGA sur PC | Consoles de jeu 8 bits et 16 bits, standards CGA, MGA |- ! Tampon de ligne | Consoles de jeu ATARI 2600 et postérieures | Console de jeu néo-géo |} Lez prochains chapitres porteront surtout sur les cartes d'affichages à tampon d'image, plus simples à, expliquer. Deux chapitres seront dédiés respectivement aux cartes à rendu en tile, et aux cartes à tampon de ligne. ==Les cartes graphiques actuelles sont très complexes== Les cartes graphiques actuelles sont des cartes d'affichage améliorées auxquelles on a ajouté des circuits annexes, afin de leur donner des capacités de calcul pour le rendu 2D et/ou 3D, mais elles n'en restent pas moins des cartes d'affichages. La seule différence est que le processeur n’envoie pas une image à la mémoire vidéo, mais que l'image à afficher est calculée par la carte graphique 2D/3D. Les calculs autrefois effectués sur le CPU sont donc déportés sur la carte graphique. Si vous analysez une carte graphique récente, vous verrez que les circuits des cartes d'affichage sont toujours là, bien que noyés dans des circuits de rendu 2D/3D. On retrouve une mémoire vidéo, une interface écran, un circuit d'interface avec le bus, un ''Video Display Controler''. L'interface écran est par contre fusionnée avec le ''Video Display Controler''. Mais à ces circuits d'affichage, sont ajoutés un '''GPU''' (''Graphic Processing Unit''), qui s'occupe du rendu 3D, du rendu 2D, mais aussi d'autres fonctions comme du décodage de fichiers vidéos. [[File:Architecture d'une carte graphique avec un GPU.png|centre|vignette|upright=2|Architecture d'une carte graphique avec un GPU]] ===L'intérieur d'un GPU=== Le GPU est un composant assez complexe, surtout sur les cartes graphiques modernes. Il regroupe plusieurs circuits aux fonctions distinctes. * Un '''''Video Display controler''''' est toujours présent, mais ne sera pas représenté dans ce qui suit. * Des '''circuit de rendu 2D''' séparés peuvent être présents, mais sont la plupart du temps intégrés au VDC. * Les '''circuits de rendu 3D''' s'occupent du rendu 3D. * Les '''circuits de décodage vidéo''', pour améliorer la performance du visionnage de vidéos. Les trois circuits précédents sont gouvernés par un '''processeur de commande''', un circuit assez difficile à décrire. Pour le moment, disons qu'il s'occupe de répartir le travail entre les différents circuits précédents. Le processeur de commande reçoit du travail à faire, envoyé par le CPU via le bus, et le redistribue dans les trois circuits précédents. Par exemple, si on lui envoie une vidéo encodée en H264, il envoie le tout au circuit vidéo. De plus, il le configure pour qu'il la décode correctement : il dit au circuit que c'est une vidéo encodée en H264, afin que le circuit sache comment la décoder. Ce genre de configuration est aussi présente sur les circuits de rendu 2D et 3D, bien qu'elle soit plus compliquée. [[File:Microarchitecture simplifiée d'un GPU.png|centre|vignette|upright=2|Microarchitecture simplifiée d'un GPU]] Un GPU contient aussi un contrôleur mémoire, qui est une interface entre le GPU et la mémoire vidéo. Interface électrique, car GPU et mémoire n'utilisent pas les mêmes tensions et qu'en plus, leur interconnexion demande de gérer pas mal de détails purement électriques. Mais aussi interface de communication, car communiquer entre mémoire vidéo et GPU demande de faire pas mal de manipulations, comme gérer l'adressage et bien d'autres choses qu'on ne peut pas encore détailler ici. Un GPU contient aussi d'autres circuits annexes, comme des circuits pour gérer la consommation électrique, un BIOS vidéo, etc. L'interface écran et l'interface avec le bus sont parfois intégrées au GPU. [[File:Generic block diagram of a GPU.svg|centre|vignette|upright=3|Architecture d'une carte graphique moderne.]] ===Un historique simplifié des pipelines 2D/3D/vidéo=== Avant les années 90, les cartes graphiques des ordinateurs personnels et des consoles de jeux se résumaient à des circuits d'accélération 2D, elles n'avaient pas de décodeurs vidéos ou de circuits de rendu 3D. C'est dans les années 90 qu'elles ont commencé à incorporer des circuits d'accélération 3D. Puis, après les années 2000-2010, elles ont commencé à intégrer des circuits de décodage vidéo, aux alentours des années 2010. En parallèle, les circuits de rendu 2D ont progressivement été réduits puis abandonnés. Les circuits de rendu 2D sont des circuits qui ne sont pas programmables, mais qu'on peut configurer. On dit aussi que ce sont des '''circuits fixes'''. Ils sont opposés aux circuits programmables, basés sur des processeurs. Les circuits de rendu 3D étaient initialement des circuits fixes eux aussi, mais sont devenus de plus en plus programmables avec le temps. Les GPU d'après les années 2000 utilisent un mélange de circuits programmables et fixes assez variable. Nous reviendrons là-dessus dans un chapitre dédié. [[File:Microarchitecture globale d'un GPU.png|centre|vignette|upright=2|Microarchitecture globale d'un GPU]] Pour les circuits de décodage vidéo, les choses sont assez complexes. Initialement, ils s'agissait de circuits fixes, qu'on pouvait programmer. Un GPU de ce type est illustré ci-dessus. Mais de nos jours, les calculs de décodage vidéo sont réalisés sur les processeurs de shaders. Les circuits de rendu 3D et de décodage vidéo ont chacun des circuits fixes dédiés, mais partagent des processeurs. [[File:GPU avec processeurs de shaders partagés entre rendu 3D et décodage vidéo.png|centre|vignette|upright=2|GPU avec processeurs de shaders partagés entre rendu 3D et décodage vidéo]] Les cinq prochains chapitres vont parler des cartes d'affichage et des cartes accélératrices 2D, les deux étant fortement liées. C'est seulement dans les chapitres qui suivront que nous parlerons des cartes 3D. Les cartes 3D sont composées d'une carte d'affichage à laquelle on a rajouté des circuits de calcul, ce qui fait qu'il est préférable de faire ainsi : on voit ce qui est commun entre les deux d'abord, avant de voir le rendu 3D ensuite. De plus, le rendu 3D est plus complexe que l'affichage d'une image à l'écran, ce qui fait qu'il vaut mieux voir cela après. {{NavChapitre | book=Les cartes graphiques | next=Le Video Display Controler | nextText=Le Video Display Controler }}{{autocat}} g1opw2pk0oglitxc6jf9kpi1a2dn3yx 745913 745912 2025-07-04T12:02:59Z Mewtow 31375 /* Un PC avec plusieurs GPU : la commutation de GPU */ 745913 wikitext text/x-wiki Les cartes graphiques sont des cartes qui communiquent avec l'écran, pour y afficher des images. Les cartes graphiques modernes incorporent aussi des circuits de calcul pour accélérer du rendu 2D ou 3D. Dans ce chapitre, nous allons faire une introduction et expliquer ce qu'est une carte graphique et surtout : nous allons voir ce qu'il y a à l'intérieur, du moins dans les grandes lignes. ==Les cartes graphiques dédiées, intégrées et soudées== Vous avez sans doute déjà démonté votre PC pour en changer la carte graphique, vous savez sans doute à quoi elle ressemble. Sur les PC modernes, il s'agit d'un composant séparé, qu'on branche sur la carte mère, sur un port spécialisé. Du moins, c'est le cas si vous avez un PC fixe assez puissant. Mais il y a deux autres possibilités. [[File:PX7800 GTX (557505323).jpg|centre|vignette|Carte graphique dédiée PX 7800 GTX I]] La première est celle où la carte graphique est directement intégrée dans le processeur de la machine ! C'est quelque chose qui se fait depuis les années 2000-2010, avec l'amélioration de la technologie et la miniaturisation des transistors. Il est possible de mettre tellement de transistors sur une puce de silicium que les concepteurs de processeur en ont profité pour mettre une carte graphique peut puissante dans le processeur. Une autre possibilité, surtout utilisée sur les consoles de jeu et les PC portables, est celle où la carte graphique est composée de circuits soudés à la carte mère. Pour résumer, il faut distinguer trois types de cartes graphiques différentes : * Les '''cartes graphiques dédiées''', séparées dans une carte d'extension qu'on doit connecter à la carte mère via un connecteur dédié. * Les '''cartes graphiques intégrées''', qui font partie du processeur. * Les '''cartes graphiques soudées''' à la carte mère. Vous avez sans doute vu qu'il y a une grande différence de performance entre une carte graphique dédiée et une carte graphique intégrée. La raison est simplement que les cartes graphiques intégrées ont moins de transistors à leur disposition, ce qui fait qu'elles contiennent moins de circuits de calcul. Les cartes graphiques dédiées et soudées n'ont pas de différences de performances notables. Les cartes soudées des PC portables sont généralement moins performantes car il faut éviter que le PC chauffe trop, vu que la dissipation thermique est moins bonne avec un PC portable (moins de gros ventilos), ce qui demande d'utiliser une carte graphique moins puissante. Mais les cartes soudées des consoles de jeu n'ont pas ce problème : elles sont dans un boitier bien ventilés, on peut en utiliser une très puissante. ===Un PC avec plusieurs GPU : la commutation de GPU=== De nos jours, il y a de très fortes chances que votre ordinateur intègre plusieurs cartes graphique, peu importe que ce soit un PC portable ou fixe. Tous les PC ont une carte graphique intégrée, de faible performance, qui consomme peu d'énergie/électricité. Et si je dis presque tous, c'est parce que tous les processeurs commerciaux modernes incorporent une carte graphique intégrée. Le marché du processeur grand public est ainsi, seuls quelques processeurs dédiés aux serveurs n'ont pas de carte graphique intégrée. Et en plus de la carte intégrée, une bonne partie des PC intègrent aussi soit une carte dédiée, soit une carte soudée. Soudée sur les PC portables, dédiée sur les PC fixe. Dans le passé, il était possible de mettre plusieurs cartes graphiques dédiées dans un même PC, mais avec des conditions drastiques. ATI/AMD et NVIDIA avaient ajouté des fonctionnalités de multi-GPU, qui permettaient à deux GPU de travailler ensemble, afin de presque doubler les performances. Mais cela ne marchait qu'avec deux GPU NVIDIA ou deux GPU ATI/AMD, utiliser deux GPU de deux marques différentes ne marchait pas. Un chapitre entier sera dédié à ces techniques, mais nous n'en parlerons pas ici, car elles sont tombées en désuétude, aucun GPU grand public ne supporte ces technologies. S'il y a deux cartes graphiques, cela ne signifie pas que les deux sont utilisées en même temps. En effet, selon les circonstances, le PC va privilégier l'une ou l'autre. Dans les années 2010, le choix se faisait dans le BIOS : une des deux carte graphique était désactivée pour de bon, typiquement la carte intégrée. Les PC avec une carte dédiée désactivaient la carte intégrée dans le processeur, pour éviter tout conflit entre les deux cartes. De nos jours, les deux sont utilisables, mais pas en même temps. Le système d'exploitation, Windows ou linux, utilise soit la carte intégrée, soit la carte dédiée, suivant les besoins. La carte dédiée a de bonnes performance, mais elle consomme beaucoup d'énergie/électricité et chauffe plus. La carte graphique intégrée fait l'inverse : ses performances sont basses, mais elle consomme très peu et chauffe moins. La carte dédiée est donc utilisée quand on a besoin de performance, l'intégrée est utilisée quand elle suffit, afin de faire des économies. Prenons l'exemple d'un jeu vidéo : un jeu ancien et peu gourmand sera exécuté sur la carte intégrée, alors qu'un jeu récent/gourmand sera exécuté sur la carte dédiée. Le rendu du bureau de Windows/linux est réalisé par la carte graphique intégrée, pour économiser de l'énergie. ===La connexion de plusieurs cartes graphique à un écran=== Prenons un PC fixe avec deux cartes graphiques, une intégrée et une dédiée. En général, il y a deux connecteurs pour l'écran, un qui est relié à la carte graphique intégrée, un autre qui est sur la carte dédiée proprement dite. Suivant là où vous brancherez l'écran, vous n'utiliserez pas la même carte graphique. Le système d'exploitation se charge d'envoyer les images à afficher à la carte graphique adéquate. Sur un PC portable ''gaming'', les choses sont différentes. Il n'y a qu'un seul connecteur pour l'écran, pas deux. Et dans ce cas, il y a deux possibilités. La première est la plus simple : une seule carte graphique est connectée à l'écran, généralement la carte intégrée. Si la carte dédiée est utilisée, les images qu'elle calcule sont envoyées à la carte intégrée pour ensuite être affichées à l'écran. On passe par un intermédiaire, mais le câblage est plus simple. L'autre solution fait le compromis inverse. Les deux cartes graphiques sont reliées à ce connecteur, par l'intermédiaire d'un circuit multiplexeur. Le circuit multiplexeur reçoit les images à afficher de la part des deux cartes graphiques et choisit l'une d'entre elle. C'est la solution la plus performante, car la carte dédiée peut afficher directement ses images à l'écran, sans avoir à les envoyer à la carte intégrée. Mais elle complexifie le câblage et demande d'ajouter un circuit multiplexeur, ce qui n'est pas gratuit. ==Les cartes d'affichage et leur architecture== Vous vous demandez comment est-ce possible qu'une carte graphique soit soudée ou intégrée dans un processeur. La raison est que les trois types de cartes graphiques sont très similaires, elles sont composées des mêmes types de composants, ce qu'il y a à l'intérieur est globalement le même, comme on va le voir dans ce qui suit. Au tout début de l'informatique, le rendu graphique était pris en charge par le processeur. Il calculait l'image à afficher et l'envoyait à l'écran, pixel par pixel. Le problème est que le processeur devait se synchroniser avec l'écran, pour envoyer les pixels au bon moment. Pour simplifier la vie des programmeurs, les fabricants de matériel ont inventé des cartes vidéo. Avec celles-ci, le processeur calcule l'image à envoyer à l'écran et la transmet à la carte d'affichage, sans avoir à se synchroniser avec l'écran. L'avantage est que le processeur n'a pas à se synchroniser avec l'écran, juste à envoyer l'image à une carte d'affichage. Les cartes d'affichage ne géraient pas le rendu 3D. Le processeur calculait une image, la copiait dans la mémoire vidéo, puis la carte d'affichage l'envoyait à l'écran au bon moment. Il n'y avait pas de circuits de calcul graphique, ni de circuits de décodage vidéo. Juste de quoi afficher une image à l'écran. Et mine de rien, il est intéressant d'étudier de telles cartes graphiques anciennes. De telles cartes graphiques sont ce que j'ai décidé d'appeler des '''cartes d'affichage'''. ===L'intérieur d'une carte d'affichage=== Une carte d'affichage contient plusieurs sous-circuits, chacun dédié à une fonction précise. * La '''mémoire vidéo''' est une mémoire RAM intégrée à la carte graphique, qui a des fonctions multiples. * L''''interface écran''', ou ''Display interface'', regroupe les connecteurs et tous les circuits permettant d'envoyer l'image à l'écran. * Le '''circuit d'interface avec le bus''' existe uniquement sur les cartes dédiées et éventuellement sur quelques cartes soudées. Il s'occupe des transmissions sur le bus PCI/AGP/PCI-Express, le connecteur qui relie la carte mère et la carte graphique. * Un circuit de contrôle qui commande le tout, appelé le '''''Video Display Controler'''''. [[File:Carte d'affichage - architecture.png|centre|vignette|upright=2|Carte d'affichage - architecture.]] La mémoire vidéo mémorise l'image à afficher, les deux circuits d'interfaçage permettent à la carte d'affichage de communiquer respectivement avec l'écran et le reste de l'ordinateur, le ''Video Display Controler'' commande les autres circuits. Le ''Video Display Controler'' sert de chef d'orchestre pour un orchestre dont les autres circuits seraient les musiciens. Le circuit de contrôle était appelé autrefois le CRTC, car il commandait des écrans dit CRT, mais ce n'est plus d'actualité de nos jours. La carte graphique communique via un bus, un vulgaire tas de fils qui connectent la carte graphique à la carte mère. Les premières cartes graphiques utilisaient un bus nommé ISA, qui fût rapidement remplacé par le bus PCI, plus rapide, lui-même remplacé par le bus AGP, puis le bus PCI-Express. Ce bus est géré par un contrôleur de bus, un circuit qui se charge d'envoyer ou de réceptionner les données sur le bus. Les circuits de communication avec le bus permettent à l'ordinateur de communiquer avec la carte graphique, via le bus PCI-Express, AGP, PCI ou autre. Il contient quelques registres dans lesquels le processeur pourra écrire ou lire, afin de lui envoyer des ordres du style : j'envoie une donnée, transmission terminée, je ne suis pas prêt à recevoir les données que tu veux m'envoyer, etc. Il y a peu à dire sur ce circuit, aussi nous allons nous concentrer sur les autres circuits. Le circuit d'interfaçage écran est au minimum un circuit d’interfaçage électrique se contente de convertir les signaux de la carte graphique en signaux que l'on peut envoyer à l'écran. Il s'occupe notamment de convertir les tensions et courants : si l'écran demande des signaux de 5 Volts mais que la carte graphique fonctionne avec du 3,3 Volt, il y a une conversion à faire. De même, le circuit d'interfaçage électrique peut s'occuper de la conversion des signaux numériques vers de l'analogique. L'écran peut avoir une entrée analogique, surtout s'il est assez ancien. Les anciens écrans CRT ne comprenaient que des données analogiques et pas le binaire, alors que c'est l'inverse pour la carte graphique, ce qui fait que le circuit d'interfaçage devait faire la conversion. La conversion était réalisée par un circuit qui traduit des données numériques (ici, du binaire) en données analogiques : le '''convertisseur numérique-analogique''' ou DAC (''Digital-to-Analogue Converter''). Au tout début, le circuit d’interfaçage était un DAC combiné avec des circuits annexes, ce qu'on appelle un RAMDAC (''Random Access Memory Digital-to-Analog Converter''). De nos jours, les écrans comprennent le binaire sous réserve qu'il soit codé suivant le standard adapté et les cartes graphiques n'ont plus besoin de RAMDAC. Il y a peu à dire sur les circuits d'interfaçage. Leur conception et leur fonctionnement dépendent beaucoup du standard utilisé. Sans compter qu'expliquer leur fonctionnement demande de faire de l'électronique pure et dure, ce qui est rarement agréable pour le commun des mortels. Par contre, étudier le circuit de contrôle et la mémoire vidéo est beaucoup plus intéressant. Plusieurs chapitres seront dédiés à leur fonctionnement. Mais parlons maintenant des GPU modernes et passons à la section suivante. ===Un historique rapide des cartes d’affichage=== Les cartes d'affichages sont opposées aux cartes accélératrices 2D et 3D, qui permettent de décharger le processeur d'une partie du rendu 2D/3D. Pour cela, elles intègrent des circuits spécialisés. Vous imaginez peut-être que les cartes d'affichage sont apparues en premier, puis qu'elles ont gagné en puissance et en fonctionnalités pour devenir d'abord des cartes accélératrices 2D, puis des cartes 3D. C'est une suite assez logique, intuitive. Et ce n'est pas du tout ce qui s'est passé ! Les cartes d'affichage pures, sans rendu 2D, sont une invention des premiers PC. Elles sont arrivées alors que les consoles de jeu avaient déjà des cartes hybrides entre carte d'affichage et cartes de rendu 2D depuis une bonne décennie. Sur les consoles de jeu ou les microordinateurs anciens, il n'y avait pas de cartes d'affichage séparée. A la place, le système vidéo d'un ordinateur était un ensemble de circuits soudés sur la carte mère. Les consoles de jeu, ainsi que les premiers micro-ordinateurs, avaient une configuration fixée une fois pour toute et n'étaient pas upgradables. Mais avec l'arrivée de l'IBM PC, les cartes d’affichages se sont séparées de la carte mère. Leurs composants étaient soudés sur une carte qu'on pouvait clipser et détacher de la carte mère si besoin. Et c'est ainsi que l'on peut actuellement changer la carte graphique d'un PC, alors que ce n'est pas le cas sur une console de jeu. La différence entre les deux se limite cependant à cela. Les composant d'une carte d'affichage ou d'une console de jeu sont globalement les mêmes. Aussi, dans ce qui suit, nous parlerons de carte d'affichage pour désigner cet ensemble de circuits, peu importe qu'il soit soudé à la carte mère ou placé sur une carte d’affichage séparée. C'est un abus de langage qu'on ne retrouvera que dans ce cours. ===Les différents types de cartes d'affichage=== Dans la suite du cours, nous allons voir que toutes les cartes d'affichage ne fonctionnent pas de la même manière. Et ces différences font qu'on peut les classer en plusieurs types distincts. Leur classement s'explique par un fait assez simple : une image prend beaucoup de mémoire ! Par exemple, prenons le cas d'une image en niveaux de gris d'une résolution de 320 par 240 pixels, chaque pixel étant codé sur un octet. L'image prend alors 76800 octets, soit environ 76 kiloctets. Mine de rien, cela fait beaucoup de mémoire ! Et si on ajoute le support de la couleur, cela triple, voire quadruple la taille de l'image. Les cartes graphiques récentes ont assez de mémoire pour stocker l'image à afficher. Une partie de la mémoire vidéo est utilisée pour mémoriser l'image à afficher. La portion en question s'appelle le ''framebuffer'', '''tampon d'image''' en français. Il s'agit là d'une solution très simple, mais qui demande une mémoire vidéo de grande taille. Les systèmes récents peuvent se le permettre, mais les tout premiers ordinateurs n'avaient pas assez de mémoire vidéo. Les cartes d'affichages devaient se débrouiller avec peu de mémoire, impossible de mémoriser l'image à afficher entièrement. Pour compenser cela, les cartes d'affichage anciennes utilisaient diverses optimisations assez intéressantes. La première d'entre elle utilise pour cela le fonctionnement des anciens écrans CRT, qui affichaient l'image ligne par ligne. Pour rappel, l'image a afficher à l'écran a une certaine résolution : 320 pixels pour 240 pixels, par exemple. Pour l'écran CRT, l'image est composée de plusieurs lignes. Par exemple, pour une résolution de 640 par 480, l'image est découpée en 480 lignes, chacune faisant 640 pixels de long. L'écran est conçu pour qu'on lui envoie les lignes les unes après les autres, avec une petite pause entre l'affichage/envoi de deux lignes. Précisons que les écrans LCD ont abandonné ce mode de fonctionnement. L'idée est alors la suivante : la mémoire vidéo ne mémorise que la ligne en cours d'affichage par l'écran. Le processeur met à jour la mémoire vidéo entre l'affichage de deux lignes. La mémoire vidéo n'est alors pas un tampon d'image, mais un '''tampon de ligne'''. Le défaut de cette technique est qu'elle demande que le processeur et la carte d'affichage soient synchronisés, de manière à ce que les lignes soient mises à jour au bon moment. L'avantage est que la quantité de mémoire vidéo nécessaire est divisée par un facteur 100, voire plus, égal à la résolution verticale (le nombre de lignes). Une autre méthode, appelée le '''rendu en tiles''', est formellement une technique de compression d'image particulière. L'image à afficher est stockée sous un format compressé en mémoire vidéo, mais est décompressée pixel par pixel lors de l'affichage. Il nous est difficile de décrire cette technique maintenant, mais un chapitre entier sera dédié à cette technique. Le chapitre en question abordera une technique similaire, appelée le rendu en mode texte, qui servira d'introduction propédeutique. Le rendu en tiles et l'usage d'un tampon ligne sont deux optimisations complémentaires. Il est ainsi possible d'utiliser soit l'une, soit l'autre, soit les deux. En clair, cela donne quatre types de cartes d'affichage distincts : * les cartes d'affichage à tampon d'image ; * les cartes à tampon d'images en rendu à tiles ; * les cartes d'affichage à tampon de ligne ; * les cartes d'affichage à tampon de ligne en rendu à tiles. {|class="wikitable" |- ! ! Rendu normal ! Rendu à tile |- ! Tampon d'image | Cartes graphiques post-années 90, standard VGA sur PC | Consoles de jeu 8 bits et 16 bits, standards CGA, MGA |- ! Tampon de ligne | Consoles de jeu ATARI 2600 et postérieures | Console de jeu néo-géo |} Lez prochains chapitres porteront surtout sur les cartes d'affichages à tampon d'image, plus simples à, expliquer. Deux chapitres seront dédiés respectivement aux cartes à rendu en tile, et aux cartes à tampon de ligne. ==Les cartes graphiques actuelles sont très complexes== Les cartes graphiques actuelles sont des cartes d'affichage améliorées auxquelles on a ajouté des circuits annexes, afin de leur donner des capacités de calcul pour le rendu 2D et/ou 3D, mais elles n'en restent pas moins des cartes d'affichages. La seule différence est que le processeur n’envoie pas une image à la mémoire vidéo, mais que l'image à afficher est calculée par la carte graphique 2D/3D. Les calculs autrefois effectués sur le CPU sont donc déportés sur la carte graphique. Si vous analysez une carte graphique récente, vous verrez que les circuits des cartes d'affichage sont toujours là, bien que noyés dans des circuits de rendu 2D/3D. On retrouve une mémoire vidéo, une interface écran, un circuit d'interface avec le bus, un ''Video Display Controler''. L'interface écran est par contre fusionnée avec le ''Video Display Controler''. Mais à ces circuits d'affichage, sont ajoutés un '''GPU''' (''Graphic Processing Unit''), qui s'occupe du rendu 3D, du rendu 2D, mais aussi d'autres fonctions comme du décodage de fichiers vidéos. [[File:Architecture d'une carte graphique avec un GPU.png|centre|vignette|upright=2|Architecture d'une carte graphique avec un GPU]] ===L'intérieur d'un GPU=== Le GPU est un composant assez complexe, surtout sur les cartes graphiques modernes. Il regroupe plusieurs circuits aux fonctions distinctes. * Un '''''Video Display controler''''' est toujours présent, mais ne sera pas représenté dans ce qui suit. * Des '''circuit de rendu 2D''' séparés peuvent être présents, mais sont la plupart du temps intégrés au VDC. * Les '''circuits de rendu 3D''' s'occupent du rendu 3D. * Les '''circuits de décodage vidéo''', pour améliorer la performance du visionnage de vidéos. Les trois circuits précédents sont gouvernés par un '''processeur de commande''', un circuit assez difficile à décrire. Pour le moment, disons qu'il s'occupe de répartir le travail entre les différents circuits précédents. Le processeur de commande reçoit du travail à faire, envoyé par le CPU via le bus, et le redistribue dans les trois circuits précédents. Par exemple, si on lui envoie une vidéo encodée en H264, il envoie le tout au circuit vidéo. De plus, il le configure pour qu'il la décode correctement : il dit au circuit que c'est une vidéo encodée en H264, afin que le circuit sache comment la décoder. Ce genre de configuration est aussi présente sur les circuits de rendu 2D et 3D, bien qu'elle soit plus compliquée. [[File:Microarchitecture simplifiée d'un GPU.png|centre|vignette|upright=2|Microarchitecture simplifiée d'un GPU]] Un GPU contient aussi un contrôleur mémoire, qui est une interface entre le GPU et la mémoire vidéo. Interface électrique, car GPU et mémoire n'utilisent pas les mêmes tensions et qu'en plus, leur interconnexion demande de gérer pas mal de détails purement électriques. Mais aussi interface de communication, car communiquer entre mémoire vidéo et GPU demande de faire pas mal de manipulations, comme gérer l'adressage et bien d'autres choses qu'on ne peut pas encore détailler ici. Un GPU contient aussi d'autres circuits annexes, comme des circuits pour gérer la consommation électrique, un BIOS vidéo, etc. L'interface écran et l'interface avec le bus sont parfois intégrées au GPU. [[File:Generic block diagram of a GPU.svg|centre|vignette|upright=3|Architecture d'une carte graphique moderne.]] ===Un historique simplifié des pipelines 2D/3D/vidéo=== Avant les années 90, les cartes graphiques des ordinateurs personnels et des consoles de jeux se résumaient à des circuits d'accélération 2D, elles n'avaient pas de décodeurs vidéos ou de circuits de rendu 3D. C'est dans les années 90 qu'elles ont commencé à incorporer des circuits d'accélération 3D. Puis, après les années 2000-2010, elles ont commencé à intégrer des circuits de décodage vidéo, aux alentours des années 2010. En parallèle, les circuits de rendu 2D ont progressivement été réduits puis abandonnés. Les circuits de rendu 2D sont des circuits qui ne sont pas programmables, mais qu'on peut configurer. On dit aussi que ce sont des '''circuits fixes'''. Ils sont opposés aux circuits programmables, basés sur des processeurs. Les circuits de rendu 3D étaient initialement des circuits fixes eux aussi, mais sont devenus de plus en plus programmables avec le temps. Les GPU d'après les années 2000 utilisent un mélange de circuits programmables et fixes assez variable. Nous reviendrons là-dessus dans un chapitre dédié. [[File:Microarchitecture globale d'un GPU.png|centre|vignette|upright=2|Microarchitecture globale d'un GPU]] Pour les circuits de décodage vidéo, les choses sont assez complexes. Initialement, ils s'agissait de circuits fixes, qu'on pouvait programmer. Un GPU de ce type est illustré ci-dessus. Mais de nos jours, les calculs de décodage vidéo sont réalisés sur les processeurs de shaders. Les circuits de rendu 3D et de décodage vidéo ont chacun des circuits fixes dédiés, mais partagent des processeurs. [[File:GPU avec processeurs de shaders partagés entre rendu 3D et décodage vidéo.png|centre|vignette|upright=2|GPU avec processeurs de shaders partagés entre rendu 3D et décodage vidéo]] Les cinq prochains chapitres vont parler des cartes d'affichage et des cartes accélératrices 2D, les deux étant fortement liées. C'est seulement dans les chapitres qui suivront que nous parlerons des cartes 3D. Les cartes 3D sont composées d'une carte d'affichage à laquelle on a rajouté des circuits de calcul, ce qui fait qu'il est préférable de faire ainsi : on voit ce qui est commun entre les deux d'abord, avant de voir le rendu 3D ensuite. De plus, le rendu 3D est plus complexe que l'affichage d'une image à l'écran, ce qui fait qu'il vaut mieux voir cela après. {{NavChapitre | book=Les cartes graphiques | next=Le Video Display Controler | nextText=Le Video Display Controler }}{{autocat}} autcsc56vbwt26wa69pm34pz0f5cehk 745914 745913 2025-07-04T12:08:53Z Mewtow 31375 /* La connexion de plusieurs cartes graphique à un écran */ 745914 wikitext text/x-wiki Les cartes graphiques sont des cartes qui communiquent avec l'écran, pour y afficher des images. Les cartes graphiques modernes incorporent aussi des circuits de calcul pour accélérer du rendu 2D ou 3D. Dans ce chapitre, nous allons faire une introduction et expliquer ce qu'est une carte graphique et surtout : nous allons voir ce qu'il y a à l'intérieur, du moins dans les grandes lignes. ==Les cartes graphiques dédiées, intégrées et soudées== Vous avez sans doute déjà démonté votre PC pour en changer la carte graphique, vous savez sans doute à quoi elle ressemble. Sur les PC modernes, il s'agit d'un composant séparé, qu'on branche sur la carte mère, sur un port spécialisé. Du moins, c'est le cas si vous avez un PC fixe assez puissant. Mais il y a deux autres possibilités. [[File:PX7800 GTX (557505323).jpg|centre|vignette|Carte graphique dédiée PX 7800 GTX I]] La première est celle où la carte graphique est directement intégrée dans le processeur de la machine ! C'est quelque chose qui se fait depuis les années 2000-2010, avec l'amélioration de la technologie et la miniaturisation des transistors. Il est possible de mettre tellement de transistors sur une puce de silicium que les concepteurs de processeur en ont profité pour mettre une carte graphique peut puissante dans le processeur. Une autre possibilité, surtout utilisée sur les consoles de jeu et les PC portables, est celle où la carte graphique est composée de circuits soudés à la carte mère. Pour résumer, il faut distinguer trois types de cartes graphiques différentes : * Les '''cartes graphiques dédiées''', séparées dans une carte d'extension qu'on doit connecter à la carte mère via un connecteur dédié. * Les '''cartes graphiques intégrées''', qui font partie du processeur. * Les '''cartes graphiques soudées''' à la carte mère. Vous avez sans doute vu qu'il y a une grande différence de performance entre une carte graphique dédiée et une carte graphique intégrée. La raison est simplement que les cartes graphiques intégrées ont moins de transistors à leur disposition, ce qui fait qu'elles contiennent moins de circuits de calcul. Les cartes graphiques dédiées et soudées n'ont pas de différences de performances notables. Les cartes soudées des PC portables sont généralement moins performantes car il faut éviter que le PC chauffe trop, vu que la dissipation thermique est moins bonne avec un PC portable (moins de gros ventilos), ce qui demande d'utiliser une carte graphique moins puissante. Mais les cartes soudées des consoles de jeu n'ont pas ce problème : elles sont dans un boitier bien ventilés, on peut en utiliser une très puissante. ===Un PC avec plusieurs GPU : la commutation de GPU=== De nos jours, il y a de très fortes chances que votre ordinateur intègre plusieurs cartes graphique, peu importe que ce soit un PC portable ou fixe. Tous les PC ont une carte graphique intégrée, de faible performance, qui consomme peu d'énergie/électricité. Et si je dis presque tous, c'est parce que tous les processeurs commerciaux modernes incorporent une carte graphique intégrée. Le marché du processeur grand public est ainsi, seuls quelques processeurs dédiés aux serveurs n'ont pas de carte graphique intégrée. Et en plus de la carte intégrée, une bonne partie des PC intègrent aussi soit une carte dédiée, soit une carte soudée. Soudée sur les PC portables, dédiée sur les PC fixe. Dans le passé, il était possible de mettre plusieurs cartes graphiques dédiées dans un même PC, mais avec des conditions drastiques. ATI/AMD et NVIDIA avaient ajouté des fonctionnalités de multi-GPU, qui permettaient à deux GPU de travailler ensemble, afin de presque doubler les performances. Mais cela ne marchait qu'avec deux GPU NVIDIA ou deux GPU ATI/AMD, utiliser deux GPU de deux marques différentes ne marchait pas. Un chapitre entier sera dédié à ces techniques, mais nous n'en parlerons pas ici, car elles sont tombées en désuétude, aucun GPU grand public ne supporte ces technologies. S'il y a deux cartes graphiques, cela ne signifie pas que les deux sont utilisées en même temps. En effet, selon les circonstances, le PC va privilégier l'une ou l'autre. Dans les années 2010, le choix se faisait dans le BIOS : une des deux carte graphique était désactivée pour de bon, typiquement la carte intégrée. Les PC avec une carte dédiée désactivaient la carte intégrée dans le processeur, pour éviter tout conflit entre les deux cartes. De nos jours, les deux sont utilisables, mais pas en même temps. Le système d'exploitation, Windows ou linux, utilise soit la carte intégrée, soit la carte dédiée, suivant les besoins. La carte dédiée a de bonnes performance, mais elle consomme beaucoup d'énergie/électricité et chauffe plus. La carte graphique intégrée fait l'inverse : ses performances sont basses, mais elle consomme très peu et chauffe moins. La carte dédiée est donc utilisée quand on a besoin de performance, l'intégrée est utilisée quand elle suffit, afin de faire des économies. Prenons l'exemple d'un jeu vidéo : un jeu ancien et peu gourmand sera exécuté sur la carte intégrée, alors qu'un jeu récent/gourmand sera exécuté sur la carte dédiée. Le rendu du bureau de Windows/linux est réalisé par la carte graphique intégrée, pour économiser de l'énergie. ===La connexion des cartes graphiques à l'écran=== Prenons un PC fixe avec deux cartes graphiques, une intégrée et une dédiée. En général, il y a deux connecteurs pour l'écran, un qui est relié à la carte graphique intégrée, un autre qui est sur la carte dédiée proprement dite. Suivant là où vous brancherez l'écran, vous n'utiliserez pas la même carte graphique. Le système d'exploitation se charge d'envoyer les images à afficher à la carte graphique adéquate. Sur un PC portable ''gaming'', les choses sont différentes. Il n'y a qu'un seul connecteur pour l'écran, pas deux. Et dans ce cas, il y a deux possibilités. La première est la plus simple : une seule carte graphique est connectée à l'écran, généralement la carte intégrée. Si la carte dédiée est utilisée, les images qu'elle calcule sont envoyées à la carte intégrée pour ensuite être affichées à l'écran. On passe par un intermédiaire, mais le câblage est plus simple. L'autre solution fait le compromis inverse. Les deux cartes graphiques sont reliées à ce connecteur, par l'intermédiaire d'un circuit multiplexeur. Le circuit multiplexeur reçoit les images à afficher de la part des deux cartes graphiques et choisit l'une d'entre elle. C'est la solution la plus performante, car la carte dédiée peut afficher directement ses images à l'écran, sans avoir à les envoyer à la carte intégrée. Mais elle complexifie le câblage et demande d'ajouter un circuit multiplexeur, ce qui n'est pas gratuit. ==Les cartes d'affichage et leur architecture== Vous vous demandez comment est-ce possible qu'une carte graphique soit soudée ou intégrée dans un processeur. La raison est que les trois types de cartes graphiques sont très similaires, elles sont composées des mêmes types de composants, ce qu'il y a à l'intérieur est globalement le même, comme on va le voir dans ce qui suit. Au tout début de l'informatique, le rendu graphique était pris en charge par le processeur. Il calculait l'image à afficher et l'envoyait à l'écran, pixel par pixel. Le problème est que le processeur devait se synchroniser avec l'écran, pour envoyer les pixels au bon moment. Pour simplifier la vie des programmeurs, les fabricants de matériel ont inventé des cartes vidéo. Avec celles-ci, le processeur calcule l'image à envoyer à l'écran et la transmet à la carte d'affichage, sans avoir à se synchroniser avec l'écran. L'avantage est que le processeur n'a pas à se synchroniser avec l'écran, juste à envoyer l'image à une carte d'affichage. Les cartes d'affichage ne géraient pas le rendu 3D. Le processeur calculait une image, la copiait dans la mémoire vidéo, puis la carte d'affichage l'envoyait à l'écran au bon moment. Il n'y avait pas de circuits de calcul graphique, ni de circuits de décodage vidéo. Juste de quoi afficher une image à l'écran. Et mine de rien, il est intéressant d'étudier de telles cartes graphiques anciennes. De telles cartes graphiques sont ce que j'ai décidé d'appeler des '''cartes d'affichage'''. ===L'intérieur d'une carte d'affichage=== Une carte d'affichage contient plusieurs sous-circuits, chacun dédié à une fonction précise. * La '''mémoire vidéo''' est une mémoire RAM intégrée à la carte graphique, qui a des fonctions multiples. * L''''interface écran''', ou ''Display interface'', regroupe les connecteurs et tous les circuits permettant d'envoyer l'image à l'écran. * Le '''circuit d'interface avec le bus''' existe uniquement sur les cartes dédiées et éventuellement sur quelques cartes soudées. Il s'occupe des transmissions sur le bus PCI/AGP/PCI-Express, le connecteur qui relie la carte mère et la carte graphique. * Un circuit de contrôle qui commande le tout, appelé le '''''Video Display Controler'''''. [[File:Carte d'affichage - architecture.png|centre|vignette|upright=2|Carte d'affichage - architecture.]] La mémoire vidéo mémorise l'image à afficher, les deux circuits d'interfaçage permettent à la carte d'affichage de communiquer respectivement avec l'écran et le reste de l'ordinateur, le ''Video Display Controler'' commande les autres circuits. Le ''Video Display Controler'' sert de chef d'orchestre pour un orchestre dont les autres circuits seraient les musiciens. Le circuit de contrôle était appelé autrefois le CRTC, car il commandait des écrans dit CRT, mais ce n'est plus d'actualité de nos jours. La carte graphique communique via un bus, un vulgaire tas de fils qui connectent la carte graphique à la carte mère. Les premières cartes graphiques utilisaient un bus nommé ISA, qui fût rapidement remplacé par le bus PCI, plus rapide, lui-même remplacé par le bus AGP, puis le bus PCI-Express. Ce bus est géré par un contrôleur de bus, un circuit qui se charge d'envoyer ou de réceptionner les données sur le bus. Les circuits de communication avec le bus permettent à l'ordinateur de communiquer avec la carte graphique, via le bus PCI-Express, AGP, PCI ou autre. Il contient quelques registres dans lesquels le processeur pourra écrire ou lire, afin de lui envoyer des ordres du style : j'envoie une donnée, transmission terminée, je ne suis pas prêt à recevoir les données que tu veux m'envoyer, etc. Il y a peu à dire sur ce circuit, aussi nous allons nous concentrer sur les autres circuits. Le circuit d'interfaçage écran est au minimum un circuit d’interfaçage électrique se contente de convertir les signaux de la carte graphique en signaux que l'on peut envoyer à l'écran. Il s'occupe notamment de convertir les tensions et courants : si l'écran demande des signaux de 5 Volts mais que la carte graphique fonctionne avec du 3,3 Volt, il y a une conversion à faire. De même, le circuit d'interfaçage électrique peut s'occuper de la conversion des signaux numériques vers de l'analogique. L'écran peut avoir une entrée analogique, surtout s'il est assez ancien. Les anciens écrans CRT ne comprenaient que des données analogiques et pas le binaire, alors que c'est l'inverse pour la carte graphique, ce qui fait que le circuit d'interfaçage devait faire la conversion. La conversion était réalisée par un circuit qui traduit des données numériques (ici, du binaire) en données analogiques : le '''convertisseur numérique-analogique''' ou DAC (''Digital-to-Analogue Converter''). Au tout début, le circuit d’interfaçage était un DAC combiné avec des circuits annexes, ce qu'on appelle un RAMDAC (''Random Access Memory Digital-to-Analog Converter''). De nos jours, les écrans comprennent le binaire sous réserve qu'il soit codé suivant le standard adapté et les cartes graphiques n'ont plus besoin de RAMDAC. Il y a peu à dire sur les circuits d'interfaçage. Leur conception et leur fonctionnement dépendent beaucoup du standard utilisé. Sans compter qu'expliquer leur fonctionnement demande de faire de l'électronique pure et dure, ce qui est rarement agréable pour le commun des mortels. Par contre, étudier le circuit de contrôle et la mémoire vidéo est beaucoup plus intéressant. Plusieurs chapitres seront dédiés à leur fonctionnement. Mais parlons maintenant des GPU modernes et passons à la section suivante. ===Un historique rapide des cartes d’affichage=== Les cartes d'affichages sont opposées aux cartes accélératrices 2D et 3D, qui permettent de décharger le processeur d'une partie du rendu 2D/3D. Pour cela, elles intègrent des circuits spécialisés. Vous imaginez peut-être que les cartes d'affichage sont apparues en premier, puis qu'elles ont gagné en puissance et en fonctionnalités pour devenir d'abord des cartes accélératrices 2D, puis des cartes 3D. C'est une suite assez logique, intuitive. Et ce n'est pas du tout ce qui s'est passé ! Les cartes d'affichage pures, sans rendu 2D, sont une invention des premiers PC. Elles sont arrivées alors que les consoles de jeu avaient déjà des cartes hybrides entre carte d'affichage et cartes de rendu 2D depuis une bonne décennie. Sur les consoles de jeu ou les microordinateurs anciens, il n'y avait pas de cartes d'affichage séparée. A la place, le système vidéo d'un ordinateur était un ensemble de circuits soudés sur la carte mère. Les consoles de jeu, ainsi que les premiers micro-ordinateurs, avaient une configuration fixée une fois pour toute et n'étaient pas upgradables. Mais avec l'arrivée de l'IBM PC, les cartes d’affichages se sont séparées de la carte mère. Leurs composants étaient soudés sur une carte qu'on pouvait clipser et détacher de la carte mère si besoin. Et c'est ainsi que l'on peut actuellement changer la carte graphique d'un PC, alors que ce n'est pas le cas sur une console de jeu. La différence entre les deux se limite cependant à cela. Les composant d'une carte d'affichage ou d'une console de jeu sont globalement les mêmes. Aussi, dans ce qui suit, nous parlerons de carte d'affichage pour désigner cet ensemble de circuits, peu importe qu'il soit soudé à la carte mère ou placé sur une carte d’affichage séparée. C'est un abus de langage qu'on ne retrouvera que dans ce cours. ===Les différents types de cartes d'affichage=== Dans la suite du cours, nous allons voir que toutes les cartes d'affichage ne fonctionnent pas de la même manière. Et ces différences font qu'on peut les classer en plusieurs types distincts. Leur classement s'explique par un fait assez simple : une image prend beaucoup de mémoire ! Par exemple, prenons le cas d'une image en niveaux de gris d'une résolution de 320 par 240 pixels, chaque pixel étant codé sur un octet. L'image prend alors 76800 octets, soit environ 76 kiloctets. Mine de rien, cela fait beaucoup de mémoire ! Et si on ajoute le support de la couleur, cela triple, voire quadruple la taille de l'image. Les cartes graphiques récentes ont assez de mémoire pour stocker l'image à afficher. Une partie de la mémoire vidéo est utilisée pour mémoriser l'image à afficher. La portion en question s'appelle le ''framebuffer'', '''tampon d'image''' en français. Il s'agit là d'une solution très simple, mais qui demande une mémoire vidéo de grande taille. Les systèmes récents peuvent se le permettre, mais les tout premiers ordinateurs n'avaient pas assez de mémoire vidéo. Les cartes d'affichages devaient se débrouiller avec peu de mémoire, impossible de mémoriser l'image à afficher entièrement. Pour compenser cela, les cartes d'affichage anciennes utilisaient diverses optimisations assez intéressantes. La première d'entre elle utilise pour cela le fonctionnement des anciens écrans CRT, qui affichaient l'image ligne par ligne. Pour rappel, l'image a afficher à l'écran a une certaine résolution : 320 pixels pour 240 pixels, par exemple. Pour l'écran CRT, l'image est composée de plusieurs lignes. Par exemple, pour une résolution de 640 par 480, l'image est découpée en 480 lignes, chacune faisant 640 pixels de long. L'écran est conçu pour qu'on lui envoie les lignes les unes après les autres, avec une petite pause entre l'affichage/envoi de deux lignes. Précisons que les écrans LCD ont abandonné ce mode de fonctionnement. L'idée est alors la suivante : la mémoire vidéo ne mémorise que la ligne en cours d'affichage par l'écran. Le processeur met à jour la mémoire vidéo entre l'affichage de deux lignes. La mémoire vidéo n'est alors pas un tampon d'image, mais un '''tampon de ligne'''. Le défaut de cette technique est qu'elle demande que le processeur et la carte d'affichage soient synchronisés, de manière à ce que les lignes soient mises à jour au bon moment. L'avantage est que la quantité de mémoire vidéo nécessaire est divisée par un facteur 100, voire plus, égal à la résolution verticale (le nombre de lignes). Une autre méthode, appelée le '''rendu en tiles''', est formellement une technique de compression d'image particulière. L'image à afficher est stockée sous un format compressé en mémoire vidéo, mais est décompressée pixel par pixel lors de l'affichage. Il nous est difficile de décrire cette technique maintenant, mais un chapitre entier sera dédié à cette technique. Le chapitre en question abordera une technique similaire, appelée le rendu en mode texte, qui servira d'introduction propédeutique. Le rendu en tiles et l'usage d'un tampon ligne sont deux optimisations complémentaires. Il est ainsi possible d'utiliser soit l'une, soit l'autre, soit les deux. En clair, cela donne quatre types de cartes d'affichage distincts : * les cartes d'affichage à tampon d'image ; * les cartes à tampon d'images en rendu à tiles ; * les cartes d'affichage à tampon de ligne ; * les cartes d'affichage à tampon de ligne en rendu à tiles. {|class="wikitable" |- ! ! Rendu normal ! Rendu à tile |- ! Tampon d'image | Cartes graphiques post-années 90, standard VGA sur PC | Consoles de jeu 8 bits et 16 bits, standards CGA, MGA |- ! Tampon de ligne | Consoles de jeu ATARI 2600 et postérieures | Console de jeu néo-géo |} Lez prochains chapitres porteront surtout sur les cartes d'affichages à tampon d'image, plus simples à, expliquer. Deux chapitres seront dédiés respectivement aux cartes à rendu en tile, et aux cartes à tampon de ligne. ==Les cartes graphiques actuelles sont très complexes== Les cartes graphiques actuelles sont des cartes d'affichage améliorées auxquelles on a ajouté des circuits annexes, afin de leur donner des capacités de calcul pour le rendu 2D et/ou 3D, mais elles n'en restent pas moins des cartes d'affichages. La seule différence est que le processeur n’envoie pas une image à la mémoire vidéo, mais que l'image à afficher est calculée par la carte graphique 2D/3D. Les calculs autrefois effectués sur le CPU sont donc déportés sur la carte graphique. Si vous analysez une carte graphique récente, vous verrez que les circuits des cartes d'affichage sont toujours là, bien que noyés dans des circuits de rendu 2D/3D. On retrouve une mémoire vidéo, une interface écran, un circuit d'interface avec le bus, un ''Video Display Controler''. L'interface écran est par contre fusionnée avec le ''Video Display Controler''. Mais à ces circuits d'affichage, sont ajoutés un '''GPU''' (''Graphic Processing Unit''), qui s'occupe du rendu 3D, du rendu 2D, mais aussi d'autres fonctions comme du décodage de fichiers vidéos. [[File:Architecture d'une carte graphique avec un GPU.png|centre|vignette|upright=2|Architecture d'une carte graphique avec un GPU]] ===L'intérieur d'un GPU=== Le GPU est un composant assez complexe, surtout sur les cartes graphiques modernes. Il regroupe plusieurs circuits aux fonctions distinctes. * Un '''''Video Display controler''''' est toujours présent, mais ne sera pas représenté dans ce qui suit. * Des '''circuit de rendu 2D''' séparés peuvent être présents, mais sont la plupart du temps intégrés au VDC. * Les '''circuits de rendu 3D''' s'occupent du rendu 3D. * Les '''circuits de décodage vidéo''', pour améliorer la performance du visionnage de vidéos. Les trois circuits précédents sont gouvernés par un '''processeur de commande''', un circuit assez difficile à décrire. Pour le moment, disons qu'il s'occupe de répartir le travail entre les différents circuits précédents. Le processeur de commande reçoit du travail à faire, envoyé par le CPU via le bus, et le redistribue dans les trois circuits précédents. Par exemple, si on lui envoie une vidéo encodée en H264, il envoie le tout au circuit vidéo. De plus, il le configure pour qu'il la décode correctement : il dit au circuit que c'est une vidéo encodée en H264, afin que le circuit sache comment la décoder. Ce genre de configuration est aussi présente sur les circuits de rendu 2D et 3D, bien qu'elle soit plus compliquée. [[File:Microarchitecture simplifiée d'un GPU.png|centre|vignette|upright=2|Microarchitecture simplifiée d'un GPU]] Un GPU contient aussi un contrôleur mémoire, qui est une interface entre le GPU et la mémoire vidéo. Interface électrique, car GPU et mémoire n'utilisent pas les mêmes tensions et qu'en plus, leur interconnexion demande de gérer pas mal de détails purement électriques. Mais aussi interface de communication, car communiquer entre mémoire vidéo et GPU demande de faire pas mal de manipulations, comme gérer l'adressage et bien d'autres choses qu'on ne peut pas encore détailler ici. Un GPU contient aussi d'autres circuits annexes, comme des circuits pour gérer la consommation électrique, un BIOS vidéo, etc. L'interface écran et l'interface avec le bus sont parfois intégrées au GPU. [[File:Generic block diagram of a GPU.svg|centre|vignette|upright=3|Architecture d'une carte graphique moderne.]] ===Un historique simplifié des pipelines 2D/3D/vidéo=== Avant les années 90, les cartes graphiques des ordinateurs personnels et des consoles de jeux se résumaient à des circuits d'accélération 2D, elles n'avaient pas de décodeurs vidéos ou de circuits de rendu 3D. C'est dans les années 90 qu'elles ont commencé à incorporer des circuits d'accélération 3D. Puis, après les années 2000-2010, elles ont commencé à intégrer des circuits de décodage vidéo, aux alentours des années 2010. En parallèle, les circuits de rendu 2D ont progressivement été réduits puis abandonnés. Les circuits de rendu 2D sont des circuits qui ne sont pas programmables, mais qu'on peut configurer. On dit aussi que ce sont des '''circuits fixes'''. Ils sont opposés aux circuits programmables, basés sur des processeurs. Les circuits de rendu 3D étaient initialement des circuits fixes eux aussi, mais sont devenus de plus en plus programmables avec le temps. Les GPU d'après les années 2000 utilisent un mélange de circuits programmables et fixes assez variable. Nous reviendrons là-dessus dans un chapitre dédié. [[File:Microarchitecture globale d'un GPU.png|centre|vignette|upright=2|Microarchitecture globale d'un GPU]] Pour les circuits de décodage vidéo, les choses sont assez complexes. Initialement, ils s'agissait de circuits fixes, qu'on pouvait programmer. Un GPU de ce type est illustré ci-dessus. Mais de nos jours, les calculs de décodage vidéo sont réalisés sur les processeurs de shaders. Les circuits de rendu 3D et de décodage vidéo ont chacun des circuits fixes dédiés, mais partagent des processeurs. [[File:GPU avec processeurs de shaders partagés entre rendu 3D et décodage vidéo.png|centre|vignette|upright=2|GPU avec processeurs de shaders partagés entre rendu 3D et décodage vidéo]] Les cinq prochains chapitres vont parler des cartes d'affichage et des cartes accélératrices 2D, les deux étant fortement liées. C'est seulement dans les chapitres qui suivront que nous parlerons des cartes 3D. Les cartes 3D sont composées d'une carte d'affichage à laquelle on a rajouté des circuits de calcul, ce qui fait qu'il est préférable de faire ainsi : on voit ce qui est commun entre les deux d'abord, avant de voir le rendu 3D ensuite. De plus, le rendu 3D est plus complexe que l'affichage d'une image à l'écran, ce qui fait qu'il vaut mieux voir cela après. {{NavChapitre | book=Les cartes graphiques | next=Le Video Display Controler | nextText=Le Video Display Controler }}{{autocat}} mrdwtmvga3y772aqjbc06pe146oj6jq 745931 745914 2025-07-04T16:10:28Z Mewtow 31375 /* La connexion des cartes graphiques à l'écran */ 745931 wikitext text/x-wiki Les cartes graphiques sont des cartes qui communiquent avec l'écran, pour y afficher des images. Les cartes graphiques modernes incorporent aussi des circuits de calcul pour accélérer du rendu 2D ou 3D. Dans ce chapitre, nous allons faire une introduction et expliquer ce qu'est une carte graphique et surtout : nous allons voir ce qu'il y a à l'intérieur, du moins dans les grandes lignes. ==Les cartes graphiques dédiées, intégrées et soudées== Vous avez sans doute déjà démonté votre PC pour en changer la carte graphique, vous savez sans doute à quoi elle ressemble. Sur les PC modernes, il s'agit d'un composant séparé, qu'on branche sur la carte mère, sur un port spécialisé. Du moins, c'est le cas si vous avez un PC fixe assez puissant. Mais il y a deux autres possibilités. [[File:PX7800 GTX (557505323).jpg|centre|vignette|Carte graphique dédiée PX 7800 GTX I]] La première est celle où la carte graphique est directement intégrée dans le processeur de la machine ! C'est quelque chose qui se fait depuis les années 2000-2010, avec l'amélioration de la technologie et la miniaturisation des transistors. Il est possible de mettre tellement de transistors sur une puce de silicium que les concepteurs de processeur en ont profité pour mettre une carte graphique peut puissante dans le processeur. Une autre possibilité, surtout utilisée sur les consoles de jeu et les PC portables, est celle où la carte graphique est composée de circuits soudés à la carte mère. Pour résumer, il faut distinguer trois types de cartes graphiques différentes : * Les '''cartes graphiques dédiées''', séparées dans une carte d'extension qu'on doit connecter à la carte mère via un connecteur dédié. * Les '''cartes graphiques intégrées''', qui font partie du processeur. * Les '''cartes graphiques soudées''' à la carte mère. Vous avez sans doute vu qu'il y a une grande différence de performance entre une carte graphique dédiée et une carte graphique intégrée. La raison est simplement que les cartes graphiques intégrées ont moins de transistors à leur disposition, ce qui fait qu'elles contiennent moins de circuits de calcul. Les cartes graphiques dédiées et soudées n'ont pas de différences de performances notables. Les cartes soudées des PC portables sont généralement moins performantes car il faut éviter que le PC chauffe trop, vu que la dissipation thermique est moins bonne avec un PC portable (moins de gros ventilos), ce qui demande d'utiliser une carte graphique moins puissante. Mais les cartes soudées des consoles de jeu n'ont pas ce problème : elles sont dans un boitier bien ventilés, on peut en utiliser une très puissante. ===Un PC avec plusieurs GPU : la commutation de GPU=== De nos jours, il y a de très fortes chances que votre ordinateur intègre plusieurs cartes graphique, peu importe que ce soit un PC portable ou fixe. Tous les PC ont une carte graphique intégrée, de faible performance, qui consomme peu d'énergie/électricité. Et si je dis presque tous, c'est parce que tous les processeurs commerciaux modernes incorporent une carte graphique intégrée. Le marché du processeur grand public est ainsi, seuls quelques processeurs dédiés aux serveurs n'ont pas de carte graphique intégrée. Et en plus de la carte intégrée, une bonne partie des PC intègrent aussi soit une carte dédiée, soit une carte soudée. Soudée sur les PC portables, dédiée sur les PC fixe. Dans le passé, il était possible de mettre plusieurs cartes graphiques dédiées dans un même PC, mais avec des conditions drastiques. ATI/AMD et NVIDIA avaient ajouté des fonctionnalités de multi-GPU, qui permettaient à deux GPU de travailler ensemble, afin de presque doubler les performances. Mais cela ne marchait qu'avec deux GPU NVIDIA ou deux GPU ATI/AMD, utiliser deux GPU de deux marques différentes ne marchait pas. Un chapitre entier sera dédié à ces techniques, mais nous n'en parlerons pas ici, car elles sont tombées en désuétude, aucun GPU grand public ne supporte ces technologies. S'il y a deux cartes graphiques, cela ne signifie pas que les deux sont utilisées en même temps. En effet, selon les circonstances, le PC va privilégier l'une ou l'autre. Dans les années 2010, le choix se faisait dans le BIOS : une des deux carte graphique était désactivée pour de bon, typiquement la carte intégrée. Les PC avec une carte dédiée désactivaient la carte intégrée dans le processeur, pour éviter tout conflit entre les deux cartes. De nos jours, les deux sont utilisables, mais pas en même temps. Le système d'exploitation, Windows ou linux, utilise soit la carte intégrée, soit la carte dédiée, suivant les besoins. La carte dédiée a de bonnes performance, mais elle consomme beaucoup d'énergie/électricité et chauffe plus. La carte graphique intégrée fait l'inverse : ses performances sont basses, mais elle consomme très peu et chauffe moins. La carte dédiée est donc utilisée quand on a besoin de performance, l'intégrée est utilisée quand elle suffit, afin de faire des économies. Prenons l'exemple d'un jeu vidéo : un jeu ancien et peu gourmand sera exécuté sur la carte intégrée, alors qu'un jeu récent/gourmand sera exécuté sur la carte dédiée. Le rendu du bureau de Windows/linux est réalisé par la carte graphique intégrée, pour économiser de l'énergie. ===La connexion des cartes graphiques à l'écran=== Prenons un PC fixe avec deux cartes graphiques, une intégrée et une dédiée. En général, il y a deux connecteurs pour l'écran, un qui est relié à la carte graphique intégrée, un autre qui est sur la carte dédiée proprement dite. Suivant là où vous brancherez l'écran, vous n'utiliserez pas la même carte graphique. Le système d'exploitation se charge d'envoyer les images à afficher à la carte graphique adéquate. Sur un PC portable ''gaming'', les choses sont différentes. Il n'y a qu'un seul connecteur pour l'écran, pas deux. Et dans ce cas, il y a deux possibilités. La première est la plus simple : une seule carte graphique est connectée à l'écran, généralement la carte intégrée. Si la carte dédiée est utilisée, les images qu'elle calcule sont envoyées à la carte intégrée pour ensuite être affichées à l'écran. On passe par un intermédiaire, mais le câblage est plus simple. L'autre solution fait le compromis inverse. Les deux cartes graphiques sont reliées à ce connecteur, par l'intermédiaire d'un circuit multiplexeur. Le circuit multiplexeur reçoit les images à afficher de la part des deux cartes graphiques et choisit l'une d'entre elle. C'est la solution la plus performante, car la carte dédiée peut afficher directement ses images à l'écran, sans avoir à les envoyer à la carte intégrée. Mais elle complexifie le câblage et demande d'ajouter un circuit multiplexeur, ce qui n'est pas gratuit. [[File:Commutation de GPU avec un MUX.png|centre|vignette|upright=2|Commutation de GPU avec un MUX]] ==Les cartes d'affichage et leur architecture== Vous vous demandez comment est-ce possible qu'une carte graphique soit soudée ou intégrée dans un processeur. La raison est que les trois types de cartes graphiques sont très similaires, elles sont composées des mêmes types de composants, ce qu'il y a à l'intérieur est globalement le même, comme on va le voir dans ce qui suit. Au tout début de l'informatique, le rendu graphique était pris en charge par le processeur. Il calculait l'image à afficher et l'envoyait à l'écran, pixel par pixel. Le problème est que le processeur devait se synchroniser avec l'écran, pour envoyer les pixels au bon moment. Pour simplifier la vie des programmeurs, les fabricants de matériel ont inventé des cartes vidéo. Avec celles-ci, le processeur calcule l'image à envoyer à l'écran et la transmet à la carte d'affichage, sans avoir à se synchroniser avec l'écran. L'avantage est que le processeur n'a pas à se synchroniser avec l'écran, juste à envoyer l'image à une carte d'affichage. Les cartes d'affichage ne géraient pas le rendu 3D. Le processeur calculait une image, la copiait dans la mémoire vidéo, puis la carte d'affichage l'envoyait à l'écran au bon moment. Il n'y avait pas de circuits de calcul graphique, ni de circuits de décodage vidéo. Juste de quoi afficher une image à l'écran. Et mine de rien, il est intéressant d'étudier de telles cartes graphiques anciennes. De telles cartes graphiques sont ce que j'ai décidé d'appeler des '''cartes d'affichage'''. ===L'intérieur d'une carte d'affichage=== Une carte d'affichage contient plusieurs sous-circuits, chacun dédié à une fonction précise. * La '''mémoire vidéo''' est une mémoire RAM intégrée à la carte graphique, qui a des fonctions multiples. * L''''interface écran''', ou ''Display interface'', regroupe les connecteurs et tous les circuits permettant d'envoyer l'image à l'écran. * Le '''circuit d'interface avec le bus''' existe uniquement sur les cartes dédiées et éventuellement sur quelques cartes soudées. Il s'occupe des transmissions sur le bus PCI/AGP/PCI-Express, le connecteur qui relie la carte mère et la carte graphique. * Un circuit de contrôle qui commande le tout, appelé le '''''Video Display Controler'''''. [[File:Carte d'affichage - architecture.png|centre|vignette|upright=2|Carte d'affichage - architecture.]] La mémoire vidéo mémorise l'image à afficher, les deux circuits d'interfaçage permettent à la carte d'affichage de communiquer respectivement avec l'écran et le reste de l'ordinateur, le ''Video Display Controler'' commande les autres circuits. Le ''Video Display Controler'' sert de chef d'orchestre pour un orchestre dont les autres circuits seraient les musiciens. Le circuit de contrôle était appelé autrefois le CRTC, car il commandait des écrans dit CRT, mais ce n'est plus d'actualité de nos jours. La carte graphique communique via un bus, un vulgaire tas de fils qui connectent la carte graphique à la carte mère. Les premières cartes graphiques utilisaient un bus nommé ISA, qui fût rapidement remplacé par le bus PCI, plus rapide, lui-même remplacé par le bus AGP, puis le bus PCI-Express. Ce bus est géré par un contrôleur de bus, un circuit qui se charge d'envoyer ou de réceptionner les données sur le bus. Les circuits de communication avec le bus permettent à l'ordinateur de communiquer avec la carte graphique, via le bus PCI-Express, AGP, PCI ou autre. Il contient quelques registres dans lesquels le processeur pourra écrire ou lire, afin de lui envoyer des ordres du style : j'envoie une donnée, transmission terminée, je ne suis pas prêt à recevoir les données que tu veux m'envoyer, etc. Il y a peu à dire sur ce circuit, aussi nous allons nous concentrer sur les autres circuits. Le circuit d'interfaçage écran est au minimum un circuit d’interfaçage électrique se contente de convertir les signaux de la carte graphique en signaux que l'on peut envoyer à l'écran. Il s'occupe notamment de convertir les tensions et courants : si l'écran demande des signaux de 5 Volts mais que la carte graphique fonctionne avec du 3,3 Volt, il y a une conversion à faire. De même, le circuit d'interfaçage électrique peut s'occuper de la conversion des signaux numériques vers de l'analogique. L'écran peut avoir une entrée analogique, surtout s'il est assez ancien. Les anciens écrans CRT ne comprenaient que des données analogiques et pas le binaire, alors que c'est l'inverse pour la carte graphique, ce qui fait que le circuit d'interfaçage devait faire la conversion. La conversion était réalisée par un circuit qui traduit des données numériques (ici, du binaire) en données analogiques : le '''convertisseur numérique-analogique''' ou DAC (''Digital-to-Analogue Converter''). Au tout début, le circuit d’interfaçage était un DAC combiné avec des circuits annexes, ce qu'on appelle un RAMDAC (''Random Access Memory Digital-to-Analog Converter''). De nos jours, les écrans comprennent le binaire sous réserve qu'il soit codé suivant le standard adapté et les cartes graphiques n'ont plus besoin de RAMDAC. Il y a peu à dire sur les circuits d'interfaçage. Leur conception et leur fonctionnement dépendent beaucoup du standard utilisé. Sans compter qu'expliquer leur fonctionnement demande de faire de l'électronique pure et dure, ce qui est rarement agréable pour le commun des mortels. Par contre, étudier le circuit de contrôle et la mémoire vidéo est beaucoup plus intéressant. Plusieurs chapitres seront dédiés à leur fonctionnement. Mais parlons maintenant des GPU modernes et passons à la section suivante. ===Un historique rapide des cartes d’affichage=== Les cartes d'affichages sont opposées aux cartes accélératrices 2D et 3D, qui permettent de décharger le processeur d'une partie du rendu 2D/3D. Pour cela, elles intègrent des circuits spécialisés. Vous imaginez peut-être que les cartes d'affichage sont apparues en premier, puis qu'elles ont gagné en puissance et en fonctionnalités pour devenir d'abord des cartes accélératrices 2D, puis des cartes 3D. C'est une suite assez logique, intuitive. Et ce n'est pas du tout ce qui s'est passé ! Les cartes d'affichage pures, sans rendu 2D, sont une invention des premiers PC. Elles sont arrivées alors que les consoles de jeu avaient déjà des cartes hybrides entre carte d'affichage et cartes de rendu 2D depuis une bonne décennie. Sur les consoles de jeu ou les microordinateurs anciens, il n'y avait pas de cartes d'affichage séparée. A la place, le système vidéo d'un ordinateur était un ensemble de circuits soudés sur la carte mère. Les consoles de jeu, ainsi que les premiers micro-ordinateurs, avaient une configuration fixée une fois pour toute et n'étaient pas upgradables. Mais avec l'arrivée de l'IBM PC, les cartes d’affichages se sont séparées de la carte mère. Leurs composants étaient soudés sur une carte qu'on pouvait clipser et détacher de la carte mère si besoin. Et c'est ainsi que l'on peut actuellement changer la carte graphique d'un PC, alors que ce n'est pas le cas sur une console de jeu. La différence entre les deux se limite cependant à cela. Les composant d'une carte d'affichage ou d'une console de jeu sont globalement les mêmes. Aussi, dans ce qui suit, nous parlerons de carte d'affichage pour désigner cet ensemble de circuits, peu importe qu'il soit soudé à la carte mère ou placé sur une carte d’affichage séparée. C'est un abus de langage qu'on ne retrouvera que dans ce cours. ===Les différents types de cartes d'affichage=== Dans la suite du cours, nous allons voir que toutes les cartes d'affichage ne fonctionnent pas de la même manière. Et ces différences font qu'on peut les classer en plusieurs types distincts. Leur classement s'explique par un fait assez simple : une image prend beaucoup de mémoire ! Par exemple, prenons le cas d'une image en niveaux de gris d'une résolution de 320 par 240 pixels, chaque pixel étant codé sur un octet. L'image prend alors 76800 octets, soit environ 76 kiloctets. Mine de rien, cela fait beaucoup de mémoire ! Et si on ajoute le support de la couleur, cela triple, voire quadruple la taille de l'image. Les cartes graphiques récentes ont assez de mémoire pour stocker l'image à afficher. Une partie de la mémoire vidéo est utilisée pour mémoriser l'image à afficher. La portion en question s'appelle le ''framebuffer'', '''tampon d'image''' en français. Il s'agit là d'une solution très simple, mais qui demande une mémoire vidéo de grande taille. Les systèmes récents peuvent se le permettre, mais les tout premiers ordinateurs n'avaient pas assez de mémoire vidéo. Les cartes d'affichages devaient se débrouiller avec peu de mémoire, impossible de mémoriser l'image à afficher entièrement. Pour compenser cela, les cartes d'affichage anciennes utilisaient diverses optimisations assez intéressantes. La première d'entre elle utilise pour cela le fonctionnement des anciens écrans CRT, qui affichaient l'image ligne par ligne. Pour rappel, l'image a afficher à l'écran a une certaine résolution : 320 pixels pour 240 pixels, par exemple. Pour l'écran CRT, l'image est composée de plusieurs lignes. Par exemple, pour une résolution de 640 par 480, l'image est découpée en 480 lignes, chacune faisant 640 pixels de long. L'écran est conçu pour qu'on lui envoie les lignes les unes après les autres, avec une petite pause entre l'affichage/envoi de deux lignes. Précisons que les écrans LCD ont abandonné ce mode de fonctionnement. L'idée est alors la suivante : la mémoire vidéo ne mémorise que la ligne en cours d'affichage par l'écran. Le processeur met à jour la mémoire vidéo entre l'affichage de deux lignes. La mémoire vidéo n'est alors pas un tampon d'image, mais un '''tampon de ligne'''. Le défaut de cette technique est qu'elle demande que le processeur et la carte d'affichage soient synchronisés, de manière à ce que les lignes soient mises à jour au bon moment. L'avantage est que la quantité de mémoire vidéo nécessaire est divisée par un facteur 100, voire plus, égal à la résolution verticale (le nombre de lignes). Une autre méthode, appelée le '''rendu en tiles''', est formellement une technique de compression d'image particulière. L'image à afficher est stockée sous un format compressé en mémoire vidéo, mais est décompressée pixel par pixel lors de l'affichage. Il nous est difficile de décrire cette technique maintenant, mais un chapitre entier sera dédié à cette technique. Le chapitre en question abordera une technique similaire, appelée le rendu en mode texte, qui servira d'introduction propédeutique. Le rendu en tiles et l'usage d'un tampon ligne sont deux optimisations complémentaires. Il est ainsi possible d'utiliser soit l'une, soit l'autre, soit les deux. En clair, cela donne quatre types de cartes d'affichage distincts : * les cartes d'affichage à tampon d'image ; * les cartes à tampon d'images en rendu à tiles ; * les cartes d'affichage à tampon de ligne ; * les cartes d'affichage à tampon de ligne en rendu à tiles. {|class="wikitable" |- ! ! Rendu normal ! Rendu à tile |- ! Tampon d'image | Cartes graphiques post-années 90, standard VGA sur PC | Consoles de jeu 8 bits et 16 bits, standards CGA, MGA |- ! Tampon de ligne | Consoles de jeu ATARI 2600 et postérieures | Console de jeu néo-géo |} Lez prochains chapitres porteront surtout sur les cartes d'affichages à tampon d'image, plus simples à, expliquer. Deux chapitres seront dédiés respectivement aux cartes à rendu en tile, et aux cartes à tampon de ligne. ==Les cartes graphiques actuelles sont très complexes== Les cartes graphiques actuelles sont des cartes d'affichage améliorées auxquelles on a ajouté des circuits annexes, afin de leur donner des capacités de calcul pour le rendu 2D et/ou 3D, mais elles n'en restent pas moins des cartes d'affichages. La seule différence est que le processeur n’envoie pas une image à la mémoire vidéo, mais que l'image à afficher est calculée par la carte graphique 2D/3D. Les calculs autrefois effectués sur le CPU sont donc déportés sur la carte graphique. Si vous analysez une carte graphique récente, vous verrez que les circuits des cartes d'affichage sont toujours là, bien que noyés dans des circuits de rendu 2D/3D. On retrouve une mémoire vidéo, une interface écran, un circuit d'interface avec le bus, un ''Video Display Controler''. L'interface écran est par contre fusionnée avec le ''Video Display Controler''. Mais à ces circuits d'affichage, sont ajoutés un '''GPU''' (''Graphic Processing Unit''), qui s'occupe du rendu 3D, du rendu 2D, mais aussi d'autres fonctions comme du décodage de fichiers vidéos. [[File:Architecture d'une carte graphique avec un GPU.png|centre|vignette|upright=2|Architecture d'une carte graphique avec un GPU]] ===L'intérieur d'un GPU=== Le GPU est un composant assez complexe, surtout sur les cartes graphiques modernes. Il regroupe plusieurs circuits aux fonctions distinctes. * Un '''''Video Display controler''''' est toujours présent, mais ne sera pas représenté dans ce qui suit. * Des '''circuit de rendu 2D''' séparés peuvent être présents, mais sont la plupart du temps intégrés au VDC. * Les '''circuits de rendu 3D''' s'occupent du rendu 3D. * Les '''circuits de décodage vidéo''', pour améliorer la performance du visionnage de vidéos. Les trois circuits précédents sont gouvernés par un '''processeur de commande''', un circuit assez difficile à décrire. Pour le moment, disons qu'il s'occupe de répartir le travail entre les différents circuits précédents. Le processeur de commande reçoit du travail à faire, envoyé par le CPU via le bus, et le redistribue dans les trois circuits précédents. Par exemple, si on lui envoie une vidéo encodée en H264, il envoie le tout au circuit vidéo. De plus, il le configure pour qu'il la décode correctement : il dit au circuit que c'est une vidéo encodée en H264, afin que le circuit sache comment la décoder. Ce genre de configuration est aussi présente sur les circuits de rendu 2D et 3D, bien qu'elle soit plus compliquée. [[File:Microarchitecture simplifiée d'un GPU.png|centre|vignette|upright=2|Microarchitecture simplifiée d'un GPU]] Un GPU contient aussi un contrôleur mémoire, qui est une interface entre le GPU et la mémoire vidéo. Interface électrique, car GPU et mémoire n'utilisent pas les mêmes tensions et qu'en plus, leur interconnexion demande de gérer pas mal de détails purement électriques. Mais aussi interface de communication, car communiquer entre mémoire vidéo et GPU demande de faire pas mal de manipulations, comme gérer l'adressage et bien d'autres choses qu'on ne peut pas encore détailler ici. Un GPU contient aussi d'autres circuits annexes, comme des circuits pour gérer la consommation électrique, un BIOS vidéo, etc. L'interface écran et l'interface avec le bus sont parfois intégrées au GPU. [[File:Generic block diagram of a GPU.svg|centre|vignette|upright=3|Architecture d'une carte graphique moderne.]] ===Un historique simplifié des pipelines 2D/3D/vidéo=== Avant les années 90, les cartes graphiques des ordinateurs personnels et des consoles de jeux se résumaient à des circuits d'accélération 2D, elles n'avaient pas de décodeurs vidéos ou de circuits de rendu 3D. C'est dans les années 90 qu'elles ont commencé à incorporer des circuits d'accélération 3D. Puis, après les années 2000-2010, elles ont commencé à intégrer des circuits de décodage vidéo, aux alentours des années 2010. En parallèle, les circuits de rendu 2D ont progressivement été réduits puis abandonnés. Les circuits de rendu 2D sont des circuits qui ne sont pas programmables, mais qu'on peut configurer. On dit aussi que ce sont des '''circuits fixes'''. Ils sont opposés aux circuits programmables, basés sur des processeurs. Les circuits de rendu 3D étaient initialement des circuits fixes eux aussi, mais sont devenus de plus en plus programmables avec le temps. Les GPU d'après les années 2000 utilisent un mélange de circuits programmables et fixes assez variable. Nous reviendrons là-dessus dans un chapitre dédié. [[File:Microarchitecture globale d'un GPU.png|centre|vignette|upright=2|Microarchitecture globale d'un GPU]] Pour les circuits de décodage vidéo, les choses sont assez complexes. Initialement, ils s'agissait de circuits fixes, qu'on pouvait programmer. Un GPU de ce type est illustré ci-dessus. Mais de nos jours, les calculs de décodage vidéo sont réalisés sur les processeurs de shaders. Les circuits de rendu 3D et de décodage vidéo ont chacun des circuits fixes dédiés, mais partagent des processeurs. [[File:GPU avec processeurs de shaders partagés entre rendu 3D et décodage vidéo.png|centre|vignette|upright=2|GPU avec processeurs de shaders partagés entre rendu 3D et décodage vidéo]] Les cinq prochains chapitres vont parler des cartes d'affichage et des cartes accélératrices 2D, les deux étant fortement liées. C'est seulement dans les chapitres qui suivront que nous parlerons des cartes 3D. Les cartes 3D sont composées d'une carte d'affichage à laquelle on a rajouté des circuits de calcul, ce qui fait qu'il est préférable de faire ainsi : on voit ce qui est commun entre les deux d'abord, avant de voir le rendu 3D ensuite. De plus, le rendu 3D est plus complexe que l'affichage d'une image à l'écran, ce qui fait qu'il vaut mieux voir cela après. {{NavChapitre | book=Les cartes graphiques | next=Le Video Display Controler | nextText=Le Video Display Controler }}{{autocat}} mrkhyhuzl2zx3fb0fzvobcf6wbvn5gi 745932 745931 2025-07-04T16:12:39Z Mewtow 31375 /* La connexion des cartes graphiques à l'écran */ 745932 wikitext text/x-wiki Les cartes graphiques sont des cartes qui communiquent avec l'écran, pour y afficher des images. Les cartes graphiques modernes incorporent aussi des circuits de calcul pour accélérer du rendu 2D ou 3D. Dans ce chapitre, nous allons faire une introduction et expliquer ce qu'est une carte graphique et surtout : nous allons voir ce qu'il y a à l'intérieur, du moins dans les grandes lignes. ==Les cartes graphiques dédiées, intégrées et soudées== Vous avez sans doute déjà démonté votre PC pour en changer la carte graphique, vous savez sans doute à quoi elle ressemble. Sur les PC modernes, il s'agit d'un composant séparé, qu'on branche sur la carte mère, sur un port spécialisé. Du moins, c'est le cas si vous avez un PC fixe assez puissant. Mais il y a deux autres possibilités. [[File:PX7800 GTX (557505323).jpg|centre|vignette|Carte graphique dédiée PX 7800 GTX I]] La première est celle où la carte graphique est directement intégrée dans le processeur de la machine ! C'est quelque chose qui se fait depuis les années 2000-2010, avec l'amélioration de la technologie et la miniaturisation des transistors. Il est possible de mettre tellement de transistors sur une puce de silicium que les concepteurs de processeur en ont profité pour mettre une carte graphique peut puissante dans le processeur. Une autre possibilité, surtout utilisée sur les consoles de jeu et les PC portables, est celle où la carte graphique est composée de circuits soudés à la carte mère. Pour résumer, il faut distinguer trois types de cartes graphiques différentes : * Les '''cartes graphiques dédiées''', séparées dans une carte d'extension qu'on doit connecter à la carte mère via un connecteur dédié. * Les '''cartes graphiques intégrées''', qui font partie du processeur. * Les '''cartes graphiques soudées''' à la carte mère. Vous avez sans doute vu qu'il y a une grande différence de performance entre une carte graphique dédiée et une carte graphique intégrée. La raison est simplement que les cartes graphiques intégrées ont moins de transistors à leur disposition, ce qui fait qu'elles contiennent moins de circuits de calcul. Les cartes graphiques dédiées et soudées n'ont pas de différences de performances notables. Les cartes soudées des PC portables sont généralement moins performantes car il faut éviter que le PC chauffe trop, vu que la dissipation thermique est moins bonne avec un PC portable (moins de gros ventilos), ce qui demande d'utiliser une carte graphique moins puissante. Mais les cartes soudées des consoles de jeu n'ont pas ce problème : elles sont dans un boitier bien ventilés, on peut en utiliser une très puissante. ===Un PC avec plusieurs GPU : la commutation de GPU=== De nos jours, il y a de très fortes chances que votre ordinateur intègre plusieurs cartes graphique, peu importe que ce soit un PC portable ou fixe. Tous les PC ont une carte graphique intégrée, de faible performance, qui consomme peu d'énergie/électricité. Et si je dis presque tous, c'est parce que tous les processeurs commerciaux modernes incorporent une carte graphique intégrée. Le marché du processeur grand public est ainsi, seuls quelques processeurs dédiés aux serveurs n'ont pas de carte graphique intégrée. Et en plus de la carte intégrée, une bonne partie des PC intègrent aussi soit une carte dédiée, soit une carte soudée. Soudée sur les PC portables, dédiée sur les PC fixe. Dans le passé, il était possible de mettre plusieurs cartes graphiques dédiées dans un même PC, mais avec des conditions drastiques. ATI/AMD et NVIDIA avaient ajouté des fonctionnalités de multi-GPU, qui permettaient à deux GPU de travailler ensemble, afin de presque doubler les performances. Mais cela ne marchait qu'avec deux GPU NVIDIA ou deux GPU ATI/AMD, utiliser deux GPU de deux marques différentes ne marchait pas. Un chapitre entier sera dédié à ces techniques, mais nous n'en parlerons pas ici, car elles sont tombées en désuétude, aucun GPU grand public ne supporte ces technologies. S'il y a deux cartes graphiques, cela ne signifie pas que les deux sont utilisées en même temps. En effet, selon les circonstances, le PC va privilégier l'une ou l'autre. Dans les années 2010, le choix se faisait dans le BIOS : une des deux carte graphique était désactivée pour de bon, typiquement la carte intégrée. Les PC avec une carte dédiée désactivaient la carte intégrée dans le processeur, pour éviter tout conflit entre les deux cartes. De nos jours, les deux sont utilisables, mais pas en même temps. Le système d'exploitation, Windows ou linux, utilise soit la carte intégrée, soit la carte dédiée, suivant les besoins. La carte dédiée a de bonnes performance, mais elle consomme beaucoup d'énergie/électricité et chauffe plus. La carte graphique intégrée fait l'inverse : ses performances sont basses, mais elle consomme très peu et chauffe moins. La carte dédiée est donc utilisée quand on a besoin de performance, l'intégrée est utilisée quand elle suffit, afin de faire des économies. Prenons l'exemple d'un jeu vidéo : un jeu ancien et peu gourmand sera exécuté sur la carte intégrée, alors qu'un jeu récent/gourmand sera exécuté sur la carte dédiée. Le rendu du bureau de Windows/linux est réalisé par la carte graphique intégrée, pour économiser de l'énergie. ===La connexion des cartes graphiques à l'écran=== Prenons un PC fixe avec deux cartes graphiques, une intégrée et une dédiée. En général, il y a deux connecteurs pour l'écran, un qui est relié à la carte graphique intégrée, un autre qui est sur la carte dédiée proprement dite. Suivant là où vous brancherez l'écran, vous n'utiliserez pas la même carte graphique. Le système d'exploitation se charge d'envoyer les images à afficher à la carte graphique adéquate. Sur un PC portable ''gaming'', les choses sont différentes. Il n'y a qu'un seul connecteur pour l'écran, pas deux. Et dans ce cas, il y a deux possibilités. La première est la plus simple. Les deux cartes graphiques sont reliées au connecteur écran, par l'intermédiaire d'un circuit multiplexeur. Le circuit multiplexeur reçoit les images à afficher de la part des deux cartes graphiques et choisit l'une d'entre elle. C'est la solution la plus performante, car la carte dédiée peut afficher directement ses images à l'écran, sans avoir à les envoyer à la carte intégrée. Mais elle complexifie le câblage et demande d'ajouter un circuit multiplexeur, ce qui n'est pas gratuit. [[File:Commutation de GPU avec un MUX.png|centre|vignette|upright=2|Commutation de GPU avec un MUX]] Avec la seconde solution, une seule carte graphique est connectée à l'écran, généralement la carte intégrée. Si la carte dédiée est utilisée, les images qu'elle calcule sont envoyées à la carte intégrée pour ensuite être affichées à l'écran. On passe par un intermédiaire, mais le câblage est plus simple. ==Les cartes d'affichage et leur architecture== Vous vous demandez comment est-ce possible qu'une carte graphique soit soudée ou intégrée dans un processeur. La raison est que les trois types de cartes graphiques sont très similaires, elles sont composées des mêmes types de composants, ce qu'il y a à l'intérieur est globalement le même, comme on va le voir dans ce qui suit. Au tout début de l'informatique, le rendu graphique était pris en charge par le processeur. Il calculait l'image à afficher et l'envoyait à l'écran, pixel par pixel. Le problème est que le processeur devait se synchroniser avec l'écran, pour envoyer les pixels au bon moment. Pour simplifier la vie des programmeurs, les fabricants de matériel ont inventé des cartes vidéo. Avec celles-ci, le processeur calcule l'image à envoyer à l'écran et la transmet à la carte d'affichage, sans avoir à se synchroniser avec l'écran. L'avantage est que le processeur n'a pas à se synchroniser avec l'écran, juste à envoyer l'image à une carte d'affichage. Les cartes d'affichage ne géraient pas le rendu 3D. Le processeur calculait une image, la copiait dans la mémoire vidéo, puis la carte d'affichage l'envoyait à l'écran au bon moment. Il n'y avait pas de circuits de calcul graphique, ni de circuits de décodage vidéo. Juste de quoi afficher une image à l'écran. Et mine de rien, il est intéressant d'étudier de telles cartes graphiques anciennes. De telles cartes graphiques sont ce que j'ai décidé d'appeler des '''cartes d'affichage'''. ===L'intérieur d'une carte d'affichage=== Une carte d'affichage contient plusieurs sous-circuits, chacun dédié à une fonction précise. * La '''mémoire vidéo''' est une mémoire RAM intégrée à la carte graphique, qui a des fonctions multiples. * L''''interface écran''', ou ''Display interface'', regroupe les connecteurs et tous les circuits permettant d'envoyer l'image à l'écran. * Le '''circuit d'interface avec le bus''' existe uniquement sur les cartes dédiées et éventuellement sur quelques cartes soudées. Il s'occupe des transmissions sur le bus PCI/AGP/PCI-Express, le connecteur qui relie la carte mère et la carte graphique. * Un circuit de contrôle qui commande le tout, appelé le '''''Video Display Controler'''''. [[File:Carte d'affichage - architecture.png|centre|vignette|upright=2|Carte d'affichage - architecture.]] La mémoire vidéo mémorise l'image à afficher, les deux circuits d'interfaçage permettent à la carte d'affichage de communiquer respectivement avec l'écran et le reste de l'ordinateur, le ''Video Display Controler'' commande les autres circuits. Le ''Video Display Controler'' sert de chef d'orchestre pour un orchestre dont les autres circuits seraient les musiciens. Le circuit de contrôle était appelé autrefois le CRTC, car il commandait des écrans dit CRT, mais ce n'est plus d'actualité de nos jours. La carte graphique communique via un bus, un vulgaire tas de fils qui connectent la carte graphique à la carte mère. Les premières cartes graphiques utilisaient un bus nommé ISA, qui fût rapidement remplacé par le bus PCI, plus rapide, lui-même remplacé par le bus AGP, puis le bus PCI-Express. Ce bus est géré par un contrôleur de bus, un circuit qui se charge d'envoyer ou de réceptionner les données sur le bus. Les circuits de communication avec le bus permettent à l'ordinateur de communiquer avec la carte graphique, via le bus PCI-Express, AGP, PCI ou autre. Il contient quelques registres dans lesquels le processeur pourra écrire ou lire, afin de lui envoyer des ordres du style : j'envoie une donnée, transmission terminée, je ne suis pas prêt à recevoir les données que tu veux m'envoyer, etc. Il y a peu à dire sur ce circuit, aussi nous allons nous concentrer sur les autres circuits. Le circuit d'interfaçage écran est au minimum un circuit d’interfaçage électrique se contente de convertir les signaux de la carte graphique en signaux que l'on peut envoyer à l'écran. Il s'occupe notamment de convertir les tensions et courants : si l'écran demande des signaux de 5 Volts mais que la carte graphique fonctionne avec du 3,3 Volt, il y a une conversion à faire. De même, le circuit d'interfaçage électrique peut s'occuper de la conversion des signaux numériques vers de l'analogique. L'écran peut avoir une entrée analogique, surtout s'il est assez ancien. Les anciens écrans CRT ne comprenaient que des données analogiques et pas le binaire, alors que c'est l'inverse pour la carte graphique, ce qui fait que le circuit d'interfaçage devait faire la conversion. La conversion était réalisée par un circuit qui traduit des données numériques (ici, du binaire) en données analogiques : le '''convertisseur numérique-analogique''' ou DAC (''Digital-to-Analogue Converter''). Au tout début, le circuit d’interfaçage était un DAC combiné avec des circuits annexes, ce qu'on appelle un RAMDAC (''Random Access Memory Digital-to-Analog Converter''). De nos jours, les écrans comprennent le binaire sous réserve qu'il soit codé suivant le standard adapté et les cartes graphiques n'ont plus besoin de RAMDAC. Il y a peu à dire sur les circuits d'interfaçage. Leur conception et leur fonctionnement dépendent beaucoup du standard utilisé. Sans compter qu'expliquer leur fonctionnement demande de faire de l'électronique pure et dure, ce qui est rarement agréable pour le commun des mortels. Par contre, étudier le circuit de contrôle et la mémoire vidéo est beaucoup plus intéressant. Plusieurs chapitres seront dédiés à leur fonctionnement. Mais parlons maintenant des GPU modernes et passons à la section suivante. ===Un historique rapide des cartes d’affichage=== Les cartes d'affichages sont opposées aux cartes accélératrices 2D et 3D, qui permettent de décharger le processeur d'une partie du rendu 2D/3D. Pour cela, elles intègrent des circuits spécialisés. Vous imaginez peut-être que les cartes d'affichage sont apparues en premier, puis qu'elles ont gagné en puissance et en fonctionnalités pour devenir d'abord des cartes accélératrices 2D, puis des cartes 3D. C'est une suite assez logique, intuitive. Et ce n'est pas du tout ce qui s'est passé ! Les cartes d'affichage pures, sans rendu 2D, sont une invention des premiers PC. Elles sont arrivées alors que les consoles de jeu avaient déjà des cartes hybrides entre carte d'affichage et cartes de rendu 2D depuis une bonne décennie. Sur les consoles de jeu ou les microordinateurs anciens, il n'y avait pas de cartes d'affichage séparée. A la place, le système vidéo d'un ordinateur était un ensemble de circuits soudés sur la carte mère. Les consoles de jeu, ainsi que les premiers micro-ordinateurs, avaient une configuration fixée une fois pour toute et n'étaient pas upgradables. Mais avec l'arrivée de l'IBM PC, les cartes d’affichages se sont séparées de la carte mère. Leurs composants étaient soudés sur une carte qu'on pouvait clipser et détacher de la carte mère si besoin. Et c'est ainsi que l'on peut actuellement changer la carte graphique d'un PC, alors que ce n'est pas le cas sur une console de jeu. La différence entre les deux se limite cependant à cela. Les composant d'une carte d'affichage ou d'une console de jeu sont globalement les mêmes. Aussi, dans ce qui suit, nous parlerons de carte d'affichage pour désigner cet ensemble de circuits, peu importe qu'il soit soudé à la carte mère ou placé sur une carte d’affichage séparée. C'est un abus de langage qu'on ne retrouvera que dans ce cours. ===Les différents types de cartes d'affichage=== Dans la suite du cours, nous allons voir que toutes les cartes d'affichage ne fonctionnent pas de la même manière. Et ces différences font qu'on peut les classer en plusieurs types distincts. Leur classement s'explique par un fait assez simple : une image prend beaucoup de mémoire ! Par exemple, prenons le cas d'une image en niveaux de gris d'une résolution de 320 par 240 pixels, chaque pixel étant codé sur un octet. L'image prend alors 76800 octets, soit environ 76 kiloctets. Mine de rien, cela fait beaucoup de mémoire ! Et si on ajoute le support de la couleur, cela triple, voire quadruple la taille de l'image. Les cartes graphiques récentes ont assez de mémoire pour stocker l'image à afficher. Une partie de la mémoire vidéo est utilisée pour mémoriser l'image à afficher. La portion en question s'appelle le ''framebuffer'', '''tampon d'image''' en français. Il s'agit là d'une solution très simple, mais qui demande une mémoire vidéo de grande taille. Les systèmes récents peuvent se le permettre, mais les tout premiers ordinateurs n'avaient pas assez de mémoire vidéo. Les cartes d'affichages devaient se débrouiller avec peu de mémoire, impossible de mémoriser l'image à afficher entièrement. Pour compenser cela, les cartes d'affichage anciennes utilisaient diverses optimisations assez intéressantes. La première d'entre elle utilise pour cela le fonctionnement des anciens écrans CRT, qui affichaient l'image ligne par ligne. Pour rappel, l'image a afficher à l'écran a une certaine résolution : 320 pixels pour 240 pixels, par exemple. Pour l'écran CRT, l'image est composée de plusieurs lignes. Par exemple, pour une résolution de 640 par 480, l'image est découpée en 480 lignes, chacune faisant 640 pixels de long. L'écran est conçu pour qu'on lui envoie les lignes les unes après les autres, avec une petite pause entre l'affichage/envoi de deux lignes. Précisons que les écrans LCD ont abandonné ce mode de fonctionnement. L'idée est alors la suivante : la mémoire vidéo ne mémorise que la ligne en cours d'affichage par l'écran. Le processeur met à jour la mémoire vidéo entre l'affichage de deux lignes. La mémoire vidéo n'est alors pas un tampon d'image, mais un '''tampon de ligne'''. Le défaut de cette technique est qu'elle demande que le processeur et la carte d'affichage soient synchronisés, de manière à ce que les lignes soient mises à jour au bon moment. L'avantage est que la quantité de mémoire vidéo nécessaire est divisée par un facteur 100, voire plus, égal à la résolution verticale (le nombre de lignes). Une autre méthode, appelée le '''rendu en tiles''', est formellement une technique de compression d'image particulière. L'image à afficher est stockée sous un format compressé en mémoire vidéo, mais est décompressée pixel par pixel lors de l'affichage. Il nous est difficile de décrire cette technique maintenant, mais un chapitre entier sera dédié à cette technique. Le chapitre en question abordera une technique similaire, appelée le rendu en mode texte, qui servira d'introduction propédeutique. Le rendu en tiles et l'usage d'un tampon ligne sont deux optimisations complémentaires. Il est ainsi possible d'utiliser soit l'une, soit l'autre, soit les deux. En clair, cela donne quatre types de cartes d'affichage distincts : * les cartes d'affichage à tampon d'image ; * les cartes à tampon d'images en rendu à tiles ; * les cartes d'affichage à tampon de ligne ; * les cartes d'affichage à tampon de ligne en rendu à tiles. {|class="wikitable" |- ! ! Rendu normal ! Rendu à tile |- ! Tampon d'image | Cartes graphiques post-années 90, standard VGA sur PC | Consoles de jeu 8 bits et 16 bits, standards CGA, MGA |- ! Tampon de ligne | Consoles de jeu ATARI 2600 et postérieures | Console de jeu néo-géo |} Lez prochains chapitres porteront surtout sur les cartes d'affichages à tampon d'image, plus simples à, expliquer. Deux chapitres seront dédiés respectivement aux cartes à rendu en tile, et aux cartes à tampon de ligne. ==Les cartes graphiques actuelles sont très complexes== Les cartes graphiques actuelles sont des cartes d'affichage améliorées auxquelles on a ajouté des circuits annexes, afin de leur donner des capacités de calcul pour le rendu 2D et/ou 3D, mais elles n'en restent pas moins des cartes d'affichages. La seule différence est que le processeur n’envoie pas une image à la mémoire vidéo, mais que l'image à afficher est calculée par la carte graphique 2D/3D. Les calculs autrefois effectués sur le CPU sont donc déportés sur la carte graphique. Si vous analysez une carte graphique récente, vous verrez que les circuits des cartes d'affichage sont toujours là, bien que noyés dans des circuits de rendu 2D/3D. On retrouve une mémoire vidéo, une interface écran, un circuit d'interface avec le bus, un ''Video Display Controler''. L'interface écran est par contre fusionnée avec le ''Video Display Controler''. Mais à ces circuits d'affichage, sont ajoutés un '''GPU''' (''Graphic Processing Unit''), qui s'occupe du rendu 3D, du rendu 2D, mais aussi d'autres fonctions comme du décodage de fichiers vidéos. [[File:Architecture d'une carte graphique avec un GPU.png|centre|vignette|upright=2|Architecture d'une carte graphique avec un GPU]] ===L'intérieur d'un GPU=== Le GPU est un composant assez complexe, surtout sur les cartes graphiques modernes. Il regroupe plusieurs circuits aux fonctions distinctes. * Un '''''Video Display controler''''' est toujours présent, mais ne sera pas représenté dans ce qui suit. * Des '''circuit de rendu 2D''' séparés peuvent être présents, mais sont la plupart du temps intégrés au VDC. * Les '''circuits de rendu 3D''' s'occupent du rendu 3D. * Les '''circuits de décodage vidéo''', pour améliorer la performance du visionnage de vidéos. Les trois circuits précédents sont gouvernés par un '''processeur de commande''', un circuit assez difficile à décrire. Pour le moment, disons qu'il s'occupe de répartir le travail entre les différents circuits précédents. Le processeur de commande reçoit du travail à faire, envoyé par le CPU via le bus, et le redistribue dans les trois circuits précédents. Par exemple, si on lui envoie une vidéo encodée en H264, il envoie le tout au circuit vidéo. De plus, il le configure pour qu'il la décode correctement : il dit au circuit que c'est une vidéo encodée en H264, afin que le circuit sache comment la décoder. Ce genre de configuration est aussi présente sur les circuits de rendu 2D et 3D, bien qu'elle soit plus compliquée. [[File:Microarchitecture simplifiée d'un GPU.png|centre|vignette|upright=2|Microarchitecture simplifiée d'un GPU]] Un GPU contient aussi un contrôleur mémoire, qui est une interface entre le GPU et la mémoire vidéo. Interface électrique, car GPU et mémoire n'utilisent pas les mêmes tensions et qu'en plus, leur interconnexion demande de gérer pas mal de détails purement électriques. Mais aussi interface de communication, car communiquer entre mémoire vidéo et GPU demande de faire pas mal de manipulations, comme gérer l'adressage et bien d'autres choses qu'on ne peut pas encore détailler ici. Un GPU contient aussi d'autres circuits annexes, comme des circuits pour gérer la consommation électrique, un BIOS vidéo, etc. L'interface écran et l'interface avec le bus sont parfois intégrées au GPU. [[File:Generic block diagram of a GPU.svg|centre|vignette|upright=3|Architecture d'une carte graphique moderne.]] ===Un historique simplifié des pipelines 2D/3D/vidéo=== Avant les années 90, les cartes graphiques des ordinateurs personnels et des consoles de jeux se résumaient à des circuits d'accélération 2D, elles n'avaient pas de décodeurs vidéos ou de circuits de rendu 3D. C'est dans les années 90 qu'elles ont commencé à incorporer des circuits d'accélération 3D. Puis, après les années 2000-2010, elles ont commencé à intégrer des circuits de décodage vidéo, aux alentours des années 2010. En parallèle, les circuits de rendu 2D ont progressivement été réduits puis abandonnés. Les circuits de rendu 2D sont des circuits qui ne sont pas programmables, mais qu'on peut configurer. On dit aussi que ce sont des '''circuits fixes'''. Ils sont opposés aux circuits programmables, basés sur des processeurs. Les circuits de rendu 3D étaient initialement des circuits fixes eux aussi, mais sont devenus de plus en plus programmables avec le temps. Les GPU d'après les années 2000 utilisent un mélange de circuits programmables et fixes assez variable. Nous reviendrons là-dessus dans un chapitre dédié. [[File:Microarchitecture globale d'un GPU.png|centre|vignette|upright=2|Microarchitecture globale d'un GPU]] Pour les circuits de décodage vidéo, les choses sont assez complexes. Initialement, ils s'agissait de circuits fixes, qu'on pouvait programmer. Un GPU de ce type est illustré ci-dessus. Mais de nos jours, les calculs de décodage vidéo sont réalisés sur les processeurs de shaders. Les circuits de rendu 3D et de décodage vidéo ont chacun des circuits fixes dédiés, mais partagent des processeurs. [[File:GPU avec processeurs de shaders partagés entre rendu 3D et décodage vidéo.png|centre|vignette|upright=2|GPU avec processeurs de shaders partagés entre rendu 3D et décodage vidéo]] Les cinq prochains chapitres vont parler des cartes d'affichage et des cartes accélératrices 2D, les deux étant fortement liées. C'est seulement dans les chapitres qui suivront que nous parlerons des cartes 3D. Les cartes 3D sont composées d'une carte d'affichage à laquelle on a rajouté des circuits de calcul, ce qui fait qu'il est préférable de faire ainsi : on voit ce qui est commun entre les deux d'abord, avant de voir le rendu 3D ensuite. De plus, le rendu 3D est plus complexe que l'affichage d'une image à l'écran, ce qui fait qu'il vaut mieux voir cela après. {{NavChapitre | book=Les cartes graphiques | next=Le Video Display Controler | nextText=Le Video Display Controler }}{{autocat}} rqavyq4b9zurzv1kprphy4ij755pk37 745933 745932 2025-07-04T16:17:26Z Mewtow 31375 /* La connexion des cartes graphiques à l'écran */ 745933 wikitext text/x-wiki Les cartes graphiques sont des cartes qui communiquent avec l'écran, pour y afficher des images. Les cartes graphiques modernes incorporent aussi des circuits de calcul pour accélérer du rendu 2D ou 3D. Dans ce chapitre, nous allons faire une introduction et expliquer ce qu'est une carte graphique et surtout : nous allons voir ce qu'il y a à l'intérieur, du moins dans les grandes lignes. ==Les cartes graphiques dédiées, intégrées et soudées== Vous avez sans doute déjà démonté votre PC pour en changer la carte graphique, vous savez sans doute à quoi elle ressemble. Sur les PC modernes, il s'agit d'un composant séparé, qu'on branche sur la carte mère, sur un port spécialisé. Du moins, c'est le cas si vous avez un PC fixe assez puissant. Mais il y a deux autres possibilités. [[File:PX7800 GTX (557505323).jpg|centre|vignette|Carte graphique dédiée PX 7800 GTX I]] La première est celle où la carte graphique est directement intégrée dans le processeur de la machine ! C'est quelque chose qui se fait depuis les années 2000-2010, avec l'amélioration de la technologie et la miniaturisation des transistors. Il est possible de mettre tellement de transistors sur une puce de silicium que les concepteurs de processeur en ont profité pour mettre une carte graphique peut puissante dans le processeur. Une autre possibilité, surtout utilisée sur les consoles de jeu et les PC portables, est celle où la carte graphique est composée de circuits soudés à la carte mère. Pour résumer, il faut distinguer trois types de cartes graphiques différentes : * Les '''cartes graphiques dédiées''', séparées dans une carte d'extension qu'on doit connecter à la carte mère via un connecteur dédié. * Les '''cartes graphiques intégrées''', qui font partie du processeur. * Les '''cartes graphiques soudées''' à la carte mère. Vous avez sans doute vu qu'il y a une grande différence de performance entre une carte graphique dédiée et une carte graphique intégrée. La raison est simplement que les cartes graphiques intégrées ont moins de transistors à leur disposition, ce qui fait qu'elles contiennent moins de circuits de calcul. Les cartes graphiques dédiées et soudées n'ont pas de différences de performances notables. Les cartes soudées des PC portables sont généralement moins performantes car il faut éviter que le PC chauffe trop, vu que la dissipation thermique est moins bonne avec un PC portable (moins de gros ventilos), ce qui demande d'utiliser une carte graphique moins puissante. Mais les cartes soudées des consoles de jeu n'ont pas ce problème : elles sont dans un boitier bien ventilés, on peut en utiliser une très puissante. ===Un PC avec plusieurs GPU : la commutation de GPU=== De nos jours, il y a de très fortes chances que votre ordinateur intègre plusieurs cartes graphique, peu importe que ce soit un PC portable ou fixe. Tous les PC ont une carte graphique intégrée, de faible performance, qui consomme peu d'énergie/électricité. Et si je dis presque tous, c'est parce que tous les processeurs commerciaux modernes incorporent une carte graphique intégrée. Le marché du processeur grand public est ainsi, seuls quelques processeurs dédiés aux serveurs n'ont pas de carte graphique intégrée. Et en plus de la carte intégrée, une bonne partie des PC intègrent aussi soit une carte dédiée, soit une carte soudée. Soudée sur les PC portables, dédiée sur les PC fixe. Dans le passé, il était possible de mettre plusieurs cartes graphiques dédiées dans un même PC, mais avec des conditions drastiques. ATI/AMD et NVIDIA avaient ajouté des fonctionnalités de multi-GPU, qui permettaient à deux GPU de travailler ensemble, afin de presque doubler les performances. Mais cela ne marchait qu'avec deux GPU NVIDIA ou deux GPU ATI/AMD, utiliser deux GPU de deux marques différentes ne marchait pas. Un chapitre entier sera dédié à ces techniques, mais nous n'en parlerons pas ici, car elles sont tombées en désuétude, aucun GPU grand public ne supporte ces technologies. S'il y a deux cartes graphiques, cela ne signifie pas que les deux sont utilisées en même temps. En effet, selon les circonstances, le PC va privilégier l'une ou l'autre. Dans les années 2010, le choix se faisait dans le BIOS : une des deux carte graphique était désactivée pour de bon, typiquement la carte intégrée. Les PC avec une carte dédiée désactivaient la carte intégrée dans le processeur, pour éviter tout conflit entre les deux cartes. De nos jours, les deux sont utilisables, mais pas en même temps. Le système d'exploitation, Windows ou linux, utilise soit la carte intégrée, soit la carte dédiée, suivant les besoins. La carte dédiée a de bonnes performance, mais elle consomme beaucoup d'énergie/électricité et chauffe plus. La carte graphique intégrée fait l'inverse : ses performances sont basses, mais elle consomme très peu et chauffe moins. La carte dédiée est donc utilisée quand on a besoin de performance, l'intégrée est utilisée quand elle suffit, afin de faire des économies. Prenons l'exemple d'un jeu vidéo : un jeu ancien et peu gourmand sera exécuté sur la carte intégrée, alors qu'un jeu récent/gourmand sera exécuté sur la carte dédiée. Le rendu du bureau de Windows/linux est réalisé par la carte graphique intégrée, pour économiser de l'énergie. ===La connexion des cartes graphiques à l'écran=== Prenons un PC fixe avec deux cartes graphiques, une intégrée et une dédiée. En général, il y a deux connecteurs pour l'écran, un qui est relié à la carte graphique intégrée, un autre qui est sur la carte dédiée proprement dite. Suivant là où vous brancherez l'écran, vous n'utiliserez pas la même carte graphique. Le système d'exploitation se charge d'envoyer les images à afficher à la carte graphique adéquate. Sur un PC portable ''gaming'', les choses sont différentes. Il n'y a qu'un seul connecteur pour l'écran, pas deux. Et dans ce cas, il y a deux possibilités. La première est la plus simple. Les deux cartes graphiques sont reliées au connecteur écran, par l'intermédiaire d'un circuit multiplexeur. Le circuit multiplexeur reçoit les images à afficher de la part des deux cartes graphiques et choisit l'une d'entre elle. C'est la solution la plus performante, car la carte dédiée peut afficher directement ses images à l'écran, sans avoir à les envoyer à la carte intégrée. Mais elle complexifie le câblage et demande d'ajouter un circuit multiplexeur, ce qui n'est pas gratuit. [[File:Commutation de GPU avec un MUX.png|centre|vignette|upright=2|Commutation de GPU avec un MUX]] Avec la seconde solution, une seule carte graphique est connectée à l'écran, généralement la carte intégrée. Si la carte dédiée est utilisée, les images qu'elle calcule sont envoyées à la carte intégrée pour ensuite être affichées à l'écran. On passe par un intermédiaire, mais le câblage est plus simple. [[File:Commutation de GPU sans MUX.png|centre|vignette|upright=2|Commutation de GPU sans MUX]] ==Les cartes d'affichage et leur architecture== Vous vous demandez comment est-ce possible qu'une carte graphique soit soudée ou intégrée dans un processeur. La raison est que les trois types de cartes graphiques sont très similaires, elles sont composées des mêmes types de composants, ce qu'il y a à l'intérieur est globalement le même, comme on va le voir dans ce qui suit. Au tout début de l'informatique, le rendu graphique était pris en charge par le processeur. Il calculait l'image à afficher et l'envoyait à l'écran, pixel par pixel. Le problème est que le processeur devait se synchroniser avec l'écran, pour envoyer les pixels au bon moment. Pour simplifier la vie des programmeurs, les fabricants de matériel ont inventé des cartes vidéo. Avec celles-ci, le processeur calcule l'image à envoyer à l'écran et la transmet à la carte d'affichage, sans avoir à se synchroniser avec l'écran. L'avantage est que le processeur n'a pas à se synchroniser avec l'écran, juste à envoyer l'image à une carte d'affichage. Les cartes d'affichage ne géraient pas le rendu 3D. Le processeur calculait une image, la copiait dans la mémoire vidéo, puis la carte d'affichage l'envoyait à l'écran au bon moment. Il n'y avait pas de circuits de calcul graphique, ni de circuits de décodage vidéo. Juste de quoi afficher une image à l'écran. Et mine de rien, il est intéressant d'étudier de telles cartes graphiques anciennes. De telles cartes graphiques sont ce que j'ai décidé d'appeler des '''cartes d'affichage'''. ===L'intérieur d'une carte d'affichage=== Une carte d'affichage contient plusieurs sous-circuits, chacun dédié à une fonction précise. * La '''mémoire vidéo''' est une mémoire RAM intégrée à la carte graphique, qui a des fonctions multiples. * L''''interface écran''', ou ''Display interface'', regroupe les connecteurs et tous les circuits permettant d'envoyer l'image à l'écran. * Le '''circuit d'interface avec le bus''' existe uniquement sur les cartes dédiées et éventuellement sur quelques cartes soudées. Il s'occupe des transmissions sur le bus PCI/AGP/PCI-Express, le connecteur qui relie la carte mère et la carte graphique. * Un circuit de contrôle qui commande le tout, appelé le '''''Video Display Controler'''''. [[File:Carte d'affichage - architecture.png|centre|vignette|upright=2|Carte d'affichage - architecture.]] La mémoire vidéo mémorise l'image à afficher, les deux circuits d'interfaçage permettent à la carte d'affichage de communiquer respectivement avec l'écran et le reste de l'ordinateur, le ''Video Display Controler'' commande les autres circuits. Le ''Video Display Controler'' sert de chef d'orchestre pour un orchestre dont les autres circuits seraient les musiciens. Le circuit de contrôle était appelé autrefois le CRTC, car il commandait des écrans dit CRT, mais ce n'est plus d'actualité de nos jours. La carte graphique communique via un bus, un vulgaire tas de fils qui connectent la carte graphique à la carte mère. Les premières cartes graphiques utilisaient un bus nommé ISA, qui fût rapidement remplacé par le bus PCI, plus rapide, lui-même remplacé par le bus AGP, puis le bus PCI-Express. Ce bus est géré par un contrôleur de bus, un circuit qui se charge d'envoyer ou de réceptionner les données sur le bus. Les circuits de communication avec le bus permettent à l'ordinateur de communiquer avec la carte graphique, via le bus PCI-Express, AGP, PCI ou autre. Il contient quelques registres dans lesquels le processeur pourra écrire ou lire, afin de lui envoyer des ordres du style : j'envoie une donnée, transmission terminée, je ne suis pas prêt à recevoir les données que tu veux m'envoyer, etc. Il y a peu à dire sur ce circuit, aussi nous allons nous concentrer sur les autres circuits. Le circuit d'interfaçage écran est au minimum un circuit d’interfaçage électrique se contente de convertir les signaux de la carte graphique en signaux que l'on peut envoyer à l'écran. Il s'occupe notamment de convertir les tensions et courants : si l'écran demande des signaux de 5 Volts mais que la carte graphique fonctionne avec du 3,3 Volt, il y a une conversion à faire. De même, le circuit d'interfaçage électrique peut s'occuper de la conversion des signaux numériques vers de l'analogique. L'écran peut avoir une entrée analogique, surtout s'il est assez ancien. Les anciens écrans CRT ne comprenaient que des données analogiques et pas le binaire, alors que c'est l'inverse pour la carte graphique, ce qui fait que le circuit d'interfaçage devait faire la conversion. La conversion était réalisée par un circuit qui traduit des données numériques (ici, du binaire) en données analogiques : le '''convertisseur numérique-analogique''' ou DAC (''Digital-to-Analogue Converter''). Au tout début, le circuit d’interfaçage était un DAC combiné avec des circuits annexes, ce qu'on appelle un RAMDAC (''Random Access Memory Digital-to-Analog Converter''). De nos jours, les écrans comprennent le binaire sous réserve qu'il soit codé suivant le standard adapté et les cartes graphiques n'ont plus besoin de RAMDAC. Il y a peu à dire sur les circuits d'interfaçage. Leur conception et leur fonctionnement dépendent beaucoup du standard utilisé. Sans compter qu'expliquer leur fonctionnement demande de faire de l'électronique pure et dure, ce qui est rarement agréable pour le commun des mortels. Par contre, étudier le circuit de contrôle et la mémoire vidéo est beaucoup plus intéressant. Plusieurs chapitres seront dédiés à leur fonctionnement. Mais parlons maintenant des GPU modernes et passons à la section suivante. ===Un historique rapide des cartes d’affichage=== Les cartes d'affichages sont opposées aux cartes accélératrices 2D et 3D, qui permettent de décharger le processeur d'une partie du rendu 2D/3D. Pour cela, elles intègrent des circuits spécialisés. Vous imaginez peut-être que les cartes d'affichage sont apparues en premier, puis qu'elles ont gagné en puissance et en fonctionnalités pour devenir d'abord des cartes accélératrices 2D, puis des cartes 3D. C'est une suite assez logique, intuitive. Et ce n'est pas du tout ce qui s'est passé ! Les cartes d'affichage pures, sans rendu 2D, sont une invention des premiers PC. Elles sont arrivées alors que les consoles de jeu avaient déjà des cartes hybrides entre carte d'affichage et cartes de rendu 2D depuis une bonne décennie. Sur les consoles de jeu ou les microordinateurs anciens, il n'y avait pas de cartes d'affichage séparée. A la place, le système vidéo d'un ordinateur était un ensemble de circuits soudés sur la carte mère. Les consoles de jeu, ainsi que les premiers micro-ordinateurs, avaient une configuration fixée une fois pour toute et n'étaient pas upgradables. Mais avec l'arrivée de l'IBM PC, les cartes d’affichages se sont séparées de la carte mère. Leurs composants étaient soudés sur une carte qu'on pouvait clipser et détacher de la carte mère si besoin. Et c'est ainsi que l'on peut actuellement changer la carte graphique d'un PC, alors que ce n'est pas le cas sur une console de jeu. La différence entre les deux se limite cependant à cela. Les composant d'une carte d'affichage ou d'une console de jeu sont globalement les mêmes. Aussi, dans ce qui suit, nous parlerons de carte d'affichage pour désigner cet ensemble de circuits, peu importe qu'il soit soudé à la carte mère ou placé sur une carte d’affichage séparée. C'est un abus de langage qu'on ne retrouvera que dans ce cours. ===Les différents types de cartes d'affichage=== Dans la suite du cours, nous allons voir que toutes les cartes d'affichage ne fonctionnent pas de la même manière. Et ces différences font qu'on peut les classer en plusieurs types distincts. Leur classement s'explique par un fait assez simple : une image prend beaucoup de mémoire ! Par exemple, prenons le cas d'une image en niveaux de gris d'une résolution de 320 par 240 pixels, chaque pixel étant codé sur un octet. L'image prend alors 76800 octets, soit environ 76 kiloctets. Mine de rien, cela fait beaucoup de mémoire ! Et si on ajoute le support de la couleur, cela triple, voire quadruple la taille de l'image. Les cartes graphiques récentes ont assez de mémoire pour stocker l'image à afficher. Une partie de la mémoire vidéo est utilisée pour mémoriser l'image à afficher. La portion en question s'appelle le ''framebuffer'', '''tampon d'image''' en français. Il s'agit là d'une solution très simple, mais qui demande une mémoire vidéo de grande taille. Les systèmes récents peuvent se le permettre, mais les tout premiers ordinateurs n'avaient pas assez de mémoire vidéo. Les cartes d'affichages devaient se débrouiller avec peu de mémoire, impossible de mémoriser l'image à afficher entièrement. Pour compenser cela, les cartes d'affichage anciennes utilisaient diverses optimisations assez intéressantes. La première d'entre elle utilise pour cela le fonctionnement des anciens écrans CRT, qui affichaient l'image ligne par ligne. Pour rappel, l'image a afficher à l'écran a une certaine résolution : 320 pixels pour 240 pixels, par exemple. Pour l'écran CRT, l'image est composée de plusieurs lignes. Par exemple, pour une résolution de 640 par 480, l'image est découpée en 480 lignes, chacune faisant 640 pixels de long. L'écran est conçu pour qu'on lui envoie les lignes les unes après les autres, avec une petite pause entre l'affichage/envoi de deux lignes. Précisons que les écrans LCD ont abandonné ce mode de fonctionnement. L'idée est alors la suivante : la mémoire vidéo ne mémorise que la ligne en cours d'affichage par l'écran. Le processeur met à jour la mémoire vidéo entre l'affichage de deux lignes. La mémoire vidéo n'est alors pas un tampon d'image, mais un '''tampon de ligne'''. Le défaut de cette technique est qu'elle demande que le processeur et la carte d'affichage soient synchronisés, de manière à ce que les lignes soient mises à jour au bon moment. L'avantage est que la quantité de mémoire vidéo nécessaire est divisée par un facteur 100, voire plus, égal à la résolution verticale (le nombre de lignes). Une autre méthode, appelée le '''rendu en tiles''', est formellement une technique de compression d'image particulière. L'image à afficher est stockée sous un format compressé en mémoire vidéo, mais est décompressée pixel par pixel lors de l'affichage. Il nous est difficile de décrire cette technique maintenant, mais un chapitre entier sera dédié à cette technique. Le chapitre en question abordera une technique similaire, appelée le rendu en mode texte, qui servira d'introduction propédeutique. Le rendu en tiles et l'usage d'un tampon ligne sont deux optimisations complémentaires. Il est ainsi possible d'utiliser soit l'une, soit l'autre, soit les deux. En clair, cela donne quatre types de cartes d'affichage distincts : * les cartes d'affichage à tampon d'image ; * les cartes à tampon d'images en rendu à tiles ; * les cartes d'affichage à tampon de ligne ; * les cartes d'affichage à tampon de ligne en rendu à tiles. {|class="wikitable" |- ! ! Rendu normal ! Rendu à tile |- ! Tampon d'image | Cartes graphiques post-années 90, standard VGA sur PC | Consoles de jeu 8 bits et 16 bits, standards CGA, MGA |- ! Tampon de ligne | Consoles de jeu ATARI 2600 et postérieures | Console de jeu néo-géo |} Lez prochains chapitres porteront surtout sur les cartes d'affichages à tampon d'image, plus simples à, expliquer. Deux chapitres seront dédiés respectivement aux cartes à rendu en tile, et aux cartes à tampon de ligne. ==Les cartes graphiques actuelles sont très complexes== Les cartes graphiques actuelles sont des cartes d'affichage améliorées auxquelles on a ajouté des circuits annexes, afin de leur donner des capacités de calcul pour le rendu 2D et/ou 3D, mais elles n'en restent pas moins des cartes d'affichages. La seule différence est que le processeur n’envoie pas une image à la mémoire vidéo, mais que l'image à afficher est calculée par la carte graphique 2D/3D. Les calculs autrefois effectués sur le CPU sont donc déportés sur la carte graphique. Si vous analysez une carte graphique récente, vous verrez que les circuits des cartes d'affichage sont toujours là, bien que noyés dans des circuits de rendu 2D/3D. On retrouve une mémoire vidéo, une interface écran, un circuit d'interface avec le bus, un ''Video Display Controler''. L'interface écran est par contre fusionnée avec le ''Video Display Controler''. Mais à ces circuits d'affichage, sont ajoutés un '''GPU''' (''Graphic Processing Unit''), qui s'occupe du rendu 3D, du rendu 2D, mais aussi d'autres fonctions comme du décodage de fichiers vidéos. [[File:Architecture d'une carte graphique avec un GPU.png|centre|vignette|upright=2|Architecture d'une carte graphique avec un GPU]] ===L'intérieur d'un GPU=== Le GPU est un composant assez complexe, surtout sur les cartes graphiques modernes. Il regroupe plusieurs circuits aux fonctions distinctes. * Un '''''Video Display controler''''' est toujours présent, mais ne sera pas représenté dans ce qui suit. * Des '''circuit de rendu 2D''' séparés peuvent être présents, mais sont la plupart du temps intégrés au VDC. * Les '''circuits de rendu 3D''' s'occupent du rendu 3D. * Les '''circuits de décodage vidéo''', pour améliorer la performance du visionnage de vidéos. Les trois circuits précédents sont gouvernés par un '''processeur de commande''', un circuit assez difficile à décrire. Pour le moment, disons qu'il s'occupe de répartir le travail entre les différents circuits précédents. Le processeur de commande reçoit du travail à faire, envoyé par le CPU via le bus, et le redistribue dans les trois circuits précédents. Par exemple, si on lui envoie une vidéo encodée en H264, il envoie le tout au circuit vidéo. De plus, il le configure pour qu'il la décode correctement : il dit au circuit que c'est une vidéo encodée en H264, afin que le circuit sache comment la décoder. Ce genre de configuration est aussi présente sur les circuits de rendu 2D et 3D, bien qu'elle soit plus compliquée. [[File:Microarchitecture simplifiée d'un GPU.png|centre|vignette|upright=2|Microarchitecture simplifiée d'un GPU]] Un GPU contient aussi un contrôleur mémoire, qui est une interface entre le GPU et la mémoire vidéo. Interface électrique, car GPU et mémoire n'utilisent pas les mêmes tensions et qu'en plus, leur interconnexion demande de gérer pas mal de détails purement électriques. Mais aussi interface de communication, car communiquer entre mémoire vidéo et GPU demande de faire pas mal de manipulations, comme gérer l'adressage et bien d'autres choses qu'on ne peut pas encore détailler ici. Un GPU contient aussi d'autres circuits annexes, comme des circuits pour gérer la consommation électrique, un BIOS vidéo, etc. L'interface écran et l'interface avec le bus sont parfois intégrées au GPU. [[File:Generic block diagram of a GPU.svg|centre|vignette|upright=3|Architecture d'une carte graphique moderne.]] ===Un historique simplifié des pipelines 2D/3D/vidéo=== Avant les années 90, les cartes graphiques des ordinateurs personnels et des consoles de jeux se résumaient à des circuits d'accélération 2D, elles n'avaient pas de décodeurs vidéos ou de circuits de rendu 3D. C'est dans les années 90 qu'elles ont commencé à incorporer des circuits d'accélération 3D. Puis, après les années 2000-2010, elles ont commencé à intégrer des circuits de décodage vidéo, aux alentours des années 2010. En parallèle, les circuits de rendu 2D ont progressivement été réduits puis abandonnés. Les circuits de rendu 2D sont des circuits qui ne sont pas programmables, mais qu'on peut configurer. On dit aussi que ce sont des '''circuits fixes'''. Ils sont opposés aux circuits programmables, basés sur des processeurs. Les circuits de rendu 3D étaient initialement des circuits fixes eux aussi, mais sont devenus de plus en plus programmables avec le temps. Les GPU d'après les années 2000 utilisent un mélange de circuits programmables et fixes assez variable. Nous reviendrons là-dessus dans un chapitre dédié. [[File:Microarchitecture globale d'un GPU.png|centre|vignette|upright=2|Microarchitecture globale d'un GPU]] Pour les circuits de décodage vidéo, les choses sont assez complexes. Initialement, ils s'agissait de circuits fixes, qu'on pouvait programmer. Un GPU de ce type est illustré ci-dessus. Mais de nos jours, les calculs de décodage vidéo sont réalisés sur les processeurs de shaders. Les circuits de rendu 3D et de décodage vidéo ont chacun des circuits fixes dédiés, mais partagent des processeurs. [[File:GPU avec processeurs de shaders partagés entre rendu 3D et décodage vidéo.png|centre|vignette|upright=2|GPU avec processeurs de shaders partagés entre rendu 3D et décodage vidéo]] Les cinq prochains chapitres vont parler des cartes d'affichage et des cartes accélératrices 2D, les deux étant fortement liées. C'est seulement dans les chapitres qui suivront que nous parlerons des cartes 3D. Les cartes 3D sont composées d'une carte d'affichage à laquelle on a rajouté des circuits de calcul, ce qui fait qu'il est préférable de faire ainsi : on voit ce qui est commun entre les deux d'abord, avant de voir le rendu 3D ensuite. De plus, le rendu 3D est plus complexe que l'affichage d'une image à l'écran, ce qui fait qu'il vaut mieux voir cela après. {{NavChapitre | book=Les cartes graphiques | next=Le Video Display Controler | nextText=Le Video Display Controler }}{{autocat}} ogn5lmcyzywdcc47bgvipw8e1ukjs88 Les cartes graphiques/La répartition du travail sur les unités de shaders 0 79263 745960 744775 2025-07-05T11:32:36Z Mewtow 31375 /* Les architectures actuelles font les deux */ 745960 wikitext text/x-wiki La répartition du travail sur plusieurs processeurs de ''shaders'' est un vrai défi sur les cartes graphiques actuelles. De plus, elle dépend de l'occupation des circuits fixes, comme l’''input assembler'' ou l'unité de rastérisation. Une carte graphique ne traite pas les sommets ou pixels un par un, mais essaye d'en traiter un grand nombre en même temps, en parallèle. Les cartes graphiques sont conçues pour cela, pour exécuter les mêmes calculs en parallèle sur un grande nombre de données indépendantes. Si on prend l'exemple d'un ''vertex shader'', une carte graphique exécute le même shader sur un grande nombre de sommets en même temps. Pour cela, elle contient plusieurs processeurs de shaders, chacun traitant au moins un sommet à la fois. Il en est de même pour les traitements sur les pixels. Dans ce chapitre, nous allons voir comment le travail est répartit sur les processeurs de shaders. ==Les cartes graphiques implémentent un parallélisme de type Fork/join== Si une carte graphique exécute de nombreux calculs en parallèle, tout ne peut pas être parallélisé et ce pour deux raisons. La première est tout simplement le pipeline graphique, qui impose que le rendu se fasse en étapes bien précises. La seconde raison est que certaines étapes sont relativement bloquantes et imposent une réduction du parallélisme. Tel est le cas de l'étape de rastérisation ou de l'enregistrement des pixels en mémoire, qui se parallélisent assez mal. Elles servent de point de convergence, de point de blocage. Les deux points interagissent et font que le parallélisme sur les cartes graphiques est un peu particulier. Concrètement, prenons l'exemple d'une carte graphique simple, illustrée ci-dessous. Le pipeline commence avec une unité d'''input assembly'' qui lit les sommets en mémoire vidéo et les distribue sur plusieurs circuits géométriques (des circuits fixes sur les anciennes cartes 3D, des processeurs de shaders sur les modernes). En sortie des unités géométriques, les sommets sont tous envoyé au rastériseur. En sortie du rastériseur, les pixels sont répartis sur plusieurs circuits de traitement des pixels, généralement des processeurs de shaders. Là encore, comme pour les unité géométriques, on trouve un grand nombre de circuits qui effectuent leur travail en parallèle. puis vient le moment d'enregistrer les pixels finaux en mémoire. Ils sont alors envoyés à un circuit spécialisé, nommé le ROP. [[File:Parallélisme dans une carte 3D.png|centre|vignette|upright=3|Parallélisme dans une carte 3D]] On voit que le rastériseur et les ROP finaux sont des points de convergence où convergent plusieurs sommets/pixels. Pour gérer cette convergence, les cartes graphiques disposent de mémoires tampon, dans lesquelles on accumule les sommets ou pixels. Ce mécanisme de mise en attente garantit que les sommets sont mémorisés en attendant que le rastériseur soit libre, ou que les ROP soient libres. La présence des mémoires tampon désynchronise les différentes étapes du pipeline, tout en gardant une exécution des étapes dans l'ordre. Une étape écrit ses résultats dans la mémoire tampon, l'autre étape lit ce tampon quand elle démarre de nouveaux calculs. Comme cela, on n'a pas à synchroniser les deux étapes : la première étape n'a pas à attendre que la seconde soit disponible pour lui envoyer des données. Évidemment, tout cela marche bine tant que les mémoires tampon peuvent accumuler de nouvelles données. Mais si ce n'est pas le cas, si la mémoire tampon est pleine, elle ne peut plus accepter de nouveaux sommet/pixels. Donc, l'étape précédente est bloquée et ne peut plus démarrer de nouveaux calculs en attendant. ==La répartition entre ''pixel shaders'' et ''vertex shaders''== Un triangle est impliqué dans plusieurs pixels lors de l'étape de rastérisation. Un triangle peut donner quelques pixels lors de l'étape de rastérisation, alors qu'un autre va couvrir 10 fois de pixels, un autre seulement trois fois plus, un autre seulement un pixel, etc. Et vu que chaque triangle est impliqué dans plusieurs pixels, cela fait qu'il y a plus de travail à faire sur les pixels que sur les sommets. C'est un phénoméne d'amplification, qui fait que les processeurs de ''shader'' sont plus occupés à exécuter des ''pixel shaders'' que des ''vertex shader''. ===Les architectures avec unités de ''vertex'' et ''pixels'' séparées=== Les premières cartes graphiques avaient des processeurs séparés pour les ''vertex shaders'' et les ''pixel shaders''. Cette séparation entre unités de texture et de sommets était motivée par le fait qu'à l'époque, le jeu d'instruction pour les ''vertex shaders'' était différent de celui pour les ''pixel shaders''. Notamment, les unités de traitement de pixels doivent accéder aux textures, mais pas les unités de traitement de la géométrie. D'où l'existence d'unités dédiées pour les ''vertex shaders'' et les ''pixel shaders'', chacune avec ses propres capacités et fonctionnalités. Ces architectures ont beaucoup plus de processeurs de ''pixel shaders'' que de processeurs de ''vertex shaders'', vu que les ''pixels shaders'' dominent le temps de calcul par rapport aux ''vertex shaders''. [[File:Architecture de base d'une carte 3D - 5.png|centre|vignette|upright=1.5|Carte 3D avec pixels et vertex shaders non-unifiés.]] Pour donner un exemple, c'était le cas de la Geforce 6800. Elle comprenait 16 processeurs pour les ''pixel shaders'', alors qu'elle n'avait que 6 processeurs pour les ''vertex shaders''. D'autres cartes graphiques plus récentes utilisent encore cette stratégie, comme l'ARM Mali 400. [[File:GeForce 6800.png|centre|vignette|upright=3|Architecture de la GeForce 6800.]] Malheureusement, il arrivait que certains processeurs de ''shaders'' soient inutilisés. Malheureusement, tous les jeux vidéos n'ont pas les mêmes besoins : certains sont plus lourds au niveau géométrie que d'autres, certains ont des ''pixels shaders'' très gourmands avec des ''vertex shaders'' très ''light'', d'autres font l'inverse, etc. Le fait d'avoir un nombre fixe de processeurs de ''vertex shaders'' fait qu'il va en manquer pour certains jeux vidéo, alors qu'il y en aura de trop pour d'autres. Pareil pour les processeurs de ''pixel shaders''. Au final, le problème est que la répartition entre puissance de calcul pour les sommets et puissance de calcul pour les pixels est fixe, alors qu'elle n'est variable d'un jeu vidéo à l'autre, voire d'un niveau de JV à l'autre. ===Les architectures avec unités de ''shaders'' unifiées=== Depuis DirectX 10, le jeu d'instruction des ''vertex shaders'' et des ''pixels shaders'' a été unifié : plus de différences entre les deux. En conséquence, il n'y a plus de distinction entre processeurs de ''vertex shaders'' et de ''pixels shaders'', chaque processeur pouvant traiter indifféremment l'un ou l'autre. [[File:Architecture de base d'une carte 3D - 6.png|centre|vignette|upright=1.5|Carte 3D avec ''pixels'' et ''vertex shaders'' unfifiés.]] : Précisons qu'il existe des architectures DirectX 10 avec des unités séparées pour les ''vertex shaders'' et ''pixels shaders''. L'unification logicielle des ''shaders'' n’implique pas unification matérielle des processeurs de ''shaders'', même si elle l'aide fortement. Cela a un avantage considérable, car tous les jeux vidéo n'ont pas les mêmes besoins. Certains ont une géométrie très développée mais peu de besoin en termes de textures, ce qui fait qu'ils gagnent à avoir beaucoup d'unités de gestion de la géométrie et peu d'unités de traitement des pixels. À l'inverse, d'autres jeux vidéo ont besoin de beaucoup de puissance de calcul pour les pixels, mais arrivent à économiser énormément sur la géométrie. L'usage de ''shaders'' unifiés permet d'adapter la répartition entre ''vertex shaders'' et ''pixels shaders'' suivant les besoins de l'application, là où la séparation entre unités de vertex et de pixel ne le permettait pas. ==La distribution du travail sur des processeurs de ''shaders''== L’''input assembler'' lit un flux de sommets depuis la mémoire et l'envoie aux processeurs de ''vertex shader''. La rastérisation, quant à elle, produit un flux de pixels qui sont envoyés aux ''pixels shaders'' et/ou aux unités de textures. Le travail sortant du rastériseur ou de l’''input assembler'' doit donc être envoyé à un processeur de ''shader'' libre, qui n'a rien à faire. Et on ne peut pas prédire lesquels sont libres, pas plus qu'il n'est garanti qu'il y en ait un. Une des raisons à cela est que tous les ''shaders'' ne mettent pas le même temps à s'exécuter, certains prenant quelques dizaines de cycles d'horloge, d'autres une centaine, d'autres plusieurs milliers, etc. Il se peut qu'un processeur de ''shader'' soit occupé avec un paquet de sommets/pixels depuis plusieurs centaines de cycles, alors que d'autres sont libres depuis un moment. En clair, on peut pas prédire quels processeurs de ''shaders'' seront libres prochainement. Planifier à l'avance la répartition du travail sur les processeurs de ''shaders'' n'est donc pas vraiment possible. Cela perturbe la répartition du travail sur les processeurs de ''shader''. Pour résoudre ce problème, il existe plusieurs méthodes, classées en deux types : statiques et dynamiques. ===La distribution statique=== Avec la distribution statique, le choix n'est pas basé sur le fait que telle unité de shader est libre ou non, mais chaque sommet/pixel est envoyé vers une unité de shader définie à l'avance. L'ARM Mali 400 utilise une méthode de distribution statique très commune. Elle utilise des processeurs de ''vertex'' et de pixels séparés, avec un processeur de ''vertex'' et 4 processeurs de pixel. L'écran est découpé en quatre ''tiles'', quatre quadrants, et chaque quadrant est attribué à un processeur de ''pixel shader''. Quand un triangle est rastérisé, les pixels obtenus lors de la rastérisation sont alors envoyés aux processeurs de pixel en fonction de leur posituion à l'écran. Cette méthode a des avantages. Elle est très simple et n'a pas besoin de circuits complexes pour faire la distribution, l L'ordre de l'API est facile à conserver, la gestion des ressources est simple, la localité des accès mémoire est bonne, etc. Mais la distribution étant statique, il est possible que des unités de shader soient inutilisées. Il n'est pas rare que l'on a des périodes assez courtes où tout le travail sortant du rastériseur finisse sur un seul processeur. ===La distribution dynamique=== La distribution dynamique prend en compte le fait que certaines unités de shader sont inutilisées et tente d'utiliser celles-ci en priorité. Le travail sortant du rastériseur ou de l'''input assembler'' est envoyé aux unités de ''shader'' inutilisées, ou du moins à celles qui sont les moins utilisées. Cela garantit d'utiliser au mieux les processeurs de ''shaders''. On n'a plus de situations où un processeur est inutilisé, alors que du travail est disponible. Tous les processeurs sont utilisés tant qu'il y a assez de travail à faire. Par contre, cela demande de rajouter une '''unité de distribution''', qui se charge de répartir les pixels/fragments sur les différents processeurs de ''shaders''. Elle connait la disponibilité de chaque processeur de ''shader'' et d'autres informations nécessaires pour faire une distribution efficace. [[File:Dispatch des shaders sur plusieurs processeurs de shaders.png|centre|vignette|upright=2|Dispatch des shaders sur plusieurs processeurs de shaders]] Par contre, cela implique que les calculs se finissent dans le désordre. Par exemple, si deux pixels sortent du rastériseur l'un après l'autre, ils peuvent sortir de l'unité de ''pixel shader'' dans l'ordre inverse. Il suffit que le premier pixel a pris plus de temps à être calculé que l'autre pour ça. Or, l'API impose que les triangles/pixels soient rendus dans un ordre bien précis, de manière séquentielle. Si les calculs sur les sommets/pixels se font dans le désordre, cet ordre n'est pas respecté. Pour résoudre ce problème, et rester compatible avec les API, les processeurs de ''shader'' sont suivis par un circuit de remise en ordre, qui remet les pixels sortant des processeurs de pixel dans l'ordre de sortie du rastériseur. Le circuit en question est une mémoire qui ressemble un petit peu à une mémoire FIFO, appelée tampon pseudo-FIFO. Les pixels sont ajoutés au bon endroit dans la mémoire FIFO, mais ils quittent celle-ci dans l'ordre de rendu de l'API. [[File:Exécutiondes shaders dans le désordre et circuits de remise en ordre.png|centre|vignette|upright=2.5|Exécution des shaders dans le désordre et circuits de remise en ordre]] ===Les architectures actuelles font les deux=== La distribution dynamique marche très bien quand il y a un seul rastériseur. Mais les cartes graphiques modernes disposent de plusieurs rastériseurs, pour ces questions de performance. Et cela demande de faire deux formes de répartition : répartir les triangles entre rastériseurs et les laisser faire leur travail en parallèle, puis répartir les fragment/pixels sortant des rastériseurs entre processeurs de ''shader''. La répartition des fragment/pixels se base sur une distribution dynamique, alors que la répartition des triangles entre rastériseurs se base sur la distribution statique. La distribution statique se base sur l'algorithme avec des quadrants/tiles est utilisé pour la gestion des multiples rastériseurs. L'écran est découpé en ''tiles'' et chacune est attribuée à un rastériseur attitré. Il y a un rastériseur par ''tile'' dans la carte graphique. le découpage en ''tiles'' est aussi utilisée pour l'élimination des pixels non-visibles et pour quelques optimisations du rendu. L'organisation interne des GPU modernes reflète le tout. Un GPU moderne est organisé en plusieurs ''Graphic Processing Units'' (terminologie NVIDIA), que nous abrévierons en GPC. Ils regroupent chacun : plusieurs processeurs de shaders, un rastériseur et un ROP. Les processeurs de shaders envoient leurs résultats aux ROP et au rasteriseur dans le GPC, pas à ceux dans un autre GPC. Il y a donc une forme de distribution statique. entre processeurs de shaders et rastériseurs. Par contre, à l'intérieur d'un rastériserur, la distribution du travail sur les processeurs de shaders est plus flexible. [[File:Graphic card architecture with unified shaders.png|centre|vignette|upright=2.5|Graphic card architecture with unified shaders]] ==La répartition du travail pour les autres tâches que le rendu 3D== Plus haut, nous avions dit que rasteriseur et ''input assembler'' s'occupent de la répartition du travail sur les différents processeurs. Ils agissent sous la supervision du '''processeur de commande''' qui se charge de répartir le travail sur les différents circuits de la carte graphique. Il commande le rasteriseur, l'''input assembler'', les processeurs de ''shader'', et les autres circuits. Le processeur de commande est impliqué dans la répartition du travail de manière générale, mais s'occupe surtout du rendu 3D et 2D. Il y aura un chapitre spécialisé sur le fonctionnement du processeur de commande, qui parlera de son rôle en général. Outre le rendu 3D, les cartes graphiques modernes sont utilisées dans le calcul scientifique, pour accélérer les applications d'IA et bien d'autres. L'usage d'une carte graphique pour autre chose que le rendu 3D porte le nom de '''GPGPU''' (''General Processing GPU''). Le GPGPU est utilisé pour diverses tâches : calcul scientifique, tout ce qui implique des réseaux de neurones, imagerie médicale, etc. De manière générale, tout calcul faisant usage d'un grand nombre de calculs sur des matrices ou des vecteurs est concerné. En soi, le GPGPU est assez logique : une carte graphique est un monstre de puissance qu'il vaut mieux utiliser dès que possible. Bien que conçues spécifiquement avec le rendu 3D en tête, elles n'en restent pas moins des processeurs multicœurs SIMD/VLIW assez complexes et puissants, qu'on peut parfaitement utiliser en tant que processeur multicœur. Pour le GPGPU, la programmation est assez simple. L'idée est d'écrire des shaders qui font des calculs génériques, à savoir qu'ils ne travaillent pas sur des pixels ou des vertices provenant du rastériseur ou de l'''input assembler''. Les données manipulées par le shader sont simplement lues ou écrites en mémoire, directement, sans passer par le moindre circuit fixe. Les shaders deviennent alors des programmes comme les autres, les processeurs de shaders sont utilisés comme n'importe quel processeur SIMD normal. Reste à répartir le travail sur les différents processeurs de shaders. Il suffit de programmer un ''shader'' qui effectue le calcul voulu et de configurer le GPU en mode GPGPU. ===La répartition du travail en GPGPU n'est pas celle du mode graphique=== En mode GPGPU, le ''shader'' s'exécute directement, il n'y a pas de passage par le rasterizeur, les ROP ou l'''input assembler'', ou tout autre circuit fixe impliqué dans le rendu 3D. Il s'agit donc d'un mode différent du mode graphique. La répartition du travail en GPGPU et en mode graphique n'est pas du tout la même. Du point de vue du GPGPU, l'architecture d'une carte graphique récente est illustrée ci-dessous. Les processeurs/cœurs sont les rectangles en bleu/rouge, avec des unités de calcul SIMD en bleu et des unité de calcul pour les calculs complexes (trigonométriques, racines carrées, autres) en rouge. La hiérarchie mémoire est indiquée en vert. Le tout est alimenté par un processeur de commande spécialisé, le ''Thread Execution Control Unit'' en jaune, qui répartit les différentes instances des ''shader'' sur les différents processeurs. [[File:NVIDIA GPU Accelerator Block Diagram.png|centre|vignette|upright=2.5|Ce schéma illustre l'architecture d'un GPU en utilisant la terminologie NVIDIA. Comme on le voit, la carte graphique contient plusieurs cœurs de processeur distincts. Chacun d'entre eux contient plusieurs unités de calcul généralistes, appelées processeurs de threads, qui s'occupent de calculs simples (en bleu). D'autres calculs plus complexes sont pris en charge par une unité de calcul spécialisée (en rouge). Ces cœurs sont alimentés en instructions par le processeur de commandes, ici appelé ''Thread Execution Control Unit'', qui répartit les différents shaders sur chaque cœur. Enfin, on voit que chaque cœur a accès à une mémoire locale dédiée, en plus d'une mémoire vidéo partagée entre tous les cœurs.]] Les anciennes cartes graphiques se débrouillaient avec des processeurs de commande optimisés pour le rendu graphique, ce qui était sous-optimal. Mais de nos jours, les processeurs de commande se sont améliorés et sont capable de gérer des commandes de calcul génériques, qui n'utilisent que les processeurs de shaders et contournent les circuits fixes dédiés au rendu graphique. Un premier point important est que certaines cartes graphiques ont des processeurs de commande séparés pour le GPGPU et le mode graphique. Un exemple est celui de l'architecture GCN d'AMD, qui disposait d'un processeur de commande pour le mode graphique, avec plusieurs processeurs de commande spécifiques au GPGPU. Les processeurs de commande spécifique au GPGPU étaient appelés des ACE, et il y en avait 8, 16 ou 32 selon l'architecture, le nombre ayant augmenté au cours du temps. [[File:GCN command processing.svg|centre|vignette|upright=2|GCN command processing]] Les cartes graphiques modernes peuvent gérer un rendu 3D simultané avec des calculs GPGPU. Les deux ont lieu en même temps, dans des processeurs de shaders séparés. Mais pour ne pas se marcher sur les pieds, le GPU dispose de mécanismes compliqués de répartition, mais aussi de priorité. Sur les cartes graphiques avant l'architecture AMD RDNA 1, les tâches de GPGPU avaient la priorité sur le rendu graphique. Maintenant, les cartes AMD modernes gérent un système de priorité plus complexe. De plus, elles ont la possibilité de suspendre complétement l'exécution d'un shader pour passer à une tâche graphique/GPGPU, ou autre, histoire faire passer avant tout les calculs prioritaires. ===La répartition du travail pour le GPGPU=== En GPGPU, un ''shader'' s'exécute sur des regroupements de données bien connus des programmeurs : des tableaux. Les tableaux peuvent être de simples tableaux, des matrices ou tout autre tableau, peu importe. Le processeur envoie à la carte graphique un ensemble comprenant un ''shader'' à exécuter, ainsi que les données/tableaux à manipuler. Les tableaux ont une taille variable, mais sont presque toujours de très grande taille, au moins un millier d’éléments, parfois un bon million, si ce n'est plus. Il faut préciser que la terminologie du GPGPU est quelque peu trompeuse. Dans la terminologie GPGPU, un ''thread'' correspond à l'exécution d'un ''shader'' sur une seule donnée, un seul entier/flottant provenant du tableau. Beaucoup de monde s'imagine que les processeurs de ''shader'' exécutent des ''threads'', qui sont regroupés à l'exécution en ''warps'' par le matériel. Le regroupement fait que tous les ''threads'' s'exécutent de manière synchrone sur des données différentes, avec un ''program counter'' partagé par tous les ''threads''. Si on sait peu de choses sur la manière dont fonctionnent réellement les GPU modernes, ce n'est vraisemblablement pas ce qui se passe. Il est plus correct de dire qu'un GPU moderne est une sorte de processeur multicœurs amélioré, qui gère des tableaux/vecteurs de taille variable, mais les découpe en vecteurs de taille fixe à l'exécution et répartit le tout sur des processeurs SIMD. Le processus de répartition du travail est globalement le suivant. Le processeur de commande reçoit une commande de calcul, qui précise quel ''shader'' exécuter, et fournit l'adresse de plusieurs tableaux, ainsi que des informations sur le format des données (entières, flottantes, tableau en une ou deux dimensions, autres). Le processeur de commande se charge de découper le ou les tableaux en vecteurs de taille fixe, que le processeur peut gérer. Par exemple, si un processeur SIMD gère des vecteurs de 32 entiers/flottants, alors le tableau est découpé en morceaux de 32 entiers/flottants, et chaque processeur exécute une instance du ''shader'' sur des morceaux de cette taille. ===La répartition du travail telle que définie par CUDA=== Pour les GPU NVIDIA, le processus de découpage n'est pas très bien connu. Mais on peut en avoir une idée en regardant l'interface logicielle utilisée pour le GPGPU. Chez NVIDIA, celle-ci s'appelle CUDA et ses versions donnent une idée de comment le découpage s'effectue. Premièrement, les ''shaders'' sont appelés des ''kernels''. Les tableaux de taille variable sont appelés des '''''grids'''''. Les données individuelles sont appelées, de manière extrêmement trompeuse, des ''threads''. Rappelons qu'un ''thread'' est, pour simplifier, censé désigner un programme en cours d'exécution, pas des données entières/flottantes regroupées dans un tableau. Aussi, pour éviter toute confusion, je vais renommer les ''thraeds CUDA'' en '''scalaires'''. Les ''grids'' sont eux-même découpés en '''''thread blocks''''', qui contiennent entre 512 et 1024 données entières ou flottantes, 512 et 1024 scalaires. La taille, 512 ou 1024, dépend de la version de CUDA utilisée, elle-même liée au modèle de carte graphique utilisé. Plutôt que d'utiliser le terme ''thread blocks'', je vais parler de '''bloc de scalaires'''. Le bloc de scalaire est une portion d'un tableau, il correspond donc à un bloc de mémoire, à une suite d'adresse consécutives. Il a donc une adresse de départ. Chaque scalaire d'un bloc de scalaire a un indice qui permet de déterminer son adresse, qui est calculé par le processeur de commande. Le calcul de l'indice peut se faire de différentes manières, suivant que le tableau soit un tableau unidimensionnel (une suite de nombre) ou bidimensionnel( une matrice). CUDA gère les deux cas et les dernières cartes graphiques gèrent aussi des tableaux à trois dimensions. Le calcul de l'adresse d'un scalaire se fait en prenant l'adresse de départ du bloc de scalaire, et la combinant avec les indices. [[File:Block-thread.svg|centre|vignette|upright=2|Découpage des tableaux avec CUDA.]] Un bloc de scalaires s'exécute sur un processeur de ''shader'', qui est aussi appelé un '''''streaming multiprocessor''''' (terme encore une fois trompeur, vu qu'il s'agit d'un processeur unique, bien que multithreadé. Une fois lancé sur un processeur de ''shader'', il y reste définitivement : il ne peut pas migrer sur un autre processeur en cours d'exécution. Un processeur de ''shader'' peut exécuter plusieurs instances de ''shaders'' travaillant sur des bloc de scalaires différents. Dans le meilleur des cas, il peut traiter en parallèle environ 8 à 16 bloc de scalaires différents en même temps. [[File:Software-Perspective for thread block.jpg|centre|vignette|upright=2|Exécution des ''thread blocks'' sur les processeurs de ''shaders''.]] Le bloc de scalaires est découpé en vecteurs d'environ 32 éléments. Les vecteurs en question sont appelés des '''''warps''''' dans la terminologie NVIDIA/CUDA, des '''''wavefronts''''' dans la terminologie AMD. Ces termes sont aussi utilisés pour décrire non pas les données, les vecteurs, mais aussi l'instance du ''shader'' qui s'occupe de faire des calculs dessus. La terminologie est donc assez confuse. Un ''warp''/''wavefront'' est donc en réalité un ''thread'', un programme, une instance de ''shader'', qui manipule des vecteurs SIMD de 32 éléments. Il y a le même problème avec le terme bloc de scalaires, qui désigne aussi bien les données que les instances du ''shader'' qui les manipule. Cela fait en tout 16 à 32 vecteurs suivant la version de CUDA utilisée. Les 16 à 32 ''warps'' sont exécutés en même temps sur le processeur de ''shader'', via ''multithreading'' matériel. Un ''warp'' exécute des instructions SIMD sur des vecteurs de taille fixe, le processeur ne connait que des vecteurs et des ''warps/wavefronts'', il ne connait pas de ''shader'' qui travaille sur des données uniques non-SIMD. Le découpage en ''warps'' est encore une fois le fait du processeur de commande. Même le processeur de commande ne traite jamais de ''thread'' sur des données uniques non-SIMD, il gère des tableaux de taille variable. Pour résumer, plus un GPU contient de processeurs de ''shaders'', plus le nombre de blocs de scalaires qu'il peut traiter en même temps est important. Par contre, la taille des ''warps'' ne change pas trop et reste la même d'une génération sur l'autre. Cela ne signifie pas que la taille des vecteurs reste la même, mais elle est assez contrainte. {{NavChapitre | book=Les cartes graphiques | prev=Les processeurs de shaders | prevText=Les processeurs de shaders | next=La microarchitecture des processeurs de shaders | nextText=La microarchitecture des processeurs de shaders }} {{autocat}} eiqb9ccwrcr1yikxinw2nbtfwraka14 Wikilivres:Le Bistro/2025 4 82069 745934 745898 2025-07-04T18:34:21Z Matthius 11787 /* Propagande, prosélitisme, autopromotion, militanatisme, etc */ 745934 wikitext text/x-wiki <noinclude>{{Wikilivres:Le Bistro/En-tête}}</noinclude> == compléter les bons conseils pour un nouveau livre == bonjour wikilivre ! je refais un tour sur ce wiki depuis un sacré bout de temps. Je vois que certains noms sont toujours là :) wouah. J'ai entâmé un livre nouveau aka. [[La sécurité du citoyen dans son logement]] que je vais encore améliorer mais je me pose dejà quelques questions sur le process, et vu que [[Wikilivres/Créer un wikilivre]] est assez high level je préfère demander ici des conseils. J'aime à penser que si l'idée est pertinente le guide pourra évoluer rapidement. * '''AutoCat''': il est indiqué clairement dans le guide pour la page de garde du livre de mettre <code><nowiki>{{AutoCat}}</nowiki></code> en bas de page, mais est-ce conseillé également sur chaque page du livre ? ça a l'air de marcher et donc plutôt oui: & si oui on pourrait l'ajouter dans le guide ? * je ne sais pas quoi mettre dans `CDU item` : on peut peut être orienter vers une bonne page sur le comment remplir le template proposé sur la page de garde * '''navigation horizontale''': est-ce qu'un moyen universel permet de suivre les chapitres d'un livre ? ex. si je suis sur un chapitre et que je veux aller au suivant, soit je passe par la page parent, soit je passe par la catégorie. Mais je voudrai (mieux qu') un bouton "next" / "previous". Enfin voici l'idée. S'il y a des choses en template automatique, je suis preneur (peut être le guide aussi) (PS: je vois que la gestion du sommaire est automatisée au sein même d'un chapitre : génial :) ) :NB: à une certaines époque j'utilisais des templates propres au livre (ex. [[Modèle:Les félins]]) et je vois que certains livres ont repris l'idée.. * '''catégorie''' : que faut-il mettre exactement dans le contenu de la catégorie auto-générée pour le nouveau livre ? juste <code><nowiki>[[Catégorie:Livres par titre]]</nowiki></code> ? * '''livre modèle''' : avez-vous un livre "modèle" : c'est-à-dire un livre (probablement à succès & pas trop grand) qui serait particulièrement suivi par les habitués et sur lequel on retrouverai toutes les techniques les plus avancées pour bien rédiger un livre. Il apparaîtrait du coup en modèle dans le guide. qu'en pensez-vous ? [[Utilisateur:Boly38|Boly]] [[Discussion_Utilisateur:Boly38|♪]] 5 mars 2025 à 18:09 (CET) :Salut Boly :* Autocat : normalement, il ne se met que dans le modèle listant les chapitres du livre, inclus dans toutes les pages. Par exemple le modèle {{m|Programmation JavaFX}} est inclus comme ceci : <nowiki><noinclude>{{Programmation JavaFX}}</noinclude></nowiki>) dans tous les chapitres du livre [[Programmation JavaFX]]. :* [[Wikilivres:CDU]] : il y a un moteur de recherche pour trouver le classement, mais il n'est pas encore pleinement détaillé et parfois il faut créer les pages correspondantes à la CDU. J'utilise http://www.udcsummary.info/php/index.php?lang=fr pour ajouter les pages manquantes. Si tu trouves un ou plusieurs classement possibles, je peux me charger de créer les pages qui manquent. :* '''navigation horizontale''' : Fait automatiquement par l'inclusion du modèle dans toutes les pages. Voir par exemple : [[Programmation Java Swing/Introduction]]. Le modèle ajoute les liens suivant, précédent et une flèche au milieu pour déplier la liste complète des chapitres du livre. :Pour la catégorie, un petit descriptif, comme par exemple : <pre><nowiki> Catégorie recensant les pages du livre [[Programmation JavaFX]]. Pour discuter de la rédaction du livre c'est ici : [[Discussion:Programmation JavaFX]]. [[Catégorie:Java]] </nowiki></pre> :--&nbsp;◄&nbsp;[[Utilisateur:DavidL|'''D'''avid&nbsp;'''L''']]&nbsp;•&nbsp;[[Discussion Utilisateur:DavidL|discuter]]&nbsp;► 5 mars 2025 à 19:22 (CET) ::J'ai fait des clics magiques (dans l'historique des pages) pour remercier ; je ne sais pas où ça atteri mais bon. Le template sommaire avec navigation par page c'est exactement ce que je voulais : c'est top :) & merci aussi pour les illustrations ! David L au top ! ! [[Utilisateur:Boly38|Boly]] [[Discussion_Utilisateur:Boly38|♪]] 7 mars 2025 à 18:04 (CET) == Problème de cache sur la page d'accueil == Salut, Les utilisateurs anonymes voient toujours les mêmes livres sur la page d'accueil (pendant plusieurs mois) alors que les livres changent tous les jours pour les utilisateurs connectés. Il faudrait installer l'extension [[mw:Extension:MagicNoCache]] afin de pouvoir utiliser <nowiki>__NOC</nowiki>ACHE__ sur la page d'accueil. --&nbsp;◄&nbsp;[[Utilisateur:DavidL|'''D'''avid&nbsp;'''L''']]&nbsp;•&nbsp;[[Discussion Utilisateur:DavidL|discuter]]&nbsp;► 29 mars 2025 à 20:56 (CET) :Bonjour, bien reçu, j'ai créé un ticket pour voir déjà si on peut diminuer ce cache à 24h (sinon il faudra voter pour l'extension) : https://phabricator.wikimedia.org/T390674. [[Utilisateur:JackPotte|JackPotte]] ([[Discussion utilisateur:JackPotte|<span style="color:#FF6600">$</span>♠]]) 1 avril 2025 à 11:46 (CEST) ::Merci JackPotte. ::--&nbsp;◄&nbsp;[[Utilisateur:DavidL|'''D'''avid&nbsp;'''L''']]&nbsp;•&nbsp;[[Discussion Utilisateur:DavidL|discuter]]&nbsp;► 1 avril 2025 à 19:00 (CEST) :::Un problème similaire a été signalé en 2023 [[phabricator:T351573]], et en 2017 [[phabricator:T119366]] mais pas la moindre action de correction depuis toutes les années écoulées. Les problèmes des "petits" wiki ne sont pas écoutés. :::J'ai donc créé la page de vote pour installer l'extension : [[Wikilivres:Prise de décision/Installer l'extension MagicNoCache]]. :::--&nbsp;◄&nbsp;[[Utilisateur:DavidL|'''D'''avid&nbsp;'''L''']]&nbsp;•&nbsp;[[Discussion Utilisateur:DavidL|discuter]]&nbsp;► 1 avril 2025 à 19:48 (CEST) ::::{{Mention|Lionel Scheepmans}}, {{Mention|Fourmidable}} : un avis / un vote sur ce sujet ? --&nbsp;◄&nbsp;[[Utilisateur:DavidL|'''D'''avid&nbsp;'''L''']]&nbsp;•&nbsp;[[Discussion Utilisateur:DavidL|discuter]]&nbsp;► 12 mai 2025 à 20:04 (CEST) :::::Je viens de donner mon avis sur la page idoine, merci du rappel ! [[Utilisateur:Fourmidable|Fourmidable]] ([[Discussion utilisateur:Fourmidable|discussion]]) 13 mai 2025 à 11:00 (CEST) == Erreur d'affichage sur la page d'accueil == Bonjour tout le monde, Un petit message pour savoir où nous en sommes sur le problème d'affichage dans la page d'accueil (débordement des cadres de livres suggérés sur la boîte à outils des utilisateurs connectés). Wikilivresquement, [[Utilisateur:Fourmidable|Fourmidable]] ([[Discussion utilisateur:Fourmidable|discussion]]) 26 avril 2025 à 17:59 (CEST) :Salut Fourmidable, :J'ai tenté de trouver une solution pour cet habillage, mais il est tellement mal conçu que ça semble impossible. :C'est le seul habillage qui pose problème, pour plusieurs pages et pas seulement la page d'accueil. :La décision arbitraire d'imposer cet habillage sans consulter la communauté du projet est une aberration. :Le mieux serait de : :# créer un bug pour l'habillage Vector-2022 qui ne fonctionne plus dès qu'il y a le moindre code CSS, :# créer une demande de fonctionnalité pour que les administrateurs du projet puisse sélectionner l'habillage par défaut par projet choisi par décision communautaire, :Mais comme les "petits wikis" ne sont pas écoutés, ce serait inutile (voir les nombreux exemples de problèmes reportés spécifiques à fr.wikibooks dont aucun n'a jamais été résolu). :--&nbsp;◄&nbsp;[[Utilisateur:DavidL|'''D'''avid&nbsp;'''L''']]&nbsp;•&nbsp;[[Discussion Utilisateur:DavidL|discuter]]&nbsp;► 26 avril 2025 à 20:26 (CEST) ::Ok, en tout cas sache que je soutiens ta proposition ! [[Utilisateur:Fourmidable|Fourmidable]] ([[Discussion utilisateur:Fourmidable|discussion]]) 1 mai 2025 à 16:28 (CEST) == Matthius : le grand retour == Bonjour à tous, Quelqu'un veut-il bien m'aider à relire les [https://fr.wikibooks.org/w/index.php?title=Sp%C3%A9cial%3AContributions&target=Matthius&namespace=0&tagfilter=&newOnly=1&start=&end=&limit=50 nouveaux livres de Matthius] ? Il semble y avoir, une fois de plus, de graves problèmes de sourçage et des attaques (même déjà soulignées en 2023 !) contre "le libéralisme" et "la finance" avec des phrases obscures ; par exemple : * dans [[Conseils Chrétiens]] : "Le libéralisme empêche de voir la société. Alors on croit les films libéraux, faisant croire que l’individu fait la société, alors que c’est la société qui fait l’individu. En effet, notre ego est créé par notre famille." * dans [[Pourquoi un Dieu ?]] : "L'individualisme dû au libéralisme, de plus en plus prégnant, va par contre cacher de plus en plus notre sociabilité et notre créativité.", "le social-libéralisme ne sera que le moyen d'accéder au pouvoir par la voie opportune alors qu'on cachera le social au peuple, pour ne pas qu'il se comprenne. Le dirigeant social-libéral aura appris dans les écoles d'économie que les marchés c'est magique.", "désengager l'état, détruisant alors le développement donc la république", "La faille du libéralisme est la censure, censure permise par la pauvreté des esprits ayant peur des autres à cause de l'individualisme forcené. [...] Le libéralisme cherchera la censure pour empêcher qu'il y ait suffisamment d'esprits philosophes et créatifs s'intéressant à la politique.", "La finance croira alors qu'il faille installer une dictature pour liquider la population trop difficile à maîtriser. [...] il s'agit pour la finance de trouver de plus en plus d'illusions pour satisfaire la population" * dans [[Économie Enfants]] : le libéralisme a "rendu l’école non épanouissante par le manque de créativité, en disant que le pays ne peut plus se développer, à cause de la monnaie privée" et l'assertion non (mal ?) argumentée "Le libéralisme aboutit selon moi à l'abrutissement de l'individu, voire à la violence" * dans [[Devenir un Génie]] : "Ils sont ainsi devenus égoïstes, donc libéraux.", "le libéralisme peut apporter un manque de liberté, car c’est une doctrine et une idéologie orientée sur l'individu, individualisme cachant une société, allant alors vers la destruction du plus faible par une liberté sans limite.", "La finance a en fait tenté et tente de faire croire qu’elle s’occupe de notre liberté, alors qu’elle veut nous empêcher de nous émanciper." * dans [[Univers Vivant]] : "La finance veut que nous soyons des consommateurs alors que nous sommes des acteurs de la société.", "Pour les financiers la population pauvre doit souffrir de malnutrition.", la finance "devient alors autoritaire comme après la crise de 1929. Nous sommes à un moment crucial où nous pouvons remettre en cause l’idéologie scientiste aboutissant à nier la nature. Ainsi il y avait 1,7% de CO2 pendant le crétacé au lieu de 0,04 % en 2023." Notons que le dernier ouvrage en date, [[XXIe]], est particulièrement gratiné : * climatoscepticisme : "le GIEC aura causé une hécatombe de suicides pour un faux réchauffement de la terre" * théories du complot sur les résultats des élections occidentales : "Selon des journalistes de Sud Ouest diffusés sur Agora Vox qui ont récoltés les suffrages des élections de 2017 et qui ont suivi l’élection de 2022, Macron n’a pas été élu par les français. En réalité il est arrivé dernier des élections présidentielles de 2017.", "Emmanuel Macron avait des nuls médiatisés face à lui" * théories du complot sur la CIA et les démocrates américains : "les démocrates trichent sur les élections en 2021", "Les États-Unis sont partis d’Afghanistan pour préparer la guerre d’Ukraine" * biais prorusse : "la Russie entre en guerre contre l’Ukraine en février 2022, puisque l’Ukraine avait attaqué la Russie. Les médias occidentaux feront croire [...] que c’est la Russie qui attaque", "Vladimir Poutine est voulu par les russes, contrairement aux élus occidentaux. Les élections en Russie se déroulent suffisamment bien pour que la Russie soit considérée comme une démocratie." -- [[Utilisateur:Fourmidable|Fourmidable]] ([[Discussion utilisateur:Fourmidable|discussion]]) 11 mai 2025 à 17:24 (CEST) :J'ai lancé une série de [[Wikilivres:demandes de suppression|demandes de suppression]]. Je notifie les personnes ayant participé à l'[[Wikilivres:Demandes de suppression/2023|ancien débat (2023)]] : {{Mention|JackPotte}}, {{Mention|Lionel Scheepmans}} et {{Mention|DavidL}} pour info. [[Utilisateur:Fourmidable|Fourmidable]] ([[Discussion utilisateur:Fourmidable|discussion]]) 12 mai 2025 à 11:23 (CEST) ::Salut @[[Utilisateur:Fourmidable|Fourmidable]].. C'est bien que tu inspecte le contenu de Wikiversité à la recherche de contenu indésirable ou problématiques. Mais je vois dans le titre de ce sujet de discussion une forme de sarcasme et de condescendance qui ne me semble pas adapter à un projet collaboration où tout le monde est le bienvenu peu importe ses croyance et ses idée. De plus la première personne concernée, c'est à dire l'auteur, n'y est pas notifiée. ::Ensuite, il fauétait une fois se mettre d'accord sur le fait que la ligne éditoriale de Wikiversité est différente à celle de Wikipedia. Un recueil de cours et de travaux de recherche, ce n'est pas une encyclopédie. On en a déjà discuté. La neutralité de point de vue n'existe pas dans l'enseignement ni dans la recherche. ::Pour preuve, mon fils a un cours de religion dans SZ formation secondaire et il peut choisir entre différentes religion ou opter pour un cours de morale et de citoyenneté. À l'université, les orientation idéologique des enseignants son souvent bien connue. Et il est évident que l'enseignement dans une business school sera plus libérale qu'une fac de théologie. ::Dans le cadre des travaux de recherches, la Liberté d'expression doit être complète, l'auteur doit être libre d'y faire ses propre interprétations des faits et développant sa propre argumentation. Sans quoi, c'est plus de la recherche. ::Finalement, un support d'enseignement dans un projet collaboratif, n'est pas un projet de recherche. On ne parle pas en "je" dans un cours, on le fait dans une recherche. Or, l'usage du "Je" implique une certaine subjectivité. ::En conclusion, je ne vois pas ce nouvelle appel dans la forme et l'énergie qu'il se présente, comme quelque chose de très collaboratif. Et je n'ai pas envie de jouer à nouveau le médiateur dans ce redémarage d'une confrontation idéologique entre deux contributeurs incapable de collaborer dans la production de contenu de qualité. ::Plutôt que de faire du rameutage ici, je te proposeraient plutôt, selon tes disponibilités, de collaborer aux écrits des auteurs en discutant avec eux sur le page de discussions de leurs articles au sujet des améliorations possibles. Plutôt que de faire appel à la suppression de toute une page pour certains passages problématiques, une démarche collaboratif serait d'aider à la résolutions de ces problèmes, dans le but de ne pas perdre tout le reste de la page. [[User:Lionel Scheepmans|Lionel Scheepmans]] <sup><big>✉</big> [[User talk:Lionel Scheepmans|Contact]]</sup> <sub>Désolé pour ma [[w:dysorthographie|dysorthographie]], [[w:dyslexie|dyslexie]] et [[wikt:distraction|"dys"traction]].</sub> 12 mai 2025 à 13:20 (CEST) :::Tu as raison, je notifie aussi {{Mention|Matthius}} en espérant que cette fois son comportement soit plus constructif... Concernant les ouvrages qui sont moins problématiques, j'ai fait des demandes dans les pages de discussion idoines. Ici on a des ouvrages clairement complotistes et anti-science qui nuisent à la réputation de Wikilivres. (PS : Nous sommes sur Wikilivres, pas sur Wikiversité ;)) [[Utilisateur:Fourmidable|Fourmidable]] ([[Discussion utilisateur:Fourmidable|discussion]]) 12 mai 2025 à 13:21 (CEST) ::::Entre-nous @[[Utilisateur:Fourmidable|Fourmidable]], je ne trouve pas ton comportement plus constructif, ni collaboratif que le tien... [[User:Lionel Scheepmans|Lionel Scheepmans]] <sup><big>✉</big> [[User talk:Lionel Scheepmans|Contact]]</sup> <sub>Désolé pour ma [[w:dysorthographie|dysorthographie]], [[w:dyslexie|dyslexie]] et [[wikt:distraction|"dys"traction]].</sub> 12 mai 2025 à 13:24 (CEST) :::::À mes yeux et dans le cadre d'un projet collaboratif, commencer par une demande de suppression avant toute chose peut même être perçu comme violant. [[User:Lionel Scheepmans|Lionel Scheepmans]] <sup><big>✉</big> [[User talk:Lionel Scheepmans|Contact]]</sup> <sub>Désolé pour ma [[w:dysorthographie|dysorthographie]], [[w:dyslexie|dyslexie]] et [[wikt:distraction|"dys"traction]].</sub> 12 mai 2025 à 13:26 (CEST) ::::::Mon but n'est pas de faire une croisade pour le libéralisme ou le GIEC sur Wikilivres, mais il y a quand même des limites pour tenir la réputation du site et plus largement de la Wikimedia Foundation. Je te rejoins sur le fait que les auteurs ne doivent pas être libres d'écrire absolument tout ce qu'ils veulent, et aussi que la critique doit être constructive, mais ce n'est pas au créateur du livre d'être le seul arbitre de ce qui est raisonnable ou pas vis-à-vis de son travail (i.e. simple reformulation, suppression partielle ou totale...). Et en 2023 Matthius a montré un comportement très agressif vis-à-vis de mes critiques, ce qui a mené '''ensuite''' à des débats de suppression. Pour l'instant, je ne fais que soulever des phrases (souvent identiques à celles de 2023) que je trouve (de nouveau) hautement problématiques d'un point de vue scientifique (manque voire absence totale de sourçage), mais le passage par des demandes de suppression directement se justifie par une forme de récidive sur certaines affirmations auxquelles aucune amélioration n'a été apportée après critique. Tu m'accuses de rameutage, mais je ne fais que consulter la communauté dans son ensemble : ici pour une discussion globale, sur [[Wikilivres:Demandes de suppression]] pour un débat et un "vote" au cas par cas. [[Utilisateur:Fourmidable|Fourmidable]] ([[Discussion utilisateur:Fourmidable|discussion]]) 12 mai 2025 à 13:34 (CEST) :::::::Désolé aussia pour le côté péjoratif du terme rameutage. Parlons de notiffication c'est plis adéquat. :::::::Je réalise seulement que l'on est sur wikilivres et pas Wikiversité. Désolé sur mon smartphone ça ne saute pas aux yeux. Il faut donc recontextualiser tout ce que j'ai écrits précédement. Heureusement, historiquement Wikiversité est un sous projet de wikilivre. Les deux projet sont très proches dans leurs mission pédagogique et mode de fonctionnement. L'objet ici étant de produire des livres pédagogiques pour toute les tranches d'âges et pas uniquement des ouvrages qui doivent répondre à à des attentes scientifiques. Il apparait dans tes propos des thermes très wikipédien tel que le sourçage et la neutralité de point de vue. Je ne pense pas que cela doit s'appliquer ici. :::::::Ensuite Wikilivres est trop petit pour avoir un commuté d'arbitrage et je n'ai pas envie de parcourir les historiques à la recherche de qui a commencé. Mais je maintient l'idée que notifier des personnes vers un appel à suppression est une démarche que je considère symboliqueemnt violente et me semble aussi être une récidive. :::::::As-tu cherché à améliorer les texte en question en discutant avec l'auteur avant de proposer leurs suppression ? :::::::As-tu conscience que nous sommes ici dans un projet collaboratif, pluraliste et non universitaire ? [[User:Lionel Scheepmans|Lionel Scheepmans]] <sup><big>✉</big> [[User talk:Lionel Scheepmans|Contact]]</sup> <sub>Désolé pour ma [[w:dysorthographie|dysorthographie]], [[w:dyslexie|dyslexie]] et [[wikt:distraction|"dys"traction]].</sub> 12 mai 2025 à 15:02 (CEST) ::::::::Du reste, nous ne sommes pas ici pour répondre à des suposées attentes de la Fondation Wikimedia. Car le rôle de celle-ci est précisément de répondre aux notres. C'est le rôle d'une fondation. [[User:Lionel Scheepmans|Lionel Scheepmans]] <sup><big>✉</big> [[User talk:Lionel Scheepmans|Contact]]</sup> <sub>Désolé pour ma [[w:dysorthographie|dysorthographie]], [[w:dyslexie|dyslexie]] et [[wikt:distraction|"dys"traction]].</sub> 12 mai 2025 à 15:07 (CEST) :::::::::Bonjour, :::::::::Il faudrait avant tout classer les écrits de l'auteur, car il pourrait il y avoir un problème d'admissibilité, Wikilivres étant avant tout un projet de rédaction de livres '''pédagogiques'''. Ces écrits contiennent beaucoup d'avis personnels et présentent une vision sans discussion ni argumentation, sans apporter de pédagogie sur un sujet particulier. :::::::::Si on peut qualifier les écrits comme de la recherche, il vaudrait mieux les déplacer vers la wikiversité, où une communauté supplémentaire et plus expérimentée sur la recherche pourrait exprimer son avis sur le sujet ou sur comment améliorer/corriger les écrits de Matthius. :::::::::--&nbsp;◄&nbsp;[[Utilisateur:DavidL|'''D'''avid&nbsp;'''L''']]&nbsp;•&nbsp;[[Discussion Utilisateur:DavidL|discuter]]&nbsp;► 12 mai 2025 à 20:01 (CEST) ::::::::::Je plussoie {{Mention|DavidL}}. {{Mention|Lionel Scheepmans}} ce que tu dis s'applique aux cas où il y a une réelle démarche scientifique ou a minima une attitude collaborative de la part de l'auteur. Or : ::::::::::* premièrement (tu le sais sans doute, étant toi-même chercheur), les livres de Matthius sont très loin de toute méthode scientifique, c'est plutôt un ensemble d'assertions non sourcées qui font la promotion d'une idéologie (et on verse même dans l'antiscience avec les paragraphes sur le GIEC). On pourrait donner la parole à Matthius sur ce sujet mais je crains qu'il ne se définisse même pas lui-même comme scientifique ; ::::::::::* deuxièmement, avec cette série de recréations le 8 décembre dernier, sans attendre l'avis de la communauté, et avec les '''mêmes phrases''' problématiques (parfois à peine reformulées, souvent conservées à l'identique), je ne vois pas comment on pourrait supposer que Matthius fait preuve d'ouverture d'esprit et d'attitude collaborative. ::::::::::Bref, si vous voulez absolument garder tous ces ouvrages et essayer de composer tant bien que mal avec la pugnacité de leur auteur, ce sera sans moi... À mon avis, il serait nettement plus profitable de traduire les livrels de [[:en:Subject:Economics|Wikibooks en anglais sur l'économie]], par exemple. [[Utilisateur:Fourmidable|Fourmidable]] ([[Discussion utilisateur:Fourmidable|discussion]]) 13 mai 2025 à 11:07 (CEST) :::::::::::Je viens de prévenir Matthius par mail. [[Utilisateur:Fourmidable|Fourmidable]] ([[Discussion utilisateur:Fourmidable|discussion]]) 13 mai 2025 à 11:12 (CEST) ::::::::::::Tree bien. Moi aussi, je n'ai plus envie de consacrer du temps là dessus. Je vous laisse donc traiter la situation puisque votre avis est majoritaire. [[User:Lionel Scheepmans|Lionel Scheepmans]] <sup><big>✉</big> [[User talk:Lionel Scheepmans|Contact]]</sup> <sub>Désolé pour ma [[w:dysorthographie|dysorthographie]], [[w:dyslexie|dyslexie]] et [[wikt:distraction|"dys"traction]].</sub> 13 mai 2025 à 11:27 (CEST) :::::::::::Je ne comprends pas cette assertion. Je cite François Gervais contre le GIEC, qui a écrit pour le GIEC sans être entendu pour la conclusion. :::::::::::Je n'ai pas reformulé mes phrases à l'identique. J'ai soit indiqué la source contrairement à ce qui dit Fourmidable, soit indiqué que c'était mon point de vue ou émis une explication. Aussi quand je fais une assertion scientifique, j'en indique souvent la cause scientifique. Fourmidable a tendance à reprendre les phrases où je répète ce qui a été écrit avant pour aller plus loin. Donc il faut chercher dans mes livrels la phrase où je cite et où j'émets une hypothèse avec la cause scientifique. Je vais relire Fourmidable. :::::::::::Aussi j'ai trouvé sur l'[http://web.archive.org/web/20240810201141/https://www.google.com/search?q=mati%C3%A8re+temps+%C3%A2me âme qui ralentit la vitesse]. Je pense que Google utilise une IA pour détecter les limites de l'humain. Mon expérience de pensée va contre le matérialisme scientifique puisque j'émets l'hypothèse supérieure qu'il existe des multivers où des âmes agissent sur le nôtre. [[Utilisateur:Matthius|Matthius]] ([[Discussion utilisateur:Matthius|discussion]]) 13 mai 2025 à 11:36 (CEST) :::::::::::Je ne pense pas effectivement que mon livrel sur le XXIe va rester sur wikibooks puisque il va contre ce qu'indique wikipedia. J'espère juste qu'il puisse rester. :::::::::::Seulement j'ai une formation en ingénierie et j'ai trouvé sur [https://archive.org/details/TempsAme l'âme qui ralentit la vitesse] [[Utilisateur:Matthius|Matthius]] ([[Discussion utilisateur:Matthius|discussion]]) 13 mai 2025 à 12:13 (CEST) ::::::::::Vous admettez {{Mention|DavidL}} que vous ne connaissez pas les domaines que j'aborde. Mes livrels sont pédagogiques donc vous pouvez apprendre avec. Donc lisez les avant d'émettre l'hypothèse qu'ils ne le sont pas. J'ai créé le coaching sans coach qui a permis de revoir la pédagogie d'un journal d'un réseau international. Mais cela ne m'empêche pas d'aller contre le libéralisme et l'appât du gain qui sont selon moi les fléaux actuels. [[Utilisateur:Matthius|Matthius]] ([[Discussion utilisateur:Matthius|discussion]]) 13 mai 2025 à 12:06 (CEST) :::::::::::@[[Utilisateur:Matthius|Matthius]] semble ouvert au débat et à une aide pour améliorer ses textes. La suppression ne me semble donc pas une option souhaitable. Wikilivres est indépendant de Wikipédia. Il faut donc se référer à nos règles et recommandations locale disponible dans les espaces de noms "wikilivres" et "aide". Je vais essayer de prendre le temps d'écouter les textes avec une voix de synthèse pour gagner du temps. Cela me permettra d'en faire des commentaire en vue d'une amélioration. Car si ce sont des sources qui manques et bien il suffit de les ajouter. Nous sommes là pour travailler ensemble pour produire des ouvrages pédagogiques de qualité, pas pour juger du travail des autres en vue d'une suppression. Restons, s'il vous plait dans un esprit d'entraide et de collaboration. C'est tellement rare à notre époque... [[User:Lionel Scheepmans|Lionel Scheepmans]] <sup><big>✉</big> [[User talk:Lionel Scheepmans|Contact]]</sup> <sub>Désolé pour ma [[w:dysorthographie|dysorthographie]], [[w:dyslexie|dyslexie]] et [[wikt:distraction|"dys"traction]].</sub> 14 mai 2025 à 15:00 (CEST) :::::::::::Mon livrel sur le XXIe siècle en cours d'écriture va aussi contre les théories du complot occidentales. J'écris que la Russie et la Chine sont des démocraties, alors que nos médias disent que ce sont des dictatures. J'émets effectivement des hypothèses non sourcées dans ce nouveau livrel. Je peux et vais les sourcer. Par contre j'utiliserai des sources primaires. En réalité, j'émets l'hypothèse que ce sont nos médias qui sont dans la post-vérité et que ce ne sont pas les médias étatsuniens, ni russes, ni chinois qui y sont. Ce livrel est effectivement une bombe dangereuse contre nos médias comme l'indique Fourmidable. ::::::::::::Je ne comprends pas l'acharnement de Fourmidable à ne pas vouloir discuter avec moi et à vouloir automatiquement supprimer mes livrels sans discussion préalable. En effet il a eu un an pour m'indiquer comment améliorer mes livrels. Et que Fourmidable ne me dise pas que c'est moi qui ait commencé, puisque j'étais outré qu'on veuille supprimer mes livrels avec ses copains sans discussion pédagagogique au tout début. ::::::::::::Concernant la neutralité de wikipedia : wikipedia ne fait que révéler l'avis des médias financés donc il n'est pas neutre. Être neutre c'est révéler tous les points de vue, même ceux avec lesquels on n'est pas d'accord, ce que [https://archive.org/details/wikipediaCo-Fondateur fit wikipedia au début de son histoire] et ce pour quoi je me suis intéressé et ai été réprimé sauf pour wikibooks anglais qui m'a viré pour ne pas enlever mon nom. :{{Mention|Matthius}} Avez-vous l'intention de publier des livres scientifiques, c'est-à-dire sourcés par de la science publiée et évaluée par les pairs, et à défaut de grands médias nationaux et internationaux ? Vous pouvez aussi tester vos hypothèses mais votre travail ne doit pas consister à sélectionner les sources qui vous conviennent pour seulement valider votre théorie, en mettant de coté tout ce qui vous dérangerait dans cette entreprise. --[[Utilisateur:Fourmidable|Fourmidable]] ([[Discussion utilisateur:Fourmidable|discussion]]) 15 mai 2025 à 10:48 (CEST) ::@[[Utilisateur:Fourmidable|Fourmidable]], je pense que tu te fais une vision fausse du monde de l'édition. @[[Utilisateur:Matthius|Matthius]] peut payé une maison d'édition, dans le cadre d'une [[w:Édition_à_compte_d'auteur|édition à compte d'auteur]]. Probablement qu'il l'a déjà fait puisqu'il a déjà publié des ouvrages au format papier parmi ceux qu'il veut placer sur Wikilivres. Il en a même déposé certains dans une bibliothèque universitaire. Quant à la revue par les paires ne se fait que dans le cadre des journaux scientifique. ::J'ai écouté l'ouvrage [[Pourquoi un Dieu ?]] Et je trouve effectivement qu'il n'a pas sa place dans Wikilivres. Non pas parce qu'il critique le libéralisme avec des propos que je partage en grande partie, mais parce qu'il s'apparente plus à de la propagande chrétienne qu'à un réel ouvrage pédagogique sur le sujet. ::Matthius y est en posture de prédicateur et non de pédagogue. Je dirais que la moitié des phrases de l'ouvrage que j'ai écouté sont des affirmations sans argumentation ni démonstration valide. La thèse de son ouvrage se résume à dire que dieu est la seule chose qui peut expliquer un phénomène actuellement inexpliqué. Ce qui est une corrélation fallacieuse puisqu'il n'existe aucun lien de causalité. ::Pour moi, les ouvrages évangéliste ou propagandiste n'ont pas leur place dans Wikilivres et je serais d'avis d'ouvrir une prise de décision pour établir une règle d'interdiction. [[User:Lionel Scheepmans|Lionel Scheepmans]] <sup><big>✉</big> [[User talk:Lionel Scheepmans|Contact]]</sup> <sub>Désolé pour ma [[w:dysorthographie|dysorthographie]], [[w:dyslexie|dyslexie]] et [[wikt:distraction|"dys"traction]].</sub> 15 mai 2025 à 11:42 (CEST) :::Oui voilà, nous sommes d'accord. Peut-être que Matthius peut adopter une attitude plus scientifique, mais l'esprit de "pédagogie" s'accompagne forcément d'une démarche scientifique, sinon c'est de la prédication/propagande. [[Utilisateur:Fourmidable|Fourmidable]] ([[Discussion utilisateur:Fourmidable|discussion]]) 15 mai 2025 à 11:45 (CEST) ::::@[[Utilisateur:Fourmidable|Fourmidable]]... Wikilivres n'est pas une bibliothèque "scientifique" mais pédagogique. Tu sembles confondre les deux termes. Les livres pour enfants que contient Wikilivres ne sont pas "scientifique" tout en étant pédagogiques. ::::Un autre fait qui peut être reproché à @[[Utilisateur:Matthius|Matthius]] est son autopromotion, [[Wikilivres:Présentation#● Wikilivres n'est pas une vitrine|alors que la démarche proscrite sur Wikilivres]]. ::::Plutôt que de supprimer l'important travail effectué par Matthius, je propose à nouveau de le déplacer en sous page de son espace utilisateur pour qu'il puisse retravailler ses écrits. ::::Pour un retour dans l'espace principale, il faudrait au préalable qu'il supprime des ses travaux toute forme d'autopromotion et toute forme propagande, prosélytisme ou autre type de discours prédicateur. Ceci notamment en référence aux choix politiques [https://www.senat.fr/leg/ppl17-386.html français], [https://www.rtbf.be/article/le-proselytisme-religieux-ou-politique-n-a-pas-sa-place-a-l-ecole-quels-chiffres-derriere-ce-phenomene-pointe-par-la-ministre-de-l-education-11477234 belge], [https://www.assnat.qc.ca/fr/travaux-parlementaires/projets-loi/projet-loi-94-43-1.html Quebec], [https://ge.ch/grandconseil/data/loisvotee/L11764.pdf suisse]. Quatres communautés culturelles très largement majoritaire dans l'espace francophone des projets Wikimédia. ::::J'invite Matthius et les autres membres de notre communauté réagir à ce message et de discuter du lancement d'une nouvelle prise de décision pour interdire la propagande et le prosélytisme dans Wikilivres. [[User:Lionel Scheepmans|Lionel Scheepmans]] <sup><big>✉</big> [[User talk:Lionel Scheepmans|Contact]]</sup> <sub>Désolé pour ma [[w:dysorthographie|dysorthographie]], [[w:dyslexie|dyslexie]] et [[wikt:distraction|"dys"traction]].</sub> 15 mai 2025 à 12:21 (CEST) :::::Ce que je veux dire, c'est qu'un bon livre pédagogique s'appuie forcément sur des connaissances scientifiques. Ok pour un redéplacement. [[Utilisateur:Fourmidable|Fourmidable]] ([[Discussion utilisateur:Fourmidable|discussion]]) 15 mai 2025 à 12:37 (CEST) ::::::Ne fais pas à ton tour du prosélytisme scientifique @[[Utilisateur:Fourmidable|Fourmidable]]. La science et les connaissances dites scientifiques comme tu les entends n'est pas la seule chose sur laquelle on peut s'appuyer pour produire un contenu pédagogique. ::::::Que fais-tu de la méditation, de l'humour, de la poésie, de la musique, du dessin, et toute autre expression artistique ? ::::::Et il existe aussi un tas d'ouvrages pédagogique religieux (pour le catéchisme entre autre), sauf que, comme la plupart des législations nationales des pays francophones occidentaux, je pense qu'ils n'ont pas leur place dans Wikilivres. Ce sur quoi nous devons nous positionner dans une prise de décision collective. [[User:Lionel Scheepmans|Lionel Scheepmans]] <sup><big>✉</big> [[User talk:Lionel Scheepmans|Contact]]</sup> <sub>Désolé pour ma [[w:dysorthographie|dysorthographie]], [[w:dyslexie|dyslexie]] et [[wikt:distraction|"dys"traction]].</sub> 15 mai 2025 à 12:52 (CEST) :::::::Ah oui, dans ce sens-là il y a en effet moins de science à proprement parler… Mais je ne suis pas sûr que cela s'applique aux propos politiques. Ça ne me viendrait pas à l'idée de faire un Wikilivre afin de convertir les gens au libéralisme, par exemple. C'est le rôle d'autres wikis ou sites web spécialisés. [[Utilisateur:Fourmidable|Fourmidable]] ([[Discussion utilisateur:Fourmidable|discussion]]) 15 mai 2025 à 14:44 (CEST) :::Je vais supprimer Du même Auteur et Du même éditeur de mes wikilivres. [[Utilisateur:Matthius|Matthius]] ([[Discussion utilisateur:Matthius|discussion]]) 15 mai 2025 à 12:32 (CEST) ::::Si vous voulez, mais c'est loin d'être le point principal. [[Utilisateur:Fourmidable|Fourmidable]] ([[Discussion utilisateur:Fourmidable|discussion]]) 15 mai 2025 à 12:38 (CEST) :::::Effectivement @[[Utilisateur:Matthius|Matthius]], c'est une bonne résolution, mais il reste le prosélytisme à résoudre et je pense que cela demande beaucoup de travail à réaliser dans votre espace de travail personnel. [[User:Lionel Scheepmans|Lionel Scheepmans]] <sup><big>✉</big> [[User talk:Lionel Scheepmans|Contact]]</sup> <sub>Désolé pour ma [[w:dysorthographie|dysorthographie]], [[w:dyslexie|dyslexie]] et [[wikt:distraction|"dys"traction]].</sub> 15 mai 2025 à 12:55 (CEST) ::::::Vous mettiez que seul Pourquoi un Dieu est prosélyte. J'avais effectivement un doute en ajoutant ce livrel. [[Utilisateur:Matthius|Matthius]] ([[Discussion utilisateur:Matthius|discussion]]) 15 mai 2025 à 19:43 (CEST) :::::::Je n'ai pas encore eu le temps d'écouter les autres livres @[[Utilisateur:Matthius|Matthius]] . Nous somme tous bénévoles ici. Cela peut prendre du temps, mais je vous invite déjà à déplacer vous-même le livre ''Pourquoi un Dieu'' dans vos sous page utilisateur''.'' :::::::Par anticipation, je peux déjà dire que tous les autres ouvrages faisant la publicité de vos écris doit être modifier ou retirer de l'espace principale ainsi que tous ceux qui font référence à Dieu ou au catholicisme de manière prosélyte. :::::::Seul le nom des auteurs devrais être repris dans les livre avec éventuellement des hyperliens vers leurs pages utilisateur qu'il sont libre d'éditer comme il veulent. :::::::On peut ensuite créer des pages catégories qui reprennent tous les travaux des auteurs, avec l'avantage qu'elle se complétent automatiquement à chaque fois que l'on ajoute une catégorie en bas de page d'un ouvrage. Vous trouverrez certainement des indication dans les pages d'aide. :::::::Je vous rassure sur le fait que ce traitement serait semblable pour un politicien libéral faisant la publicité de son parti, de ses idéologies et de sa personne. N'hésitez pas d'ailleurs à parcourir les autres wikilives pour y détecter ce genre de problème avant de nous le signaler. C'est ce que fait @[[Utilisateur:Fourmidable|Fourmidable]] en cherchant à veiller sur la qualité et la conformité de notre projet. Une belle fin de journée ! [[User:Lionel Scheepmans|Lionel Scheepmans]] <sup><big>✉</big> [[User talk:Lionel Scheepmans|Contact]]</sup> <sub>Désolé pour ma [[w:dysorthographie|dysorthographie]], [[w:dyslexie|dyslexie]] et [[wikt:distraction|"dys"traction]].</sub> 16 mai 2025 à 11:41 (CEST) ::::::::Pour info, je confirme et soutiens tout ce que propose {{Mention|Lionel Scheepmans}} dans son dernier message (merci à lui). [[Utilisateur:Fourmidable|Fourmidable]] ([[Discussion utilisateur:Fourmidable|discussion]]) 16 mai 2025 à 12:01 (CEST) ::::::::Pourquoi a Dieu a été mis à jour dans mon espace personnel. Je ne sais pas comment effacer une page wikibooks.--[[Utilisateur:Matthius|Matthius]] ([[Discussion utilisateur:Matthius|discussion]]) 16 mai 2025 à 12:24 (CEST) :::::::::@[[Utilisateur:Matthius|Matthius]]. Je ne comprends pas ce que vous dite. [[User:Lionel Scheepmans|Lionel Scheepmans]] <sup><big>✉</big> [[User talk:Lionel Scheepmans|Contact]]</sup> <sub>Désolé pour ma [[w:dysorthographie|dysorthographie]], [[w:dyslexie|dyslexie]] et [[wikt:distraction|"dys"traction]].</sub> 16 mai 2025 à 15:16 (CEST) ::::::::::J'ai copié-collé Pourquoi un Dieu dans ma page personnelle. [[Utilisateur:Matthius|Matthius]] ([[Discussion utilisateur:Matthius|discussion]]) 16 mai 2025 à 21:36 (CEST) :::::::::::Ah très bien @[[Utilisateur:Matthius|Matthius]]. Mais en fait, il est possible de déplacer les pages en les renomant. Cela permet de conserver tout l'historique de l'édition. Je vais le faire quand je serai sur PC. [[User:Lionel Scheepmans|Lionel Scheepmans]] <sup><big>✉</big> [[User talk:Lionel Scheepmans|Contact]]</sup> <sub>Désolé pour ma [[w:dysorthographie|dysorthographie]], [[w:dyslexie|dyslexie]] et [[wikt:distraction|"dys"traction]].</sub> 17 mai 2025 à 03:34 (CEST) ::::::::::::Ne le faites pas : L'original de l'historique est sur mon espace perso. [[Utilisateur:Matthius|Matthius]] ([[Discussion utilisateur:Matthius|discussion]]) 17 mai 2025 à 09:30 (CEST) :::::::::::::@[[Utilisateur:Matthius|Matthius]], j'ai écouté l'ouvrage Économie enfant. Si j'étais à la tête d'une maison d'édition, je ne publierais pas ce manuscrit. Il y a des passages très intéressants avec des idées originales que je partage, mais aucune argumentation pour les valider. Pour le reste, on retrouve un copié collé du précédent ouvrage. Beaucoup d'information factuelle sans réelle contextualisation ni fil conducteur et puis de nombreuses affirmations gratuites qui ne sont finalement que des opinions très relatives et de nouveau non argumentées. :::::::::::::Le pire étant que certaine de ces affirmations son tout simplement fausses ou inscensées. :::::::::::::Exemples d'une phrase : :::::::::::::« Écrire sur ce que vous comprenez de l’archéologie, qui est l’humanité avant l’écriture. » :::::::::::::Cette phrase est erronée et n'a même aucun sens. L'archéologie n'est pas l'humanité, mais un domaine des sciences créé par les humains. Ensuite, l'archéologie n'est pas quelque chose qui se limite à avant l'écriture. Il existe des nombreux sites archéologiques qui fouillent les vestiges de la Rome antique. Une civilisation qui n'était pas dénuée d'écriture. :::::::::::::Exemple d'un paragraphe : :::::::::::::« Le [[w:Capital|capital]] de l’humanité peut donc être la Terre. En effet, l'argent est produit à partir du papier venant du bois. Les trafiquants ont toujours voulu se l'approprier. Le capital pourrait donc ne pas être l’argent. Le troc nécessite cependant un patrimoine conséquent. La Chine veut s’approprier le capital Lune, pour y prendre l’Helium 3 selon Solidarité et Progrès, seule ressource lunaire qu'il est intéressant de transporter, afin de le fusionner, pour en obtenir de l’énergie illimitée, favorisant la créativité par le surplus de biens. » :::::::::::::Ce paragraphe est incompréhensible et citer un parti politique (à d'autres reprises aussi dans l'ouvrage) comme source pour poser une affirmation, pose deux gros problèmes. 1 celui de faire la publicité d'une idéologie au sein d'un écrit pédagogique, 2 celui de ne pas respecter un des principes de base de l'écriture scientifique alors que le livre en parle et la défend. :::::::::::::Je n'irai pas plus loin dans les exemples. :::::::::::::Dans leurs états actuels et pour que ces livres travaux d'écritures soient admissibles dans Wikilivres. Je pense que vous devez impérativement supprimer : :::::::::::::* toute promotion personnelle. :::::::::::::* toute forme de Prosélytisme religieux. :::::::::::::* toute forme de publicité ou contre publicité politique et partisane :::::::::::::* toute affirmation fausse et autres types de fabulations. :::::::::::::* tout raisonnement ou démonstration sans lien de causalité. :::::::::::::Suite à quoi, il faudrait encore dans l'idéal en améliorer le style de sorte à y développer un fil conducteur qui permettrait aux lecteurs de suivre un développement ordonné propice à l'apprentissage, et non leur soumettre un journal de réflexions personnelles, reprenant des erreurs factuelles et logiques. :::::::::::::C'est un travail conséquent. :::::::::::::Et en ce qui concerne le prosélytisme, les approches politiques partisanes, il est impératif, y compris les sous page de votre page utilisateur. :::::::::::::Il y a des idées intéressantes dans vos écrits, et je partage pas mal de vos points de vue concernant la question du néolibéralisme. Mais Wikilivres n'est pas une tribune d'opinion à l'image d'AgoraVox. Nous sommes ici pour produire des ouvrages pédagogiques. Pas pour influencer nos lecteurs en faveurs ou à l'encontre de certaines religions ou idéologies. :::::::::::::Tout en l'encourageant à le faire de manière plus courtoise et constructive, je remercie donc @[[Utilisateur:Fourmidable|Fourmidable]] de nous avoir alerté sur l'incompatibilité de vos ouvrages avec notre projet. Dans tous les cas ceux que j'ai écoutés jusqu'à présent. :::::::::::::J'aimerais à votre tour vous encourager à poursuivre vos travaux d'écriture en cherchant à vous rapprocher de notre objectif tout en respectant nos règles et recommandations. Mais sachez aussi que vous pouvez aussi améliorer l'article de Wikipédia sur l'[[w:Économie_réelle|économie réelle]]. Ou aussi développer une leçon sur Wikiversité sur le même sujet dans la [[v:Faculté:Économie|Faculté d'Économie]]. C'est un sujet intéressant qui permet de mettre en lumières les limites de la [[w:Finance|finance]]. :::::::::::::Ces deux activités seraient moins ambitieuses que de vouloir produire un livre de qualité pour expliquer l'économie aux enfants. Cela demande une grande maîtrise du sujet en plus d'un certain don pour la vulgarisation. :::::::::::::Il me reste deux ouvrages proposés à la suppression à écouter, mais j'ai bien peur d'y retrouver les mêmes incompatibilités que celles que je viens d'expliquer à l'instant. :::::::::::::Bien cordialement, [[User:Lionel Scheepmans|Lionel Scheepmans]] <sup><big>✉</big> [[User talk:Lionel Scheepmans|Contact]]</sup> <sub>Désolé pour ma [[w:dysorthographie|dysorthographie]], [[w:dyslexie|dyslexie]] et [[wikt:distraction|"dys"traction]].</sub> 26 mai 2025 à 21:16 (CEST) :::::::::::::Mon correcteur orhtographique ne fonctionnant pas pour des commentaires aussi long, le message que je viens de laisser est truflé de fautes et je n'ai pas le temps ni le courrage de les corriger. Encore une fois, le travail que je fournis sur ce projet est tout à fait bénévole. [[User:Lionel Scheepmans|Lionel Scheepmans]] <sup><big>✉</big> [[User talk:Lionel Scheepmans|Contact]]</sup> <sub>Désolé pour ma [[w:dysorthographie|dysorthographie]], [[w:dyslexie|dyslexie]] et [[wikt:distraction|"dys"traction]].</sub> 26 mai 2025 à 21:21 (CEST) ::::::::::::::J'ai passé beaucoup de temps à élaborer le coaching sans coach. Ce n'est naturel pour aucun ancien élève de simplifier. Je ne sais pas combien de fois j'ai relu Comment Écrire des Histoires. J'ai toujours beaucoup de temps devant moi pour revoir mes livrels.--[[Utilisateur:Matthius|Matthius]] ([[Discussion utilisateur:Matthius|discussion]]) 28 mai 2025 à 10:51 (CEST) :::::::::::::::@[[Utilisateur:Matthius|Matthius]], c'est précisément parce que vous travailler beaucoup et que vous Me semblez de bonne foi et volonté, que je passe autant de temps à vous aiidez. Tous vos textes comprends des problèmes qu'il faut résoudre. Vous devriez commencer par supprimer tout ce qui fait référence à vous, à la religion et au politique, pour ne garder que des faits et affirmations vérifiées par des sources sûres et non partisannes, à chaque fois pour vous assurez que vous n'être pas simplement en train de diffuser ou colporter une opinion fausse et/ou partisane. Ce qui vient d'être dit est incontournable. :::::::::::::::Je penses ensuite qu'indique messages auxquelles ont été écrites vos sections sont superflues dans le cadre d'un ouvrage pédagogique. La chronologie de vos écrits n'est pas un bon un fil conducteur. Encore une fois, Wikilivres n'est pas un lieu pour publier ses mémoires ou ses réélections du jour. Il existe le format blog pour ce genre de choses. :::::::::::::::Tennez compte aussi que nous ne disposons pas forcément d'autant de temps et de motivation que pour revoir vos livres. Raison pour laquelle, des méthodes plus expéditives telles que la suppression complète des pages inadaptées à notre projet finiront par être appliquées. [[User:Lionel Scheepmans|Lionel Scheepmans]] <sup><big>✉</big> [[User talk:Lionel Scheepmans|Contact]]</sup> <sub>Désolé pour ma [[w:dysorthographie|dysorthographie]], [[w:dyslexie|dyslexie]] et [[wikt:distraction|"dys"traction]].</sub> 28 mai 2025 à 13:18 (CEST) ::::::::::::::::Le livrel le plus important pour moi est l'économie pour les enfants, vient ensuite devenir un génie. L'Univers est Vivant a été référencé sur les moteurs de recherche récemment parce que j'ai trouvé sur l'âme qui ralentit la vitesse. Quand on cherche matière temps âme sur les moteurs de recherche occidentaux on tombe sur ma page archive.org/details/TempsAme. Il n'y a toujours pas de chercheur qui a publié sur la mathématisation de ma trouvaille. L'univers est vivant est une amélioration d'un autre livre. [[Utilisateur:Matthius|Matthius]] ([[Discussion utilisateur:Matthius|discussion]]) 28 mai 2025 à 13:56 (CEST) ::::::::::::::::Je viens de mettre mon [http://matthieu.giroux.free.fr/html/cv.htm CV] à jour pour montrer ce que j'ai influencé. [[Utilisateur:Matthius|Matthius]] ([[Discussion utilisateur:Matthius|discussion]]) 28 mai 2025 à 14:05 (CEST) ::::::::::::::::C'est moi qui ai diffusé le terme économie réelle. Je reproche à ceux qui l'ont utilisé d'être des économistes scolaires, c'est à dire de se référer à l'économie monétaire pour parler d'économie réelle. Je peux cependant mettre un historique de cette économie sur la page wikipedia. Je me demande juste s'il va rester. [[Utilisateur:Matthius|Matthius]] ([[Discussion utilisateur:Matthius|discussion]]) 28 mai 2025 à 14:08 (CEST) :::::::::::::::::Je suis désolé @[[Utilisateur:Matthius|Matthius]]. Je ne vais pas poursuivre nos conversations faute d'en avoir envie. Vous ma laissez sur cette impression que votre motivation première est de promouvoir votre personne, vos valeurs et vos idées. Je vais donc arrêter de vous consacrer du temps. Je suis ici pour soutenir et développer les projets et intérêts collectifs et non individuels. Bonne chance pour vos ambitions que je vous invite à réaliser en dehors des projets Wikipédia. [[User:Lionel Scheepmans|Lionel Scheepmans]] <sup><big>✉</big> [[User talk:Lionel Scheepmans|Contact]]</sup> <sub>Désolé pour ma [[w:dysorthographie|dysorthographie]], [[w:dyslexie|dyslexie]] et [[wikt:distraction|"dys"traction]].</sub> 28 mai 2025 à 15:00 (CEST) ::::::::::::::::::Mon projet relève de l'intérêt général de faire connaître l'économie du XIX{{e}} siècle de [[Henry Charles Carey]]. Mon égoïsme peut donc être aussi le vôtre. Pour moi il faut être intelligent et égoïste pour défendre l'intérêt général. Je pense qu'on peut tous avoir l'air de génies comme les enfants peuvent avoir l'air de génies. Oui, je suis militant et veux faire partager la joie de la politique. [[Utilisateur:Matthius|Matthius]] ([[Discussion utilisateur:Matthius|discussion]]) 28 mai 2025 à 15:55 (CEST) :::::::::::::::::::Nous ne sommes donc pas sur la même longueur d'onde. Je vois invite à ne pas faire de militantisme sur les projets wikimedia. Il y a d'autres endois pour le faire. La blogosphère, des tribune comme agoravox, et de nombreux sites web tenus par des communautés militantes et reliée aux valeurs et idées pour lesquelles vous militer. Ceci est mon dernier message à ce sujet. Cordialement. [[User:Lionel Scheepmans|Lionel Scheepmans]] <sup><big>✉</big> [[User talk:Lionel Scheepmans|Contact]]</sup> <sub>Désolé pour ma [[w:dysorthographie|dysorthographie]], [[w:dyslexie|dyslexie]] et [[wikt:distraction|"dys"traction]].</sub> 28 mai 2025 à 16:18 (CEST) ::::::::::::::::::::Je vous mets au défi de penser que les wikipédiens ne sont pas des militants. Eux veulent aussi défendre l'intérêt général en apportant la connaissance. Par contre ils ne ciblent pas leurs apports. [[Utilisateur:Matthius|Matthius]] ([[Discussion utilisateur:Matthius|discussion]]) 28 mai 2025 à 17:10 (CEST) ::::::::::::::::::::Comme prévu, on me dit que mon [https://fr.wikipedia.org/wiki/%C3%89conomie_r%C3%A9elle#Histoire ajout sur l'économie réelle] est inédit. Je pense que vous vous êtes intéressé à certains de mes écrits parce qu'ils vous apportaient des réponses. Je peux faire cela sur wikibooks. Seulement c'est encore plus difficile sur wikipedia. Je ne suis pas théseux. Oui l'économie réelle a été créée pour faire connaître l'économie physique de Lyndon Larouche. [[Utilisateur:Matthius|Matthius]] ([[Discussion utilisateur:Matthius|discussion]]) 30 mai 2025 à 17:15 (CEST) :::::::::::::::::::::Merci quand même ! [[Utilisateur:Matthius|Matthius]] ([[Discussion utilisateur:Matthius|discussion]]) 31 mai 2025 à 00:24 (CEST) :Mon livrel l'univers est vivant [https://www.agoravox.tv/actualites/technologies/article/et-si-la-physique-quantique-avait-105532 a eu un impact]. Je pense aussi avoir influencé les jeunes qui se sont tournés vers la bible. == [Recherche universitaire] Questionnaire sur la gouvernance Wikimedia == Bonjour à toutes et à tous, Dans le cadre d’un mémoire de recherche sur les modèles de gouvernance décentralisés dans les communs numériques, je mène une étude analysant le mouvement Wikimedia. L’objectif est de mieux comprendre la perception qu’ont les contributeurs et contributrices des projets Wikimedia (Wikilivres, Wikipédia, Wikidata, Commons, etc.) de la Fondation Wikimedia, de ses décisions, et des relations avec les chapters locaux (ex. Wikimédia France). Un questionnaire anonyme, rapide à remplir (environ 5 minutes), a été conçu à cet effet. Il s’adresse à toute personne majeure ayant déjà contribué à un projet Wikimedia, quelle que soit l’ancienneté ou le niveau d’implication. Lien vers le questionnaire : framaforms.org/questionnaire-communaute-wikipedienne-et-la-wikimedia-fondation-1747225404 '''Important''' : Les résultats seront utilisés uniquement dans un cadre académique. L'enquête, ainsi que l'étude, ne sont ni commandités ni supervisés par la Fondation ou aucun chapitre local. Il s'agit simplement d'un projet scolaire que je mène {{sourire}}. Merci d’avance pour votre participation ! [[Utilisateur:3(MG)²|3(MG)²]] ([[Discussion utilisateur:3(MG)²|discussion]]) 27 mai 2025 à 10:43 (CEST) :J'ai répondu. Bon courage pour ton mémoire ! (Ça me fait penser que je dois avancer sur le mien aussi...) [[Utilisateur:Fourmidable|Fourmidable]] ([[Discussion utilisateur:Fourmidable|discussion]]) 29 mai 2025 à 23:28 (CEST) == Propagande, prosélitisme, autopromotion, militanatisme, etc == Bonjours à la communauté des contributeurs de Wikilivres. Je me dit qu'il serait bon de faire une nouvelle prise de décision pour mieux cadrer le contenu de notre projet par rapport à ce qui se situebdans le titre de ce message. Qu'en pensez-vous ? [[User:Lionel Scheepmans|Lionel Scheepmans]] <sup><big>✉</big> [[User talk:Lionel Scheepmans|Contact]]</sup> <sub>Désolé pour ma [[w:dysorthographie|dysorthographie]], [[w:dyslexie|dyslexie]] et [[wikt:distraction|"dys"traction]].</sub> 28 mai 2025 à 16:22 (CEST) :Totalement {{Pour}} ! [[Utilisateur:Fourmidable|Fourmidable]] ([[Discussion utilisateur:Fourmidable|discussion]]) 29 mai 2025 à 21:53 (CEST) :L'économie financière peut être considérée comme une propagande puisque son utilisation ne permet pas de lier la macro-économie et la micro-économie, ne permettant donc pas de développer une société comme le fait l'[https://fr.wikipedia.org/wiki/%C3%89conomie_r%C3%A9elle économie réelle]. Par contre, l'économie réelle aurait pu être considérée comme une propagande tant qu'elle ne permettait pas de faire mieux que l'économie financière. :Si on considère le prosélytisme comme convaincre de rejoindre sa communauté, il faudrait donc enlever tous les wikilivres qui sont beaucoup lus, puisque les wikilivres qui sont peu lus n'arrivent pas à convaincre. Je pense que mon livrel l'[https://fr.wikibooks.org/wiki/Utilisateur:Matthius/%C3%89conomie_Enfants économie pour les enfants] arrive à convaincre, malgré quelques défauts qu'on peut régler. Je pense que c'est pour cela qu'il a été ajouté pour suppression pour ne laisser que l'économie financière. Oui, le livre parle de Dieu, mais les [https://www.agoravox.tv/actualites/technologies/article/interviews-avec-le-physicien-yves-105950 scientifiques aussi]. Le livre a été effacé, mais corrigé puis remis avant d'être de nouveau déclassé malgré de nouvelles corrections suite aux critiques. Heureusement que [[User:Lionel Scheepmans|Lionel Scheepmans]] m'a permis de garder les images. :L'autopromotion permet malgré tout de connaître ce que fait l'auteur d'un wikilivre. Si on enlève le chemin qu'a suivi l'auteur, on évacuerait ainsi ses contradictions et on pourrait donc faire dire à un auteur l'inverse de ce qu'il a compris au bout de son parcours. Je suis pour qu'il y ait une page de l'auteur regroupant les livrels de l'auteur comme sur wikisource. :Je considère ceux qui contribuent à wikipedia et à wikibooks comme des militants, puisqu'ils essaient d'influencer les autres avec ce qu'ils écrivent sur ces sites web. Certes, certains travaux peuvent être désintéressés, mais alors pourquoi mettre ces travaux sur ces sites web alors. En effet le manque de passion crée des textes soporifiques. [[Utilisateur:Matthius|Matthius]] ([[Discussion utilisateur:Matthius|discussion]]) 3 juillet 2025 à 22:36 (CEST) ::Pas de propagande dans les projet wikimedia, au même titre que la publicité commerciale, pas de prosélytisme religieux ou politique, quand à la présentation des auteurs, il y a un espace de nom complet qui y est dédié. Chaque éditeur est libre de se présenter en détails sur sa page utilisateur, comme je ne me gêne pas de le faire moi- même. ::Je fatigue de répondre à vos messages. Il existe plein d'endroits sur le net qui répondent à vos attentes. Faite ce que vous voulez faire là-bas et ne venez ici qu'en respectant les choix de nos communautés. Sans quoi, votre comportement devient harcelant. Je pense être une exception en matière de patience dans l'écosystème wikimedia, mais faut pas abuser. ::Est-ce que vous comprenez @[[Utilisateur:Matthius|Matthius]] ? [[User:Lionel Scheepmans|Lionel Scheepmans]] <sup><big>✉</big> [[User talk:Lionel Scheepmans|Contact]]</sup> <sub>Désolé pour ma [[w:dysorthographie|dysorthographie]], [[w:dyslexie|dyslexie]] et [[wikt:distraction|"dys"traction]].</sub> 4 juillet 2025 à 00:47 (CEST) :::agoravox.tv n'a que 2000 lecteurs réguliers, qui sont certes des politiciens. J'interviens sur RCF et les gens sont très souvent contents après que je sois intervenu. Les radios chrétiennes s'intéressent à la vérité. J'ai pu faire connaître il y a 10 ans avec agoravox.fr la créativité et la monnaie publique quand le site web était connu. Sachez que la vérité gêne puisque je ne peux plus publier sur agoravox.fr ni sur developpez.com. Ces sites web sont payés par la publicité donc leurs financeurs n'aiment pas ce que je dis sur la monnaie publique. [https://www.youtube.com/watch?v=VUbX7qBwfA0 Chloé Frammery] a été licenciée dès qu'elle a parlé de la création monétaire, certes sans les solutions. Moi je propose les solutions avec l'économie réelle. :::Je suis plus connu au Japon ou aux États-Unis. La France voit ses libertés anéantis par les [https://www.youtube.com/watch?v=t3wfel1Asp4 procès], les [https://www.journaldesfemmes.fr/societe/actu/2745593-macron-projectile-oeuf-lancer-jet-lyon-salon-agresseur-suspect-garde-vue-hopital-psychiatrique/ psychiatrisations] et les [https://www.youtube.com/watch?v=ZOxRSQL4xsQ comptes bancaires bloqués]. TV Libertés n'est pas la seule à voir son compte bancaire bloqué. Ce n'est que la partie visible puisque quand vous êtes réprimé vous êtes aussi interdit d'antenne puisqu'il faut croire à la liberté. Nous ne vivons plus dans le système des 30 glorieuses. Je ne vous montre que ce que je connais. :::Je comprends que le lecteur puisse trouver son livrel avec la recherche wikibooks. :::Je ne pense pas que ce que j'écris soit de la propagande puisque l'économie réelle permet le développement des pays donc elle est scientifique. Sachez que je ne peux contacter personne de nouveau à cause de la boîte noire qui est sur ma fibre, qui m'empêche de recevoir les messages de mes lecteurs. De toutes façons aucun site web ne voudra prendre de risques avec la monnaie publique. Il n'y a que les sites web réellement participatifs ou chrétiens qui peuvent parler de la monnaie publique. Beaucoup de sites web ont arrêté leurs domaines parce que les moteurs de recherche ne recherchent plus la curiosité. :::Je ne vois pas de recommandations contre le prosélytisme sur wikibooks. Au contraire, wikibooks recommande d'indiquer la source utilisée. Comment faire connaître une politique de développement sans citer ceux qui la promeuvent dans ce cas ? --[[Utilisateur:Matthius|Matthius]] ([[Discussion utilisateur:Matthius|discussion]]) 4 juillet 2025 à 20:34 (CEST) :Au final, à l'heure où les réseaux sociaux ne font que confirmer les opinions par le consumérisme, où la recherche sur les moteurs de recherche change quand on a un compte connecté, il est bon de proposer l'ensemble des points de vues sur wikibooks et wikipedia, comme le [https://www.agoravox.tv/actualites/technologies/article/wikipedia-son-co-fondateur-devoile-104049 demande son co-fondateur]. dqdsj0rt3f5kjk82m5gna93tiwj267m Astrologie/Les différents facteurs astrologiques/Les Signes/Le zodiaque tropical 0 82410 745926 743779 2025-07-04T13:24:56Z Kad'Astres 30330 745926 wikitext text/x-wiki Le zodiaque tropical correspond à une suite de 12 signes (= « zodiaque ») dont les frontières sont définies par la position annuelle du Soleil par rapport à la Terre (= « tropical »). Ce zodiaque commence avec l'équinoxe (une frontière entre les saisons pour les zones du globe où il y en a) du mois de mars. [[Catégorie:Astrologie]] i8uo4d985h5fuio1ai320byl3tnvxcm Astrologie/Les différents facteurs astrologiques/Les Signes/Le zodiaque sidéral 0 82411 745925 745633 2025-07-04T13:24:31Z Kad'Astres 30330 745925 wikitext text/x-wiki Le zodiaque sidéral correspond à une suite de 12 signes (= « zodiaque ») dont les frontières sont définies par la position annuelle du Soleil par rapport aux constellations d'étoiles (= « sidéral »). Les signes du zodiaque sidéral sont en retard d’environ 24 degrés par rapport au zodiaque tropical, en raison du lent décalage au cours des siècles des saisons par rapport aux constellations (« précession des équinoxes »). [[Catégorie:Astrologie]] hfwvfwaxg6y2q19adsot906qwj9fkuy Astrologie/Les différents facteurs astrologiques/Les Signes/La précession des équinoxes 0 82412 745927 743777 2025-07-04T13:25:20Z Kad'Astres 30330 745927 wikitext text/x-wiki La précession des équinoxes correspond au lent mouvement de bascule de l’axe de rotation de la Terre, un peu comme une toupie qui oscille pendant qu’elle tourne. Quand une toupie tourne, son axe ne reste pas parfaitement vertical ; il décrit un petit cercle dans l’air. La Terre fait la même chose, mais très lentement : * Son axe de rotation penche à 23,5°. * Et cet axe tourne lentement sur lui-même, comme une toupie, en environ 26 000 ans. Ce mouvement fait que, sur des siècles, il y a un glissement de la position des signes du zodiaque si on les relie aux constellations par rapport à la position des signes du zodiaque si on les relie aux saisons. Le zodiaque tropical ignore la précession des équinoxes, tandis que le sidéral l’intègre. [[Catégorie:Astrologie]] 9soc46ufje0gcjyt8b6rqigcchzl38r Astrologie/Les différents facteurs astrologiques/Les Planètes/Les planètes connues depuis la nuit des temps 0 82517 745961 745216 2025-07-05T11:39:49Z Kad'Astres 30330 745961 wikitext text/x-wiki == Les planètes intérieures == '''Mercure''' est la plus rapide des planètes, mais elle est compliquée à observer (à l'aube ou au crépuscule) car elle est aussi la planète la plus proche du Soleil. '''Vénus''' est la planète la plus brillante (12 fois plus que l'étoile Sirius). == Mars, la planète centrale == '''Mars''' est reconnaissable à sa couleur rouge. == Les planètes lentes == '''Jupiter''' est brillante (autant que Sirius). '''Saturne''' est reconnaissable à ses anneaux (avec de bonnes jumelles). [[Catégorie:Astrologie]] h99jn49ym8gxvhqtvy33fb7gffo5s80 Astrologie/Les différents facteurs astrologiques/Les Maisons 0 82562 745915 745694 2025-07-04T12:50:13Z Kad'Astres 30330 745915 wikitext text/x-wiki #[[/Présentation générale/]] #[[/Les quatre Angles du Thème/]] #[[/Les six Axes de Maisons/]] #[[/Significations individuelles des douze Maisons/]] #[[/Les signes interceptés/]] {{AutoCat}} ny4uff0o15890r3elf7yrptazqvxpp1 745920 745915 2025-07-04T13:13:47Z Kad'Astres 30330 745920 wikitext text/x-wiki #[[/Présentation générale/]] #[[/Les quatre Angles du Thème/]] #[[/Les six Axes de Maisons/]] #[[/Significations individuelles des douze Maisons/]] #[[/Les Maisons vides/]] #[[/Les signes interceptés/]] {{AutoCat}} 6hijn4r5g79xhdd8vpr6uy95cisiqmc 745929 745920 2025-07-04T13:26:42Z Kad'Astres 30330 745929 wikitext text/x-wiki #[[/Présentation générale/]] #[[/Les quatre Angles du Thème/]] #[[/Les six Axes de Maisons/]] #[[/Significations individuelles des douze Maisons/]] #[[/Les Maisons vides/]] #[[/Les signes interceptés/]] [[Catégorie:Astrologie]] 2zxo6g5xc41nqt1nhy8adkspa9ksj0y 745940 745929 2025-07-05T05:10:31Z Kad'Astres 30330 745940 wikitext text/x-wiki #[[/Présentation générale/]] #[[/Les quatre Angles du Thème/]] #[[/Les six Axes de Maisons/]] #[[/Significations individuelles des douze Maisons/]] #[[/Les Maisons vides/]] #[[/Les signes interceptés/]] #[[/Les Maisons dérivées/]] [[Catégorie:Astrologie]] 2shvco7t2dvoqexncyrtklgp6tlxwm5 Astrologie/Les différents facteurs astrologiques/Les Signes/Significations traditionnelles attribuées à chaque Signe 0 82563 745928 745696 2025-07-04T13:26:08Z Kad'Astres 30330 745928 wikitext text/x-wiki La tradition astrologique attribue à chaque signe une planète qui est appelée son « maître planétaire ». Ainsi, on dit que Mars est le « maître » du signe du Bélier, ou encore que le signe du Bélier est le « domicile » de Mars. #[[/Le Bélier/]] #[[/Le Taureau/]] #[[/Les Gémeaux/]] #[[/Le Cancer/]] #[[/Le Lion/]] #[[/La Vierge/]] #[[/La Balance/]] #[[/Le Scorpion/]] #[[/Le Sagittaire/]] #[[/Le Capricorne/]] #[[/Le Verseau/]] #[[/Les Poissons/]] [[Catégorie:Astrologie]] l6nkek05u7jlm21to1qimb3yvetkzyd Astrologie/Les différents facteurs astrologiques/Les Planètes/La notion de couples planétaires 0 82564 745923 745695 2025-07-04T13:23:14Z Kad'Astres 30330 745923 wikitext text/x-wiki Lune / Saturne Soleil / Uranus Vénus / Mars Mercure / Jupiter [[Catégorie:Astrologie]] jzx2uavha597dsyaya8metfm9lyy9n2 Astrologie/Les différents facteurs astrologiques/Les trois Croix et les quatre Éléments 0 82565 745930 745697 2025-07-04T13:27:27Z Kad'Astres 30330 745930 wikitext text/x-wiki {| class="wikitable" |- align="center" | | Feu | Terre | Air | Eau |- align="center" | Cardinal | Bélier | Capricorne | Balance | Cancer |- align="center" | Fixe | Lion | Taureau | Verseau | Scorpion |- align="center" | Mutable | Sagittaire | Vierge | Gémeaux | Poissons |} [[Catégorie:Astrologie]] tughlzod1ldsidhffun3pousca84x9d 745941 745930 2025-07-05T05:12:16Z Kad'Astres 30330 745941 wikitext text/x-wiki {| class="wikitable" |- align="center" | | Feu | Terre | Air | Eau |- align="center" | Cardinal | Bélier | Capricorne | Balance | Cancer |- align="center" | Fixe | Lion | Taureau | Verseau | Scorpion |- align="center" | Mutable | Sagittaire | Vierge | Gémeaux | Poissons |} Les Qualités Élementaires [[Catégorie:Astrologie]] 5wx5s8wm5dr46l0so5qmgp9p4636dot Astrologie/Les différents facteurs astrologiques/Les Signes/Significations traditionnelles attribuées à chaque Signe/Le Bélier 0 82592 745942 2025-07-05T05:18:25Z Kad'Astres 30330 Page créée avec « le renouveau, l'activité [[Catégorie:Astrologie]] » 745942 wikitext text/x-wiki le renouveau, l'activité [[Catégorie:Astrologie]] raymasbd5gdhjop7gzwmv0xi2hezt1z Astrologie/Les différents facteurs astrologiques/Les Signes/Significations traditionnelles attribuées à chaque Signe/Le Taureau 0 82593 745943 2025-07-05T05:19:25Z Kad'Astres 30330 Page créée avec « La stabilité, la sensualité [[Catégorie:Astrologie]] » 745943 wikitext text/x-wiki La stabilité, la sensualité [[Catégorie:Astrologie]] dioaolxp0rjo9tpgkb1a5867r5c5e4y Astrologie/Les différents facteurs astrologiques/Les Signes/Significations traditionnelles attribuées à chaque Signe/Les Gémeaux 0 82594 745944 2025-07-05T05:20:09Z Kad'Astres 30330 Page créée avec « La communication [[Catégorie:Astrologie]] » 745944 wikitext text/x-wiki La communication [[Catégorie:Astrologie]] 0296jde6va96m3llyagrw5x2m8hc4c8 Astrologie/Les différents facteurs astrologiques/Les Signes/Significations traditionnelles attribuées à chaque Signe/Le Cancer 0 82595 745945 2025-07-05T05:20:57Z Kad'Astres 30330 Page créée avec « Le foyer, la famille [[Catégorie:Astrologie]] » 745945 wikitext text/x-wiki Le foyer, la famille [[Catégorie:Astrologie]] rxi1ftjir0jzqhb4rmdrxo6sbewhh2s Astrologie/Les différents facteurs astrologiques/Les Signes/Significations traditionnelles attribuées à chaque Signe/Le Lion 0 82596 745946 2025-07-05T05:21:45Z Kad'Astres 30330 Page créée avec « L'expression de soi [[Catégorie:Astrologie]] » 745946 wikitext text/x-wiki L'expression de soi [[Catégorie:Astrologie]] tmj9zeozy3fsr3mpg16skinddl1vu6n Astrologie/Les différents facteurs astrologiques/Les Signes/Significations traditionnelles attribuées à chaque Signe/La Vierge 0 82597 745947 2025-07-05T05:22:56Z Kad'Astres 30330 Page créée avec « Le service, l'ordre, la précision, l'économie [[Catégorie:Astrologie]] » 745947 wikitext text/x-wiki Le service, l'ordre, la précision, l'économie [[Catégorie:Astrologie]] 50d60snb043j243zit61ef9k3q7c1ll Astrologie/Les différents facteurs astrologiques/Les Signes/Significations traditionnelles attribuées à chaque Signe/La Balance 0 82598 745948 2025-07-05T05:24:29Z Kad'Astres 30330 Page créée avec « L'harmonie, l'esthétique, la justice [[Catégorie:Astrologie]] » 745948 wikitext text/x-wiki L'harmonie, l'esthétique, la justice [[Catégorie:Astrologie]] klb5es0dc114dlyaw5yvrwa0mxi0rid Astrologie/Les différents facteurs astrologiques/Les Signes/Significations traditionnelles attribuées à chaque Signe/Le Scorpion 0 82599 745949 2025-07-05T05:25:35Z Kad'Astres 30330 Page créée avec « La transformation, le sens caché [[Catégorie:Astrologie]] » 745949 wikitext text/x-wiki La transformation, le sens caché [[Catégorie:Astrologie]] iims08u8swqolaf814io18x35hdsak1 Astrologie/Les différents facteurs astrologiques/Les Signes/Significations traditionnelles attribuées à chaque Signe/Le Capricorne 0 82600 745950 2025-07-05T05:26:44Z Kad'Astres 30330 Page créée avec « L'ambition, la maturation [[Catégorie:Astrologie]] » 745950 wikitext text/x-wiki L'ambition, la maturation [[Catégorie:Astrologie]] ofl128pvij3v412mw281widqot5k25x Astrologie/Les différents facteurs astrologiques/Les Signes/Significations traditionnelles attribuées à chaque Signe/Le Verseau 0 82601 745951 2025-07-05T05:27:39Z Kad'Astres 30330 Page créée avec « Les idéaux collectifs, la fraternité [[Catégorie:Astrologie]] » 745951 wikitext text/x-wiki Les idéaux collectifs, la fraternité [[Catégorie:Astrologie]] prplttua5rjk5ownj5lf39dq15j66xf Astrologie/Les différents facteurs astrologiques/Les Signes/Significations traditionnelles attribuées à chaque Signe/Le Sagittaire 0 82602 745952 2025-07-05T05:31:05Z Kad'Astres 30330 Page créée avec « L'enthousiasme, la Quête [[Catégorie:Astrologie]] » 745952 wikitext text/x-wiki L'enthousiasme, la Quête [[Catégorie:Astrologie]] riyrcnrhsxkfwfg5mqb7ltd2lleymsm Astrologie/Les différents facteurs astrologiques/Les Signes/Significations traditionnelles attribuées à chaque Signe/Les Poissons 0 82603 745953 2025-07-05T05:34:59Z Kad'Astres 30330 Page créée avec « L'illimité, le sublime, l'illusion [[Catégorie:Astrologie]] » 745953 wikitext text/x-wiki L'illimité, le sublime, l'illusion [[Catégorie:Astrologie]] tqnm5vxtyojzl81z4uh2yp1zctit74o Astrologie/Les différents facteurs astrologiques/Les Aspects/Les planètes non aspectées 0 82604 745954 2025-07-05T05:39:22Z Kad'Astres 30330 Page créée avec « L'échappatoire [[Catégorie:Astrologie]] » 745954 wikitext text/x-wiki L'échappatoire [[Catégorie:Astrologie]] ncur132g70t8oedlb9hk66fhrfvwr9g Astrologie/Les différents facteurs astrologiques/Autres facteurs d'Interprétation 0 82605 745956 2025-07-05T06:18:29Z Kad'Astres 30330 Page créée avec « #[[/La Lune Noire/]] #[[/Chiron/]] #[[/Les Étoiles Fixes/]] #[[/Les Astéroïdes/]] [[Catégorie:Astrologie]] » 745956 wikitext text/x-wiki #[[/La Lune Noire/]] #[[/Chiron/]] #[[/Les Étoiles Fixes/]] #[[/Les Astéroïdes/]] [[Catégorie:Astrologie]] nox9yuehzccucsgwdaqg36of5f77azy Astrologie/Les différents facteurs astrologiques/Autres facteurs d'Interprétation/Les Astéroïdes 0 82606 745957 2025-07-05T06:25:25Z Kad'Astres 30330 Page créée avec « #[[/Cérès/]] #[[/Pallas/]] #[[/Junon/]] #[[/Vesta/]] [[Catégorie:Astrologie]] » 745957 wikitext text/x-wiki #[[/Cérès/]] #[[/Pallas/]] #[[/Junon/]] #[[/Vesta/]] [[Catégorie:Astrologie]] 37785xwzk2qij3k372usn6v64yc2th8 Astrologie/Les différents facteurs astrologiques/Les Maisons/Les quatre Angles du Thème 0 82607 745962 2025-07-05T11:54:02Z Kad'Astres 30330 Page créée avec « * Le Milieu du Ciel (MC) * L'Ascendant (ASC) est la pointe de la première Maison (début de la Maison I). * Le Fond du Ciel (FC) * Le Descendant est le point à l'horizon où ce qui est visible (au-dessus de l'horizon) devient invisible (passe au-dessous de l'horizon). [[Catégorie:Astrologie]] » 745962 wikitext text/x-wiki * Le Milieu du Ciel (MC) * L'Ascendant (ASC) est la pointe de la première Maison (début de la Maison I). * Le Fond du Ciel (FC) * Le Descendant est le point à l'horizon où ce qui est visible (au-dessus de l'horizon) devient invisible (passe au-dessous de l'horizon). [[Catégorie:Astrologie]] fbeqnniq0hukcmhbhysofxrn24ols3f