Les premières rumeurs concernant la nouvelle génération de cartes graphiques NVIDIA se focalisent sur la consommation.
Bien qu'un certain flou entoure encore le calendrier de NVIDIA, il est à peu près certain que les cartes graphiques de génération Ada Lovelace nous arriveront cet automne.
Un TDP de plus de 220 Watts ?
Alors que de nombreuses questions se posent autour des capacités des GeForce RTX 4000, le très informé Kopite7kimi évoque le TDP de la RTX 4060 : il serait supérieur à celui de la RTX 3070, certifiée pour 220 Watts.
De fait, la RTX 4060 aurait donc un TDP plus élevé, ce qui creuserait un écart consistant avec le modèle comparable sur la génération actuelle : la RTX 3060 est à 170 Watts. Bien sûr, comme le souligne Kopite7kimi, la question des performances se pose pour un tel TDP.
De leur côté, nos confrères de Videocardz en profitent pour rappeler les évolutions de TDP au fil des générations. La RTX 4060 marquerait une augmentation sans précédent :
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
ar-s
EDF, Engie, Eni, TotalEnergie approuvent.
tux.le.vrai
moi, je veux des machines au rapport Perf/conso attractif, avec un processeur du genre AMD Ryzen 5700x (tdp 65w) , et quelque chose d’équivalent pour les cartes graphiques.
Augmenter les perfs en augmentant la conso n’a pas d’intérêt à mes yeux,
dans cette voie, il suffit d’aligner les cartes graphiques sur les port pci express d’une carte mère adaptée !
Je ne veux pas du bruit d’un 747 dans mon salon, ni d’un config qui chauffe mon bureau en été !
(et je ne parle ici que de mes égoïstes besoins, pas de la conso d’énergie, écologie tout ça)
sylvio50
Sachant que l’on est généralement au alentour de 0,6 W / mm² (0,7 pour la RTX 3090 Ti par exemple) pour la plupart des cartes graphique Nvidia **, cela nous donnerai un gros GPU de plus de 350 mm² pour la RTX 4060.
Nota : Les RTX 3060Ti, 3070 et 3070Ti font 392 mm² pour comparaison sachant que c’est le RTX 3070Ti qui correspond au « GPU plein » **.
** : avec une surface active de 100%, c’est à dire sans unités de calcul désactivé comme sur la RTX 3050 par exemple
Pernel
TDP =/= conso
kisama56
Ben j’ai pas besoin d’un CG qui consomme autant qu’une centrale, la 4060 c’est supposé être le milieu de gamme.
C’est complètement débile, ils n’ont rien compris au monde actuel. Qu’ils propose des CG avec un tel TDP tant mieux pour ceux qui veulent en avoir une grosse, mais faut penser à tout le monde et beaucoup ne veulent un CG avec la conso d’une 1060
idhem59
Il y a quand même une énorme corrélation entre les deux.
En schématisant pas mal, en entrée tu as du courant et des signaux logiques, et en sortie des signaux logiques et de la chaleur. Les signaux ne pesant pas grand chose, la quasi totalité du courant est dissipé sous forme de chaleur. Donc ces deux variables évoluent forcément ensemble.
Le problème dans l’histoire, c’est plutôt la manière dont les constructeurs calculent le TDP. Quand on voit par exemple certains CPU Intel qui peuvent dissiper en charge jusqu’à deux fois plus d’énergie que le TDP annoncé, il y a un problème quelque part. Ou alors quand deux CPU ayant la même architecture sont annoncés avec le même TDP alors que l’un à deux fois plus de coeurs que l’autre, impossible que ces deux CPU dissipent la même puissance, et aient la même consommation.
crush56
Bah dans ce cas tu prends une 3050 qui consomme moins et tu laisses les cartes qui consomment plus à ceux qui recherchent la performance avant la consommation
kisama56
J’attends de voir la conso d’une 4050, la 3050 a déjà un TDP de 130
(vu la différence de perf avec une 1060, l’achat du 3050 est pas très utile)
Delta243
Rien d’étonnant les cartes graphiques toujours plus performantes = forcément plus de consommation. La finesse de gravure ne peux pas compenser le nombre croissant des Cuda core etc etc.
C’est de la pure logique.
Si vous avez un problème de consommation arrêter de jouer sur un pc.
Il ne ne faut pas oublier que c’est un luxe, un privilège que la majorité n’as pas
sylvio50
Ce qu’il faut savoir, c’est que la consommation est proportionnel au carré de la fréquence alors qu’elle n’est que proportionnel au nombre de coeurs à fréquence égale. Le massivement parallèle consomme moins d’énergie à puissance de calcul théorique égale.
Perso, j’utilise cette formule (qui vaut ce qu’elle vaut, mais elle marche plutôt bien) pour comparer les GPU Mobile avec les GPU bureau lorsque l’architecture est la même (même finesse de gravure …) :
Puissance de calcul relative = Puissance de référence relative x √(N coeurs / N coeurs référence) x √(TDP / TDP référence)
Exemple : RTX 3050 130W versus RTX 3090 350W
Puissance de calcul relative = 1 x √(10496 / 2560) x √(350 / 130) = 3,3 x.
La RTX 3090 350 W est 3,3 fois plus perf que RTX 3050 130W de manière théorique avec cette formule. Dans les faits, l’écart sera réduit, alors cette écart doit plutôt être regardé sous 3DMark avec le score GPU pour être mieux vérifié.
Nvidia pourrait tout à fait par exemple mettre une RTX 3090 à 1/2 de sa fréquence actuelle pour faire chuter le TDP par 4 et arriver à 90 W. La puissance de calcul serait toujours supérieur à la RTX 3050 d’origine par exemple. Le problème est donc un problème de concurrence. Il faut juste se dire que c’est la surface de die qui est la variable importante dans le coût d’un GPU. La fréquence, elle, est gratuite, on peut la modifier comme on veut tant que l’on ne dépasse pas grosso modo une limite de environ 0,75 W / mm² pour les versions bureau et la moitié soit 0,375 W / mm² pour les versions Mobile de gamer voir encore la moitié pour les ultraportable fin. Si un fabricant vendait une carte à 1000 € (500 mm², 100 TFLOPS, 50 W) face à une carte de même puissance à 450 € mais avec TDP de 200 W (250 mm², 100 TFLOPS, 200 W), la carte à 1000 € ne se vendra presque pas.
Apple à la limite, ils pourraient le faire car ils n’ont pas le même type de clientèle et ils n’auraient pas vraiment de concurrent si ils le faisaient. Sa ressemblerait d’ailleurs au GPU du M1 Max.
A la limite, les fabricants devraient permettre le sous-cadençage de leur GPU avec des réglages prédéterminé de manière plus officiel en dehors du système d’exploitation mais sans que l’ont soient obligé de flasher le BIOS pour autant.
Recevez un résumé quotidien de l'actu technologique.
Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles