Les premières rumeurs concernant la nouvelle génération de cartes graphiques NVIDIA se focalisent sur la consommation.
Publicité
Bien qu'un certain flou entoure encore le calendrier de NVIDIA, il est à peu près certain que les cartes graphiques de génération Ada Lovelace nous arriveront cet automne.
Un TDP de plus de 220 Watts ?
Alors que de nombreuses questions se posent autour des capacités des GeForce RTX 4000, le très informé Kopite7kimi évoque le TDP de la RTX 4060 : il serait supérieur à celui de la RTX 3070, certifiée pour 220 Watts.
De fait, la RTX 4060 aurait donc un TDP plus élevé, ce qui creuserait un écart consistant avec le modèle comparable sur la génération actuelle : la RTX 3060 est à 170 Watts. Bien sûr, comme le souligne Kopite7kimi, la question des performances se pose pour un tel TDP.
De leur côté, nos confrères de Videocardz en profitent pour rappeler les évolutions de TDP au fil des générations. La RTX 4060 marquerait une augmentation sans précédent :
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (19)
ar-s
Il y a presque 3 ans
EDF, Engie, Eni, TotalEnergie approuvent.
7 J'aime
Répondre
tux.le.vrai
Il y a presque 3 ans
moi, je veux des machines au rapport Perf/conso attractif, avec un processeur du genre AMD Ryzen 5700x (tdp 65w) , et quelque chose d’équivalent pour les cartes graphiques.
Augmenter les perfs en augmentant la conso n’a pas d’intérêt à mes yeux,
dans cette voie, il suffit d’aligner les cartes graphiques sur les port pci express d’une carte mère adaptée !
Je ne veux pas du bruit d’un 747 dans mon salon, ni d’un config qui chauffe mon bureau en été !
(et je ne parle ici que de mes égoïstes besoins, pas de la conso d’énergie, écologie tout ça)
6 J'aime
Répondre
sylvio50
Il y a presque 3 ans
Sachant que l’on est généralement au alentour de 0,6 W / mm² (0,7 pour la RTX 3090 Ti par exemple) pour la plupart des cartes graphique Nvidia **, cela nous donnerai un gros GPU de plus de 350 mm² pour la RTX 4060.
Nota : Les RTX 3060Ti, 3070 et 3070Ti font 392 mm² pour comparaison sachant que c’est le RTX 3070Ti qui correspond au « GPU plein » **.
** : avec une surface active de 100%, c’est à dire sans unités de calcul désactivé comme sur la RTX 3050 par exemple
0 J'aime
Répondre
Pernel
Il y a presque 3 ans
En réponse à tux.le.vrai
TDP =/= conso
0 J'aime
Répondre
kisama56
Il y a presque 3 ans
En réponse à
Ben j’ai pas besoin d’un CG qui consomme autant qu’une centrale, la 4060 c’est supposé être le milieu de gamme.
C’est complètement débile, ils n’ont rien compris au monde actuel. Qu’ils propose des CG avec un tel TDP tant mieux pour ceux qui veulent en avoir une grosse, mais faut penser à tout le monde et beaucoup ne veulent un CG avec la conso d’une 1060
0 J'aime
Répondre
idhem59
Il y a presque 3 ans
En réponse à Pernel
Il y a quand même une énorme corrélation entre les deux.
En schématisant pas mal, en entrée tu as du courant et des signaux logiques, et en sortie des signaux logiques et de la chaleur. Les signaux ne pesant pas grand chose, la quasi totalité du courant est dissipé sous forme de chaleur. Donc ces deux variables évoluent forcément ensemble.
Le problème dans l’histoire, c’est plutôt la manière dont les constructeurs calculent le TDP. Quand on voit par exemple certains CPU Intel qui peuvent dissiper en charge jusqu’à deux fois plus d’énergie que le TDP annoncé, il y a un problème quelque part. Ou alors quand deux CPU ayant la même architecture sont annoncés avec le même TDP alors que l’un à deux fois plus de coeurs que l’autre, impossible que ces deux CPU dissipent la même puissance, et aient la même consommation.
1 J'aime
Répondre
crush56
Il y a presque 3 ans
En réponse à kisama56
Bah dans ce cas tu prends une 3050 qui consomme moins et tu laisses les cartes qui consomment plus à ceux qui recherchent la performance avant la consommation
3 J'aime
Répondre
kisama56
Il y a presque 3 ans
En réponse à crush56
J’attends de voir la conso d’une 4050, la 3050 a déjà un TDP de 130
(vu la différence de perf avec une 1060, l’achat du 3050 est pas très utile)
0 J'aime
Répondre
Delta243
Il y a presque 3 ans
Rien d’étonnant les cartes graphiques toujours plus performantes = forcément plus de consommation. La finesse de gravure ne peux pas compenser le nombre croissant des Cuda core etc etc.
C’est de la pure logique.
Si vous avez un problème de consommation arrêter de jouer sur un pc.
Il ne ne faut pas oublier que c’est un luxe, un privilège que la majorité n’as pas
2 J'aime
Répondre
sylvio50
Il y a presque 3 ans
En réponse à idhem59
Ce qu’il faut savoir, c’est que la consommation est proportionnel au carré de la fréquence alors qu’elle n’est que proportionnel au nombre de coeurs à fréquence égale. Le massivement parallèle consomme moins d’énergie à puissance de calcul théorique égale.
Perso, j’utilise cette formule (qui vaut ce qu’elle vaut, mais elle marche plutôt bien) pour comparer les GPU Mobile avec les GPU bureau lorsque l’architecture est la même (même finesse de gravure …) :
Puissance de calcul relative = Puissance de référence relative x √(N coeurs / N coeurs référence) x √(TDP / TDP référence)
Exemple : RTX 3050 130W versus RTX 3090 350W
Puissance de calcul relative = 1 x √(10496 / 2560) x √(350 / 130) = 3,3 x.
La RTX 3090 350 W est 3,3 fois plus perf que RTX 3050 130W de manière théorique avec cette formule. Dans les faits, l’écart sera réduit, alors cette écart doit plutôt être regardé sous 3DMark avec le score GPU pour être mieux vérifié.
Nvidia pourrait tout à fait par exemple mettre une RTX 3090 à 1/2 de sa fréquence actuelle pour faire chuter le TDP par 4 et arriver à 90 W. La puissance de calcul serait toujours supérieur à la RTX 3050 d’origine par exemple. Le problème est donc un problème de concurrence. Il faut juste se dire que c’est la surface de die qui est la variable importante dans le coût d’un GPU. La fréquence, elle, est gratuite, on peut la modifier comme on veut tant que l’on ne dépasse pas grosso modo une limite de environ 0,75 W / mm² pour les versions bureau et la moitié soit 0,375 W / mm² pour les versions Mobile de gamer voir encore la moitié pour les ultraportable fin. Si un fabricant vendait une carte à 1000 € (500 mm², 100 TFLOPS, 50 W) face à une carte de même puissance à 450 € mais avec TDP de 200 W (250 mm², 100 TFLOPS, 200 W), la carte à 1000 € ne se vendra presque pas.
Apple à la limite, ils pourraient le faire car ils n’ont pas le même type de clientèle et ils n’auraient pas vraiment de concurrent si ils le faisaient. Sa ressemblerait d’ailleurs au GPU du M1 Max.
A la limite, les fabricants devraient permettre le sous-cadençage de leur GPU avec des réglages prédéterminé de manière plus officiel en dehors du système d’exploitation mais sans que l’ont soient obligé de flasher le BIOS pour autant.
0 J'aime
Répondre
kisama56
Il y a presque 3 ans
En réponse à Delta243
Relis l’article
GeForce GTX 1060 : 120 W
GeForce GTX 960 : 120 W
GeForce GTX 760 : 170 W
Les CPU sont toujours performant pourtant leur conso ne bouge pas vraiment
0 J'aime
Répondre
pecore
Il y a presque 3 ans
Outre le problème de consommation, bruit, alimentation etc… les clients sont aussi en droit de se demander si on ne se paie pas leur fiole, si, en gros, on ne leur vend pas comme du Next-Gen des cartes qui ne sont que des modèles overclocké de la génération précédente.
Perso c’est beaucoup ce que cette surenchère de Watts me fait craindre et il pourra être intéressant d’undervolter les futures cartes pour les mettre face à face avec leur équivalent de la génération d’avant, juste pour voir.
0 J'aime
Répondre
supernaz
Il y a presque 3 ans
A mon avis, la raison c’est que nVidia doit compenser les perfs de Lovelace en augmentant les fréquences (donc conso/TDP) de leurs cartes pour s’aligner face aux perfs de la future archi RDNA3 d’AMD. Ce n’est qu’une théorie mais ça me semble crédible.
Faut pas se leurrer, les 2 fabricants doivent avoir pas mal d’informations sur leur concurrent respectif.
1 J'aime
Répondre
philou44300
Il y a presque 3 ans
Je vais sauter cette génération en espérant que la suivante utilisera une finesse de gravure inférieure avec une conso plus basse sinon je changerai ma rtx3070 par une inférieure dans la gamme. Pas envie de changer d’alim et d’avoir une conso trop élevée pour jouer.
0 J'aime
Répondre
Pernel
Il y a presque 3 ans
En réponse à idhem59
Justement, tout est là, dans ton deuxième paragraphe, s’ils calculaient de manière un peu plus honnête leur TDP, ça collerait à peu de choses prêt à la conso (max), sauf qu’il n’y a pas vraiment de règlementation sur le calcul, chacun fait à sa sauce, et on se retrouve avec des produits avec une petite centaine de watts de TDP et 250+W en conso (coucou Intel)
1 J'aime
Répondre
Pernel
Il y a presque 3 ans
En réponse à philou44300
Avec une 3070 t’es tranquille quelque temps quand même.
0 J'aime
Répondre
Altdorf
Il y a presque 3 ans
Ma GTX 1060 6 Go tourne très bien dans BF2042 même si je n’y joue plus
0 J'aime
Répondre
Kratof_Muller
Il y a presque 2 ans
Bon … 1 an plus tard
115 watts
0 J'aime
Répondre
sylvio50
Il y a presque 2 ans
En réponse à Kratof_Muller
Une autre manière de voir les choses serait de considérer que la « vrai » RTX 4060 est actuellement dénommé « RTX 4070 Ti » ce qui correspondrait à 295 mm², valeur très proche des 276 mm² de la RTX 3060.
RTX 3060
RTX 4070 Ti
RTX 3070
(mm²)
276 mm²
295 mm²
(W)
170 W
285 W *
220 W
(* : Tout en sachant qu’il est possible de légèrement baisser la fréquence du RTX 4070 Ti de 10% pour baisser son TDP de 15~20% environ).
Nvidia ayant vu que AMD ne serait pas un concurrent ont rétrogradé les dénominations des GPU en dessous de la RTX 4090.
moi, je veux des machines au rapport Perf/conso attractif, avec un processeur du genre AMD Ryzen 5700x (tdp 65w) , et quelque chose d’équivalent pour les cartes graphiques.
Augmenter les perfs en augmentant la conso n’a pas d’intérêt à mes yeux,
dans cette voie, il suffit d’aligner les cartes graphiques sur les port pci express d’une carte mère adaptée !
Je ne veux pas du bruit d’un 747 dans mon salon, ni d’un config qui chauffe mon bureau en été !
(et je ne parle ici que de mes égoïstes besoins, pas de la conso d’énergie, écologie tout ça)
sylvio50
Sachant que l’on est généralement au alentour de 0,6 W / mm² (0,7 pour la RTX 3090 Ti par exemple) pour la plupart des cartes graphique Nvidia **, cela nous donnerai un gros GPU de plus de 350 mm² pour la RTX 4060.
Nota : Les RTX 3060Ti, 3070 et 3070Ti font 392 mm² pour comparaison sachant que c’est le RTX 3070Ti qui correspond au « GPU plein » **.
** : avec une surface active de 100%, c’est à dire sans unités de calcul désactivé comme sur la RTX 3050 par exemple
Pernel
TDP =/= conso
kisama56
Ben j’ai pas besoin d’un CG qui consomme autant qu’une centrale, la 4060 c’est supposé être le milieu de gamme.
C’est complètement débile, ils n’ont rien compris au monde actuel. Qu’ils propose des CG avec un tel TDP tant mieux pour ceux qui veulent en avoir une grosse, mais faut penser à tout le monde et beaucoup ne veulent un CG avec la conso d’une 1060
idhem59
Il y a quand même une énorme corrélation entre les deux.
En schématisant pas mal, en entrée tu as du courant et des signaux logiques, et en sortie des signaux logiques et de la chaleur. Les signaux ne pesant pas grand chose, la quasi totalité du courant est dissipé sous forme de chaleur. Donc ces deux variables évoluent forcément ensemble.
Le problème dans l’histoire, c’est plutôt la manière dont les constructeurs calculent le TDP. Quand on voit par exemple certains CPU Intel qui peuvent dissiper en charge jusqu’à deux fois plus d’énergie que le TDP annoncé, il y a un problème quelque part. Ou alors quand deux CPU ayant la même architecture sont annoncés avec le même TDP alors que l’un à deux fois plus de coeurs que l’autre, impossible que ces deux CPU dissipent la même puissance, et aient la même consommation.
crush56
Bah dans ce cas tu prends une 3050 qui consomme moins et tu laisses les cartes qui consomment plus à ceux qui recherchent la performance avant la consommation
kisama56
J’attends de voir la conso d’une 4050, la 3050 a déjà un TDP de 130
(vu la différence de perf avec une 1060, l’achat du 3050 est pas très utile)
Delta243
Rien d’étonnant les cartes graphiques toujours plus performantes = forcément plus de consommation. La finesse de gravure ne peux pas compenser le nombre croissant des Cuda core etc etc.
C’est de la pure logique.
Si vous avez un problème de consommation arrêter de jouer sur un pc.
Il ne ne faut pas oublier que c’est un luxe, un privilège que la majorité n’as pas
sylvio50
Ce qu’il faut savoir, c’est que la consommation est proportionnel au carré de la fréquence alors qu’elle n’est que proportionnel au nombre de coeurs à fréquence égale. Le massivement parallèle consomme moins d’énergie à puissance de calcul théorique égale.
Perso, j’utilise cette formule (qui vaut ce qu’elle vaut, mais elle marche plutôt bien) pour comparer les GPU Mobile avec les GPU bureau lorsque l’architecture est la même (même finesse de gravure …) :
Puissance de calcul relative = Puissance de référence relative x √(N coeurs / N coeurs référence) x √(TDP / TDP référence)
Exemple : RTX 3050 130W versus RTX 3090 350W
Puissance de calcul relative = 1 x √(10496 / 2560) x √(350 / 130) = 3,3 x.
La RTX 3090 350 W est 3,3 fois plus perf que RTX 3050 130W de manière théorique avec cette formule. Dans les faits, l’écart sera réduit, alors cette écart doit plutôt être regardé sous 3DMark avec le score GPU pour être mieux vérifié.
Nvidia pourrait tout à fait par exemple mettre une RTX 3090 à 1/2 de sa fréquence actuelle pour faire chuter le TDP par 4 et arriver à 90 W. La puissance de calcul serait toujours supérieur à la RTX 3050 d’origine par exemple. Le problème est donc un problème de concurrence. Il faut juste se dire que c’est la surface de die qui est la variable importante dans le coût d’un GPU. La fréquence, elle, est gratuite, on peut la modifier comme on veut tant que l’on ne dépasse pas grosso modo une limite de environ 0,75 W / mm² pour les versions bureau et la moitié soit 0,375 W / mm² pour les versions Mobile de gamer voir encore la moitié pour les ultraportable fin. Si un fabricant vendait une carte à 1000 € (500 mm², 100 TFLOPS, 50 W) face à une carte de même puissance à 450 € mais avec TDP de 200 W (250 mm², 100 TFLOPS, 200 W), la carte à 1000 € ne se vendra presque pas.
Apple à la limite, ils pourraient le faire car ils n’ont pas le même type de clientèle et ils n’auraient pas vraiment de concurrent si ils le faisaient. Sa ressemblerait d’ailleurs au GPU du M1 Max.
A la limite, les fabricants devraient permettre le sous-cadençage de leur GPU avec des réglages prédéterminé de manière plus officiel en dehors du système d’exploitation mais sans que l’ont soient obligé de flasher le BIOS pour autant.
EDF, Engie, Eni, TotalEnergie approuvent.
moi, je veux des machines au rapport Perf/conso attractif, avec un processeur du genre AMD Ryzen 5700x (tdp 65w) , et quelque chose d’équivalent pour les cartes graphiques.
Augmenter les perfs en augmentant la conso n’a pas d’intérêt à mes yeux,
dans cette voie, il suffit d’aligner les cartes graphiques sur les port pci express d’une carte mère adaptée !
Je ne veux pas du bruit d’un 747 dans mon salon, ni d’un config qui chauffe mon bureau en été !
(et je ne parle ici que de mes égoïstes besoins, pas de la conso d’énergie, écologie tout ça)
Sachant que l’on est généralement au alentour de 0,6 W / mm² (0,7 pour la RTX 3090 Ti par exemple) pour la plupart des cartes graphique Nvidia **, cela nous donnerai un gros GPU de plus de 350 mm² pour la RTX 4060.
Nota : Les RTX 3060Ti, 3070 et 3070Ti font 392 mm² pour comparaison sachant que c’est le RTX 3070Ti qui correspond au « GPU plein » **.
** : avec une surface active de 100%, c’est à dire sans unités de calcul désactivé comme sur la RTX 3050 par exemple
TDP =/= conso
Ben j’ai pas besoin d’un CG qui consomme autant qu’une centrale, la 4060 c’est supposé être le milieu de gamme.
C’est complètement débile, ils n’ont rien compris au monde actuel. Qu’ils propose des CG avec un tel TDP tant mieux pour ceux qui veulent en avoir une grosse, mais faut penser à tout le monde et beaucoup ne veulent un CG avec la conso d’une 1060
Il y a quand même une énorme corrélation entre les deux.
En schématisant pas mal, en entrée tu as du courant et des signaux logiques, et en sortie des signaux logiques et de la chaleur. Les signaux ne pesant pas grand chose, la quasi totalité du courant est dissipé sous forme de chaleur. Donc ces deux variables évoluent forcément ensemble.
Le problème dans l’histoire, c’est plutôt la manière dont les constructeurs calculent le TDP. Quand on voit par exemple certains CPU Intel qui peuvent dissiper en charge jusqu’à deux fois plus d’énergie que le TDP annoncé, il y a un problème quelque part. Ou alors quand deux CPU ayant la même architecture sont annoncés avec le même TDP alors que l’un à deux fois plus de coeurs que l’autre, impossible que ces deux CPU dissipent la même puissance, et aient la même consommation.
Bah dans ce cas tu prends une 3050 qui consomme moins et tu laisses les cartes qui consomment plus à ceux qui recherchent la performance avant la consommation
J’attends de voir la conso d’une 4050, la 3050 a déjà un TDP de 130
(vu la différence de perf avec une 1060, l’achat du 3050 est pas très utile)
Rien d’étonnant les cartes graphiques toujours plus performantes = forcément plus de consommation. La finesse de gravure ne peux pas compenser le nombre croissant des Cuda core etc etc.
C’est de la pure logique.
Si vous avez un problème de consommation arrêter de jouer sur un pc.
Il ne ne faut pas oublier que c’est un luxe, un privilège que la majorité n’as pas
Ce qu’il faut savoir, c’est que la consommation est proportionnel au carré de la fréquence alors qu’elle n’est que proportionnel au nombre de coeurs à fréquence égale. Le massivement parallèle consomme moins d’énergie à puissance de calcul théorique égale.
Perso, j’utilise cette formule (qui vaut ce qu’elle vaut, mais elle marche plutôt bien) pour comparer les GPU Mobile avec les GPU bureau lorsque l’architecture est la même (même finesse de gravure …) :
Puissance de calcul relative = Puissance de référence relative x √(N coeurs / N coeurs référence) x √(TDP / TDP référence)
Exemple : RTX 3050 130W versus RTX 3090 350W
Puissance de calcul relative = 1 x √(10496 / 2560) x √(350 / 130) = 3,3 x.
La RTX 3090 350 W est 3,3 fois plus perf que RTX 3050 130W de manière théorique avec cette formule. Dans les faits, l’écart sera réduit, alors cette écart doit plutôt être regardé sous 3DMark avec le score GPU pour être mieux vérifié.
Nvidia pourrait tout à fait par exemple mettre une RTX 3090 à 1/2 de sa fréquence actuelle pour faire chuter le TDP par 4 et arriver à 90 W. La puissance de calcul serait toujours supérieur à la RTX 3050 d’origine par exemple. Le problème est donc un problème de concurrence. Il faut juste se dire que c’est la surface de die qui est la variable importante dans le coût d’un GPU. La fréquence, elle, est gratuite, on peut la modifier comme on veut tant que l’on ne dépasse pas grosso modo une limite de environ 0,75 W / mm² pour les versions bureau et la moitié soit 0,375 W / mm² pour les versions Mobile de gamer voir encore la moitié pour les ultraportable fin. Si un fabricant vendait une carte à 1000 € (500 mm², 100 TFLOPS, 50 W) face à une carte de même puissance à 450 € mais avec TDP de 200 W (250 mm², 100 TFLOPS, 200 W), la carte à 1000 € ne se vendra presque pas.
Apple à la limite, ils pourraient le faire car ils n’ont pas le même type de clientèle et ils n’auraient pas vraiment de concurrent si ils le faisaient. Sa ressemblerait d’ailleurs au GPU du M1 Max.
A la limite, les fabricants devraient permettre le sous-cadençage de leur GPU avec des réglages prédéterminé de manière plus officiel en dehors du système d’exploitation mais sans que l’ont soient obligé de flasher le BIOS pour autant.
Relis l’article
Les CPU sont toujours performant pourtant leur conso ne bouge pas vraiment
Outre le problème de consommation, bruit, alimentation etc… les clients sont aussi en droit de se demander si on ne se paie pas leur fiole, si, en gros, on ne leur vend pas comme du Next-Gen des cartes qui ne sont que des modèles overclocké de la génération précédente.
Perso c’est beaucoup ce que cette surenchère de Watts me fait craindre et il pourra être intéressant d’undervolter les futures cartes pour les mettre face à face avec leur équivalent de la génération d’avant, juste pour voir.
A mon avis, la raison c’est que nVidia doit compenser les perfs de Lovelace en augmentant les fréquences (donc conso/TDP) de leurs cartes pour s’aligner face aux perfs de la future archi RDNA3 d’AMD. Ce n’est qu’une théorie mais ça me semble crédible.
Faut pas se leurrer, les 2 fabricants doivent avoir pas mal d’informations sur leur concurrent respectif.
Je vais sauter cette génération en espérant que la suivante utilisera une finesse de gravure inférieure avec une conso plus basse sinon je changerai ma rtx3070 par une inférieure dans la gamme. Pas envie de changer d’alim et d’avoir une conso trop élevée pour jouer.
Justement, tout est là, dans ton deuxième paragraphe, s’ils calculaient de manière un peu plus honnête leur TDP, ça collerait à peu de choses prêt à la conso (max), sauf qu’il n’y a pas vraiment de règlementation sur le calcul, chacun fait à sa sauce, et on se retrouve avec des produits avec une petite centaine de watts de TDP et 250+W en conso (coucou Intel)
Avec une 3070 t’es tranquille quelque temps quand même.
Ma GTX 1060 6 Go tourne très bien dans BF2042 même si je n’y joue plus
Bon … 1 an plus tard
115 watts
Une autre manière de voir les choses serait de considérer que la « vrai » RTX 4060 est actuellement dénommé « RTX 4070 Ti » ce qui correspondrait à 295 mm², valeur très proche des 276 mm² de la RTX 3060.
(* : Tout en sachant qu’il est possible de légèrement baisser la fréquence du RTX 4070 Ti de 10% pour baisser son TDP de 15~20% environ).
Nvidia ayant vu que AMD ne serait pas un concurrent ont rétrogradé les dénominations des GPU en dessous de la RTX 4090.
RTX 4090 => RTX 4090 (16384 coeurs | 610 mm²)
RTX 4080 Ti => Rien
RTX 4080 => Rien
RTX 4070 Ti => Rien
RTX 4070 => Rien
RTX 4060 Ti => RTX 4080 (9728 coeurs |380 mm²)
RTX 4060 => RTX 4070 Ti (7680 coeurs | 295 mm²)
RTX 4050 Ti => RTX 4070
RTX 4050 => RTX 4060 Ti
RTX 4040 Ti => RTX 4060
RTX 4040 => RTX 4050