Une nouvelle conception de ses puces graphiques pourrait permettre à Intel de se repositionner face aux deux mastodontes du secteur, AMD et NVIDIA.

L'après Arc pourrait-il être synonyme de réussite graphique pour Intel ? © Intel
L'après Arc pourrait-il être synonyme de réussite graphique pour Intel ? © Intel

La conception des puces graphiques Intel pourrait drastiquement changer dans les prochaines années si l'on en croit le dépôt d'un nouveau brevet par l'entreprise. Un brevet qui met sur le devant de la scène un dessin moins monolithique.

Intel aurait effectivement dans l'idée de mettre en place des puces graphiques à base de chiplets, comme c'est déjà le cas dans le monde des CPU. Une idée qui n'est pas neuve, mais qui tarde à être appliquée.

Pas de GPU chiplet avant deux ou trois ans

Relayée par nos confrères de TechRadar, la nouvelle date déjà de quelques jours. Un certain Underfox a remarqué l'existence d'un nouveau brevet déposé par Intel, preuve que, malgré la tourmente, la firme américaine poursuit évidemment ses travaux.

Le brevet en question concerne une « disaggregated GPU architecture », qui constituera très certainement un « first commercial GPU architecture with logic chiplets » pour le géant du semi-conducteur. En bon français, il faut comprendre cela ainsi : Intel a imaginé une « architecture désagrégée » qui lui permettra de mettre au point sa « première architecture commerciale de GPU avec des chipsets logiques ».

L'idée est ici de marquer une rupture par rapport aux conceptions traditionnelles de GPU qui aboutissent à des puces dites monolithiques. En d'autres termes, ces puces sont composées d'un unique cœur qui rassemble tous ses éléments constitutifs. Au contraire, une puce désagrégée envisage le GPU comme un ensemble de cœurs distincts ayant chacun une fonction précise.

Dans le cas d'Intel, le passage à une architecture désagrégée ne pourrait intervenir tout de suite. Pour la génération Battlemage, déjà bien avancée, c'est rigoureusement impossible, et ce, même si les cartes ne sont pas attendues avant 2025.

De l'intérêt d'une architecture chiplet

En réalité, c'est même peut-être délicat pour la génération d'après, Celestial, alors que cela semble tout à fait envisageable pour la suivante, Druid. Cela dit, le dépôt d'un brevet ne signifie de toute façon pas qu'Intel va finalement emprunter cette voie du GPU « chiplet », une solution qui a cependant été retenue pour la conception des dernières générations de CPU, chez Intel comme chez AMD.

Un GPU chiplet dispose d'avantages indiscutables en matière de modularité et, donc, de flexibilité : il est possible de jouer sur les différents éléments associés et de les faire évoluer de manière indépendante. De fait, on profite souvent de gains substantiels en matière d'efficacité énergétique par rapport à une puce dite monolithique.

En revanche, le design chiplet pose de sérieuses questions de « communication », alors que les différents éléments constitutifs du GPU doivent être en mesure de s'échanger correctement les données. Les interconnexions au sein de la puce doivent être efficaces pour ne pas entraîner une chute des performances. Il se murmure d'ailleurs qu'Intel ne serait pas seule sur cette voie.

Toutefois, AMD aurait finalement décidé d'annuler la conception chiplet un temps envisagée sur la génération RDNA 4 et attendue pour le CES 2025. Du côté de NVIDIA, il était aussi question de chiplet pour Blackwell et les futures GeForce RTX 5000, mais là encore, tout porte à croire que ce n'est plus le cas. GPU et chiplet, un avenir encore à construire, donc…

Quelles sont les meilleures cartes graphiques ? Comparatif 2024
À découvrir
Quelles sont les meilleures cartes graphiques ? Comparatif 2024

17 octobre 2024 à 17h20

Comparatif

Source : TechRadar