Avant d'entrer dans les détails de cette solution, Jen-Hsun Huang a tenu à expliquer à un parterre d'initiés le pourquoi de ces problèmes : de manière schématique, tout découle du manque de synchronisation entre la carte graphique et le moniteur. Un problème que l'option V-Sync permet de corriger partiellement, mais pas de manière convaincante puisqu'elle génère un tearing (ou déchirement) important.
NVIDIA a donc fait plancher ses ingénieurs et le résultat de leurs travaux tient en un module baptisé G-Sync. Petite carte électronique (en photo ci-dessus), le G-Sync s'intègre au moniteur afin de gérer la fréquence de rafraîchissement de ce dernier pour qu'elle soit plus en phase avec la vitesse d'animation du jeu.
Sur le papier, l'idée est toute simple : plutôt que d'opérer à fréquence fixe, le moniteur ajuste la diffusion de l'image à la vitesse de calcul du GPU. Du coup, la synchronisation entre les deux est parfaite et l'effet de tearing est supprimé alors, bien sûr, que le lag est inexistant puisque nous parlons ici de technologie compatible Kepler, c'est à dire de GPU plutôt véloces par nature.
Nous avons pu assister évidemment à une convaincante démonstration de cette technologie avec l'exemple d'une pendule et celui du dernier Tomb Raider de Crystal Dynamics. Précision utile : si la vitesse d'animation est très élevée alors le système se cale aux possibilités du moniteur afin que tout reste toujours parfaitement synchronisé.
NVIDIA n'a encore donné aucune idée du surcoût pour les moniteurs G-Sync approved, ni aucune date de disponibilité.
Màj du 06/02/2014 : notre test de G-Sync a depuis été publié.