Interview : les prochains enjeux technologiques d'Intel

Julien Jay
Publié le 04 novembre 2011 à 19h36
000000D702443524-photo-justin-rattner-2.jpg
A l'occasion du récent événement Research @ Intel (voir Research@Intel : Intel ouvre un nouveau laboratoire européen), nous avons pu nous entretenir quelques instants avec Justin Rattner, le Chief Technology Officer, et accessoirement l'un des vice-présidents du fondeur. Quelque temps après notre interview avec Mark Bohr (voir Intel IDF 2011 : Interview de Mark Bohr, Monsieur Transistor), c'est l'occasion d'aborder des sujets moins techniques mais tout aussi importants. De la singularité à Apple, en passant par l'architecture x86, sa viabilité et la concurrence d'ARM, voilà les sujets qui nous occuperont !

Justin Rattner, bonjour. Depuis quelques années Intel évoque régulièrement la technologie photonique appliquée au silicium, autrement baptisée « silicon photonics ». Toutefois au-delà des effets d'annonce aucun produit ne semble encore profiter de cette technologie. Rencontrez-vous des difficultés particulières liées à la mise en œuvre des liaisons optiques dans les circuits intégrés d'aujourd'hui ?

Aujourd'hui, nous avons prouvé qu'il nous était possible de fabriquer dans nos usines des composants utilisant la photonique en grande quantité. Il y a un an et demi nous avons montré notre lien 50 Gb/s, pour la petite histoire d'ailleurs nous avions réussi à faire fonctionner le lien en question six mois auparavant mais nous attendions cet événement technique pour en faire la démonstration. A l'époque ce n'était que partiellement fabriqué en usine, il y avait des étapes critiques de fabrication que nous avions opérées en laboratoire.

Notre défi actuel est évidemment de tout faire en usine. Et cela implique bien sûr d'avoir la possibilité de le faire dans des volumes importants, avec un rendement acceptable et une fiabilité au rendez-vous. C'est ce qui occupe la grande partie de notre temps actuellement.

D'ici à la fin de l'année, ou peut être début 2012, nous publierons de nouveaux travaux de recherche et je pense qu'après il y aura une annonce produit, je ne peux pas encore dire laquelle. Les prochains résultats de recherche concerneront l'industrialisation, ce qui est une grande étape pour nous.

Pensez-vous que l'utilisation de la photonique sur silicium va concerner uniquement des interfaces de données (I/O) ou s'agira-t-il également d'avoir des interconnexions optiques entre les puces d'un même système ?

Non je pense que dans un premier temps il s'agira de répondre aux besoins élevés de bande passante des postes clients ou serveurs. Nous envisageons une utilisation de la photonique sur silicium dans les dispositifs de stockage pour que par exemple vous puissiez en allant au supermarché télécharger un Blu-ray ou un format de qualité encore supérieure en une poignée de secondes avec un débit avoisinant la centaine de gigabits par seconde.

Mais pensez-vous que la technologie de photonique sur silicium a du sens pour déplacer des données entre les cœurs d'un processeur, entre des puces d'une carte mère, etc. ?

Je ne pense pas qu'on puisse s'approcher, à l'heure actuelle, du signal électrique sur des courtes distances. J'aime à penser que mon équipe photonique reste honnête en m'assurant que mon équipe électronique fait du mieux qu'elle peut ! Nous avons au niveau de l'équipe électronique de très bons résultats puisqu'on va dépasser les 10 Gigabits par seconde sur de courtes distances.

Quel futur voyez-vous pour l'architecture x86, au-delà de l'initiative MIC (Many Integrated Core) ? Quels sont les principaux challenges que doit affronter le x86 ?

Le challenge pour n'importe quelle architecture est sa capacité à évoluer ! Etonnamment, les architectures se rapprochent de la biologie : il s'agit d'évoluer ou de mourir. Si vous avez une architecture où toute évolution est difficile ou impossible, vous avez un vrai problème. Ce n'est certainement pas le cas de l'architecture Intel ! Elle a connu tellement d'évolutions, du 16 bits au 32 bits en passant par le 64 bits. J'admets volontiers que nous n'étions pas les premiers sur ce dernier point. Nous avions l'architecture 64 bits, mais nous n'étions pas les premiers à la mettre sur le marché.

De l'absence de gestion de mémoire à l'intégration d'un contrôleur, la prise en charge complète des machines virtuelles avec Virtual I/O, sont autant d'indicateurs qui prouvent que notre architecture est robuste et évolutive. Nous travaillons activement à apporter des fonctionnalités de sécurisation à l'architecture. C'est dans cet esprit que nous avons annoncé DeepSafe à l'occasion du dernier IDF. McAfee a d'ailleurs récemment du évoquer l'arrivée sur le marché de produits basés sur cette technologie. Il s'agit d'une évolution de l'architecture pour la sécurité. Nous avons déjà fait des progrès dans le domaine de la sécurité, notamment avec AES pour accélérer des technologies telles que SSL, et nous avons obtenu des résultats entre 3 et 4 fois plus rapides, selon la méthode de calcul. La sécurité est un domaine où il faut s'attendre à de nombreuses évolutions d'architecture dans les trois à quatre années à venir.

Tant que nous pourrons conserver une certaine fraicheur dans l'architecture en répondant aux changements qui interviennent sur le marché, elle demeurera pertinente pour un bon moment. Je pense qu'avec le Pentium Pro nous avons montré qu'il était possible de perturber ce qui était l'architecture émergente de l'époque, l'architecture RISC, et démonter la croyance selon laquelle l'architecture Intel ou toute architecture avec un jeu d'instruction complexe allait rencontrer des problèmes de performance. A partir du moment où nous avons pulvérisé ce mythe, cela a garanti une longue vie à notre architecture et presque mis un terme à la guerre des jeux d'instruction.

Puisque vous évoquez le sujet, ne pensez-vous pas que cette guerre des jeux d'instruction ressurgit de nos jours, spécifiquement si l'on considère le marché de la mobilité ?

Non je ne pense pas. Vous savez, je pense que nous avons clairement soutenu l'architecture ARM pendant trop longtemps. Revenons quelques années en arrière : nous disposions d'une licence ARM suite à l'acquisition de Digital Semiconductor. Nous avons alors conçu les processeurs XScale : ils étaient au cœur des gammes Blackberry. Puis nous avons pris la décision de nous consacrer exclusivement à l'architecture Intel sur toute la gamme.

Nous avons aussi eu l'Itanium il fut un temps tout au sommet de notre offre, mais nous avons depuis donné la plupart des capacités et fonctions des Itanium aux Xeon, particulièrement en ce qui concerne la fiabilité exigée sur les serveurs très haut de gamme.

Notre challenge est de concevoir des SOC (processeurs tout en un) avec l'architecture Intel. C'est un avantage de l'écosystème ARM à l'heure actuelle. Cependant, il n'est pas propre à ARM mais bien à l'écosystème dont bénéficie ARM. Maintenant nous devons nous approcher de cet écosystème en proposant ce type de SOC complexe. On apprend à le faire, et ça commence à porter ses fruits.

Un téléphone avec un SOC Intel, qui ressemble beaucoup au vôtre (NDLR : un iPhone 4) en est actuellement aux dernières étapes de son développement. Nous devons maintenant nous assurer qu'il sorte sur le marché, et que les autres produits le suivent de manière bien plus rapide. Ca ne sera pas une question de jeux d'instructions, je vous le garantis.

Il n'y a donc aucun regret d'avoir vendu la division en charge des processeurs XScale ?

Des regrets ? Non je ne pense pas. Je pense que vous serez seul juge. Atom n'existerait pas aujourd'hui si on s'était concentré sur XScale. Dans nos laboratoires, nous avons notamment réussi à prouver que nous pouvions construire un processeur à architecture Intel qui s'approchait de ce qu'on pouvait faire du côté d'ARM en terme d'efficacité énergétique. C'était le problème numéro un. Y avait-il quelque chose de magique dans l'architecture ARM qui leur permettait de concevoir des puces aussi efficaces énergétiquement parlant ?

C'était d'ailleurs plutôt sympathique d'avoir un responsable expérimenté et talentueux du développement ARM dans nos murs. On s'est réuni pour lui demander : que savez-vous que nous ignorons ? Ils ont partagé toutes leurs connaissances avec bon vouloir puisqu'il s'agissait d'employés Intel. Ils nous ont confirmé que l'on pouvait faire tout cela avec l'architecture Intel. C'est ce processus qui nous a conduit à l'Atom et je pense que c'était une bonne chose pour nous.

Et laissez-moi revenir à mon précédent commentaire sur la sécurité. Les fonctionnalités de sécurité sont vraiment une partie importante de l'architecture. Vous allez les retrouver aussi bien dans les Atom que dans la famille Core et même dans les Xeon ! Si nous avions du faire cela non seulement sur l'architecture Intel mais également sur l'architecture ARM, la complexité de la chose aurait été inimaginable ! Pour que nous puissions opérer des changements d'architecture, il nous aurait fallu nous rapprocher de la holding ARM en expliquant notre but, et peut être qu'ils auraient accepté ou non de le faire.

On croit vraiment que si on peut proposer l'architecture Intel à n'importe quel niveau de consommation énergétique souhaité, on est mieux loti en faisant un seul et unique investissement architectural plutôt que deux ou trois !

023F000004724656-photo-intel-justin-rattner-cto-idf-2011.jpg

Justin Rattner dans tous ses états lors du dernier IDF


Pensez-vous qu'un jour un processeur avec des cœurs asymétriques fera sens ou doit-on oublier cette idée ?

Sandy Bridge a des cœurs d'exécution CPU et GPU sur le même morceau de silicium, plusieurs cœurs de chaque. Lors du dernier IDF nous avons eu cette démo d'une application plutôt intelligente de reconnaissance faciale. Nous utilisons les cœurs GPU pour une détection de fonction et les cœurs CPU pour la tâche de reconnaissance à proprement parler. Avec cette application, une fois qu'on a reconnu qui vous êtes, on décrypte une partie de l'album photo que nous avons créé de façon à ce que vous voyez seulement les photographies que vous êtes autorisé à visionner, alors que les autres photos restent chiffrées. Et nous effectuons le décryptage RSA directement sur les cœurs GPU.

Alors on peut qualifier cette application d'hétérogène, d'hybride, ou d'asymétrique, peu importe le terme que vous préférez ! Mais je pense que nous faisons cela aujourd'hui et nous avons des améliorations d'architecture en projet qui rendront ce type de tâche plus efficace à l'avenir tant en terme de performances pures qu'en terme de consommation. On ne peut pas ignorer le côté asymétrique, particulièrement si l'on veut concevoir les systèmes les plus efficaces énergétiquement parlant. Il n'y a rien qui puisse s'approcher de l'efficacité d'un processeur spécialisé, et il ne s'agit pas nécessairement d'un processeur d'ailleurs mais cela peut tout aussi bien être un bloc de fonction ! Si vous savez que vous allez décoder du H.264 vous pouvez concevoir un décodeur matériel pour cela et aucun processeur programmable ne pourra s'approcher de ce niveau de performance et d'efficacité énergétique.

Si vous pouviez apporter un seul changement à l'architecture x86 dans le futur, quel serait-il ?

Geez ! Qu'est ce que je peux bien répondre à cela ? Je ne vais peut être pas répondre à la question en terme de fonctions. Personnellement je suis très impliqué pour m'assurer que l'architecture soit déclinée vers le bas. A l'IDF, nous avons pu présenter un processeur Pentium qui fonctionnait à une tension proche de celle du seuil des transistors (voir Intel Claremont : un processeur consommant moins de 10 milliwatts). Il était alimenté par une cellule photovoltaïque et consommait dans les 7mw. Il s'agissait d'un Pentium des années 1992 : nous avons littéralement extrait la base de données de l'époque pour tout refaire avec une topologie de circuit s'approchant du seuil de fonctionnement des transistors pour montrer qu'on pouvait fonctionner à ces très faibles niveaux de voltage.

Je pense que cette notion de concevoir des processeurs à architecture Intel avec une très faible consommation sera la clé sur le long terme pour des périphériques embarqués ou des dispositifs permettant d'accéder à Internet.

La démonstration avec le capteur solaire avait des airs de TP de sciences, et du coup le processeur Claremont s'est vite fait connaître comme un processeur fonctionnant à l'énergie solaire. Ce n'est pas nécessairement ce que nous voulions. Abaisser la consommation de l'architecture Intel fait partie de nos objectifs, mais nous cherchons également à réduire la taille même des puces ! Nous avons des designs dans les laboratoires où nous pouvons faire des processeurs IA s'approchant d'une surface d'1mm² !

Que pouvez nous dire sur la singularité ? Est-ce que selon vous la singularité s'approche plus rapidement que votre première estimation autour de 2050 ?

Excellente question ! Je répondrais de cette façon : je ne m'attends pas à ce que l'intelligence des machines se rapproche de l'intelligence biologique. Vous savez, les avions ne battent pas des ailes ! Bien sûr certains ont essayé... On comprend les principes physiques importants liés au vol. La même chose est vraie pour les machines. Elles embarqueront beaucoup plus de principes fondamentaux liés à l'intelligence mais elles se manifesteront d'une façon appropriée à leur technologie.

Je pense que nous sommes très proches, une ou deux générations, d'un saut conséquent vers ce que nous percevons comme des périphériques intelligents. L'intelligence artificielle, particulièrement l'apprentissage machine, va s'améliorer progressivement. Ils pourront reconnaitre nos visages, l'environnement, être au courant de beaucoup d'éléments de notre contexte personnel, lire nos calendriers, nos réseaux sociaux, ils sauront tout et ils tireront des conclusions de ces connaissances. L'évolution sera donc régulière. Qu'il s'agisse de 2020 ou 2030, mon estimation n'est pas meilleure que celle d'un autre. Il n'y aura pas de virage où on se dira que ces choses sont aussi intelligentes que nous le sommes. On va probablement commencer à débattre de ce sujet d'ici une vingtaine d'années.

Mais quant à savoir quand cette évolution se produira réellement, ça reste un sujet de débat pour les philosophes dans les années à venir ! Car très rapidement, si ce n'est déjà actuellement, les périphériques vont faire des choses qui vont bien au-delà de notre intelligence. Et on voudra tester leur intelligence. Quand la machine nous surpassera pour concevoir son successeur, alors nous aurons perdu la guerre...

L'actualité ces dernières semaines a été marquée par la disparition de Steve Jobs. Que retenez-vous de l'homme ? Quel influence a-t'il eu dans le travail d'Intel ?

Steve a eu un effet profond sur Intel. Il nous a taquiné pendant des années en pensant migrer vers notre architecture. Ils nous ont approché à de nombreuses reprises, mais ils se sont vraiment mis à envisager sérieusement cette transition à partir de Centrino . Notre équipe de prise en charge système d'exploitation tient un journal des versions de MacOS déjà portées sur Intel plutôt impressionnant ! Et nous avons pu profiter de ce travail lorsqu'ils sont venus nous voir pour la enième fois. Le portage de MacOS à l'architecture Intel a donc pris très peu de temps.

Je ne pense pas que l'on puisse travailler avec Apple sans qu'ils ne vous influencent, et à plus forte raison avec un personnage comme Steve Jobs ! Apple se distingue des autres fabricants par l'expérience unique qu'ils s'engagent à fournir à leurs clients, et toute technologie qui va dans ce sens devient alors leur priorité. Ils ne se soucient pas de savoir si quelqu'un d'autre va le faire, si quelqu'un d'autre va investir ou de réunir un comité de standardisation... Cela ne veut rien dire pour eux.

Tout ce qui les intéresse c'est de savoir si la technologie en question va améliorer le produit, quel qu'il soit, et c'est ce qui leur a permis de se distinguer. Quand ils ont décidé de concevoir ce portable ultra-fin qu'est devenu le MacBook Air, l'un de leurs objectifs prioritaires s'est porté vers la recherche d'un packaging de processeur compact... Mais ce n'était pas sur notre feuille de route ! Nous avions des prototypes en laboratoire mais pas en production ! Ils ont donc tout simplement décidé de faire de ce prototype de R&D un produit fini et de l'intégrer dans le MacBook Air !

Plus récemment ils ont eu vent de la technologie que nous appelions à l'époque Lightpeak, et que Steve a personnellement renommée en Thunderbolt. Quand ils ont vu ce que cette technologie d'interface ultra rapide pouvait leur apporter en terme d'architecture système, c'est devenu leur priorité numéro un. Même Paul Otellini était étonné ! C'était la première fois qu'une technologie présente dans nos laboratoires était intégrée directement dans un produit par un client sans passer par les habituels cycles de planification. Ils nous ont littéralement mis devant le fait accompli : développez le pour nous, ou proposez le nous sous licence mais quoiqu'il arrive, on l'intègrera sur l'ensemble de notre gamme !

Tout cela est le résultat de la volonté totale et absolue de Steve de créer une expérience unique en matière d'informatique, en faisant tout ce qu'il fallait pour atteindre cet objectif. Apple aura beaucoup de mal à continuer cette démarche sans lui. Mais sa disparition incitera peut être d'autres acteurs de l'industrie à reprendre à leur compte cette exigence. Steve l'a fait. On verra si l'industrie actuelle sera capable de s'inspirer de sa réussite ou si le prochain Steve Jobs ne se manifestera que dans quelques décennies.
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Abonnez-vous à notre newsletter !

Recevez un résumé quotidien de l'actu technologique.

Désinscrivez-vous via le lien de désinscription présent sur nos newsletters ou écrivez à : [email protected]. en savoir plus sur le traitement de données personnelles