Vous êtes ici

Back to top

Intel Nervana : Les premiers processeurs pour l'intelligence artificielle

APRNEWS - Intel Nervana : Les premiers processeurs pour l'intelligence artificielle
Jeudi, 22 août 2019

Intel Nervana : Les premiers processeurs pour l'intelligence artificielle

APRNEWS - À l'occasion de la conférence Hot Chips 31 qui s'est déroulée du 18 au 20 août à l'université Stanford aux États-Unis, Intel a dévoilé de nouvelles puces décrites comme étant des accélérateurs d'intelligence artificielle haute performance. Elles sont baptisées Intel Nervana « Neural Network Processors » (NNP) ou processeurs à réseau neuronal.

Intel a développé deux processeurs distincts qui s'appuient sur la nouvelle architecture Ice Lake de la firme en 10 nanomètres. Ils s'inscrivent dans la vision à long terme du constructeur, qui imagine déjà l'intelligence artificielle partout. Selon Naveen Rao, directeur général du département des produits d'intelligence artificielle d'Intel, « Pour parvenir à un futur où l'IA est partout, il sera nécessaire de prendre en charge l'énorme quantité de données générées et s'assurer que les entreprises disposent des outils pour utiliser de manière efficace leurs données là où elles sont produites. »

Deux processeurs, pour l’entraînement et la mise en pratique de l’IA

Le premier, appelé NNP-T et qui porte le nom de code Spring Crest, sert à l'entraînement de l'intelligence artificielle. Il diffère beaucoup des processeurs Intel Xeon qui apportent certaines instructions spécifiques à l'IA. Il s'agit ici d'une nouvelle architecture construite spécifiquement pour accélérer l'entraînement des réseaux neuronaux, tout en réduisant la consommation électriquenécessaire.

Le second processeur, qui se destine à un déploiement à plus grande échelle, s'appelle NNP-I (I pour inférence) ou Spring Hill. Dans le domaine de l'intelligence artificielle, l'inférence est la mise en pratique des algorithmes générés pendant l'entraînement, où l'IA va inférer des résultats à partir des données fournies (comme prédire votre prochain achat d'après les items consultés dans le magasin). Intel a donc prévu une carte qui pourra être branchée sur toute carte mère, mais vise avant tout les serveurs et les data centers, plutôt que le grand public. Facebook l'a d'ailleurs déjà intégré dans ses immenses serveurs.​

Le nouveau processeur s'intègre sur une carte qui s'insère de manière très simple sur un connecteur M.2 habituel. © Intel

Le nouveau processeur s'intègre sur une carte qui s'insère de manière très simple sur un connecteur M.2 habituel. © Intel 

Une carte compatible avec les serveurs existants

Le NNP-I se branche sur le port M.2 standard d'une carte mère, connu avant tout pour le branchement des cartes de stockage SSD, et permet donc de décharger le processeur principal des tâches qui font appel à l'intelligence artificielle. Le processeur utilise une interface PCI-Express3.0 x4 ou x8, et il est composé de deux cœurs dédiés à l'intelligence artificielle (SNC IA Core) et 12 moteurs d'inférence (Inference Compute Engines ou ICE).

La carte NNP-I est donc prévue pour être compatible avec la plupart des serveurs existants, nécessitant un simple branchement sur un emplacement libre. L'architecture est extensible, ce qui permet d'ajouter de multiples cartes au besoin sur un même serveur. Ce nouveau système est entièrement autonome ; Intel fournira des logiciels qui permettront d'envoyer des tâches directement à la puce NNP-I, contournant complètement le processeur principal de la machine.

Avec Futura