La conception numérique de nos ordinateurs de tous les jours est idéale pour la lecture des e-mails et les jeux, mais les ordinateurs de résolution de problèmes d'aujourd'hui travaillent avec de grandes quantités de données. La capacité à la fois de stocker et de traiter ces informations peut entraîner des goulots d'étranglement de performances en raison de la façon dont les ordinateurs sont construits.
La prochaine révolution informatique pourrait être un nouveau type de matériel, appelé traitement en mémoire (PIM), un paradigme informatique émergent qui fusionne la mémoire et l'unité de traitement et effectue ses calculs en utilisant les propriétés physiques de la machine -- non 1s ou 0s nécessaires pour effectuer le traitement numériquement.
À l'université de Washington à Saint-Louis, des chercheurs du laboratoire de Xuan "Silvia" Zhang, professeur associé au département Preston M. Green d'électricité et d'amp; L'ingénierie des systèmes de la McKelvey School of Engineering a conçu un nouveau circuit PIM, qui apporte la flexibilité des réseaux neuronaux à l'informatique PIM. Le circuit a le potentiel d'augmenter les performances de l'informatique PIM par des ordres de grandeur au-delà de ses capacités théoriques actuelles.
Leur recherche a été publiée en ligne le 27 octobre dans la revue IEEE Transactions on Computers. Le travail était une collaboration avec Li Jiang à l'Université Jiao Tong de Shanghai en Chine.
Les ordinateurs de conception traditionnelle sont construits à l'aide d'une architecture Von Neuman. Une partie de cette conception sépare la mémoire - où les données sont stockées - et le processeur - où le calcul réel est effectué.
publicité"Les défis informatiques d'aujourd'hui sont gourmands en données", a déclaré Zhang. "Nous devons traiter des tonnes de données, ce qui crée un goulot d'étranglement au niveau des performances à l'interface du processeur et de la mémoire."
Les ordinateurs PIM visent à contourner ce problème en fusionnant la mémoire et le traitement en une seule unité.
L'informatique, en particulier l'informatique pour les algorithmes d'apprentissage automatique d'aujourd'hui, est essentiellement une série complexe, extrêmement complexe, d'additions et de multiplications. Dans une unité centrale de traitement (CPU) numérique traditionnelle, cela se fait à l'aide de transistors, qui sont essentiellement des portes commandées en tension pour permettre au courant de circuler ou de ne pas circuler. Ces deux états représentent respectivement 1 et 0. En utilisant ce code numérique - code binaire - un processeur peut effectuer n'importe quelle opération arithmétique nécessaire pour faire fonctionner un ordinateur.
Le type de PIM sur lequel travaille le laboratoire de Zhang s'appelle PIM à mémoire résistive à accès aléatoire, ou RRAM-PIM. Alors que dans un processeur, les bits sont stockés dans un condensateur dans une cellule mémoire, les ordinateurs RRAM-PIM reposent sur des résistances, d'où leur nom. Ces résistances sont à la fois la mémoire et le processeur.
Le bonus ? "Dans la mémoire résistive, vous n'avez pas à traduire en numérique ou en binaire. Vous pouvez rester dans le domaine analogique." C'est la clé pour rendre les ordinateurs RRAM-PIM beaucoup plus efficaces.
publicité"Si vous avez besoin d'ajouter, vous connectez deux courants", a déclaré Zhang. "Si vous avez besoin de multiplier, vous pouvez modifier la valeur de la résistance."
Mais à un moment donné, les informations doivent être traduites dans un format numérique pour s'interfacer avec les technologies que nous connaissons. C'est là que RRAM-PIM a atteint son goulot d'étranglement - en convertissant les informations analogiques en un format numérique. Ensuite, Zhang et Weidong Cao, un associé de recherche postdoctoral dans le laboratoire de Zhang, ont introduit les approximateurs neuronaux.
"Un approximateur neuronal est construit sur un réseau neuronal qui peut approximer des fonctions arbitraires", a déclaré Zhang. Étant donné n'importe quelle fonction, l'approximateur neuronal peut remplir la même fonction, mais améliorer son efficacité.
Dans ce cas, l'équipe a conçu des circuits approximateurs neuronaux qui pourraient aider à éliminer le goulot d'étranglement.
Dans l'architecture RRAM-PIM, une fois que les résistances d'un réseau crossbar ont effectué leurs calculs, les réponses sont traduites dans un format numérique. Cela signifie en pratique que l'on additionne les résultats de chaque colonne de résistances sur un circuit. Chaque colonne produit un résultat partiel.
Chacun de ces résultats partiels, à son tour, doit ensuite être converti en informations numériques dans ce qu'on appelle une conversion analogique-numérique, ou ADC. La conversion est énergivore.
L'approximation neuronale rend le processus plus efficace.
Au lieu d'ajouter chaque colonne une par une, le circuit d'approximation neuronale peut effectuer plusieurs calculs : vers le bas, entre les colonnes ou de la manière la plus efficace. Cela conduit à moins d'ADC et à une efficacité informatique accrue.
La partie la plus importante de ce travail, a déclaré Cao, consistait à déterminer dans quelle mesure ils pouvaient réduire le nombre de conversions numériques se produisant le long du bord extérieur du circuit. Ils ont découvert que les circuits approximateurs neuronaux augmentaient l'efficacité autant que possible.
"Peu importe le nombre de sommes partielles analogiques générées par les colonnes du tableau crossbar RRAM - 18, 64 ou 128 - nous n'avons besoin que d'une seule conversion analogique-numérique", a déclaré Cao. "Nous avons utilisé une implémentation matérielle pour atteindre la limite basse théorique."
Les ingénieurs travaillent déjà sur des prototypes à grande échelle d'ordinateurs PIM, mais ils ont été confrontés à plusieurs défis, a déclaré Zhang. L'utilisation des approximateurs neuronaux de Zhang et Cao pourrait éliminer l'un de ces défis - le goulot d'étranglement, prouvant que ce nouveau paradigme informatique a le potentiel d'être beaucoup plus puissant que ne le suggère le cadre actuel. Pas seulement une ou deux fois plus puissant, mais 10 ou 100 fois plus.
"Notre technologie nous permet de nous rapprocher un peu plus de ce type d'ordinateur", a déclaré Zhang.