Región de Murcia
Fundación Séneca
FSE

Técnicas Hardware para el Diseño de Aceleradores de Inferencia Eficientes De Redes Neuronales Profundas

Fecha de lectura

19/12/2022

Director

Manuel Eugenio Acacio Sánchez y José Luis Abellán Miguel

Grupo de investigación

Arquitecturas de Computadores y Sistemas Paralelos

Departamento

Departamento de Ingeniería y Tecnología de Computadores

Centro

Facultad de Informática

Organimso

Universidad de Murcia

Ciudad

Murcia

País

España

Abstract

Las redes Neuronales Profundas (Deep Neural Networks o DNNs) son programas de inteligencia artificial cuyas características requieren la máxima eficiencia energética en términos de procesamiento. El desarrollo de esta tesis doctoral se centra en el desarrollo de técnicas arquitecturales para mejorar los sistemas de procesamiento especializados para DNNs. En concreto, se realizan tres aportacianes principales:

1.       El desarrollo de una herramienta de simulación que permite por primera vez el desarrollo y evaluación de nuevos aceleradores y técncias microarquiecturales.

2.       El diseño y evaluación de STIFT, una red de interconexión de reducción que habilita por primera que los aceleradores flexibles puedan ejecutar DNNs modernas de forma eficiente.

El desarrollo de Flexagon, el primer acelerador que permite ejecutar de forma sparse varios flujos de datos, mejorando la eficiencia energética respecto al resto del estado del arte.

Visualizar Tesis


Aviso legalPolítica de privacidad