Mostrar el registro sencillo del ítem

dc.contributor.advisorJulián, Pedro
dc.contributor.authorRodríguez, Nicolás Daniel
dc.contributor.otherPaolini, Eduardo
dc.date2025-03-05
dc.date.accessioned2025-10-15T12:33:16Z
dc.date.available2025-10-15T12:33:16Z
dc.date.issued2024
dc.identifier.other2025-1966es_AR
dc.identifier.urihttps://repositoriodigital.uns.edu.ar/handle/123456789/7328
dc.description.abstractEsta tesis se enfoca en el desarrollo e implementación de aceleradores en circuitos integrados de uso específico (ASIC) para la ejecución eficiente de Redes Neuronales Profundas (DNN). Estas redes se caracterizan por involucrar una gran cantidad de datos, tanto de parámetros como de entradas, por lo que resulta imprescindible no solo un cómputo energéticamente eficiente, sino también un balance óptimo entre la transferencia de datos y el procesamiento. Para ello, en este trabajo se propone un algoritmo Simplicial Simétrico a Canales Separados (ChSymSim), que produce implementaciones de bajo consumo, y se optimiza una arquitectura que permite so portar la ejecución de distintos tipos de capas (diversas configuraciones de precisión, kernel, stride y padding) manteniendo la eficiencia energética. Para poner en evidencia el impacto de la implementación, se realizaron dos prototipos preliminares con estructuras de prueba y evaluación (I/O de datos, buses, configuración, control) y se culminó con la fabricación de un sistema en chip (SoC) complejo de 9mm2 en una tecnología de 65nm. Adicionalmente, se desarrollaron técnicas de entrenamiento con cuantización (QAT), optimizadas para funciones Simpliciales Simétricas en punto fijo. Los experimentos realizados mostraron una eficiencia energética elevada, alcanzando valores promedios superiores a los 4 TOPS/W bajo diversas configuraciones, con un máximo de 12,12 TOPS/W. Estos resultados permiten asegurar que el acelerador ChSymSim propuesto es una solución viable para el procesamiento eficiente de algoritmos para aprendizaje de máquina (ML) en dispositivos embebidos de baja potencia.es_AR
dc.description.abstractThis thesis focuses on the development and implementation of accelerators in application-specific integrated circuits (ASIC) for the efficient execution of Deep Neural Networks (DNN). These networks involve a large amount of data, both in terms of parameters and inputs, making it essential to achieve not only energy efficient processing but also an optimal balance between data transfer and compu tation. To this end, this work proposes a Channel-wise Symmetric Simplicial al gorithm (ChSymSim), which yields low-power implementations, and optimizes an architecture that supports the execution of different types of layers (various configu rations of precision, kernel, stride, and padding) while maintaining energy efficiency. To highlight the impact of the implementation, two preliminary prototypes were developed with testing and evaluation structures (data I/O, buses, configuration, control), culminating in the fabrication of a complex system-on-chip (SoC), with an area of 9mm2 in a 65nm technology. Additionally, quantization-aware training (QAT) techniques were developed, optimized for Symmetric Simplicial functions in fixed-point arithmetic. The experiments conducted showed high energy efficiency, achieving average va lues above 4 TOPS/W under various configurations, with a maximum of 12,12 TOP S/W. These results confirm that the proposed ChSymSim accelerator is a viable so lution for the efficient processing of machine learning (ML) algorithms in low-power embedded devices.es_AR
dc.formatapplication/pdfes_AR
dc.format.extent322 p.es_AR
dc.language.isospaes_AR
dc.rightsReconocimiento-CompartirIgual 4.0 (CC BY-SA 4.0)es_AR
dc.rights.urihttp://creativecommons.org/licenses/by-sa/4.0/es_AR
dc.subjectIngenieríaes_AR
dc.subjectCircuitos neuronales profundases_AR
dc.titleCircuitos integrados de bajo consumo para arquitecturas de redes neuronales profundases_AR
dc.typetesis doctorales_AR
bcuns.collection.nameBiblioteca Digital Académicaes
bcuns.collection.acronymBDAes
bcuns.collection.urlhttp://tesis.uns.edu.ar/es
bcuns.collection.institutionBiblioteca Central de la Universidad Nacional del Sures
bcuns.depositorylibrary.nameBiblioteca Central de la Universidad Nacional del Sures
bcuns.author.affiliationUniversidad Nacional del Sur. Departamento de Ingeniería Eléctrica y de Computadorases_AR
bcuns.author.affiliationSilicon Austria Labs GmbH
bcuns.authoraffiliation.acronymUNSes_AR
bcuns.authoraffiliation.acronymSAL
bcuns.authoraffiliation.countryArgentinaes_AR
bcuns.advisor.affiliationUniversidad Nacional del Sur. Departamento de Ingeniería Eléctrica y de Computadorases_AR
bcuns.advisor.affiliationConsejo Nacional de Investigaciones Científicas y Técnicas - Universidad Nacional del Sur. Instituto de Investigaciones en Ingeniería Eléctrica "Alfredo Desages"es_AR
bcuns.advisoraffiliation.acronymCONICET-IIIEes_AR
bcuns.defense.cityBahía Blancaes
bcuns.defense.provinceBuenos Aireses
bcuns.defense.countryArgentinaes
bcuns.programme.nameDoctorado en Ingenieríaes_AR
bcuns.programme.departmentDepartamento de Ingeniería Eléctrica y de Computadorases_AR
bcuns.thesisdegree.nameDoctor en Ingenieríaes_AR
bcuns.thesisdegree.grantorUniversidad Nacional del Sur. Departamento de Ingeniería Eléctrica y de Computadorases_AR
uns.type.publicationVersionacceptedes_AR
bcuns.contributorother.affiliationUniversidad Nacional del Sur. Departamento de Ciencias e Ingeniería de la Computaciónes_AR
bcuns.contributorother.affiliationConsejo Nacional de Investigaciones Científicas y Técnicas - Universidad Nacional del Sur. Instituto de Investigaciones en Ingeniería Eléctrica "Alfredo Desages"es_AR
bcuns.depositarylibrary.acronymEUNes
bcuns.subject.keywordsRedes neuronales profundases_AR
bcuns.subject.keywordsCircuitos integrados eficienteses_AR
bcuns.subject.keywordsSistema en chipes_AR
bcuns.subject.keywordsAlgoritmo simplicial simétricoes_AR
dcterms.accessRights.openAireinfo:eu-repo/semantics/openAccesses_AR
bcuns.contributorotheraffiliation.acronymUNSes_AR
bcuns.contributorotheraffiliation.acronymCONICET-IIIEes_AR
bcuns.contributorotheraffiliation.countryArgentinaes_AR
uns.oai.snrdsies_AR


Ficheros en el ítem

Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

  • Tesis de postgrado [1461]
    Reúne los trabajos finales de los estudios de posgrado de la UNS (especializaciones, maestrías y doctorados)

Mostrar el registro sencillo del ítem

Reconocimiento-CompartirIgual 4.0 (CC BY-SA 4.0)
Excepto si se señala otra cosa, la licencia del ítem se describe como Reconocimiento-CompartirIgual 4.0 (CC BY-SA 4.0)