Mostrar el registro sencillo del ítem
Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundas
dc.contributor.advisor | Julián, Pedro | |
dc.contributor.author | Rodríguez, Nicolás Daniel | |
dc.contributor.other | Paolini, Eduardo | |
dc.date | 2025-03-05 | |
dc.date.accessioned | 2025-10-15T12:33:16Z | |
dc.date.available | 2025-10-15T12:33:16Z | |
dc.date.issued | 2024 | |
dc.identifier.other | 2025-1966 | es_AR |
dc.identifier.uri | https://repositoriodigital.uns.edu.ar/handle/123456789/7328 | |
dc.description.abstract | Esta tesis se enfoca en el desarrollo e implementación de aceleradores en circuitos integrados de uso específico (ASIC) para la ejecución eficiente de Redes Neuronales Profundas (DNN). Estas redes se caracterizan por involucrar una gran cantidad de datos, tanto de parámetros como de entradas, por lo que resulta imprescindible no solo un cómputo energéticamente eficiente, sino también un balance óptimo entre la transferencia de datos y el procesamiento. Para ello, en este trabajo se propone un algoritmo Simplicial Simétrico a Canales Separados (ChSymSim), que produce implementaciones de bajo consumo, y se optimiza una arquitectura que permite so portar la ejecución de distintos tipos de capas (diversas configuraciones de precisión, kernel, stride y padding) manteniendo la eficiencia energética. Para poner en evidencia el impacto de la implementación, se realizaron dos prototipos preliminares con estructuras de prueba y evaluación (I/O de datos, buses, configuración, control) y se culminó con la fabricación de un sistema en chip (SoC) complejo de 9mm2 en una tecnología de 65nm. Adicionalmente, se desarrollaron técnicas de entrenamiento con cuantización (QAT), optimizadas para funciones Simpliciales Simétricas en punto fijo. Los experimentos realizados mostraron una eficiencia energética elevada, alcanzando valores promedios superiores a los 4 TOPS/W bajo diversas configuraciones, con un máximo de 12,12 TOPS/W. Estos resultados permiten asegurar que el acelerador ChSymSim propuesto es una solución viable para el procesamiento eficiente de algoritmos para aprendizaje de máquina (ML) en dispositivos embebidos de baja potencia. | es_AR |
dc.description.abstract | This thesis focuses on the development and implementation of accelerators in application-specific integrated circuits (ASIC) for the efficient execution of Deep Neural Networks (DNN). These networks involve a large amount of data, both in terms of parameters and inputs, making it essential to achieve not only energy efficient processing but also an optimal balance between data transfer and compu tation. To this end, this work proposes a Channel-wise Symmetric Simplicial al gorithm (ChSymSim), which yields low-power implementations, and optimizes an architecture that supports the execution of different types of layers (various configu rations of precision, kernel, stride, and padding) while maintaining energy efficiency. To highlight the impact of the implementation, two preliminary prototypes were developed with testing and evaluation structures (data I/O, buses, configuration, control), culminating in the fabrication of a complex system-on-chip (SoC), with an area of 9mm2 in a 65nm technology. Additionally, quantization-aware training (QAT) techniques were developed, optimized for Symmetric Simplicial functions in fixed-point arithmetic. The experiments conducted showed high energy efficiency, achieving average va lues above 4 TOPS/W under various configurations, with a maximum of 12,12 TOP S/W. These results confirm that the proposed ChSymSim accelerator is a viable so lution for the efficient processing of machine learning (ML) algorithms in low-power embedded devices. | es_AR |
dc.format | application/pdf | es_AR |
dc.format.extent | 322 p. | es_AR |
dc.language.iso | spa | es_AR |
dc.rights | Reconocimiento-CompartirIgual 4.0 (CC BY-SA 4.0) | es_AR |
dc.rights.uri | http://creativecommons.org/licenses/by-sa/4.0/ | es_AR |
dc.subject | Ingeniería | es_AR |
dc.subject | Circuitos neuronales profundas | es_AR |
dc.title | Circuitos integrados de bajo consumo para arquitecturas de redes neuronales profundas | es_AR |
dc.type | tesis doctoral | es_AR |
bcuns.collection.name | Biblioteca Digital Académica | es |
bcuns.collection.acronym | BDA | es |
bcuns.collection.url | http://tesis.uns.edu.ar/ | es |
bcuns.collection.institution | Biblioteca Central de la Universidad Nacional del Sur | es |
bcuns.depositorylibrary.name | Biblioteca Central de la Universidad Nacional del Sur | es |
bcuns.author.affiliation | Universidad Nacional del Sur. Departamento de Ingeniería Eléctrica y de Computadoras | es_AR |
bcuns.author.affiliation | Silicon Austria Labs GmbH | |
bcuns.authoraffiliation.acronym | UNS | es_AR |
bcuns.authoraffiliation.acronym | SAL | |
bcuns.authoraffiliation.country | Argentina | es_AR |
bcuns.advisor.affiliation | Universidad Nacional del Sur. Departamento de Ingeniería Eléctrica y de Computadoras | es_AR |
bcuns.advisor.affiliation | Consejo Nacional de Investigaciones Científicas y Técnicas - Universidad Nacional del Sur. Instituto de Investigaciones en Ingeniería Eléctrica "Alfredo Desages" | es_AR |
bcuns.advisoraffiliation.acronym | CONICET-IIIE | es_AR |
bcuns.defense.city | Bahía Blanca | es |
bcuns.defense.province | Buenos Aires | es |
bcuns.defense.country | Argentina | es |
bcuns.programme.name | Doctorado en Ingeniería | es_AR |
bcuns.programme.department | Departamento de Ingeniería Eléctrica y de Computadoras | es_AR |
bcuns.thesisdegree.name | Doctor en Ingeniería | es_AR |
bcuns.thesisdegree.grantor | Universidad Nacional del Sur. Departamento de Ingeniería Eléctrica y de Computadoras | es_AR |
uns.type.publicationVersion | accepted | es_AR |
bcuns.contributorother.affiliation | Universidad Nacional del Sur. Departamento de Ciencias e Ingeniería de la Computación | es_AR |
bcuns.contributorother.affiliation | Consejo Nacional de Investigaciones Científicas y Técnicas - Universidad Nacional del Sur. Instituto de Investigaciones en Ingeniería Eléctrica "Alfredo Desages" | es_AR |
bcuns.depositarylibrary.acronym | EUN | es |
bcuns.subject.keywords | Redes neuronales profundas | es_AR |
bcuns.subject.keywords | Circuitos integrados eficientes | es_AR |
bcuns.subject.keywords | Sistema en chip | es_AR |
bcuns.subject.keywords | Algoritmo simplicial simétrico | es_AR |
dcterms.accessRights.openAire | info:eu-repo/semantics/openAccess | es_AR |
bcuns.contributorotheraffiliation.acronym | UNS | es_AR |
bcuns.contributorotheraffiliation.acronym | CONICET-IIIE | es_AR |
bcuns.contributorotheraffiliation.country | Argentina | es_AR |
uns.oai.snrd | si | es_AR |
Ficheros en el ítem
Este ítem aparece en la(s) siguiente(s) colección(ones)
-
Tesis de postgrado [1461]
Reúne los trabajos finales de los estudios de posgrado de la UNS (especializaciones, maestrías y doctorados)