Mostrar el registro sencillo del ítem
Redes neuronales profundas para la resolución de problemas de regresión con bases de datos tabulares pequeñas
| dc.contributor.advisor | Brignole, Nélida Beatriz | |
| dc.contributor.author | Chiarvetto Peralta, Lucila Lourdes | |
| dc.date | 2023-12-05 | |
| dc.date.accessioned | 2025-12-30T12:33:24Z | |
| dc.date.available | 2025-12-30T12:33:24Z | |
| dc.date.issued | 2023 | |
| dc.identifier.other | 2023-1909ch | es_AR |
| dc.identifier.uri | https://repositoriodigital.uns.edu.ar/handle/123456789/7401 | |
| dc.description.abstract | Las redes neuronales artificiales (ANN: Artificial Neural Networks) recientemente han tenido un gran impacto en la resolución de algunos problemas debido a que ha sido posible la implementación de algoritmos que requieren una gran capacidad de cómputo. Simultáneamente, enormes volúmenes de datos han sido dispuestos para el entrenamiento de estos modelos. Aunque la capacidad de cómputo ya no supone una restricción, la disponibilidad de volúmenes de datos puede ser un problema en algunos contextos en los cuales no siempre es factible obtener nuevos. En esta tesis se analizan modelos de ANN profundas con bases de datos tabulares pequeñas circunscritos a problemas de regresión. Una tarea de regresión se define como el mapeo de un valor numérico en referencia a una entrada también numérica. Se espera que cumpla con las siguientes características: carencia de sesgo, consistencia y eficiencia. Además, se ha propuesto una definición de base de datos pequeña para ANN a fines prácticos: la cantidad de parámetros de una ANN es una medida de su complejidad. El balance entre los parámetros y la cardinalidad del conjunto de observaciones indica que nos encontramos ante un problema de base de datos pequeña. Asimismo, se ha considerado que esta es una definición necesaria aunque perfectible. El estudio del la división del conjunto de datos en la evaluación del modelo se ha enfocado en las situaciones en las que se emplea un modelo de regresión (MR) construido con una ANN. Como contribución, se ha estudiado si el control del la división del conjunto de datos produce una estimación más precisa del error de generalización teniendo en consideración el mismo punto inicial. Con este propósito, se presenta un algoritmo evolutivo original que pueda controlar la división de los datos en función de una distancia. Otro de los aportes originales es la introducción de un algoritmo híbrido de optimización de hiperparámetros basado en recocido simulado. Con el algoritmo propuesto, se estudian algunos de los mecanismos de compensación entre los hiperparámetros que gobiernan la construcción del modelo, teniendo en consideración que esta dinámica en muchos casos es desconocida. Puede decirse finalmente que el control de la división del conjunto de datos a menudo reporta beneficios al reproducir fielmente la distribución estadística de datos. Asimismo, se observa la importancia de contar con algoritmos más refinados para la optimización de los hiperparámetros. | es_AR |
| dc.description.abstract | Artificial neural networks (ANN) have recently had a great impact on the resolution of some problems because it has been possible to implement algorithms that require a large computational capacity. Moreover, huge volumes of data have simultaneously been made available to train these models. Although computational capacity is no longer a constraint, the availability of data volumes may be a problem in some contexts where it is sometimes unfeasible to obtain new data. In this thesis, deep neural network models with small databases circumscribed to regression problems are analyzed. A regression task is defined as the mapping of a numerical value with reference to a numerical input. The following characteristics are expected to be fulfilled: unbias, consistency and efficiency. In addition, a definition of a small database for ANNs has been proposed for practical purposes: the number of parameters of an ANN is a measure of its complexity. The trade-off between the parameters and the cardinality of the set of observations indicates a small database problem. It has also been considered that this is a necessary definition, but always definition. The study of the dataset division on model evaluation is focused on situations where a regressor built with an ANN is employed. As a contribution, it has been studied whether variance control produces a more accurate estimation of the generalization error when the same starting point is considered. Consequently, an original evolutionary algorithm that makes it possible to control the division of the data according to a distance is presented. Another original contribution is the introduction of a hybrid hyperparameter optimization algorithm based on simulated annealing. The trade-off mechanisms between the hyperparameters governing the model construction are studied with the proposed algorithm, taking into consideration that these dynamics are in often cases unknown. In summary, it is benefitial to control data-set splitting in the order to reproduce faithfully the statistic data distribution. The importance of more refined algorithms for hyperparameter optimization is also noticeable. | es_AR |
| dc.format | application/pdf | es_AR |
| dc.format.extent | 207 p. | es_AR |
| dc.language.iso | spa | es_AR |
| dc.rights | Reconocimiento-NoComercial-CompartirIgual 4.0 (CC BY-NC-SA 4.0) | es_AR |
| dc.rights.uri | http://creativecommons.org/licenses/by-nc-sa/4.0/ | es_AR |
| dc.subject | Redes neuronales artificiales | es_AR |
| dc.title | Redes neuronales profundas para la resolución de problemas de regresión con bases de datos tabulares pequeñas | es_AR |
| dc.type | tesis doctoral | es_AR |
| bcuns.collection.name | Biblioteca Digital Académica | es |
| bcuns.collection.acronym | BDA | es |
| bcuns.collection.url | http://tesis.uns.edu.ar/ | es |
| bcuns.collection.institution | Biblioteca Central de la Universidad Nacional del Sur | es |
| bcuns.depositorylibrary.name | Biblioteca Central de la Universidad Nacional del Sur | es |
| bcuns.author.affiliation | Universidad Nacional del Sur. Departamento de Ciencias e Ingeniería de la Computación | es_AR |
| bcuns.author.affiliation | Universidad Nacional de Tierra del Fuego, Antártida e Islas del Atlántico Sur | es_AR |
| bcuns.authoraffiliation.acronym | UNS | es_AR |
| bcuns.authoraffiliation.acronym | UNTDF | es_AR |
| bcuns.authoraffiliation.country | Argentina | es_AR |
| bcuns.advisor.affiliation | Universidad Nacional del Sur. Departamento de Ciencias e Ingeniería de la Computación | es_AR |
| bcuns.advisor.affiliation | Consejo Nacional de Investigaciones Científicas y Técnicas - Universidad Nacional del Sur. Planta Piloto de Ingeniería Química | es_AR |
| bcuns.advisoraffiliation.acronym | UNS | es_AR |
| bcuns.advisoraffiliation.acronym | CONICET-PLAPIQUI | es_AR |
| bcuns.advisoraffiliation.country | Argentina | es_AR |
| bcuns.defense.city | Bahía Blanca | es |
| bcuns.defense.province | Buenos Aires | es |
| bcuns.defense.country | Argentina | es |
| bcuns.programme.name | Doctorado en Ciencias de la Computación | es_AR |
| bcuns.programme.department | Departamento de Ciencias e Ingeniería de la Computación | es_AR |
| bcuns.thesisdegree.name | Doctor en Ciencias de la Computación | es_AR |
| bcuns.thesisdegree.grantor | Universidad Nacional del Sur. Departamento de Ciencias e Ingeniería de la Computación | es_AR |
| uns.type.publicationVersion | accepted | es_AR |
| bcuns.depositarylibrary.acronym | EUN | es |
| bcuns.subject.keywords | Ciencias de la computación | es_AR |
| bcuns.subject.keywords | Bases de datos pequeñas | es_AR |
| bcuns.subject.keywords | Problemas de regresión | es_AR |
| bcuns.subject.keywords | Optimización de hiperparámetros | es_AR |
| bcuns.subject.keywords | Algoritmo evolutivo | es_AR |
| dcterms.accessRights.openAire | info:eu-repo/semantics/openAccess | es_AR |
| uns.oai.snrd | si | es_AR |
Ficheros en el ítem
Este ítem aparece en la(s) siguiente(s) colección(ones)
-
Tesis de postgrado [1478]
Reúne los trabajos finales de los estudios de posgrado de la UNS (especializaciones, maestrías y doctorados)

