Mostrar el registro sencillo del ítem

dc.contributor.advisorBrignole, Nélida Beatriz
dc.contributor.authorChiarvetto Peralta, Lucila Lourdes
dc.date2023-12-05
dc.date.accessioned2025-12-30T12:33:24Z
dc.date.available2025-12-30T12:33:24Z
dc.date.issued2023
dc.identifier.other2023-1909ches_AR
dc.identifier.urihttps://repositoriodigital.uns.edu.ar/handle/123456789/7401
dc.description.abstractLas redes neuronales artificiales (ANN: Artificial Neural Networks) recientemente han tenido un gran impacto en la resolución de algunos problemas debido a que ha sido posible la implementación de algoritmos que requieren una gran capacidad de cómputo. Simultáneamente, enormes volúmenes de datos han sido dispuestos para el entrenamiento de estos modelos. Aunque la capacidad de cómputo ya no supone una restricción, la disponibilidad de volúmenes de datos puede ser un problema en algunos contextos en los cuales no siempre es factible obtener nuevos. En esta tesis se analizan modelos de ANN profundas con bases de datos tabulares pequeñas circunscritos a problemas de regresión. Una tarea de regresión se define como el mapeo de un valor numérico en referencia a una entrada también numérica. Se espera que cumpla con las siguientes características: carencia de sesgo, consistencia y eficiencia. Además, se ha propuesto una definición de base de datos pequeña para ANN a fines prácticos: la cantidad de parámetros de una ANN es una medida de su complejidad. El balance entre los parámetros y la cardinalidad del conjunto de observaciones indica que nos encontramos ante un problema de base de datos pequeña. Asimismo, se ha considerado que esta es una definición necesaria aunque perfectible. El estudio del la división del conjunto de datos en la evaluación del modelo se ha enfocado en las situaciones en las que se emplea un modelo de regresión (MR) construido con una ANN. Como contribución, se ha estudiado si el control del la división del conjunto de datos produce una estimación más precisa del error de generalización teniendo en consideración el mismo punto inicial. Con este propósito, se presenta un algoritmo evolutivo original que pueda controlar la división de los datos en función de una distancia. Otro de los aportes originales es la introducción de un algoritmo híbrido de optimización de hiperparámetros basado en recocido simulado. Con el algoritmo propuesto, se estudian algunos de los mecanismos de compensación entre los hiperparámetros que gobiernan la construcción del modelo, teniendo en consideración que esta dinámica en muchos casos es desconocida. Puede decirse finalmente que el control de la división del conjunto de datos a menudo reporta beneficios al reproducir fielmente la distribución estadística de datos. Asimismo, se observa la importancia de contar con algoritmos más refinados para la optimización de los hiperparámetros.es_AR
dc.description.abstractArtificial neural networks (ANN) have recently had a great impact on the resolution of some problems because it has been possible to implement algorithms that require a large computational capacity. Moreover, huge volumes of data have simultaneously been made available to train these models. Although computational capacity is no longer a constraint, the availability of data volumes may be a problem in some contexts where it is sometimes unfeasible to obtain new data. In this thesis, deep neural network models with small databases circumscribed to regression problems are analyzed. A regression task is defined as the mapping of a numerical value with reference to a numerical input. The following characteristics are expected to be fulfilled: unbias, consistency and efficiency. In addition, a definition of a small database for ANNs has been proposed for practical purposes: the number of parameters of an ANN is a measure of its complexity. The trade-off between the parameters and the cardinality of the set of observations indicates a small database problem. It has also been considered that this is a necessary definition, but always definition. The study of the dataset division on model evaluation is focused on situations where a regressor built with an ANN is employed. As a contribution, it has been studied whether variance control produces a more accurate estimation of the generalization error when the same starting point is considered. Consequently, an original evolutionary algorithm that makes it possible to control the division of the data according to a distance is presented. Another original contribution is the introduction of a hybrid hyperparameter optimization algorithm based on simulated annealing. The trade-off mechanisms between the hyperparameters governing the model construction are studied with the proposed algorithm, taking into consideration that these dynamics are in often cases unknown. In summary, it is benefitial to control data-set splitting in the order to reproduce faithfully the statistic data distribution. The importance of more refined algorithms for hyperparameter optimization is also noticeable.es_AR
dc.formatapplication/pdfes_AR
dc.format.extent207 p.es_AR
dc.language.isospaes_AR
dc.rightsReconocimiento-NoComercial-CompartirIgual 4.0 (CC BY-NC-SA 4.0)es_AR
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/4.0/es_AR
dc.subjectRedes neuronales artificialeses_AR
dc.titleRedes neuronales profundas para la resolución de problemas de regresión con bases de datos tabulares pequeñases_AR
dc.typetesis doctorales_AR
bcuns.collection.nameBiblioteca Digital Académicaes
bcuns.collection.acronymBDAes
bcuns.collection.urlhttp://tesis.uns.edu.ar/es
bcuns.collection.institutionBiblioteca Central de la Universidad Nacional del Sures
bcuns.depositorylibrary.nameBiblioteca Central de la Universidad Nacional del Sures
bcuns.author.affiliationUniversidad Nacional del Sur. Departamento de Ciencias e Ingeniería de la Computaciónes_AR
bcuns.author.affiliationUniversidad Nacional de Tierra del Fuego, Antártida e Islas del Atlántico Sures_AR
bcuns.authoraffiliation.acronymUNSes_AR
bcuns.authoraffiliation.acronymUNTDFes_AR
bcuns.authoraffiliation.countryArgentinaes_AR
bcuns.advisor.affiliationUniversidad Nacional del Sur. Departamento de Ciencias e Ingeniería de la Computaciónes_AR
bcuns.advisor.affiliationConsejo Nacional de Investigaciones Científicas y Técnicas - Universidad Nacional del Sur. Planta Piloto de Ingeniería Químicaes_AR
bcuns.advisoraffiliation.acronymUNSes_AR
bcuns.advisoraffiliation.acronymCONICET-PLAPIQUIes_AR
bcuns.advisoraffiliation.countryArgentinaes_AR
bcuns.defense.cityBahía Blancaes
bcuns.defense.provinceBuenos Aireses
bcuns.defense.countryArgentinaes
bcuns.programme.nameDoctorado en Ciencias de la Computaciónes_AR
bcuns.programme.departmentDepartamento de Ciencias e Ingeniería de la Computaciónes_AR
bcuns.thesisdegree.nameDoctor en Ciencias de la Computaciónes_AR
bcuns.thesisdegree.grantorUniversidad Nacional del Sur. Departamento de Ciencias e Ingeniería de la Computaciónes_AR
uns.type.publicationVersionacceptedes_AR
bcuns.depositarylibrary.acronymEUNes
bcuns.subject.keywordsCiencias de la computaciónes_AR
bcuns.subject.keywordsBases de datos pequeñases_AR
bcuns.subject.keywordsProblemas de regresiónes_AR
bcuns.subject.keywordsOptimización de hiperparámetroses_AR
bcuns.subject.keywordsAlgoritmo evolutivoes_AR
dcterms.accessRights.openAireinfo:eu-repo/semantics/openAccesses_AR
uns.oai.snrdsies_AR


Ficheros en el ítem

Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

  • Tesis de postgrado [1478]
    Reúne los trabajos finales de los estudios de posgrado de la UNS (especializaciones, maestrías y doctorados)

Mostrar el registro sencillo del ítem

Reconocimiento-NoComercial-CompartirIgual 4.0 (CC BY-NC-SA 4.0)
Excepto si se señala otra cosa, la licencia del ítem se describe como Reconocimiento-NoComercial-CompartirIgual 4.0 (CC BY-NC-SA 4.0)