Investigación y desarrollo de software para la validación de la calidad de datos abiertos e identificación de patrones para predicciones
Permanent URI for this collection
Browse
Recent Submissions
1 - 5 of 13
-
ItemPropuesta de técnicas de validación para la calidad de datos abiertos e identificación de patrones para predicciones con Machine Learning: Segunda Parte(UNNOBA, 2023-4)Dentro de los varios focos del paradigma de Gobierno Abierto, existen los conjuntos de datos abiertos públicos disponibilizados en los sitios web gubernamentales, éstos permiten no sólo una mejor transparencia en las actividades públicas que se realizan, sino que, además, pueden ser reutilizados a través de estudios para brindar mejores servicios y obtener beneficios para la sociedad. Mantener estos datos con calidad, permite que se lleven a cabo, análisis de escenarios para predecir y evitar posibles falencias o errores en la toma de decisiones políticas que tenga un alto impacto en los ciudadanos. Actualmente, no existen demasiados trabajos de investigación que se centren en el contenido de los datasets, en aspectos de: análisis de contenido interno, validación, herramientas de verificación, cotejo en las estructuras de datos, guías de buenas prácticas, o bien reconocimiento de patrones estructurales, entre otros temas. Es por esto, por lo que, este trabajo de investigación se centra en dichos puntos mencionados para validar la calidad de los datos públicos abiertos y que éstos puedan ser utilizados con un fin positivo en la comunidad. Este trabajo, no solo trabaja en prototipos de software en validaciones de datos específicos, sino que, además, permite estudiar modelos predictivos, que a través del aprendizaje automático pueden brindar un mejor análisis para la toma de decisiones.
-
ItemTesis Doctoral: Métricas de calidad para validar los conjuntos de datos abiertos públicos gubernamentales(UNNOBA, 2023-4)En estos tiempos, los datos son un recurso indispensable para cualquier actividad de gestión pública, por lo que es necesario mantenerlos actualizados, claros y completos. Este trabajo se enfoca en el contexto de Gobierno Abierto en aspectos del tratamiento del dato público abierto que disponibilizan las entidades estatales. Con el fin de identificar mejoras en los aspectos de calidad de los datasets abiertos, esta tesis plantea métricas críticas y no críticas para su análisis y validación de contenido, por lo que, como parte de la propuesta, se presenta un prototipo de desarrollo propio, llamado HEVDA (HErramienta de Validación de Datos Abiertos). A modo de caso de estudio, se extrae una muestra de datasets públicos estatales que son validados con HEVDA, para obtener un análisis sobre las mediciones utilizadas y realizar así, un estudio cuantitativo sobre los resultados arrojados. Esta herramienta de validación permite detectar en forma sencilla, las falencias y errores en las fuentes de datos abiertas que podrían complicar la interoperabilidad para su utilización en diversos orígenes de bases de datos y softwares externos de otros organismos. Para evaluar la calidad de datos es necesario tener en cuenta determinadas características en el conjunto de datos analizados, por lo que se realiza un relevamiento detallado de los aspectos más notables en cuestiones de calidad de datos sobre criterios estándares de norma ISO/IEC 25012 [1], estándares universales de calidad de datos [2], dimensiones de la calidad de los datos [3], trabajos relevados y estudios realizados [4] en esta temática. En el estudio desarrollado, se puede analizar sí es factible definir métricas de calidad de datos públicos gubernamentales en un formato abierto para efectuar un análisis cuantitativo a través de una herramienta amigable y sencilla.
-
ItemEvaluación del tratamiento de los datos abiertos geolocalizados(Universidad Abierta Interamericana. Facultad de Tecnología Informática, 2023-12)En los tiempos de hoy en día, los datos abiertos públicos gubernamentales son una herramienta poderosa con el potencial de reducir las asimetrías de información, fomentar la toma de decisiones basada en evidencia, mejorar la rendición de cuentas y generar impacto en la calidad de vida de las personas a través de su uso. Los gobiernos de los diferentes países tienen una oportunidad sin precedentes de generar valor público a través de la apertura y uso de datos. La atención en los datos abiertos se suele centrar en los beneficios que éstos generan en términos de transparencia y rendición de cuentas. Con el fin de promover y mejorar la calidad de los conjuntos de datos abiertos gubernamentales en geolocalización, este trabajo propone el uso de métricas específicas para evaluar su contenido. Como parte de esta propuesta, se ha desarrollado un prototipo utilizando las últimas tecnologías informáticas disponibles en el mercado. Esta herramienta de validación, llamada OpenMapGeoData, permite detectar de manera más sencilla y automática las deficiencias y errores en los conjuntos de datos que podrían dificultar su interoperabilidad con diferentes fuentes de bases de datos y software externo utilizado por otros organismos.
-
ItemAnálisis de datos públicos sobre registros Argentinos de Diálisis Crónica. INCUCAI(Sociedad Argentina de Informática (SADIO), 2023-10-19)INCUCAI, es el Instituto Nacional Central Único Coordinador de Ablación e Implante, este organismo impulsa, coordina y fiscaliza todas las actividades que se encuentran relacionadas a la donación, trasplante de órganos, tejidos y células en Argentina. El trasplante de riñón es el tipo de trasplante de órganos más demandado en todo el mundo y representa la mayor parte de la lista de espera de trasplantes de órganos y tejidos. Según datos de la Organización Mundial de la Salud (OMS), el trasplante de riñón representa aproximadamente el 80% de todos los trasplantes de órganos que se realizan a nivel mundial. Cuando los riñones pierden la capacidad para filtrar, pueden acumularse niveles dañinos de líquido y desechos en el cuerpo humano. En un enfoque de una enfermedad renal en etapa terminal, es necesario diálisis o un trasplante de riñón para que una persona se mantenga con vida, ya que una de las funciones principales de la diálisis es mantener la sangre exenta de elementos nocivos. En base a esto último, es que los autores de este trabajo centraron su investigación en el análisis de los registros de datos públicos sobre diálisis crónica en distintos tipos de pacientes que se encuentran disponibles en el portal web de INCUCAI. Este estudio surge con el fin de averiguar posibles hipótesis sobre la población actual en este contexto, como ser: ¿Cuál es la demanda de este tipo de tratamientos? ¿Cuál es la probabilidad de satisfacer esa demanda? Como así también analizar un foco sobre el tiempo de espera por dicho tratamiento. Por otro lado, conocer casos en los que se puede concluir en un trasplante de órgano de riñón. Esto se debe en parte a que la enfermedad renal crónica es una afección común que afecta a millones de personas en todo el mundo, y el trasplante de riñón es una opción de tratamiento efectiva y duradera para muchos pacientes con esta enfermedad. Además, el riñón es un órgano que puede ser donado por personas vivas, lo que aumenta las posibilidades de encontrar un donante compatible. Finalmente, este trabajo presenta las conclusiones sobre los datos públicos relevados y reflexiones sobre las hipótesis planteadas.
-
ItemAnálisis del contexto de Machine Learning en el enfoque de aplicaciones multimedia(AJEA : Actas de Jornadas y Eventos Académicos de UTN, 2022-12-23)El enfoque de Machine learning permite crear un valor agregado y ayuda a entender mejor los cambios en el comportamiento, las preferencias o bien las necesidades de una persona. A través de la utilización de los datos abiertos que son facilitados en distintos portales web, éstos pueden ser de gran utilidad para el proceso de análisis. Este trabajo se enfoca en un relevamiento del contexto de machine learning en aplicaciones multimedia identificando sus distintos tipos como así también trabajos relacionados para este contexto que, posteriormente, se estudian algunas de las falencias encontradas en los algoritmos utilizados en multimedia. Este trabajo, además, aporta un análisis de éstos a través de la utilización de un software en el que se realiza la comparativa de distintos algoritmos de machine learning en el contexto de aplicaciones multimedia detectando así, cuáles de estos podrían ser los más adecuados para este entorno. Para esto se presenta una comparativa en las que se cotejan los distintos valores arrojados y se enfoca en los resultados para la curva de rendimiento AUC-ROC, y el detalle de la matriz de confusión que validará los resultados demostrados en la comparación y la clasificación de precisión dentro de los valores: Accurancy, Precision, Recall y Area Under de ROC Curve (AUC).