Investigación y desarrollo de software para la validación de la calidad de datos abiertos e identificación de patrones para predicciones
Permanent URI for this collection
Browse
Browsing Investigación y desarrollo de software para la validación de la calidad de datos abiertos e identificación de patrones para predicciones by Issue Date
Results Per Page
Sort Options
-
ItemPropuesta de técnicas de validación para la calidad de datos abiertos e identificación de patrones para predicciones con Machine Learning(FUSMA Ediciones, 2022) Martínez, María Roxana ; Parkinson, Christian Aníbal ; Caruso, Martín ; López, Diego Joaquín ; Vargas Navarro, Rocio Del Carmen ; Rojas Meléndez, Nayiby AlessandraLa política de los datos abiertos busca promover la innovación y transformar la actividad gubernamental para brindar mejores servicios y generar mayores niveles de transparencia en la sociedad. Por lo que, mantener la calidad en las fuentes de datos disponibilizadas es fundamental para su tratamiento y obtener así, un conocimiento de éstas. Actualmente, son pocos los trabajos realizados en aspectos de validaciones, análisis de contenidos internos de estos datasets, herramientas de datos, identificación de patrones en su estructura y demás. En base a esto, esta línea de investigación se enfoca en el análisis, diseño y desarrollo de herramientas de software que utilicen técnicas y propuestas para la validación de la calidad de los datos públicos abiertos en el contexto de Gobierno Abierto. Además de detectar el “estado de salud” de estos datos (grado de integridad, redundancia y otros), se trabaja en el estudio de patrones con el fin de incorporar modelos de predicción para aportar un valor agregado a la información otorgada por los gobiernos desde aspectos de Machine Learning, lo que ofrecerá un mejor análisis para la toma de decisiones gubernamentales.
-
ItemTipos de métricas de calidad para validar datasets gubernamentales argentinos(Universidad Abierta Interamericana. Facultad de Tecnología Informática, 2022-12) Martínez, María RoxanaHoy en día, los datos son un recurso esencial para toda actividad de la administración pública, y es necesario que estén actualizados, claros y completos. Si bien varios trabajos relacionados con este tema se centran en la apertura de los datos públicos en losportales de las instituciones gubernamentales,existen pocas investigaciones centradas en el contenido de los conjuntos de datos disponibilizados. El énfasis en el estudio dela calidad de los datospermite que lastecnologías mejorensuuso, manipulación y distribución a los ciudadanos. Lo que a su vez permite,una mayor participación ciudadana y transparencia de los entes estatales. Este trabajo se centra en la implementaciónde varias métricas estándares, que sostienen principios de criterios de calidad para ayudar en el correctoprocesamiento e interoperabilidad de los datos.La utilización de métricas de calidad favorece al encuadre de indicadores que permitan obtener un dato más limpio para ayudar enel análisis finala travésde análisis cuantitativo.
-
ItemAnálisis del contexto de Machine Learning en el enfoque de aplicaciones multimedia(AJEA : Actas de Jornadas y Eventos Académicos de UTN, 2022-12-23) Martínez, María Roxana ; Vargas Navarro, Rocío Del CarmenEl enfoque de Machine learning permite crear un valor agregado y ayuda a entender mejor los cambios en el comportamiento, las preferencias o bien las necesidades de una persona. A través de la utilización de los datos abiertos que son facilitados en distintos portales web, éstos pueden ser de gran utilidad para el proceso de análisis. Este trabajo se enfoca en un relevamiento del contexto de machine learning en aplicaciones multimedia identificando sus distintos tipos como así también trabajos relacionados para este contexto que, posteriormente, se estudian algunas de las falencias encontradas en los algoritmos utilizados en multimedia. Este trabajo, además, aporta un análisis de éstos a través de la utilización de un software en el que se realiza la comparativa de distintos algoritmos de machine learning en el contexto de aplicaciones multimedia detectando así, cuáles de estos podrían ser los más adecuados para este entorno. Para esto se presenta una comparativa en las que se cotejan los distintos valores arrojados y se enfoca en los resultados para la curva de rendimiento AUC-ROC, y el detalle de la matriz de confusión que validará los resultados demostrados en la comparación y la clasificación de precisión dentro de los valores: Accurancy, Precision, Recall y Area Under de ROC Curve (AUC).
-
ItemEvaluación de algoritmos de aprendizaje con datos públicos abiertos de machine learning mediante Orange3(Sociedad Argentina de Informática, SADIO, 2022-12-30) Martínez, María Roxana ; Vilaboa, Pablo Alfredo ; Catala, NelsonExiste una tendencia a nivel general por el impulso de la apertura de datos públicos por parte de los gobiernos. Esto conlleva a que no sólo es fundamental para el crecimiento de los países, sino que, además, incrementa la transparencia gubernamental para con los ciudadanos, y, por otra parte, es una de forma de motivar a la utilización e implementación de la innovación tecnológica y a la participación ciudadana. El aporte de este trabajo de investigación conlleva a un relevamiento de los algoritmos de aprendizaje más relevantes en aspectos de aprendizaje supervisado como así también en un estudio general de las herramientas de machine learning más utilizadas en la actualidad. Como siguiente paso, este trabajo propone un análisis para la evaluación de algoritmos de aprendizaje de datos públicos abiertos, en este caso se toma en cuenta el estudio de un dataset público enfocado a enfermedades del corazón a nivel de salud. A través de la herramienta Orange se analizan los distintos algoritmos, y mediante una evaluación de testeo y puntuación (“Test and Score” y “Confusion Matrix”) se realiza la clasificación y ranqueo de los resultados arrojados para estos modelos según el criterio de mejor precisión en algoritmo.
-
ItemQuality study of open government data related to COVID-19 in Latin America(Universidad de Antioquia. Facultad de Ingeniería, 2022-5-16) Martínez, María Roxana ; Pons, Claudia Fabiana ; Rodríguez, Rocío Andrea ; Vera, Pablo MartínThis work shows the current situation of Open Government at a Latin American level focused on the quality of available open data related to COVID-19. The analyzed data refers to health emergencies and tasks for the fight against the pandemic. These data are critical because they are used to improve the management of public services and resources in handling this contingency. The different quality aspects of open data that are available on government portals have been analyzed. For this analysis, a number of documents of recognized international organizations on aspects, current problems, and good practices were taken as a reference. To accomplish this research, six countries were chosen as a data source: Argentina, Colombia, Mexico, Peru, Paraguay and Uruguay. For each of them, their public portals were analyzed, and special attention was paid to the quality aspects that each country proposes, as well as whether there are dataset control tools or not. Finally, the tool HEVDA was used to verify the quality of open data based on a proposal of 8 quality metrics. The tool was applied to a sample of 15 datasets from each country in aspects of COVID-19 (90 datasets). The contribution of this work is to identify the degree of quality presented by the open data of these countries through a self-developed validation tool (HEVDA).
-
ItemMetodología para la implementación de un proyecto con Inteligencia Aumentada (AUI)(Editora Artemis, 2023) Martínez, María Roxana ; Vilaboa, Pablo AlfredoEste trabajo se enfoca en presentar una propuesta de metodología para llevar a cabo el procedimiento de implementación de un proyecto que utilice Inteligencia Aumentada de Usuario (AUI). Este concepto se basa en la inteligencia artificial (AI) y usa como complemento la Inteligencia Humana (HI) para obtener resultados favorables basándose en la resolución y análisis de un problema que se aplica a un ámbito. Básicamente, es la integración de la inteligencia artificial en sistemas y aplicaciones para mejorar las capacidades y habilidades humanas. A diferencia de la Inteligencia Artificial (AI) tradicional, que se orienta en la automatización de tareas y la toma de decisiones autónoma, la AUI permite complementar las habilidades humanas en lugar de sustituirlas. El aporte de este artículo consta de relevamientos sobre los trabajos de investigación relacionados en esta temática, como así también, distintas metodologías que son utilizadas para este tipo de proyecto, y, además, se realiza una comparativa de las características más sobresalientes en los ámbitos en los que se implementan estos aspectos, para analizar las falencias encontradas y puntos fundamentales que se deben tener en cuenta para su adecuada ejecución. Finalmente, se presenta un análisis de casos de estudios para la metodología propuesta
-
ItemCiência e tecnologia para o desenvolvimento ambiental, cultural e socioeconômico III(Artemis, 2023) Somoza Medina, XoséLa ciencia y la tecnología en el siglo XXI deben orientar sus esfuerzos a ofrecer soluciones a los grandes problemas presentes de la humanidad y de nuestro planeta. Las Naciones Unidas iniciaron el camino en el año 2000 con los Objetivos del Milenio, reformulados y ampliados en 2015 con los ahora denominados Objetivos de Desarrollo Sostenible, ODS. Mas allá de una simple declaración, los ODS deberían convertirse en el faro guía de todo avance científico o técnico. Lo ideal sería que cada persona científica o tecnóloga, independientemente de su origen o vinculación profesional, pensara en la fase de diseño de la investigación cuál de los ODS contribuye a alcanzar la consecución de su proyecto, para de esta manera orientar los esfuerzos de millones de seres humanos en todo el mundo a resolver el futuro de las próximas generaciones y no al contrario, que el progreso de nuestra civilización suponga una amenaza real para la Tierra, como parece que hemos estado haciendo hasta ahora. Todavía estamos a tiempo de cambiar nuestro destino, pero debemos tomar conciencia y actuar en consecuencia. En el primer bloque, Ciencia, se agrupan siete trabajos que desde las ciencias de la educación y las ciencias económicas y empresariales contribuyen a alcanzar esos objetivos enunciados, bien a través de encuestas a una muestra de estudiantes de diferentes carreras universitarias o bien a través del análisis local de casos concretos. Así se pueden desarrollar temas como la responsabilidad social, la incertidumbre de las políticas monetarias, la importancia de las microempresas en contextos determinados, las redes sociales, la internacionalización del sector turístico, la sostenibilidad en las empresas o la ansiedad provocada por la pandemia. En el segundo bloque, Tecnología, se agrupan siete investigaciones con aportes como los avances en teledetección de incendios, los tratamientos con bacterias para eliminar los residuos de aceites, la evaluación de antioxidantes en el desarrollo “in vitro” de plantas de caña de azúcar, los análisis informáticos para la predicción de plagas en los cultivos, las técnicas kinésicas para el tratamiento de la incontinencia urinaria femenina, la inteligencia aumentada de usuario o el estudio de un megaproyecto urbanístico como el de Saemangeum en Corea del Sur.
-
ItemAnálisis de datos públicos sobre registros Argentinos de Diálisis Crónica. INCUCAI(Sociedad Argentina de Informática (SADIO), 2023-10-19) Martínez, María Roxana ; Catala, Nelson ; Bateca Caicedo, Carlos Alberto ; Zabala, Hernán GuillermoINCUCAI, es el Instituto Nacional Central Único Coordinador de Ablación e Implante, este organismo impulsa, coordina y fiscaliza todas las actividades que se encuentran relacionadas a la donación, trasplante de órganos, tejidos y células en Argentina. El trasplante de riñón es el tipo de trasplante de órganos más demandado en todo el mundo y representa la mayor parte de la lista de espera de trasplantes de órganos y tejidos. Según datos de la Organización Mundial de la Salud (OMS), el trasplante de riñón representa aproximadamente el 80% de todos los trasplantes de órganos que se realizan a nivel mundial. Cuando los riñones pierden la capacidad para filtrar, pueden acumularse niveles dañinos de líquido y desechos en el cuerpo humano. En un enfoque de una enfermedad renal en etapa terminal, es necesario diálisis o un trasplante de riñón para que una persona se mantenga con vida, ya que una de las funciones principales de la diálisis es mantener la sangre exenta de elementos nocivos. En base a esto último, es que los autores de este trabajo centraron su investigación en el análisis de los registros de datos públicos sobre diálisis crónica en distintos tipos de pacientes que se encuentran disponibles en el portal web de INCUCAI. Este estudio surge con el fin de averiguar posibles hipótesis sobre la población actual en este contexto, como ser: ¿Cuál es la demanda de este tipo de tratamientos? ¿Cuál es la probabilidad de satisfacer esa demanda? Como así también analizar un foco sobre el tiempo de espera por dicho tratamiento. Por otro lado, conocer casos en los que se puede concluir en un trasplante de órgano de riñón. Esto se debe en parte a que la enfermedad renal crónica es una afección común que afecta a millones de personas en todo el mundo, y el trasplante de riñón es una opción de tratamiento efectiva y duradera para muchos pacientes con esta enfermedad. Además, el riñón es un órgano que puede ser donado por personas vivas, lo que aumenta las posibilidades de encontrar un donante compatible. Finalmente, este trabajo presenta las conclusiones sobre los datos públicos relevados y reflexiones sobre las hipótesis planteadas.
-
ItemPrototipo OpenMapGeoData para validación de datos geolocalizados abiertos en Argentina(Sociedad Argentina de Informática (SADIO), 2023-11-13) Martínez, María Roxana ; Simon, Miguel Agustín ; Vilaboa, Pablo AlfredoLos datos geolocalizados abiertos que se encuentran disponibles en portales gubernamentales de la Argentina tienen un rol importante, ya que pueden ser utilizados para ser analizados y así obtener un valor agregado para los ciudadanos sobre los resultados arrojados. Existen organismos públicos que ponen a disposición información geográfica en distintos formatos abiertos (GeoJSON, SHP, KMZ/KML, WKT, TopoJSON entre otros) y en diversas plataformas a través de infraestructuras de datos espaciales (IDEs). Este trabajo propone un prototipo de desarrollo propio (OpenMapGeoData) para analizar el contenido de datasets geoespaciales en formato GeoJson, teniendo en cuenta aspectos en concepto de calidad del contenido ofrecido en los portales públicos de este tipo de datos. La herramienta ofrece validar un dataset geolocalizado, y mostrar un “estado de salud” del contenido y, además, visualizar un mapa con cada uno de los puntos utilizados en el dataset. Algunos criterios de validación son: numeración decimal para coordenadas de latitud y longitud, ubicación geográfica a través de la dimensión geometry (punto geolocalizado), datos incompletos, formato del dato geolocalizado, condiciones estructurales de la cantidad de dígitos referenciados, entre otros. Finalmente, se analizan los resultados obtenidos al utilizar el prototipo para una validación de 40 datasets extraídos de portales públicos.
-
ItemEvaluación del tratamiento de los datos abiertos geolocalizados(Universidad Abierta Interamericana. Facultad de Tecnología Informática, 2023-12) Simon, Miguel Agustín ; Martínez, María RoxanaEn los tiempos de hoy en día, los datos abiertos públicos gubernamentales son una herramienta poderosa con el potencial de reducir las asimetrías de información, fomentar la toma de decisiones basada en evidencia, mejorar la rendición de cuentas y generar impacto en la calidad de vida de las personas a través de su uso. Los gobiernos de los diferentes países tienen una oportunidad sin precedentes de generar valor público a través de la apertura y uso de datos. La atención en los datos abiertos se suele centrar en los beneficios que éstos generan en términos de transparencia y rendición de cuentas. Con el fin de promover y mejorar la calidad de los conjuntos de datos abiertos gubernamentales en geolocalización, este trabajo propone el uso de métricas específicas para evaluar su contenido. Como parte de esta propuesta, se ha desarrollado un prototipo utilizando las últimas tecnologías informáticas disponibles en el mercado. Esta herramienta de validación, llamada OpenMapGeoData, permite detectar de manera más sencilla y automática las deficiencias y errores en los conjuntos de datos que podrían dificultar su interoperabilidad con diferentes fuentes de bases de datos y software externo utilizado por otros organismos.
-
ItemPropuesta de técnicas de validación para la calidad de datos abiertos e identificación de patrones para predicciones con Machine Learning: Segunda Parte(UNNOBA, 2023-4) Martínez, María Roxana ; Vilaboa, Pablo Alfredo ; Simon, Miguel Agustín ; Garcia Iannini, Juan Manuel ; Clavijo, Eugenio ; Colato, German Dario ; Catala, Nelson ; Bateca Caicedo, Carlos Alberto ; Lopumo, Serenela ; Zabala, Hernán Guillermo ; Parada, Gonzalo ; Chaglasian Sganga, Ayelén Malena ; Vargas Navarro, Rocio Del Carmen ; Tsiros, Sebastian Martin DemetrioDentro de los varios focos del paradigma de Gobierno Abierto, existen los conjuntos de datos abiertos públicos disponibilizados en los sitios web gubernamentales, éstos permiten no sólo una mejor transparencia en las actividades públicas que se realizan, sino que, además, pueden ser reutilizados a través de estudios para brindar mejores servicios y obtener beneficios para la sociedad. Mantener estos datos con calidad, permite que se lleven a cabo, análisis de escenarios para predecir y evitar posibles falencias o errores en la toma de decisiones políticas que tenga un alto impacto en los ciudadanos. Actualmente, no existen demasiados trabajos de investigación que se centren en el contenido de los datasets, en aspectos de: análisis de contenido interno, validación, herramientas de verificación, cotejo en las estructuras de datos, guías de buenas prácticas, o bien reconocimiento de patrones estructurales, entre otros temas. Es por esto, por lo que, este trabajo de investigación se centra en dichos puntos mencionados para validar la calidad de los datos públicos abiertos y que éstos puedan ser utilizados con un fin positivo en la comunidad. Este trabajo, no solo trabaja en prototipos de software en validaciones de datos específicos, sino que, además, permite estudiar modelos predictivos, que a través del aprendizaje automático pueden brindar un mejor análisis para la toma de decisiones.
-
ItemTesis Doctoral: Métricas de calidad para validar los conjuntos de datos abiertos públicos gubernamentales(UNNOBA, 2023-4) Martínez, María RoxanaEn estos tiempos, los datos son un recurso indispensable para cualquier actividad de gestión pública, por lo que es necesario mantenerlos actualizados, claros y completos. Este trabajo se enfoca en el contexto de Gobierno Abierto en aspectos del tratamiento del dato público abierto que disponibilizan las entidades estatales. Con el fin de identificar mejoras en los aspectos de calidad de los datasets abiertos, esta tesis plantea métricas críticas y no críticas para su análisis y validación de contenido, por lo que, como parte de la propuesta, se presenta un prototipo de desarrollo propio, llamado HEVDA (HErramienta de Validación de Datos Abiertos). A modo de caso de estudio, se extrae una muestra de datasets públicos estatales que son validados con HEVDA, para obtener un análisis sobre las mediciones utilizadas y realizar así, un estudio cuantitativo sobre los resultados arrojados. Esta herramienta de validación permite detectar en forma sencilla, las falencias y errores en las fuentes de datos abiertas que podrían complicar la interoperabilidad para su utilización en diversos orígenes de bases de datos y softwares externos de otros organismos. Para evaluar la calidad de datos es necesario tener en cuenta determinadas características en el conjunto de datos analizados, por lo que se realiza un relevamiento detallado de los aspectos más notables en cuestiones de calidad de datos sobre criterios estándares de norma ISO/IEC 25012 [1], estándares universales de calidad de datos [2], dimensiones de la calidad de los datos [3], trabajos relevados y estudios realizados [4] en esta temática. En el estudio desarrollado, se puede analizar sí es factible definir métricas de calidad de datos públicos gubernamentales en un formato abierto para efectuar un análisis cuantitativo a través de una herramienta amigable y sencilla.
-
ItemAnalysis of the Types of Argentine Geospatial Public Open Data(MDPI, 2023-8-15) Martínez, María Roxana ; Simon, Miguel AgustínMassive data, public and in open formats, are essential to improving citizens’ confidence in their countries. Open data generate value, as long as they can be standardized in terms of data quality, accessibility, and publication through user-friendly formats. This work consists of an analysis and study of the different types of open geospatial data that are available in the government website portals of the Argentine Republic. This analysis allowed us to garner the status of different geospatial datasets, understand the quality of their content, and detect the shortcomings of these types of datasets.