803 resultados para Docencia en bases de datos
Resumo:
La enseñanza y evaluación automática a través de un sistema Computer Based Assessment (CBA) requiere de software especializado que se adapte a la tipología de actividades a tratar y evaluar. En esta tesis se ha desarrollado un entorno CBA que facilita el aprendizaje y evaluación de los principales temas de una asignatura de bases de datos. Para ello se han analizado las herramientas existentes en cada uno de estos temas (Diagramas Entidad/Relación, diagramas de clases, esquemas de bases de datos relacionales, normalización, consultas en álgebra relacional y lenguaje SQL) y para cada uno de ellos se ha analizado, diseñado e implementado un módulo de corrección y evaluación automática que aporta mejoras respecto a los existentes. Estos módulos se han integrado en un mismo entorno al que hemos llamado ACME-DB.
Resumo:
Materiales en inglés de la asignatura de Fundamentos de las Bases de Datos, correspondiente al Grado de Ingeniería Informática.
Resumo:
[ES] Este proyecto surgió en el marco del proyecto de investigación:
Resumo:
Fil: Rozemblum, Cecilia. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.
Resumo:
En este trabajo se analizarán los parámetros que utiliza el CAICYT (CONICET) para determinar qué publicaciones integran el Núcleo Básico de Revistas Científicas Argentinas, iguales a los que emplea el Sistema Latindex para la inclusión en el nivel Catálogo, y se compararán con los criterios para la indización en RedALyC y Scopus. El objetivo es identificar las características de cada indicador en relación con su propósito, estimar su repercusión en lo que se denomina "calidad editorial" en una publicación científica y evaluar los niveles de dificultad que presenta su aplicación. Se intentará demostrar que existe un escalonamiento en las exigencias de cada una de estas bases de datos, que los indicadores no siempre están ligados a determinar la "calidad editorial" en una publicación científica y que, de alguna manera, estos sistemas terminan por ejercer presión para homogeneizar los formatos de presentación de las revistas latinoamericanas, quitándoles características propias de cada disciplina y país, en especial a las de Humanidades y Ciencias Sociales, enfocando cuestiones que poco aportan a la construcción del conocimiento científico
Resumo:
Se analizan los parámetros de evaluación utilizados por RedALyC, Catálogo Latindex, SciELO, Scopus y Web of Science para incorporar revistas científicas en sus colecciones, a fin de demostrar su relación con los objetivos perseguidos por cada base y debatir acerca de la valoración que la comunidad científica está otorgándoles a estos sistemas como determinantes de "calidad científica". Los indicadores utilizados se clasifican en: 1) Calidad editorial (aspectos formales o gestión editorial); 2) Calidad de contenido (revisión por pares u originalidad) y 3) Visibilidad (prestigio de editores y editorial, endogamia, uso e impacto, accesibilidad o indización). Se revela que: a) entre un 9 y un 16 se relacionan con la calidad de contenido; b) falta especificidad en sus definiciones y en la determinación de sus pesos específicos en los sistemas, y c) coinciden con los objetivos de cada base, aunque se observa una marcada tendencia hacia los relacionados con aspectos formales y visibilidad. Se deja así en evidencia que estos sistemas persiguen sus propios objetivos y que conforman núcleo de revistas de "calidad" para su público lector. Se concluye, en consecuencia, que la presencia o ausencia de una revista en estas colecciones, no es parámetro suficiente para determinar la calidad de las revistas científicas ni de sus contenidos.
Resumo:
Se analizan los parámetros de evaluación utilizados por RedALyC, Catálogo Latindex, SciELO, Scopus y Web of Science para incorporar revistas científicas en sus colecciones, a fin de demostrar su relación con los objetivos perseguidos por cada base y debatir acerca de la valoración que la comunidad científica está otorgándoles a estos sistemas como determinantes de "calidad científica". Los indicadores utilizados se clasifican en: 1) Calidad editorial (aspectos formales o gestión editorial); 2) Calidad de contenido (revisión por pares u originalidad) y 3) Visibilidad (prestigio de editores y editorial, endogamia, uso e impacto, accesibilidad o indización). Se revela que: a) entre un 9 y un 16 se relacionan con la calidad de contenido; b) falta especificidad en sus definiciones y en la determinación de sus pesos específicos en los sistemas, y c) coinciden con los objetivos de cada base, aunque se observa una marcada tendencia hacia los relacionados con aspectos formales y visibilidad. Se deja así en evidencia que estos sistemas persiguen sus propios objetivos y que conforman núcleo de revistas de "calidad" para su público lector. Se concluye, en consecuencia, que la presencia o ausencia de una revista en estas colecciones, no es parámetro suficiente para determinar la calidad de las revistas científicas ni de sus contenidos.
Resumo:
Se analizan los parámetros de evaluación utilizados por RedALyC, Catálogo Latindex, SciELO, Scopus y Web of Science para incorporar revistas científicas en sus colecciones, a fin de demostrar su relación con los objetivos perseguidos por cada base y debatir acerca de la valoración que la comunidad científica está otorgándoles a estos sistemas como determinantes de "calidad científica". Los indicadores utilizados se clasifican en: 1) Calidad editorial (aspectos formales o gestión editorial); 2) Calidad de contenido (revisión por pares u originalidad) y 3) Visibilidad (prestigio de editores y editorial, endogamia, uso e impacto, accesibilidad o indización). Se revela que: a) entre un 9 y un 16 se relacionan con la calidad de contenido; b) falta especificidad en sus definiciones y en la determinación de sus pesos específicos en los sistemas, y c) coinciden con los objetivos de cada base, aunque se observa una marcada tendencia hacia los relacionados con aspectos formales y visibilidad. Se deja así en evidencia que estos sistemas persiguen sus propios objetivos y que conforman núcleo de revistas de "calidad" para su público lector. Se concluye, en consecuencia, que la presencia o ausencia de una revista en estas colecciones, no es parámetro suficiente para determinar la calidad de las revistas científicas ni de sus contenidos.
Resumo:
Fil: Rozemblum, Cecilia. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.
Resumo:
En este trabajo se analizarán los parámetros que utiliza el CAICYT (CONICET) para determinar qué publicaciones integran el Núcleo Básico de Revistas Científicas Argentinas, iguales a los que emplea el Sistema Latindex para la inclusión en el nivel Catálogo, y se compararán con los criterios para la indización en RedALyC y Scopus. El objetivo es identificar las características de cada indicador en relación con su propósito, estimar su repercusión en lo que se denomina "calidad editorial" en una publicación científica y evaluar los niveles de dificultad que presenta su aplicación. Se intentará demostrar que existe un escalonamiento en las exigencias de cada una de estas bases de datos, que los indicadores no siempre están ligados a determinar la "calidad editorial" en una publicación científica y que, de alguna manera, estos sistemas terminan por ejercer presión para homogeneizar los formatos de presentación de las revistas latinoamericanas, quitándoles características propias de cada disciplina y país, en especial a las de Humanidades y Ciencias Sociales, enfocando cuestiones que poco aportan a la construcción del conocimiento científico
Resumo:
Se analizan los parámetros de evaluación utilizados por RedALyC, Catálogo Latindex, SciELO, Scopus y Web of Science para incorporar revistas científicas en sus colecciones, a fin de demostrar su relación con los objetivos perseguidos por cada base y debatir acerca de la valoración que la comunidad científica está otorgándoles a estos sistemas como determinantes de "calidad científica". Los indicadores utilizados se clasifican en: 1) Calidad editorial (aspectos formales o gestión editorial); 2) Calidad de contenido (revisión por pares u originalidad) y 3) Visibilidad (prestigio de editores y editorial, endogamia, uso e impacto, accesibilidad o indización). Se revela que: a) entre un 9 y un 16 se relacionan con la calidad de contenido; b) falta especificidad en sus definiciones y en la determinación de sus pesos específicos en los sistemas, y c) coinciden con los objetivos de cada base, aunque se observa una marcada tendencia hacia los relacionados con aspectos formales y visibilidad. Se deja así en evidencia que estos sistemas persiguen sus propios objetivos y que conforman núcleo de revistas de "calidad" para su público lector. Se concluye, en consecuencia, que la presencia o ausencia de una revista en estas colecciones, no es parámetro suficiente para determinar la calidad de las revistas científicas ni de sus contenidos.
Resumo:
Fil: Rozemblum, Cecilia. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.
Resumo:
En este trabajo se analizarán los parámetros que utiliza el CAICYT (CONICET) para determinar qué publicaciones integran el Núcleo Básico de Revistas Científicas Argentinas, iguales a los que emplea el Sistema Latindex para la inclusión en el nivel Catálogo, y se compararán con los criterios para la indización en RedALyC y Scopus. El objetivo es identificar las características de cada indicador en relación con su propósito, estimar su repercusión en lo que se denomina "calidad editorial" en una publicación científica y evaluar los niveles de dificultad que presenta su aplicación. Se intentará demostrar que existe un escalonamiento en las exigencias de cada una de estas bases de datos, que los indicadores no siempre están ligados a determinar la "calidad editorial" en una publicación científica y que, de alguna manera, estos sistemas terminan por ejercer presión para homogeneizar los formatos de presentación de las revistas latinoamericanas, quitándoles características propias de cada disciplina y país, en especial a las de Humanidades y Ciencias Sociales, enfocando cuestiones que poco aportan a la construcción del conocimiento científico
Resumo:
El presente trabajo propone un procedimiento a través del cual un razonador evalúa la información de una base de datos y la clasifica de forma automática en conceptos, relaciones, roles y atributos. Esta clasificación se desarrolla mediante un procedimiento dividido en dos métodos: primero, un Algoritmo de migración el cual genera una ontología con los elementos del esquema relacional de la base de datos. El segundo método es la Estrategia de clasificación de la información, esta consiste en una serie de consultas SPARQL mediante las que se clasifica la información de la base de datos.---ABSTRACT---This paper proposes a method by which a reasoner evaluates information from a database and automatically classifies in concepts, relationships, roles and attributes. This classification is developed through a procedure divided into two methods: first, a migration algorithm which generates an ontology with elements of relational schema database. The second method is the strategy classification of information, this is a series of SPARQL queries through that classified using the information the database.
Resumo:
El mundo de la web admite actualmente los productos desarrollados tanto por desarrolladores profesionales como por usuarios finales con un conocimiento más limitado. A pesar de la diferencia que se puede suponer de calidad entre los productos de ambos, las dos soluciones pueden ser reconocidas y empleadas en una aplicación. En la Web 2.0, este comportamiento se observa en el desarrollo de componentes web. Lo que se persigue en el trabajo es desarrollar un modelo de persistencia que, apoyado por un lado servidor y por uno cliente, recoja las métricas de calidad de los componentes cuando los usuarios interaccionan con ellos. A partir de estas métricas, es posible mejorar la calidad de estos componentes. La forma en la que se van a recoger las métricas es a través de PicBit, la aplicación desarrollada para que los usuarios puedan interconectar diferentes componentes entre ellos sin restricciones, de forma que tras interactuar con ellos puedan expresar su grado de satisfacción, que se recoge para la evaluación de la calidad. Se definen también unas métricas intrínsecas al componente, no determinadas por el usuario y que sirven como referencia de la evaluación. Cuando se tienen tanto las métricas intrínsecas como procedentes del usuario, se realiza una correlación entre ellas que permite analizar las posibles desviaciones entre ellas y determinar la calidad propia del componente. Las conclusiones que se pueden obtener del trabajo es que cuando los usuarios pueden realizar pruebas de usabilidad de forma libre, sin restricciones, es mayor la posibilidad de obtener resultados favorables porque estos resultados muestran cómo usará un usuario final la aplicación. Este método de trabajo se ve favorecido por el número de herramientas que se pueden utilizar hoy para monitorizar el flujo de usuario en el servicio.---ABSTRACT---Nowadays, the web world deals with products developed both by professional developers and by end-users with some limited knowledge. Although the difference between both can be important in quality terms, both are accepted and included in web applications. In web 2.0, this behavior can be recognized in the web components development. The goal pursued in the work presented is to create a persistent model that, supported by an end and a back side, will pick the quality measures of the components when the users interact with them. These measures are the starting point for improving the components. The way in which the measures are going to be picked is through PicBit, the application we have developed in order to allow the users playing with the components without restrictions or rules, so after the interaction they can give their satisfaction mark with the application. This will be the value used to evaluate the quality. Some own measures are also defined, which does not depend on the user and which will be used as a reference point of the evaluation. When the measures from users and own ones are got, their correlation is analyzed to study the differences between them and to establish the quality of the component. The conclusion that can be gained from the project is the importance of giving freedom for users when doing usability tests because it increases the chance to get positive results, in the way the users execute the operations they want with the application. This method is fortunate for having such a number of tools to monitor the user flow when using the service.