973 resultados para Bases de Datos
Resumo:
Fil: Rozemblum, Cecilia. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.
Resumo:
En este trabajo se analizarán los parámetros que utiliza el CAICYT (CONICET) para determinar qué publicaciones integran el Núcleo Básico de Revistas Científicas Argentinas, iguales a los que emplea el Sistema Latindex para la inclusión en el nivel Catálogo, y se compararán con los criterios para la indización en RedALyC y Scopus. El objetivo es identificar las características de cada indicador en relación con su propósito, estimar su repercusión en lo que se denomina "calidad editorial" en una publicación científica y evaluar los niveles de dificultad que presenta su aplicación. Se intentará demostrar que existe un escalonamiento en las exigencias de cada una de estas bases de datos, que los indicadores no siempre están ligados a determinar la "calidad editorial" en una publicación científica y que, de alguna manera, estos sistemas terminan por ejercer presión para homogeneizar los formatos de presentación de las revistas latinoamericanas, quitándoles características propias de cada disciplina y país, en especial a las de Humanidades y Ciencias Sociales, enfocando cuestiones que poco aportan a la construcción del conocimiento científico
Resumo:
Se analizan los parámetros de evaluación utilizados por RedALyC, Catálogo Latindex, SciELO, Scopus y Web of Science para incorporar revistas científicas en sus colecciones, a fin de demostrar su relación con los objetivos perseguidos por cada base y debatir acerca de la valoración que la comunidad científica está otorgándoles a estos sistemas como determinantes de "calidad científica". Los indicadores utilizados se clasifican en: 1) Calidad editorial (aspectos formales o gestión editorial); 2) Calidad de contenido (revisión por pares u originalidad) y 3) Visibilidad (prestigio de editores y editorial, endogamia, uso e impacto, accesibilidad o indización). Se revela que: a) entre un 9 y un 16 se relacionan con la calidad de contenido; b) falta especificidad en sus definiciones y en la determinación de sus pesos específicos en los sistemas, y c) coinciden con los objetivos de cada base, aunque se observa una marcada tendencia hacia los relacionados con aspectos formales y visibilidad. Se deja así en evidencia que estos sistemas persiguen sus propios objetivos y que conforman núcleo de revistas de "calidad" para su público lector. Se concluye, en consecuencia, que la presencia o ausencia de una revista en estas colecciones, no es parámetro suficiente para determinar la calidad de las revistas científicas ni de sus contenidos.
Resumo:
Se analizan los parámetros de evaluación utilizados por RedALyC, Catálogo Latindex, SciELO, Scopus y Web of Science para incorporar revistas científicas en sus colecciones, a fin de demostrar su relación con los objetivos perseguidos por cada base y debatir acerca de la valoración que la comunidad científica está otorgándoles a estos sistemas como determinantes de "calidad científica". Los indicadores utilizados se clasifican en: 1) Calidad editorial (aspectos formales o gestión editorial); 2) Calidad de contenido (revisión por pares u originalidad) y 3) Visibilidad (prestigio de editores y editorial, endogamia, uso e impacto, accesibilidad o indización). Se revela que: a) entre un 9 y un 16 se relacionan con la calidad de contenido; b) falta especificidad en sus definiciones y en la determinación de sus pesos específicos en los sistemas, y c) coinciden con los objetivos de cada base, aunque se observa una marcada tendencia hacia los relacionados con aspectos formales y visibilidad. Se deja así en evidencia que estos sistemas persiguen sus propios objetivos y que conforman núcleo de revistas de "calidad" para su público lector. Se concluye, en consecuencia, que la presencia o ausencia de una revista en estas colecciones, no es parámetro suficiente para determinar la calidad de las revistas científicas ni de sus contenidos.
Resumo:
Se analizan los parámetros de evaluación utilizados por RedALyC, Catálogo Latindex, SciELO, Scopus y Web of Science para incorporar revistas científicas en sus colecciones, a fin de demostrar su relación con los objetivos perseguidos por cada base y debatir acerca de la valoración que la comunidad científica está otorgándoles a estos sistemas como determinantes de "calidad científica". Los indicadores utilizados se clasifican en: 1) Calidad editorial (aspectos formales o gestión editorial); 2) Calidad de contenido (revisión por pares u originalidad) y 3) Visibilidad (prestigio de editores y editorial, endogamia, uso e impacto, accesibilidad o indización). Se revela que: a) entre un 9 y un 16 se relacionan con la calidad de contenido; b) falta especificidad en sus definiciones y en la determinación de sus pesos específicos en los sistemas, y c) coinciden con los objetivos de cada base, aunque se observa una marcada tendencia hacia los relacionados con aspectos formales y visibilidad. Se deja así en evidencia que estos sistemas persiguen sus propios objetivos y que conforman núcleo de revistas de "calidad" para su público lector. Se concluye, en consecuencia, que la presencia o ausencia de una revista en estas colecciones, no es parámetro suficiente para determinar la calidad de las revistas científicas ni de sus contenidos.
Resumo:
Fil: Rozemblum, Cecilia. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.
Resumo:
En este trabajo se analizarán los parámetros que utiliza el CAICYT (CONICET) para determinar qué publicaciones integran el Núcleo Básico de Revistas Científicas Argentinas, iguales a los que emplea el Sistema Latindex para la inclusión en el nivel Catálogo, y se compararán con los criterios para la indización en RedALyC y Scopus. El objetivo es identificar las características de cada indicador en relación con su propósito, estimar su repercusión en lo que se denomina "calidad editorial" en una publicación científica y evaluar los niveles de dificultad que presenta su aplicación. Se intentará demostrar que existe un escalonamiento en las exigencias de cada una de estas bases de datos, que los indicadores no siempre están ligados a determinar la "calidad editorial" en una publicación científica y que, de alguna manera, estos sistemas terminan por ejercer presión para homogeneizar los formatos de presentación de las revistas latinoamericanas, quitándoles características propias de cada disciplina y país, en especial a las de Humanidades y Ciencias Sociales, enfocando cuestiones que poco aportan a la construcción del conocimiento científico
Resumo:
Se analizan los parámetros de evaluación utilizados por RedALyC, Catálogo Latindex, SciELO, Scopus y Web of Science para incorporar revistas científicas en sus colecciones, a fin de demostrar su relación con los objetivos perseguidos por cada base y debatir acerca de la valoración que la comunidad científica está otorgándoles a estos sistemas como determinantes de "calidad científica". Los indicadores utilizados se clasifican en: 1) Calidad editorial (aspectos formales o gestión editorial); 2) Calidad de contenido (revisión por pares u originalidad) y 3) Visibilidad (prestigio de editores y editorial, endogamia, uso e impacto, accesibilidad o indización). Se revela que: a) entre un 9 y un 16 se relacionan con la calidad de contenido; b) falta especificidad en sus definiciones y en la determinación de sus pesos específicos en los sistemas, y c) coinciden con los objetivos de cada base, aunque se observa una marcada tendencia hacia los relacionados con aspectos formales y visibilidad. Se deja así en evidencia que estos sistemas persiguen sus propios objetivos y que conforman núcleo de revistas de "calidad" para su público lector. Se concluye, en consecuencia, que la presencia o ausencia de una revista en estas colecciones, no es parámetro suficiente para determinar la calidad de las revistas científicas ni de sus contenidos.
Resumo:
Fil: Rozemblum, Cecilia. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.
Resumo:
En este trabajo se analizarán los parámetros que utiliza el CAICYT (CONICET) para determinar qué publicaciones integran el Núcleo Básico de Revistas Científicas Argentinas, iguales a los que emplea el Sistema Latindex para la inclusión en el nivel Catálogo, y se compararán con los criterios para la indización en RedALyC y Scopus. El objetivo es identificar las características de cada indicador en relación con su propósito, estimar su repercusión en lo que se denomina "calidad editorial" en una publicación científica y evaluar los niveles de dificultad que presenta su aplicación. Se intentará demostrar que existe un escalonamiento en las exigencias de cada una de estas bases de datos, que los indicadores no siempre están ligados a determinar la "calidad editorial" en una publicación científica y que, de alguna manera, estos sistemas terminan por ejercer presión para homogeneizar los formatos de presentación de las revistas latinoamericanas, quitándoles características propias de cada disciplina y país, en especial a las de Humanidades y Ciencias Sociales, enfocando cuestiones que poco aportan a la construcción del conocimiento científico
Resumo:
Desde 1995, el derecho internacional se ha integrado en el ordenamiento jurídico español en lo referente a seguridad y salud. Sin embargo, la situación de la seguridad en los aprovechamientos forestales no ha mejorado notablemente, puesto que se detectan frecuentes casos de personal trabajando sin equipo de protección e incumpliendo las instrucciones de trabajo seguro, y son abundantes las referencias a una elevada accidentalidad. Para evaluar estos aspectos, primeramente se han comparado y valorado los datos de accidentalidad de los taladores de una empresa de referencia con los de los sectores agrario y de la construcción a través de las estadísticas nacionales y con los datos depurados del sector forestal a partir de la base de datos de declaración electrónica de accidentes de la C.A. de Castilla y León. En segundo lugar, se han identificado las deficiencias en materia de prevención, diseñando para ello una encuesta que se ha llevado a cabo en 35 aprovechamientos de Castilla y León. Posteriormente, se ha verificado que la reducción de la accidentalidad en la empresa de referencia se debe a la aplicación del plan de prevención. Se han caracterizado los riesgos en los que habían incurrido los taladores y se han descrito las medidas adoptadas para la reducción de los accidentes en la empresa estudiada, lo que ha conducido a una serie de recomendaciones para reducir la accidentalidad. Por otro lado se han analizado las causas de los picos de accidentalidad detectados. Como conclusión, se puede reducir sensiblemente la accidentalidad sólo si la empresa integra la política de prevención como un objetivo más de la gestión empresarial, en todos los niveles de su organización, acompañando las herramientas técnicas con formación temprana y motivación adecuada. Palabras clave: aprovechamientos forestales, riesgos laborales, prevención, trabajador forestal, accidentalidad, incidencia, gravedad. From 1995, Spanish safety legislation has been adapted to the Internationa! framework. However, operationally the situation is not so good, at least in the wood harvesting activity. Some forest workers are still found not wearing the compulsory safety equipment, working without respecting safety rules and references to high accidents rates are frequent. To assess those aspects, firstly some comparisons have been made between the accident records in a reference company and the accident indexes at national and regional level for building and farming activities. Secondly, using a purpose-designed questionnaire applied to 35 logging worksites in Castilla y Leon Region, deficiencies in prevention have been identified. The relation between the accident reduction and the prevention methods used by the reference studied company has been confirmed. Also the main causes and peaks of the accidents have been analyzed. Finally, some recommendations to reduce the risk of accidents in harvesting operations are provided. The main conclusion confirms that the possibility of reducing the accident risk is conditioned to the commitment of all the staff of the timber harvesting company, at every level of responsibility, to search for excellence in safety as one more entrepreneurial goal. This fact should be accompanied by the staff early training and the adequate motivation means. Keywords: logging, labor risk, safety and health, prevention, logging workers, accident incidence, accident severity.
Resumo:
Los objetivos de este proyecto son la reinterpretación de los sondeos de resonancia magnética (SRM) realizados por el IGME en los acuíferos de Doñana y Estaña empleando el nuevo software de inversión SAMOVAR 11 y la realización de un inventario en formato de ficha de estos SRM. Se busca determinar si las nuevas características del software permiten mejorar el comportamiento de las inversiones de datos de SRM. Para llevar a cabo el reprocesamiento se usaron las distintas inversiones posibles de SAMOVAR 11 y se comparó cada caso con la inversión realizada con la versión anterior del software de inversión, SAMOVAR 6. Se determinó la existencia de coherencia en las inversiones complejas de amplitud y fase realizadas con SAMOVAR 11 proponiendo la realización de un estudio en campo para conocer con más exactitud las características de SAMOVAR 11. Por último las fichas de los SRM se realizaron teniendo en cuenta los principales parámetros de un SRM concluyendo en la utilidad que tendría una relación de todos los SRM realizados por el IGME siguiendo el formato aquí presentado u otro distinto.
Resumo:
El presente trabajo desarrolla un servicio REST que transforma frases en lenguaje natural a grafos RDF. Los grafos generados son grafos dirigidos, donde los nodos se forman con los sustantivos o adjetivos de las frases, y los arcos se forman con los verbos. Se utiliza dentro del proyecto p-medicine para dar soporte a las siguientes funcionalidades: Búsquedas en lenguaje natural: actualmente la plataforma p-medicine proporciona un interfaz programático para realizar consultas en SPARQL. El servicio desarrollado permitiría generar esas consultas automáticamente a partir de frases en lenguaje natural. Anotaciones de bases de datos mediante lenguaje natural: la plataforma pmedicine incorpora una herramienta, desarrollada por el Grupo de Ingeniería Biomédica de la Universidad Politécnica de Madrid, para la anotación de bases de datos RDF. Estas anotaciones son necesarias para la posterior traducción de las bases de datos a un esquema central. El proceso de anotación requiere que el usuario construya de forma manual las vistas RDF que desea anotar, lo que requiere mostrar gráficamente el esquema RDF y que el usuario construya vistas RDF seleccionando las clases y relaciones necesarias. Este proceso es a menudo complejo y demasiado difícil para un usuario sin perfil técnico. El sistema se incorporará para permitir que la construcción de estas vistas se realice con lenguaje natural. ---ABSTRACT---The present work develops a REST service that transforms natural language sentences to RDF degrees. Generated graphs are directed graphs where nodes are formed with nouns or adjectives of phrases, and the arcs are formed with verbs. Used within the p-medicine project to support the following functionality: Natural language queries: currently the p-medicine platform provides a programmatic interface to query SPARQL. The developed service would automatically generate those queries from natural language sentences. Memos databases using natural language: the p-medicine platform incorporates a tool, developed by the Group of Biomedical Engineering at the Polytechnic University of Madrid, for the annotation of RDF data bases. Such annotations are necessary for the subsequent translation of databases to a central scheme. The annotation process requires the user to manually construct the RDF views that he wants annotate, requiring graphically display the RDF schema and the user to build RDF views by selecting classes and relationships. This process is often complex and too difficult for a user with no technical background. The system is incorporated to allow the construction of these views to be performed with natural language.
Resumo:
El trabajo se enmarca dentro de los proyecto INTEGRATE y EURECA, cuyo objetivo es el desarrollo de una capa de interoperabilidad semántica que permita la integración de datos e investigación clínica, proporcionando una plataforma común que pueda ser integrada en diferentes instituciones clínicas y que facilite el intercambio de información entre las mismas. De esta manera se promueve la mejora de la práctica clínica a través de la cooperación entre instituciones de investigación con objetivos comunes. En los proyectos se hace uso de estándares y vocabularios clínicos ya existentes, como pueden ser HL7 o SNOMED, adaptándolos a las necesidades particulares de los datos con los que se trabaja en INTEGRATE y EURECA. Los datos clínicos se representan de manera que cada concepto utilizado sea único, evitando ambigüedades y apoyando la idea de plataforma común. El alumno ha formado parte de un equipo de trabajo perteneciente al Grupo de Informática de la UPM, que a su vez trabaja como uno de los socios de los proyectos europeos nombrados anteriormente. La herramienta desarrollada, tiene como objetivo realizar tareas de homogenización de la información almacenada en las bases de datos de los proyectos haciendo uso de los mecanismos de normalización proporcionados por el vocabulario médico SNOMED-CT. Las bases de datos normalizadas serán las utilizadas para llevar a cabo consultas por medio de servicios proporcionados en la capa de interoperabilidad, ya que contendrán información más precisa y completa que las bases de datos sin normalizar. El trabajo ha sido realizado entre el día 12 de Septiembre del año 2014, donde comienza la etapa de formación y recopilación de información, y el día 5 de Enero del año 2015, en el cuál se termina la redacción de la memoria. El ciclo de vida utilizado ha sido el de desarrollo en cascada, en el que las tareas no comienzan hasta que la etapa inmediatamente anterior haya sido finalizada y validada. Sin embargo, no todas las tareas han seguido este modelo, ya que la realización de la memoria del trabajo se ha llevado a cabo de manera paralela con el resto de tareas. El número total de horas dedicadas al Trabajo de Fin de Grado es 324. Las tareas realizadas y el tiempo de dedicación de cada una de ellas se detallan a continuación: Formación. Etapa de recopilación de información necesaria para implementar la herramienta y estudio de la misma [30 horas. Especificación de requisitos. Se documentan los diferentes requisitos que ha de cumplir la herramienta [20 horas]. Diseño. En esta etapa se toman las decisiones de diseño de la herramienta [35 horas]. Implementación. Desarrollo del código de la herramienta [80 horas]. Pruebas. Etapa de validación de la herramienta, tanto de manera independiente como integrada en los proyectos INTEGRATE y EURECA [70 horas]. Depuración. Corrección de errores e introducción de mejoras de la herramienta [45 horas]. Realización de la memoria. Redacción de la memoria final del trabajo [44 horas].---ABSTRACT---This project belongs to the semantic interoperability layer developed in the European projects INTEGRATE and EURECA, which aims to provide a platform to promote interchange of medical information from clinical trials to clinical institutions. Thus, research institutions may cooperate to enhance clinical practice. Different health standards and clinical terminologies has been used in both INTEGRATE and EURECA projects, e.g. HL7 or SNOMED-CT. These tools have been adapted to the projects data requirements. Clinical data are represented by unique concepts, avoiding ambiguity problems. The student has been working in the Biomedical Informatics Group from UPM, partner of the INTEGRATE and EURECA projects. The tool developed aims to perform homogenization tasks over information stored in databases of the project, through normalized representation provided by the SNOMED-CT terminology. The data query is executed against the normalized version of the databases, since the information retrieved will be more informative than non-normalized databases. The project has been performed from September 12th of 2014, when initiation stage began, to January 5th of 2015, when the final report was finished. The waterfall model for software development was followed during the working process. Therefore, a phase may not start before the previous one finishes and has been validated, except from the final report redaction, which has been carried out in parallel with the others phases. The tasks that have been developed and time for each one are detailed as follows: Training. Gathering the necessary information to develop the tool [30 hours]. Software requirement specification. Requirements the tool must accomplish [20 hours]. Design. Decisions on the design of the tool [35 hours]. Implementation. Tool development [80 hours]. Testing. Tool evaluation within the framework of the INTEGRATE and EURECA projects [70 hours]. Debugging. Improve efficiency and correct errors [45 hours]. Documenting. Final report elaboration [44 hours].
Resumo:
Through the years, we have detected a problem in the academic program of Information and Communication Technologies of our University, a recurrent problem in the teaching learning process, accentuated with the associated paradigm to the construction of knowledge by the own pupil. We are specifically referring to the search and assimilation of content inside the book texts about Digital Databases. The work exposed in this paper represents an effort for contributing in the reduction of educational slump in areas related to good design and construction of data banks. The textbook of this research, treats all the thematical content in this area, which are studied in the whole academic program. These and another relevant subjects in the database area are retaken from a simple but fundamentally practical theorical focus, allowing the studying on acquiring a significative learning in an easier and single source way. As a result, we present the almost definitive version of the book which is been tested on pilot groups