44 resultados para Base de Datos Documental


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Eterio Pajares, Raquel Merino y José Miguel Santamaría (eds.)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Duración (en horas): Más de 50 horas Destinatario: Estudiante y Docente

Relevância:

100.00% 100.00%

Publicador:

Resumo:

[ES]Este Trabajo de Fin de Grado (TFG) está relacionado con las prácticas efectuadas en la Guardia Municipal de San Sebastián (País Vasco) y pretende analizar las órdenes de protección concedidas a víctimas de violencia de género inmigrantes y nacionales para comprobar si existe alguna diferencia en cuanto a su aplicación. Asimismo, se pretende analizar el procedimiento efectuado por este cuerpo policial y servicios sociales en estos casos, así como el perfil de la víctima y el agresor. Por otra parte, se procura analizar aspectos controvertidos de la Ley Orgánica 1/2004 de Medidas de Protección Integral de la Violencia de Género. Para ello, se utilizara una metodología mixta. Por una parte de corte cualitativo realizando cuatro entrevistas (a dos víctimas, una agente de policía y una trabajadora social) para ahondar más respecto a este tema. En segundo lugar, desde una perspectiva cuantitativa se explorará la base de datos de la Guardia Municipal en materia de violencia de género para realizar un análisis estadístico. Finalmente, se abordaran las conclusiones a las que se ha llegado con este trabajo y se propondrán mejoras de cara a futuras investigaciones y a la operatividad de la Guardia Municipal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el presente trabajo de fin de máster se realiza una investigación sobre las técnicas de preproceso del dataset de entrenamiento y la aplicación de un modelo de predicción que realice una clasificación de dı́gitos escritos a mano. El conjunto de dataset de train y test son proporcionado en la competencia de Kaggle: Digit Recognizer y provienen de la base de datos de dı́gitos manuscritos MNIST. Por tratarse de imágenes las técnicas de preproceso se concentran en obtener una imagen lo más nı́tida posible y la reducción de tamaño de la misma, objetivos que se logran con técnicas de umbralización por el método de Otsu, transformada de Wavelet de Haar y el análisis de sus componentes principales. Se utiliza Deep Learning como modelo predictivo por ajustarse a este tipo de datos, se emplean además librerı́as de código abierto implementadas en el lenguaje estádisto R. Por último se obtiene una predicción con las técnicas y herramientas mencio- nadas para ser evaluada en la competencia de Kaggle, midiendo y comparando los resultados obtenidos con el resto de participantes.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Castellano. En este proyecto se desarrolla una aplicación web que permite la gestión de datos obtenidos en las pruebas que se realizan a los generadores síncronos en Banco de Pruebas. El objetivo de este proyecto es almacenar estos datos en una base de datos de forma que se encuentren centralizados para su posterior explotación.Para llevar a cabo esta tarea, se han utilizado tecnologías como PHP, MySQL, JavaScript y Ajax.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

En este artículo describiremos cómo se ha realizado un Sistema para controlar la Información generada en una Base de Datos distribuida en lugares alejados geográficamente. La diferencia frente a otros sistemas más sofisticados radica en la economía, y la flexibilidad de la solución propuesta. El sistema de comunicaciones se instala sobre un soporte físico de extrema sencillez; con ello se consigue una instalación muy económica.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Este informe recoge la documentación generada para llevar a cabo una práctica interuniversitaria en el área de base de datos durante los cursos 09/10 y 10/11. Se ha desarrollado una experiencia entre la UPV/EHU y la Universidad de la Rioja incorporando de forma sistemática la telecolaboración, formando equipos de trabajo con estudiantes de las dos universidades que no se conocen entre sí y han trabajado a distancia. El proyecto se ha realizado en el ámbito de dos asignaturas de bases de datos concretas, una de cada universidad, donde las similitudes y diferencias entre ambas producen equipos heterogéneos. Los alumnos han colaborado en las diferentes fases de la creación de una base de datos, desde la invención de unos requisitos hasta la realización de consultas. Para el desarrollo de esta práctica se han elaborado enunciados detallados para cada fase con ejemplos del trabajo a realizar. Además se ha acordado una rúbrica de evaluación y una encuesta para valorar la experiencia. En el presente documento se recopila dicho material de soporte.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Duración (en horas): De 41 a 50 horas. Nivel educativo: Grado

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Participantes en el proyecto Nerthus: Javier Martín Arista (Universidad de La Rioja, Investigador principal), Laboratorio de Documentación Geométrica del Patrimonio (Universidad del País Vasco UPV/EHU).-- Sitio web del proyecto: http://www.nerthusproject.com/

Relevância:

80.00% 80.00%

Publicador:

Resumo:

[ES] El presente manual describe el manejo de grafos de forma interactiva en el entorno 3D que proporciona el programa Xglore (http://sourceforge.net/projects/xglore/). Forma parte del proyecto “Nerthusv2: Base de datos léxica en 3D del inglés antiguo” patrocinado por el Ministerio de Ciencia e Innovación (nº: FFI08-04448/FILO).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

[ES] Este trabajo propone una serie de factores como determinantes del nivel de expansión internacional de la industria vitivinícola chilena: i) tamaño de la empresa; ii) gestión de la calidad; iii) tecnologías de la información y la comunicación; iv) planificación de la gestión internacional, y finalmente, v) adaptación de la estrategia de marketing internacional. El contraste empírico sobre la base de datos de exportación de la industria vitivinícola chilena entre los años 2004 y 2007, permitió confirmar seis de las siete hipótesis planteadas. Este estudio concluye con un apartado destinado a resumir las principales contribuciones teóricas y prácticas, así como las limitaciones y futuras líneas de investigación.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

[ES] A partir de los microdatos de la "encuesta sobre innovación tecnológica 1998-2000" se construye una base de datos con las empresas manufactureras españolas que realizan actividades de innovación. Posteriormente, mediante las pruebas Chi-cuadrado de Pearson y Mann-Whitney, contrastamos si el tamaño condiciona la participación de las empresas manufactureras innovadoras en los sistemas de ayuda pública a la innovación; asimismo, a través de los índices de Kendall y Spearman evaluamos la dirección de dicho condicionamiento. Al respecto, los contrastes realizados nos indican que la variable tamaño se encuentra relacionada con la variable financiación pública, y que son las empresas de mayor tamaño las que más se benefician de las ayudas públicas a la innovación.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

[ES] La publicación de la Ley de Patrimonio Histórico Español en 1985 y el desarrollo de la construcción, especialmente de grandes infraestructuras, en la primera década del siglo XXI han sido los factores desencadenantes de la arqueología comercial en España.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

[ES]La fibrilación ventricular (VF) es el primer ritmo registrado en el 40\,\% de las muertes súbitas por paro cardiorrespiratorio extrahospitalario (PCRE). El único tratamiento eficaz para la FV es la desfibrilación mediante una descarga eléctrica. Fuera del hospital, la descarga se administra mediante un desfibrilador externo automático (DEA), que previamente analiza el electrocardiograma (ECG) del paciente y comprueba si presenta un ritmo desfibrilable. La supervivencia en un caso de PCRE depende fundamentalmente de dos factores: la desfibrilación temprana y la resucitación cardiopulmonar (RCP) temprana, que prolonga la FV y por lo tanto la oportunidad de desfibrilación. Para un correcto análisis del ritmo cardiaco es necesario interrumpir la RCP, ya que, debido a las compresiones torácicas, la RCP introduce artefactos en el ECG. Desafortunadamente, la interrupción de la RCP afecta negativamente al éxito en la desfibrilación. En 2003 se aprobó el uso del DEA en pacientes entre 1 y 8 años. Los DEA, que originalmente se diseñaron para pacientes adultos, deben discriminar de forma precisa las arritmias pediátricas para que su uso en niños sea seguro. Varios DEAs se han adaptado para uso pediátrico, bien demostrando la precisión de los algoritmos para adultos con arritmias pediátricas, o bien mediante algoritmos específicos para arritmias pediátricas. Esta tesis presenta un nuevo algoritmo DEA diseñado conjuntamente para pacientes adultos y pediátricos. El algoritmo se ha probado exhaustivamente en bases de datos acordes a los requisitos de la American Heart Association (AHA), y en registros de resucitación con y sin artefacto RCP. El trabajo comenzó con una larga fase experimental en la que se recopilaron y clasificaron retrospectivamente un total de 1090 ritmos pediátricos. Además, se revisó una base de arritmias de adultos y se añadieron 928 nuevos ritmos de adultos. La base de datos final contiene 2782 registros, 1270 se usaron para diseñar el algoritmo y 1512 para validarlo. A continuación, se diseñó un nuevo algoritmo DEA compuesto de cuatro subalgoritmos. Estos subalgoritmos están basados en un conjunto de nuevos parámetros para la detección de arritmias, calculados en diversos dominios de la señal, como el tiempo, la frecuencia, la pendiente o la función de autocorrelación. El algoritmo cumple las exigencias de la AHA para la detección de ritmos desfibrilables y no-desfibrilables tanto en pacientes adultos como en pediátricos. El trabajo concluyó con el análisis del comportamiento del algoritmo con episodios reales de resucitación. En los ritmos que no contenían artefacto RCP se cumplieron las exigencias de la AHA. Posteriormente, se estudió la precisión del algoritmo durante las compresiones torácicas, antes y después de filtrar el artefacto RCP. Para suprimir el artefacto se utilizó un nuevo método desarrollado a lo largo de la tesis. Los ritmos desfibrilables se detectaron de forma precisa tras el filtrado, los no-desfibrilables sin embargo no.