14 resultados para optimización de estructuras

em Universidade Complutense de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A través de la realización de cuatro estudios basados en datos simulados y unidos por una preocupación común, aunque parcialmente independientes en su metodología y foco específico, esta tesis se plantea como objetivo general poner a prueba algunas de las ventajas que podría obtener un investigador aplicado al utilizar modelos clásicos de TRI frente a otras opciones, para de esta forma evaluar la posibilidad de obtener resultados relativamente equivalentes utilizando procedimientos alternativos. Específicamente, en esta tesis se pone a prueba: a) la calidad diferencial de las estimaciones de las propiedades de los ítems obtenidas por los procedimientos TRI frente a los factoriales; b) la validez de los procedimientos de escalamiento TRI frente a los de la TCT; y c) los límites de la propiedad de invarianza de las estimaciones de sujetos e ítems obtenidas con procedimientos TRI. La hipótesis general de esta tesis es que, en el tipo de condiciones en que se ha enfocado el estudio, las ventajas de utilizar modelos clásicos de TRI no serán demasiado amplias, con lo que existirán condiciones en las que emplear procedimientos alternativos será recomendable, dada su simplicidad relativa y su equivalencia de resultados. La primera investigación utiliza datos simulados para comparar las estimaciones de discriminación de ítems politómicos provenientes del AFI, frente a las posibles de obtener con distintas estrategias relacionadas con el análisis factorial clásico. La segunda investigación, también utiliza datos simulados para poner a prueba la equivalencia de las estimaciones de discriminación de los ítems obtenidas con los procedimientos TRI y AFI. La tercera investigación, utiliza dos estudios basados en datos simulados tanto para comparar los escalamientos de los sujetos obtenidos por la TRI y la TCT, como para aclarar las condiciones en que es posible esperar la presencia similitudes o diferencias entre ambos...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

How can a chronic disease determine the life of a group of people diagnosed as seropositive away from their home country? And how do we account for that lived experience. Some diseases contemplated a few decades ago as strictly rural or of poor countries, are an urban reality now and are part of the epidemiological setting in wealthy developed countries. That is the case of Chagas disease in Spain. A disease linked for a long time to rural poverty, until migratory movements occurred nationwide from the country side to the city, and recently with international migration have turned pathology into a global public health issue. Chagas disease is a chronic parasitic infection, endemic in all Latin America and can be transmitted by triatomine or “kissing bug” (Triatoma Infestans), which lives and reproduces in straw houses of rural regions. According to the Pan American Health Organization (PAHO, 2006), the disease affects approximately eight million people. It is recognized by the WHO as a “neglected tropical disease”...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nuestro trabajo se ha centrado principalmente en la mejora y extensión de una aplicación web llamada VizHaskell, la cual fue creada en otro proyecto anterior. La finalidad de esta herramienta es ser utilizada en el ámbito educativo para el aprendizaje del lenguaje Haskell y, por ello, incluye diferentes mecanismos para facilitar la programación de este lenguaje, a diferencia de otras que están destinados a un uso más serio o profesional. Entre sus características están la de incluir un mecanismo de gestión de usuarios en el que cada usuario dispondrá de su propio espacio de trabajo, permitir la creación de proyectos con la que los usuarios pueden tener de una manera organizada los módulos que vayan realizando, incluso proporcionar una visión original a la hora de obtener los resultados de su trabajo y poder entenderlos mejor, mediante el uso de representaciones gráficas como tablas o escenas 3D totalmente manejables y manipulables. Todo esto es posible sin la necesidad de instalar nada más allá de un navegador compatible con HTML5. Entre las mejoras añadidas están la inclusión de dos nuevas representaciones (tablas asociativas y escenas tridimensionales), la capacidad de anidar complejas estructuras de datos y la capacidad de poder manipular las estructuras de una forma sencilla mediante el uso de conocidos elementos como son los menús contextuales, además de otras mejoras que quizás no son tan llamativas, pero no por ello menos importantes, como la incorporación de funcionalidades relacionadas con los backreferences. Todo esto podemos verlo en detalle en la memoria del proyecto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La verificación formal de un programa es la demostración de que este funciona de acuerdo a una descripción del comportamiento esperado en toda posible ejecución. La especificación de lo deseado puede utilizar técnicas diversas y entrar en mayor o menor detalle, pero para ganarse el título de formal esta ha de ser matemáticamente rigurosa. El estudio y ejercicio manual de alguna de esas técnicas forma parte del currículo común a los estudios de grado de la Facultad de Informática y del itinerario de Ciencias de la Computación de la Facultad de Ciencias Matemáticas de la Universidad Complutense de Madrid, como es el caso de la verificación con pre- y postcondiciones o lógica de Hoare. En el presente trabajo se explora la automatización de estos métodos mediante el lenguaje y verificador Dafny, con el que se especifican y verifican algoritmos y estructuras de datos de diversa complejidad. Dafny es un lenguaje de programación diseñado para integrar la especificación y permitir la verificación automática de sus programas, con la ayuda del programador y de un demostrador de teoremas en la sombra. Dafny es un proyecto en desarrollo activo aunque suficientemente maduro, que genera programas ejecutables.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Stenotrophomonas maltophilia es un patógeno nosocomial, emergente, cuya incidencia en procesos severos esta aumentado de manera análoga al incremento de las poblaciones de pacientes con factores predisponentes. S. maltophilia es un microorganismo ubicuo y adaptado a múltiples ambientes, lo que explica la elevada diversidad genética y el resistoma característico de esta especie que le confiere resistencia a la mayoría de clases de antimicrobianos. Se sugiere que el paciente porta al microorganismo en el momento del ingreso y que la combinación entre la presión antibiótica, especialmente aminoglucósidos y carbapenemas, y el profundo y prolongado estado de inmunosupresión favorecen el desarrollo de la infección. El tratamiento de las infecciones severas, bacteriemias y neumonías, es empírico, y relacionado con una elevada mortalidad, 36-67%, que es atribuida a que la mayoría de pacientes recibe una terapia inapropiada. La carencia de antimicrobianos con suficiente actividad, la rápida aparición de resistencias en los pacientes bajo tratamiento y la ausencia de ensayos clínicos que discriminen tratamientos efectivos, condicionan el complicado manejo de los pacientes infectados por S. maltophilia . En la actualidad solo seis antimicrobianos, cotrimoxazol, ticarcilina-ácido clavulánico, de elección y ceftazidima, levofloxacino, minociclina y cloranfenicol, son considerados tratamientos apropiados para este microorganismo por el CLSI o el EUCAST. La probabilidad de supervivencia aumenta con la rápida administración de agentes sensibles in vitro , pero la mortalidad continúa siendo extraordinariamente alta, 14 y el 45%, lo que demuestra la urgente necesidad de alternativas terapéuticas y de la revaloración de los actuales puntos de corte microbiológicos empleados en el pronóstico de eficacia clínica para esta especie...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tuberculosis es una zoonosis bacteriana que representa un importante problema sanitario en el hombre y los animales (domésticos y silvestres), siendo en estos Mycobacterium bovis y M. caprae las especies de mayor relevancia. La enfermedad tiene un gran impacto económico ya que produce un descenso de la producción de los animales y restricciones en su movimiento, además de los costes derivados de su erradicación en el ganado bovino. Actualmente, la tuberculosis en otras especies domésticas como la cabra, comienza a tener relevancia en aquellos países con elevado censo de caprino. Por otra parte, los camélidos de Sudamérica (alpacas y llamas principalmente), se emplean cada vez con mayor frecuencia fuera de su hábitat natural como mascotas y para la producción de fibra. Además, son altamente susceptibles a la enfermedad, habiéndose notificado varios brotes de tuberculosis en estos animales en Europa. Los programas de erradicación se basan en una estrategia de “diagnóstico y sacrificio”, de tal modo que los animales positivos a las pruebas diagnósticas se eliminan de la explotación. Las técnicas diagnósticas oficiales en la Unión Europea son la prueba de la intradermotuberculinización (IDTB) y el test de detección de interferón-gamma (IFN-γ), que detectan la respuesta inmune de base celular. Existen, además, pruebas para la detección de anticuerpos, algunas disponibles comercialmente y otras en fase experimental. Con el objetivo de optimizar el diagnóstico de la tuberculosis en rumiantes (ganado bovino y caprino) y en camélidos (llamas y alpacas), se han realizado siete estudios experimentales, distribuidos en cuatro capítulos, diseñados para cumplir los cuatro objetivos de la presente tesis doctoral...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En los últimos años se ha incrementado el interés de la comunidad científica en la Factorización de matrices no negativas (Non-negative Matrix Factorization, NMF). Este método permite transformar un conjunto de datos de grandes dimensiones en una pequeña colección de elementos que poseen semántica propia en el contexto del análisis. En el caso de Bioinformática, NMF suele emplearse como base de algunos métodos de agrupamiento de datos, que emplean un modelo estadístico para determinar el número de clases más favorable. Este modelo requiere de una gran cantidad de ejecuciones de NMF con distintos parámetros de entrada, lo que representa una enorme carga de trabajo a nivel computacional. La mayoría de las implementaciones de NMF han ido quedando obsoletas ante el constante crecimiento de los datos que la comunidad científica busca analizar, bien sea porque los tiempos de cómputo llegan a alargarse hasta convertirse en inviables, o porque el tamaño de esos datos desborda los recursos del sistema. Por ello, esta tesis doctoral se centra en la optimización y paralelización de la factorización NMF, pero no solo a nivel teórico, sino con el objetivo de proporcionarle a la comunidad científica una nueva herramienta para el análisis de datos de origen biológico. NMF expone un alto grado de paralelismo a nivel de datos, de granularidad variable; mientras que los métodos de agrupamiento mencionados anteriormente presentan un paralelismo a nivel de cómputo, ya que las diversas instancias de NMF que se ejecutan son independientes. Por tanto, desde un punto de vista global, se plantea un modelo de optimización por capas donde se emplean diferentes tecnologías de alto rendimiento...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El origen y naturaleza de la investigación refieren al filme de vanguardia mudo como forma plástica y recurso técnico adjunto a los nuevos medios mecánicos de principios del siglo veinte – léase, fotografía, fotomontaje, cine, impresión offset - y sus correspondencias creativas y metodológicas con la vanguardia del software informático y nuevos medios digitales. En este sentido, la propuesta conceptual y formal señala este campo de correspondencias y combinatorias como plataforma de análisis crítico y proyectual, antes que un sistema homogéneo de interpretación y sistematización del ámbito de interés. El filme de vanguardia deriva de las mediaciones sociales, científicas y políticas de las vanguardias artísticas en arte, diseño y arquitectura de las primeras décadas de la era industrial. A este respecto, los filmes seleccionados se realizaron durante el período mudo; es decir, no hay diálogos ni banda sonora incorporada al material fílmico. Sin embargo, en estricto rigor, tampoco es correcto identificarlos a tábula rasa con la denominada estética muda; puesto que esta obra refiere otra interfaz, otro vector y botón de búsqueda de los pioneros de la nueva visión mecánica...

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En esta memoria se ha implementado una etapa de preprocesado que sirva como primera fase en el proceso de codificación dedeo. Esta etapa integra dos variedades del filtro de mediana (3×3 y 5×5) y un operador. Dicho operador lleva a cabo el cálculo del gradiente de los píxeles que conforman una imagen o fotograma con objeto de filtrar después aquellos que están por debajo de un determinado valor (threshold). El cálculo de dicho threshold se realiza de manera empírica mediante dos procesos distintos. En el primero se obtienen valores de luminancia y crominancia de píxeles que integran bordes para encontrar aquel que tenga el valor mínimo, mientras que en el segundo se calcula la tasa de píxeles que forman parte de bordes. Una vez se ha realizado el cálculo anterior, se han utilizado distintos valores de threshold, distintas variedades de filtro de mediana y distintos valores de QP (calidad) con objeto de parametrizar las codificaciones que hacen uso de esta nueva etapa. Posteriormente a dichas codificaciones, se han obtenido los tamaños de los bitstreams de salida y se ha evaluado la calidad de los vídeos decodificados o reconstruidos mediante dos métricas objetivas: PSNR y SSIM. Las codificaciones que no utilizan etapa de preprocesado también han sido evaluadas mediante dichas métricas y comparadas con aquellas que sí integran dicha etapa. Los resultados obtenidos dejan patente el compromiso existente entre tamaño de bitstream y calidad, siendo más representativos los de la métrica SSIM, estando esta última más relacionada con la percepción de la imagen por parte del HVS (sistema visual humano). Como resultado, se obtiene para esta métrica tasas de compresión mayores que las alcanzadas sin preprocesamiento, con pérdidas de calidad prácticamente inapreciables.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las arquitecturas asimétricas, formadas por varios procesadores con el mismo repertorio de instrucciones pero distintas características de rendimiento y consumo, ofrecen muchas posibilidades de optimización del rendimiento y/o el consumo en la ejecución de aplicaciones paralelas. La planificación de tareas sobre dichas arquitecturas de forma que se aprovechen de manera eficiente los distintos recursos, es muy compleja y se suele abordar utilizando modelos de programación paralelos, que permiten al programador especificar el paralelismo de las tareas, y entornos de ejecución que explotan dinámicamente dicho paralelismo. En este trabajo hemos modificado uno de los planificadores de tareas más utilizados en la actualidad para intentar aprovechar todos los recursos al máximo, cuando el rendimiento así lo necesite, o para conseguir la mejor eficiencia energética posible, cuando el consumo sea más prioritario. También se ha utilizado una biblioteca desarrollada específicamente para la arquitectura asimétrica objeto de estudio en la Universidad de Texas, Austin. Para obtener el máximo rendimiento se han agrupado los núcleos del sistema en dos niveles: hay un cluster simétrico de núcleos virtuales idénticos, cada uno de los cuales está compuesto por un conjunto de núcleos asimétricos. El planificador de tareas asigna trabajo a los núcleos virtuales, de manera idéntica a como lo haría en un sistema multinúcleo simétrico, y la biblioteca se encarga de repartir el trabajo entre los núcleos asimétricos. El trabajo ha consistido en integrar dicha biblioteca con el planificador de tareas. Para mejorar la eficiencia energética se han incluido en el planificador de tareas políticas de explotación de los modos de bajo consumo de la arquitectura y también de apagado o no asignación de carga de trabajo a algunos de los núcleos, que se activan en tiempo de ejecución cuando se detecta que la aplicación no necesita todos los recursos disponibles en la arquitectura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la actualidad, el uso del Cloud Computing se está incrementando y existen muchos proveedores que ofrecen servicios que hacen uso de esta tecnología. Uno de ellos es Amazon Web Services, que a través de su servicio Amazon EC2, nos ofrece diferentes tipos de instancias que podemos utilizar según nuestras necesidades. El modelo de negocio de AWS se basa en el pago por uso, es decir, solo realizamos el pago por el tiempo que se utilicen las instancias. En este trabajo se implementa en Amazon EC2, una aplicación cuyo objetivo es extraer de diferentes fuentes de información, los datos de las ventas realizadas por las editoriales y librerías de España. Estos datos son procesados, cargados en una base de datos y con ellos se generan reportes estadísticos, que ayudarán a los clientes a tomar mejores decisiones. Debido a que la aplicación procesa una gran cantidad de datos, se propone el desarrollo y validación de un modelo, que nos permita obtener una ejecución óptima en Amazon EC2. En este modelo se tienen en cuenta el tiempo de ejecución, el coste por uso y una métrica de coste/rendimiento. Adicionalmente, se utilizará la tecnología de contenedores Docker para llevar a cabo un caso específico del despliegue de la aplicación.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Las enfermedades parasitarias o parasitosis son un conjunto de enfermedades infecciosas producidas por protozoos, helmintos, e incluso artrópodos. La enfermedad parasitaria más importante es la malaria que está incluida en la lista de enfermedades de la pobreza. Otras enfermedades parasitarias han sido incluidas en las denominadas enfermedades olvidadas o desatendidas (NTD: Neglected Tropical Diseases) entre las que se encuentran las filariosis linfática y onchocercosis. La malaria está causada por el género Plasmodium (protozoos apicomplexo) Las especies que pueden causar la infección en humanos son: P. falciparum. P. vivax, P. malariae, P. ovale y P. knowlesi. Las filarias son nematodos finos y largos, parásitos de la sangre, la linfa y los tejidos subcutáneos y conectivos que producen en el humano la filariosis. Su transmisión se produce por insectos hematófagos (mosquitos y moscas) que actúan como vectores. Las especies de filarias de interés clínico para los humanos son Wuchereria. bancrofti, Brugia. malayi y B. timori (filariosis linfática), Onchocerca volvulus, Loa. loa y Mansonella streptocerca (filarias dérmicas), y Mansonella perstans y M. ozzardi (mansonelosis). Todas ellas presentan estadios larvales, conocidos como microfilarias (L1), que circulan en sangre o en tejido subcutáneo que son las formas infectivas para los vectores. En el Laboratorio de Malaria & otras Parasitosis Emergentes se ha desarrollado una PCR en tiempo real para malaria (Malaria RT-PCR), una Nested-PCR para filarias (Nested-Filaria PCR) y una PCR en tiempo real para filarias (RT-Filaria-PCR) como Sistemas de Análisis Múltiple para la detección de varias especies de plasmodios y varias especies de filarias en muestras de cualquier índole como indicador que los Sistemas de Análisis Múltiple son comparativamente superiores a los métodos de detección individual y a la microscopía sin perder sensibilidad y especificidad. Todos los métodos desarrollados han dado muy buenos resultados en cuanto a sensibilidad y especificidad frente a los métodos tradicionales, de tal manera que hoy en día se usan en el Laboratorio de Malaria & otras Parasitosis Emergentes como métodos de referencia, planteando la posibilidad de usar el método de las filarias para un estudio actualizado de la distribución y prevalencia de las filarias en las zonas endémicas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabajo de investigación pretende poner de manifiesto la necesidad de gestionar de forma adecuada la tesorería que genera el ciclo de explotación de la empresa. Esta teso-rería es garantía de continuidad de la empresa, porque permite disponer de liquidez y obtener financiación a partir de la optimización de los elementos del negocio, especial-mente, en situaciones de crisis, con estancamiento o caída de las cifras de negocio, con recortes en el gasto público que afectan a la cadena de valor, con limitaciones al acceso al crédito externo, con socios y accionistas que buscan rentabilidad para sus inversiones sin tener que realizar nuevas aportaciones. Síntesis Para gestionar de forma adecuada la tesorería que genera el ciclo de explotación, es ne-cesario disponer de un modelo de optimización de las Necesidades Operativas de Fon-dos (NOF). Ante la ausencia de este tipo de modelos, este trabajo de investigación pre-tende construir y probar uno, como herramienta automatizada que simule y mida el im-pacto que tiene la inversión en las NOF sobre la solvencia, la rentabilidad y el valor de una empresa, para corregir un problema de indisponibilidad o de insuficiencia de liqui-dez. Para construir el modelo, se ha elegido Excel como software informático soporte. A partir de este software, se ha planteado la construcción del modelo siguiendo los si-guientes pasos: 1. Automatización del paso de los estados financieros contables a unos estados finan-cieros funcionales a partir la utilización de plantillas de toma de datos que permitan identificar y cuantificar las NOF. 2. Diseño de unas plantillas de simulación con alternativas generadoras de impactos sobre los estados financieros. Estas alternativas incluyen tanto elementos sin coste explícito como elementos con dicho coste. 3. Emisión automática de informes comparativos de la posición de la empresa antes y después de los impactos simulados sobre los estados financieros, para analizar la si-tuación de la misma en términos de equilibrio financiero, de solvencia, de rentabili-dad y de valor generado, incluyendo ratios que relacionan distintas magnitudes y permiten observar la gestión y la eficiencia operativa..